Beispiel multiple lineare Regression
vollständiges Modell (alle Haupteffekte & Interaktionen)
Ebene 1
yij = b0j + b1j⋅x1ij + b2j⋅x2ij + b3j⋅x1ij⋅x2ij + eij
Ebene 2
b0j = c00 + c01⋅x3j + c02⋅x4j + c03⋅x3j⋅x4j + u0j
b1j = c10 + c11⋅x3j + c12⋅x4j + c13⋅x3j⋅x4j + u1j
b2j = c20 + c21⋅x3j + c22⋅x4j + c23⋅x3j⋅x4j + u2j
b3j = c30 + c31⋅x3j + c32⋅x4j + c33⋅x3j⋅x4j + u3j
in einer Formel
yij = c00 + c10⋅x1ij + c20⋅x2ij + c30⋅x1ij⋅x2ij + c01⋅x3j + c02⋅x4j + c03⋅x3j⋅x4j
                             + c11⋅x1ij⋅x3j + c12⋅x1ij⋅x4j + c13⋅x1ij⋅x3j⋅x4j + c21⋅x2ij⋅x3j + c22⋅x2ij⋅x4j + c23⋅x2ij⋅x3j⋅x4j
+ c31⋅x3j⋅x1ij⋅x2ij + c32⋅x4j⋅x1ij⋅x2ij + c33⋅x3j⋅x4j⋅x1ij⋅x2ij             
+ u0j + u1j⋅x1ij + u2j⋅x2ij + u3j⋅x1ij⋅x2ij + eij                           

Y...
X1...
X2...
X3...
X4...
j...
Lebenzufriedenheit
Gesundheit
Schulden
Kulturelles Angebot des Ortes
Kriminalitätsrate des Ortes
Wohnort des/der Befragten

zu schätzendes Modell

geschätztes Modell
Ebene 1
yij = b0j + eij
Ebene 2
b0j = c00 + u0j
in einer Formel
yij = c00 + u0j + eij

require(lme4)
require(lmerTest)
ergebnis <- lmer(Y~1+(1|idL2), dfMEABeispiel)
summary(ergebnis)

Modellfit (grüne Linie = perfekt)
plot(fitted(ergebnis),dfMEABeispiel$Y)
abline(0,1,col="green")
Varianzen der zufälligen Effekte
Wollen Sie die Koeffizienten der zufälligen Effekte müssen Sie folgendes eingeben:
ranef(ergebnis)
Koeffizienten der festen Effekte
Wenn ein t-test signifikant ist, ist der Betrag des zugehörigen Regressionskoeffizienten so groß, dass wir annehmen, dass es nicht einfach Zufall sein kann.
ICC = 65.66 / (65.66+73.25) = 0.47
Die ICC ist das Verhältnis der Varianz der u0j zur Gesamtvarianz in Y.
Je näher die ICC an 1 ist, umso wichtiger ist die Mehrebenenanalyse.
Ist die ICC nahe 0, unterscheiden sich die Gruppen kaum und eine Mehrebenenanalyse ist eher nicht notwendig.
R2m = 0; R2c = 0.47
Die marginale aufgeklärte Varianz ist die aufgeklärte Varianz der festen Effekte.
Die conditionale aufgeklärte Varianz ist die aufgeklärte Varianz der festen und zufälligen Effekte (exklusive der Varianz der Residuen).
require(MuMIn)
r.squaredGLMM(ergebnis)

Annahmen/Voraussetzungen
Homoskedastizität/Unabhängigkeit der Residuen
plot(fitted(ergebnis),residuals(ergebnis))
Normalverteilung (der Residuen)
hist(residuals(ergebnis))
Shapiro-Wilk normality test
 
data: residuals(ergebnis)
W = 0.99, p-value < 0.001
shapiro.test(residuals(ergebnis))
Neben der Prüfung über alle Residuen (siehe unten) müssen sie die Normalverteilung auch für alle Residuen einer jeden Faktorstufe der zweiten Ebene prüfen.
Um dies zu tun müssen Sie residuals(ergebnis)[dfMEABeispiel$idL2==WERT] statt residuals(ergebnis) verwenden, wobei statt WERT der Name/die Nummer jeder Faktorstufe einzusetzen ist.
In unserem Beispiel müssten Sie die Überprüfung für alle 20 Faktorstufen von 1 bis 20 durchführen.
z.B.: hist(residuals(ergebnis)[dfMEABeispiel$idL2==1]) und
shapiro.test(residuals(ergebnis)[dfMEABeispiel$idL2==1]) für Faktorstufe 1.

Modellvergleiche
Diese funktionieren grundsätzlich wie Modellvergleiche bei multiplen linearen Regression mittel anova()
signifikant -> komplexeres Modell (erklärt signifikant mehr Varianz)
nicht signifikant -> sparsameres Modell (Unterschiede in erklärter Varianz sind vernachlässigbar)
Unterschiede:
Der angebene Vergleich ist ein χ2-Test, d.h. χ2(Freiheitsgrade) =
Es werden zusätzlich AIC und BIC angegeben. Grundsätzlich ist das Modell mit den niedrigeren Werten zu bevorzugen (nicht betragsmäßig: -4 wäre besser als -2)
Faustregel für den BIC: Ein Unterschied von 10 ist in der Regel bedeutsam. AIC und BIC sollten vor allem dann Anwendung finden, wenn die Modelle nicht geschachtelt sind (dann funktioniert kein χ2-Test). Anschauen sollten man sie trotzdem immer.