regression

Effektstärke

Effektstärke ist eine dimensionslose Zahl zur Verdeutlichung der praktischen Relevanz von statistisch signifikanten Ergebnisse.Es gibt zwei Arten von Effekten (standardisierten) Effektstärken die d-Familie, die Unterschiede zwischen Gruppen betrachtet, und die r-Familie, welche ein Maß für Zusammenhänge zwischen Daten ist Hemmerich (n.d.). Unstandardisierte Effektgrößen sind Differenzen von Gruppenmittelwerten (raw mean difference) und unstandardisierte Regressionskoeffizienten. Der p-Wert ist keine Effektstärke. Kreuztabelle: Cohen’s w, \(\phi\), Cramer’s V, C ANOVA/Regression: f, \(\eta\), \(\eta_{part}\) und d, \(\Delta\), Hedge’s g (bei Vergleich der Stichproben) sowie Odds Ratio, Risk Ratio, r, R

Normalverteilung und Regressionsanalyse

Die Voraussetzung der Normalverteilung der Variablen bei der Regressionsanalyse ist ein Luxus-Problem, das eher auf einem Missverständnis beruht und keine Voraussetzung für die Regressionsanalyse darstellt. Zurückzuführen ist das Missverständnis wahrscheinlich darauf, dass die Residuen normalverteilt sein sollten und dass die Auswahl des richtigen Regressionsverfahrens von der Verteilungseigenschaften der Zielvariable (Abhängige Variable) abhängt. Nach Gelman and Hill (2009) Seite 45 gelten folgende Voraussetzungen für die (lineare) Regressionsanalysein absteigender Wichtigkeit

Warum sind die Ergebnisse von R und SPSS so verscheieden

Wenn die Ergebnisse von R und SPSS verglichen werden sind die Werte oft unterschiedlich und der Wissenschaftler wünscht sich dann die ‘richtigen’ Resultate wie sie eben SPSS ausgibt. Es ist jetzt nicht so dass R ‘etwas falsch macht’. R hat einfach eine andere Standardkonfiguration als SPSS. ANOVAHier als Beispiel die Ergebnisse wie sie SPSS ausgibt. Die Daten stammen von Stanley (2015) dort sind auch weitere Deteils zur Analyse beschrieben.

Binomiale Regressionsanalyse

Die binomiale logistische Regression wird angewendet, wenn geprüft werden soll, ob ein Zusammenhang zwischen einer binaeren Ziel-Variable und einer oder mehreren Einfluss-Variablen besteht.Die folgenden Beispiele stammen von Bühl (2014) Seite 354. Die Beschreibung der Maßzahlenzahlen habe ich aus Backhaus et al. (2008) übernommen. Tab 1: AV: gruppegruppetzellnAnteil(48.

T-Test oder ANOVA

Beim Verfassen von wissenschaftlichen Arbeiten stellt sich oft die Frage welcher der Tests jetzt der richtige ist? T-Test? ANOVA? Und wenn der T-Test der Richtige ist, welcher davon? Die Antwort ist dabei recht einfach. Im Zweifel haben wir immer ein Generalized Linear Model (GLM). T-Test und ANOVA unterscheiden sich nicht (Voraussetzung wenn df=1 gilt). In diesen Fall sind F-Wert und T-Wert dieselben Zahlen \(F=T^2\). Die (lineare) Regressionsanalyse ist quasi die Verallgemeinerung der (Mittelwert)-Analyse und liefert exakt die gleichen Ergebnisse wie die ANOVA.

Lineare Regression

Die Bezeichnung Regression stammte historisch gesehen von Francis Galton, er untersuchte den Zusammenhang der Körpergröße von Eltern und Kindern (Regression to the Mean).Ziel der Regressionsanalyse ist eine funktionale Beziehung zwischen zwei Größen zu finden.[1] Mathematisch lässt sich das folgend formulieren \(Y = a + b*X + e\), dabei ist \(X\) die unabhängige und \(Y\) die abhängige Variable und \(e\) der statistische Fehler.Gesucht wird, die Formel (Funktion der Gerade), die in der graphischen Darstellung durch den Mittelwert verläuft.

Nichtlineare Regression

In naturwissenschaftlich- technischen Anwendungen stellt sich oft das Problem, die Beziehungen von zwei Variablen in optimaler Weise zu beschreiben. Wird ein nicht -linearer Zusammenhang vermutet, stehen mehre Verfahren zur Verfügung.Ein Verfahren ist die Annäherung der Funktion durch ein Polynom\(y=a\cdot x^2 + b\cdot x +c\).Mit dem Verfahren lassen sich zwar die Messpunkte gut anpassen, es besteht aber immer die Gefahr, dass die Messpunkte zwar auf der Kurve liegen aber die Kurve nicht den naturwissenschaftlichen Zusammenhang beschreibt.

Analyse von wiederholten Messungen

Viele Studienansätze liefern wiederholte Messungen eines bestimmten Merkmals an verschiedenen Zeitpunkten. Die Auswertung und Berechnung mit SPSS gelingt einem meist irgendwie, aber spätestens der Output wird für erstmalige SPSS- Anwender kaum zu deuten sein (Bühl (2014), S 409). Hier gibt es Multivariate Tests, Test der Innersubjekteffekte, Tests der Zwischensubjekteffekte usw. und überall gibt es signifikante Werte. Um all die Tabellen zu deuten bedarf es eines statistischen Hintergrundwissens daher beschreibe ich hier ein fiktives Beispiel für eine Datenreihe mit Messwiederholung.