Methoden

Planung des Stichprobenumfangs

Im Zuge eines Ethikantrags stellt sich immer wieder die Frage - Wie erstelle ich eine Fallzahlberechnung? Ester Schritt ist die Formulierung der Forschungsfrage und die Klärung des Studientyps. Hier wird zwischen Forschung an Primärdaten und Forschung Sekundärdaten unterschieden. Wenn eine Forschung an Sekundärdaten (systematische Reviews und Metaanalysen) vorliegt brauchen wir keine Fallzahlberechnung. Es genügt die Zahlen aus Bortz (2006) Seite 672 verwenden. Mehr zum Thema finden sich im Artikel von Röhrig, Prel, and Blettner (2009).

Effektstärke

Effektstärke ist eine dimensionslose Zahl zur Verdeutlichung der praktischen Relevanz von statistisch signifikanten Ergebnisse.Es gibt zwei Arten von Effekten (standardisierten) Effektstärken die d-Familie, die Unterschiede zwischen Gruppen betrachtet, und die r-Familie, welche ein Maß für Zusammenhänge zwischen Daten ist Hemmerich (n.d.). Unstandardisierte Effektgrößen sind Differenzen von Gruppenmittelwerten (raw mean difference) und unstandardisierte Regressionskoeffizienten. Der p-Wert ist keine Effektstärke. Kreuztabelle: Cohen’s w, \(\phi\), Cramer’s V, C ANOVA/Regression: f, \(\eta\), \(\eta_{part}\) und d, \(\Delta\), Hedge’s g (bei Vergleich der Stichproben) sowie Odds Ratio, Risk Ratio, r, R

Normalverteilung und Regressionsanalyse

Die Voraussetzung der Normalverteilung der Variablen bei der Regressionsanalyse ist ein Luxus-Problem, das eher auf einem Missverständnis beruht und keine Voraussetzung für die Regressionsanalyse darstellt. Zurückzuführen ist das Missverständnis wahrscheinlich darauf, dass die Residuen normalverteilt sein sollten und dass die Auswahl des richtigen Regressionsverfahrens von der Verteilungseigenschaften der Zielvariable (Abhängige Variable) abhängt. Nach Gelman and Hill (2009) Seite 45 gelten folgende Voraussetzungen für die (lineare) Regressionsanalysein absteigender Wichtigkeit

Warum sind die Ergebnisse von R und SPSS so verscheieden

Wenn die Ergebnisse von R und SPSS verglichen werden sind die Werte oft unterschiedlich und der Wissenschaftler wünscht sich dann die ‘richtigen’ Resultate wie sie eben SPSS ausgibt. Es ist jetzt nicht so dass R ‘etwas falsch macht’. R hat einfach eine andere Standardkonfiguration als SPSS. ANOVAHier als Beispiel die Ergebnisse wie sie SPSS ausgibt. Die Daten stammen von Stanley (2015) dort sind auch weitere Deteils zur Analyse beschrieben.

Binomiale Regressionsanalyse

Die binomiale logistische Regression wird angewendet, wenn geprüft werden soll, ob ein Zusammenhang zwischen einer binaeren Ziel-Variable und einer oder mehreren Einfluss-Variablen besteht.Die folgenden Beispiele stammen von Bühl (2014) Seite 354. Die Beschreibung der Maßzahlenzahlen habe ich aus Backhaus et al. (2008) übernommen. Tab 1: AV: gruppegruppetzellnAnteil(48.

Odds Ratio und relatives Risiko

Besonders in der Medizin ist der Vergleich zweier Häufigkeiten wichtig. Eine beispielhafte Fragestellung dazu ist: Ist ein neues Medikament oder eine neue Operationstechnik erfolgversprechend? Dabei wird eine Kontrollgruppe mit einer Experimentalgruppe verglichen und untersucht ob für die Untersuchungsgruppe ein Nutzen oder ein Schaden entsteht. Dieser Nutzen bzw. Schaden wird als “relatives Risiko” bezeichnet, das Chancen-Verhältnis eines Nutzens/Schaden wird als Odds Ratio bezeichnet. Zur Veranschaulichung habe ich hier ein konstruiertes Beispiel.

Korrelationskoeffizient

Es gibt sehr viele verschiedene Korrelationsmaße, vorallem in der Psychologie werden StudentInnen mit dem Begriff konfrontiert. Was bedeutet nun eigentlich der Begriff eine ’signifikante Korrelation’? Nehmen wir das als Beispiel die Pisastudie aus dem Jahr 2000. Die statistische Prüfung des Zusammenhangs zwischen Leseleistung und kulturellen Aktivitäten ergab innerhalb der Länder eine signifikante Korrelation von r = 0,23. Aus den Ergebnissen der Mehrebenen-Analysen darf jedoch angenommen werden, dass beide Variablen, kulturelle Aktivitäten und Lese-Kompetenz sehr stark mit sozioökonomischem Status (u.

T-Test oder ANOVA

Beim Verfassen von wissenschaftlichen Arbeiten stellt sich oft die Frage welcher der Tests jetzt der richtige ist? T-Test? ANOVA? Und wenn der T-Test der Richtige ist, welcher davon? Die Antwort ist dabei recht einfach. Im Zweifel haben wir immer ein Generalized Linear Model (GLM). T-Test und ANOVA unterscheiden sich nicht (Voraussetzung wenn df=1 gilt). In diesen Fall sind F-Wert und T-Wert dieselben Zahlen \(F=T^2\). Die (lineare) Regressionsanalyse ist quasi die Verallgemeinerung der (Mittelwert)-Analyse und liefert exakt die gleichen Ergebnisse wie die ANOVA.

Methodenvergleich in der Medizin

Oft interessiert die Mediziner die Zuverlässigkeit und Reproduzierbarkeit einer Diagnose. Die Beurteilung kann dabei durch einen Bewerter (Messverfahren) in wiederholter Form erfolgen und wird dann als Intra-Rater bezeichnet oder die Beurteilung eines Merkmals erfolgt durch mehrere Bewerter (Messverfahren). Hier spricht man von Inter-Rater. Die Methode der Beurteilung der Übereinstimmung hängt von den jeweiligen Verteilungseigenschaften ab. Bei nominal verteilten Daten wird abgezählt und die Rate der Übereinstimmung bewertet (Cohen-Koeffizient) Bei Ordinalen-Daten werden die gewichteten Übereinstimmungen ausgezählt (gewichteter Cohen-Koeffizient).

Was ist Signifikanz?

In der Zeit.de habe ich einen kleinen Artikel gefunden der recht anschlich erklärt was es mit dem Begriff statistisch Signifikant auf sich hat. Link: http://www.zeit.de/2014/01/statisitk-wissenschaft-signifikanz