Zum Ausdrucken die Abschnitte aufklappen, die gedruckt werden sollen.
Lagemaße
Arithmetisches Mittel
Das Arithmetische Mittel (oder einfach nur der Mittelwert) ist der Durchschnitt einer Datenreihe.
Glossar S.22
Median
Der Median ist die Mitte der geordneten Datenreihe.
Glossar S.21
Modalwert
Der Modalwert (oder Modus) ist der Wert, der am häufigsten vorkommt.
Glossar S.23
Lagemaße mit Häufigkeitstabelle
Beispiel mit absoluten Häufigkeiten:
Beispiel mit relativen Häufigkeiten:
Quantile
Das p-Quantil xp ist derjenige Wert der geordneten Datenreihe, bis zu dem sich p Prozent aller Werte befinden.
Einfaches Beispiel:
Zur Ermittlung eines beliebigen Quantils einer beliebigen Datenreihe, wie folgt vorgehen:
Glossar S.25
Beispiel:
Beispiel mit Häufigkeitstabelle:
Beispiel mit relativen Häufigkeiten:
Varianz
Die Varianz ist die durchschnittliche quadratische Abweichung.
Einfaches Beispiel:
Alternative Formel:
Standardabweichung
Die Standardabweichung ist die Wurzel der Varianz.
Beispiel:
Häufigkeitstabellen
Beispiel mit absoluten Häufigkeiten:
Beispiel mit relativen Häufigkeiten:
Kovarianz
Die Kovarianz ist eine Maßzahl dafür, wie 2 Merkmale gemeinsam variieren.
Beispiel:
Glossar S.18
Beispiel mit Häufigkeitstabelle:
Glossar S.18
Bravais-Pearson
Der Korrelationskoeffizient nach Bravais-Pearson ist die normierte Kovarianz.
Die Kovarianz wird ins Verhältnis gesetzt zur maximal möglichen Kovarianz. Die maximal mögliche Kovarianz ist das Produkt der Standardabweichungen (oder die Wurzel des Produktes der Varianzen).
Glossar S.17
Beispiel:
Spearman
Der Korrelationskoeffizient nach Spearman ist die Korrelation der Rangzahlen, welche wiederum die normierte Kovarianz der Rangzahlen ist.
Glossar S.18
Im ersten Schritt werden den Werten der Einzelmerkmale Rangzahlen zugeordnet. Im zweiten Schritt wird für diese Rangzahlen dann eine Korrelation ausgerechnet.
Beispiel:
Verkürzter Rechenweg:
Glossar S.18
Um diese Inhalte zu nutzen, musst Du Dich anmelden.
Empirische (Un-) Abhängigkeit
Zwei Merkmale sind empirisch unabhängig voneinander, wenn in einer zweidimensionalen Häufigkeitstabelle alle bedingten Häufigkeiten gleich der relativen Randhäufigkeit sind.
Beispiel für empirische Unabhängigkeit:
=> Die Merkmale X und Y sind unabhängig
Wenn auch nur eine einzige Häufigkeit ein klein wenig von der Verteilung bei völliger Unabhängigkeit abweicht, nennt man die Merkmale empirisch abhängig.
Beispiel für empirische Abhängigkeit:
Kontingenzkoeffizient
Der Kontingenzkoeffizient ist der „Korrelationskoeffizient für nominale Merkmale“. Um den Kontingenzkoeffizient zu ermitteln, muss man zunächst Chi-Quadrat (X2) ausrechnen.
Chi-Quadrat (X2) ist eine Maßzahl für die Abweichung von der völligen Unabhängigkeit. Um also Chi-Quadrat auszurechnen, muss man erstmal wissen, wie die Soll-Häufigkeiten bei völliger Unabhängigkeit sind.
Wie also sind die Soll-Häufigkeiten? Die Soll-Häufigkeiten werden mithilfe der Randhäufigkeiten ausgerechnet.
Beispiel:
Wir multiplizieren die jeweiligen Randhäufigkeiten und teilen durch die Gesamthäufigkeit:
usw.
Jetzt haben wir die Soll-Häufigkeiten und können Chi-Quadrat (X2) ausrechenen.
Beispiel:
Glossar S.17
Der Kontingenzkoeffizent C kann jetzt anhand von X2 und der Gesamthäufigkeit n = 80 ausgerechnet werden:
Glossar S.17
Jetzt kann auch noch der korrigierte Kontingenzkoeffizent Ckorr ausgerechnet werden:
Glossar S.17
C* ist dabei der kleinere Wert aus Zeilen- und Spaltenanzahl. Wir haben 3 Zeilen und 3 Spalten, also ist C*= 3.
Um diese Inhalte zu nutzen, musst Du Dich anmelden.
Okay. Ich bin hier Quereinsteigerin (Psychologie B.Sc.).
Hallo Guido,
lieben Dank für diese wunderbare hilfreiche Seite.
Wo finde ich denn eigentlich das Glossar?
Herzliche Grüße
Sigrid
Hallo Sigrid, das Glossar ist eines der Skripte des Kurses 40601 im Studiengang Bachelor Wirtschaftswissenschaften in Hagen 🙂