• Martin Thoma
  • Home
  • Categories
  • Tags
  • Archives
  • Support me

Statistik - Klausur

Contents

  • Statistik - Klausur
    • Behandelter Stoff
      • Kapitel 0: Vorwissen
      • Kapitel 1: Parameter­schätzung
      • Kapitel 2: Konfidenz­bereiche
      • Kapitel 3: Statistische Tests
      • Kapitel 4: 2-Stichproben Vergleiche (NV)
      • Kapitel 5: Lineare Regression
      • Kapitel 6: Varianz- und Kovarianz­analyse
      • Kapitel 7: Kategoriale Daten
      • Kapitel 8: Nicht­parametrische Verfahren
    • Abkürzungen
    • Symbolverzeichnis
    • Verteilungen
    • Python
    • Klausur Aufbau
    • Prüfungsfragen
    • Material und Links
    • Literatur
    • Übungsbetrieb
    • Termine und Klausurablauf
Dieser Artikel beschäftigt sich mit der Vorlesung „Statistik“ am KIT. Er dient als Prüfungsvorbereitung. Ich habe die Vorlesungen bei Herrn Prof. Dr. Bernhard Klar im Wintersemester 2016 / 2017 gehört.

Behandelter Stoff

Kapitel 0: Vorwissen

Empirisches $p$-Quantil
Das empirische $p$-Quantil, $0 < p < 1$, ist definiert durch $$x_p := \begin{cases}x_{(\lceil n p\rceil)} & n \cdot p \notin \mathbb{N}\\ \frac{1}{2} \left ( x_{(np)} + x_{(np + 1)}\right ) & n \cdot p \in \mathbb{N}\end{cases}$$
Unteres Quartil
$$x_{1/4}$$
Empirischer Median
$$x_{1/2}$$
Rechenregeln für Covarianz
$$C(U_1 + U_2, V) = C(U_1, V) + C(U_2, V)$$ $$C(AU, B^T V) = A C(U, V) B$$
Normalverteilung
Dichte: $$f(x) = \frac{1}{\sigma \sqrt{2 \pi}} e^{- \frac{1}{2} {\left ( \frac{x-\mu}{\sigma} \right )}^2}$$
Korrelationskoeffizient
$$\rho_{X,Y} =\frac{\operatorname{Cov}(X,Y)}{\sqrt{\operatorname{Var}(X)\operatorname{Var}(Y)}}=\frac{\sigma_{X,Y}^2}{\sigma_{X}\sigma_{Y}}$$

Kapitel 1: Parameter­schätzung

Stichprobenraum
Der Stichprobenraum $\mathfrak{X}$ ist eine Menge von Daten.
Statistisches Modell
Ein Tupel $(\mathfrak{X}, (P_\theta)_{\theta \in \Theta})$ heißt statistisches Modell, wenn $\mathfrak{X}$ ein Stichprobenraum und $(P_\theta)_{\theta \in \Theta}$ eine Familie von Verteilungen $P_\theta$ ist, welche durch $\theta \in \Theta$ parametrisiert ist.
Schätzer
Sei $(\mathfrak{X}, (P_\theta)_{\theta \in \Theta})$ ein statistisches Modell und $T: \mathfrak{X} \rightarrow \tilde{\Theta}$ eine Abbildung. Dann heißt $T$ ein Schätzer für $\theta$.
Maximum-Likelihood-Schätzer
  1. Likelihood-Funktion: Multipliziere die Wahrscheinlichkeit der Werte um $L_x(\vartheta)$ zu bestimmen
  2. Log-Likelihood: Logarithmiere die Likelihood-Funktion $l_x(\vartheta) = \log L_x(\vartheta)$, falls dadurch die Funktion vereinfacht wird
  3. Maximieren: Leite die (Log)likelihood-Funktion ab und setze sie gleich 0 um den Maximum-Likelihood-Schätzer $\hat{\vartheta}$ zu bestimmen.
  4. Maximalstelle: Prüfe ob zweite Ableitung negativ ist
Momentenschätzer
  1. Es sollen z.B. $\mu$ und $\sigma^2$ geschätzt werden.
  2. Drücke $\mu$ und $\sigma^2$ als Funktion der Momente $E X$, $E X^2$, ... aus.
Nützlich: $V(X) = E X^2 - (E X)^2$
Starkes Gesetz großer Zahlen
Es seien $Y_1, Y_2, Y_3, \dots$ eine Folge u.i.v. ZV mit existierendem Erwartungswert. Dann gilt: $$P(\left \{ \omega \in \Omega : \lim_{n \rightarrow \infty} \frac{1}{n} \sum_{i=1}^n Y_i(\omega) = E Y_i \right \}) = 1$$ Schreibweise: $$\frac{1}{n} \sum_{i=1}^n Y_i \stackrel{P-f.s.}{\longrightarrow} E(Y_1)$$
Score-Funktion
$$U_\vartheta(X_1) := \frac{\partial \log f(X_1, \vartheta)}{\partial \vartheta}$$
Fisher-Information
$$I(\vartheta) := \mathbb{E}_\vartheta(U_\vartheta^2) = - \mathbb{E}_\vartheta \left [ \frac{\partial U_\vartheta (X_1)}{\partial \vartheta} \right ] \in [0, \infty]$$
Cramér-Rao Ungleichung
$$V_\vartheta(T) \geq \frac{[E_\vartheta' (T) (\vartheta)]^2}{n I (\vartheta)}$$ Für erwartungstreue Schätzer $T$ gilt: $$V_\vartheta(T) \geq \frac{1}{n I (\vartheta)}$$
Cauchy-Schwarz Ungleichung
$$|\langle x, y \rangle | \leq \| x \| \cdot \| y \|$$
Zentraler Grenzwertsatz (ZGWS)
Sei $(X_n)_{n \geq 1}$ eine Folge von u.i.v. Zufallsvariablen mit $0 < \sigma^2 = V(X_1) < \infty $. Mit $\mu = \mathbb{E}(X_1)$ gilt dann: $$P(\frac{\sqrt{n}(\bar{X}_n - \mu)}{\sigma} < c) \stackrel{n \rightarrow \infty}{\longrightarrow} \Phi(c)$$
Score-Gleichung
Score-Funktion gleich 0 setzen: $$\sum_{i=1}^n \frac{\partial f(x_i, \vartheta)}{\partial \vartheta} = 0$$
Bias (Verzerrung)
$$b_T(\vartheta) := E_\vartheta(T) - \gamma(\vartheta)$$
Mittlere Quadratische Abweichung (MQA)
$$MQA_T(\vartheta) = E_\vartheta(T - \gamma(\vartheta))^2$$ Es gilt: $$MQA_T(\vartheta) = V_\vartheta(T) + b_T^2 (\vartheta)$$
Satz 1.7.5 (Asymptotische Verteilung konsistenter Schätzer)
$$\sqrt{n} (\hat{\vartheta}_n - \vartheta) \stackrel{D_\vartheta}{\rightarrow} \mathcal{N}(0, \frac{1}{I_1 (\vartheta)})$$

Kapitel 2: Konfidenz­bereiche

Konfidenzintervall (Vertrauensintervall)
Ein Konfidenzintervall ist ein Intervall $[U, O]$ für einen Parameter $\vartheta$, sodass gilt: $$P([U, O] \ni \vartheta) = 1 - \alpha$$
  • 1-Stichproben-t-Test: $I(X) = \left [\bar{X} - \frac{S}{\sqrt{n}} \cdot t_{n-1;1-\frac{\alpha}{2}}, \bar{X} + \frac{S}{\sqrt{n}} \cdot t_{n-1;1-\frac{\alpha}{2}} \right]$
  • Approximativer Binomialtest: $I(X) = \left [ \hat{p}_n - z_{1-\frac{\alpha}{2}} \sqrt{\hat{p}_n (1- \hat{p}_n)/n}, \hat{p}_n + z_{1-\frac{\alpha}{2}} \sqrt{\hat{p}_n (1- \hat{p}_n) / n} \right ]$
Konfidenzintervalle zur Konfidenzwahrschwahrscheinlichkeit $1-\alpha$ haben immer die Form: $$[T - \hat{\sigma} \cdot z_{1-\frac{\alpha}{2}; T + \hat{sigma} \cdot z_{1-\frac{\alpha}{2}}]$$ wobei $T$ der Schätzer ist, $\hat{\sigma}$ die geschätze Varianz des Schätzers und $z_{1-\frac{\alpha}{2}$ die Quantilfunktion zur Verteilung des Schätzers.
Satz von Student
Es seien $X_1, X_2, \dots, X_n \stackrel{uiv}{\sim} \mathcal{N}(\mu, \sigma^2),\quad n\geq 2$ sowie $\bar{X} = \frac{1}{n} \sum_{i=1}^n X_i$, $S^2 = \frac{1}{n-1} \sum_{i=1}^n {(X_i - \bar{X})}^2$ sowie $S = \sqrt{S^2}$. Dann gilt:
  1. $\bar{X} \sim \mathcal{N}(\mu, \frac{\sigma}{n})$
  2. $\bar{X}$ und $S^2$ sind unabhängig
  3. $\frac{1}{\sigma^2} \sum_{i=1}^n {(X_i - \bar{X})}^2 \sim \chi_{n-1}^2$
  4. $T = \frac{\sqrt{n} (\bar{X} - \mu)}{S} \sim t_{n-1}$

Kapitel 3: Statistische Tests

Tests Allgemein
Bei statistischen Tests hat man immer eine Testgröße $T(x_1, \dots, x_n)$, die auf der Stichprobe $x_1, \dots, x_n$ basiert. Um Aussagen machen zu können, muss man die Verteilung von $T$ unter der Nullhypothese $H_0$ kennen. Wenn die Verteilung von $T$ der Studentischen-$t$-Verteilung entspricht ($T \sim t_n$), dann hat man einen $t$-Test.

Wenn der Testentscheid, ob $H_0$ verworfen wird so aussieht: $$H_0 \text{ wird verworfen, falls } T < 123$$ dann liegt ein einseitiger Test vor. Falls der Testentscheid, ob $H_0$ verworfen wird so aussieht: $$H_0 \text{ wird verworfen, falls } T < -123 \text{ oder } T > +123$$ dann liegt ein zweiseitiger Test vor. Kurz schreibt man dann auch meistens $$H_0 \text{ wird verworfen, falls } |T| > 123$$
In dem beschriebenen Fall liegt eine Stichprobe $X_1, \dots, X_n$ vor, welche aus einer Verteilung gezogen wurde. Es ist aber auch möglich, dass man zwei Stichproben $X_1, \dots, X_n$ und $Y_1, \dots, Y_m$ hat. Das ist z.B. bei Medikamententests häufig der Fall. Da will man wissen ob beide Stichproben aus der gleichen Verteilung stammen (also das Medikament nichts macht) oder eben nicht.
$z$-Test
  • Hypothesen: $H_0$: $\mu = \mu_0$ vs $H_1: \mu < \mu_0$
  • Testgröße: $T(x_1, \dots, x_n) = \frac{\sqrt{n} (\bar{x} - \mu_0)}{\sigma}$
  • Verteilung: $T \stackrel{H_0}{\sim} \mathcal{N}(0, 1)$
  • Testentscheid: $H_0$ verwerfen, falls $T \leq \Phi^{-1}(\alpha) = z_\alpha$
Zweiseitiger Ein-Stichproben-$t$-Test
  • Testgröße: $T(x_1, \dots, x_n) = \frac{\sqrt{n} (\bar{x} - \mu_0)}{s}$
  • Verteilung: $T \stackrel{H_0}{\sim} t_{n-1}$
  • Testentscheid: $H_0$ verwerfen, falls $|T| \geq t_{n-1; 1-\frac{\alpha}{2}}$
Einseitiger Ein-Stichproben-$t$-Test
  • Testgröße: $T(x_1, \dots, x_n) = \frac{\sqrt{n} (\bar{x} - \mu_0)}{s}$
  • Verteilung: $T \stackrel{H_0}{\sim} t_{n-1}$
  • Testentscheid: $H_0$ verwerfen, falls $T \geq t_{n-1; 1-\alpha}$
Ein-Stichproben-Varianz-Test
  • Hypothesen: $H_0: \sigma^2 = \sigma_0^2$ gegen $H_1: \sigma^2 > \sigma_0^2$
  • Testgröße: $\chi^2 := \frac{(n-1)S^2}{\sigma_0^2}$
  • Verteilung: $\chi^2 \stackrel{H_0}{\sim} \chi_{n-1}^2$
  • Testentscheid: $H_0$ verwerfen, falls $\chi^2 \geq \chi^2_{n-1;1-\alpha}$
Gütefunktion
Die Gütefunktion ist $g(\vartheta) = P_\vartheta(\text{Test verwirft } H_0), \quad \vartheta \in \Theta$.
Ist die Nullhypothese einelementig (also $H_0: \vartheta = \vartheta_0$), so gilt $g(\vartheta_0) = \alpha$. Ist die Alternative einelementig (also: $H_1: \vartheta = \vartheta_1$), so gilt $g(\vartheta_1) = 1- \text{Fehler 2. Art}$.
Neyman-Pearson-Test (NP-Test)
Sei $h_0(x) = \prod_{i=1}^n f(x, \vartheta_0)$ und $h_1(x) = \prod_{i=1}^n f(x, \vartheta_1)$.

Testentscheid: Verwerfe $H_0$, falls $h_0(x) \leq c h_1(x)$, wobei $c$ so gewählt wird, dass das Niveau $\alpha$ eingehalten wird.
Likelihood-Quotienten-Test
  • Testgröße: $$\Lambda = \frac{\sup_{\vartheta \in \Theta} L_x (\vartheta)}{\sup_{\vartheta \in \Theta_0} L_x (\vartheta)}$$
  • Hypothesen: $H_0$: $\vartheta \in \Theta_0$ vs $H_1$: $\vartheta \in \Theta \setminus \Theta_0$
  • Verteilung: Ist der Schätzer konsistent, so gilt $$2 \log(\Lambda_n) \sim \chi_1^2$$
  • Testentscheid: Verwerfe $H_0$, falls $\Lambda > c$. Wähle $c$ so, dass Niveau $\alpha$ eingehalten wird.
    Also: Verwerfe $H_0$, falls $2 \log \Lambda_n \geq \chi^2_{1, 1-\alpha}$
Approximativer Binomialtest
Gegeben seien $X_1, \dots, X_n \sim Bin(1, p)$, $p$ unbekannt.
  • Hypothesen: $H_0: p = p_0$ vs $H_1: p = p_1$
  • Testgröße: $T_n(x) = \frac{\sqrt{n}(\bar{X} - p)}{\sqrt{p (1-p)}}$
  • Verteilung: $T_n \stackrel{H_0}{\sim} \mathcal{N}(0, 1)$
  • Testentscheid: $H_0$ verwerfen, falls $T_n > z_{1-\alpha}$

Kapitel 4: 2-Stichproben Vergleiche (NV)

F-Test für den Varianzquotienten
Gegeben sind zwei Stichproben $X_1, \dots, X_m$ sowie $Y_1, \dots, Y_n$ mit $X_i \sim \mathcal{N}(\mu, \sigma^2)$ und $\mathcal{N}(\nu, \tau^2)$.
  • Hypothesen: $H_0: \sigma^2 = \tau^2$ vs $H_1: \sigma^2 \neq \tau^2$
  • Testgröße: $$Q_{m,n} = \frac{\frac{1}{m-1} \sum_{i=1}^m {(X_i - \bar{X}_m)}^2}{\frac{1}{n-1} \sum_{i=1}^n {(Y_i - \bar{Y}_n)}^2}$$
  • Verteilung: $Q_{m,n} \stackrel{H_0}{\sim} F_{m-1, n-1}$
  • Testentscheid: $H_0$ verwerfen, falls $Q_{m,n} \leq F_{m-1,n-1;\frac{\alpha}{2}}$ oder $Q_{m,n} \geq F_{m-1,n-1;1-\frac{\alpha}{2}}$

Kapitel 5: Lineare Regression

Satz 5.4.1
Unter $H_0$ ist die Teststatistik $F = \frac{(TSS - RSS)/(p-r)}{RSS/(n-p)}$ Fisher-verteilt mit $p-r$ Zähler- und $n-p$ Nenner-Freiheitsgraden.
ANOVA-Tafel
  Freiheitsgrade Quadratsumme mittlere Quadratsumme Teststatistik
Regression $k-1$ TSS - RSS $\frac{TSS-RSS}{k-1}$ F = $\frac{TSS-RSS/(k-1)}{RSS/(n-k)}$
Residuen $n-k$ RSS $\frac{RSS}{n-k}$  
Gesamt $n-1$ TSS    
$H_0$: $\mu_1 = \mu_2 = \dots = \mu_k$
$H_0$ verwerfen, wenn $F \geq F_{k-1, n-k; 1- \alpha}$.
Kleinster-Quadrate-Schätzer
Der Kleinste-Quadrate-Schätzer für das klassische lineares Modell $Y = X \beta + \epsilon$ lautet: $$\hat{\beta} = (X^T X)^{-1} X^T Y$$ $$\hat{Y} \sim N_n(X \beta, \sigma^2 H)$$ $$\hat{\varepsilon}_i \sim \mathcal{N}(0, (1-H_{ii}) \sigma^2)$$ Der übliche Schätzer für $\sigma^2$ ist $$\hat{\sigma}^2 = \frac{1}{n-p} \| Y - \hat{Y} \|^2$$ Die folgenden Sachen kann man alle in der Klausur aus obigen Angaben herleiten (vgl. math.SE): Es gilt: $$\hat{\beta} \sim N_p(\beta, \sigma^2 (X^T X)^{-1})$$ $$\hat{\beta}_i \sim \mathcal{N}(\beta_i, \sigma^2 (X^T X)^{-1}_{i+1, i+1})$$ sowie $$(n-p)\hat{\sigma}^2/\sigma^2 \sim \chi^2_{n-p}$$ Schätzer für die Standardabweichung von $\hat{\beta}$: $$se(\hat{\beta}_i) = \hat{\sigma} \sqrt{{(X^T X)}^{-1}_{i,i}}$$

Kapitel 6: Varianz- und Kovarianz­analyse

Modellannahmen der Varianzanalyse
Das Rauschen ist unabhängig und jeweils $\varepsilon_i \sim \mathcal{N}(0, \sigma^2)$.
Summenrestriktionen
Es muss ein balanciertes Design ($n_1 = n_2 = \dots = n_k$) vorliegen. Dann muss $$\sum_{i=1}^k \alpha_i = 0$$ gelten. Das Modell ist $Y = X \beta + \varepsilon$ mit Design-Matrix $$X = \begin{pmatrix}1 & 1& 0 & &0\\ \vdots & \vdots & \vdots & &\vdots\\ \vdots & 1 & 0 & &\vdots\\ \vdots & 0 & 1 & &\vdots\\ \vdots & \vdots & \vdots & & \vdots\\ \vdots & \vdots & 1 & & 0\\ \vdots & \vdots & 0 & & 1\\ \vdots & \vdots & \vdots & \ddots &\vdots\\ \vdots & 0 & 0 & & 1\\ \vdots & -1 & -1 & \dots & -1\\ \vdots & \vdots & \vdots & & \vdots\\ 1 & -1 & -1 & \dots & -1\\\end{pmatrix}$$ und Parametervektor $$\beta := \begin{pmatrix}\mu\\\alpha_2\\\dots\\\alpha_k\end{pmatrix}$$
Bonferroni-Korrektur
Es liegt eine Familie von $m$ Tests vor. Man macht eine globale Nullhypothese, dass alle Nullhypothesen gelten. Alle $m$ Test werden auf dem Niveau $\frac{\alpha}{m}$ durchgeführt, sodass insgesamt das Niveau $\alpha$ erreicht wird.
Bestimmtheitsmaß $R^2$
$$R^2 = 1 - \frac{RSS}{TSS} = 1 - \frac{\sum_{i=1}^n (y_i - \hat{y}_i)}{\sum_{i=1}^n (y_i - \bar{y}_i)}$$ Es gilt: $R^2 \in [0, 1]$ Ist die Kenntnis von $x$ wichtig für die Vorhersage von $y$, so ist das Bestimmtheitsmaß nahe bei 1.
Globaler $F$-Test
  • Hypothesen: $H_0$: $\mu_1 = \mu_2 = \dots = \mu_k$ vs $H_1: \exists i, j: \mu_i \neq \mu_j$
  • Testgröße: $F = \frac{(TSS - RSS) / (k-1)}{RSS / (n-k)}$
  • Verteilung: $F \stackrel{H_0}{\sim} F_{k-1, n-k}$
  • Testentscheid: $H_0$ verwerfen, falls $F \geq F_{k-1, n-k; 1 - \alpha}$

Kapitel 7: Kategoriale Daten

-

Kapitel 8: Nicht­parametrische Verfahren

Vorzeichen-Test für den Median
Teste die Hypothese ob eine Größe $M$ den Mittelwert $\mu$ hat gegen die Alternative $H_1$: $M \neq \mu$. Bilde die Prüfgröße $$S_n = \sum_{i=1}^n \mathbb{1}_{X_i > \mu}$$ Falls $H_0$ gilt, dann ist $S_n \sim Bin(n, 0.5)$ Lehne $H_0$ ab, wenn $S_n \leq c$ oder $S_n \geq n - c$. Bestimme $c$ so, dass $$P_{H_0}(S_n \leq c) + P_{H_0}(S_n \geq n - c) \stackrel{!}{\leq} \alpha$$

Abkürzungen

  • MQA: Mittlere Quadratische Abweichung
  • RSS: Residual Sum of Squares
  • SQI: Summe der Quadrate innerhalb der Gruppen
  • SQZ: Summe der Quadrate zwischen den Gruppen
  • TSS: Total Sum of Squares (\(TSS = \sum_{i=1}^n {(y_i - \bar{y}_n)}^2\))
  • uiv, u.i.v.: unabhängig identisch verteilt

Symbolverzeichnis

Symbol Bedeutung
$c_\alpha$ $\Phi^{-1}(\alpha)$: Inverse Verteilungsfunktion der Standardnormalverteilung
$E(X)$ Erwartungswert der Zufallsvariable $X$
$\mathcal{N}(\mu, \sigma^2)$ Normalverteilung mit Mittelwert $\mu$ und Standardabweichung $\sigma$
$Pois(\lambda)$ Poisson-Verteilung
$t_{n; \beta}$ Das $\beta$-Quantil der $t_n$-Verteilung.
$V(X)$ Varianz der Zufallsvariable $X$
$\mathfrak{X}$ Stichprobenraum
$X \sim A$ Die Zufallsvariable $X$ ist $AB$-Verteilt.
$z_{1 - \alpha}$ Inverse quantilsfunktion der Standardnormalverteilung: $z_{1 - \alpha} = \Phi^{-1}(1-\alpha)$

Verteilungen

Verteilung Schreibweise $\mathbb{E}(X)$ $Var(x)$ Bemerkung
Binomial-Verteilung $X \sim Bin(n, p)$ $n \cdot p$ $n \cdot p \cdot (1-p)$ $n$-maliges Bernoulli-Experiment
Poisson-Verteilung $X \sim Pois(\lambda)$ $\lambda$ $\lambda$
Exponential-Verteilung $X \sim Exp(\lambda)$ $\frac{1}{\lambda}$ $\frac{1}{\lambda^2}$ Zerfall-Prozess
Normalverteilung $X \sim \mathcal{N}(\mu, \sigma^2)$ $\mu$ $\sigma^2$
Gleichverteilung $X \sim U[a, b]$ $\frac{b-a}{2}$
$\chi^2$-Verteilung $X \sim \chi^2_n$ $n$ $2n$ Summe von $n$ normalverteilugen Zuvallsvariablen $X_1, \dots, X_n$
$t$-Verteilung $X \sim t_k$ $n$ $2n$ $X = \frac{N}{\sqrt{\frac{Y}{k}}}$ mit $Y \sim \chi^2_k$ und $N \sim \mathcal{N}(0, 1)$
$F$-Verteilung $X \sim F_{m,n}$ $\frac{n}{n-2}$ für $n > 2$ $\frac{2n^2 (m+n-2)}{m(n-2)^2 (n-4)}$ für $n > 4$ $X = \frac{\frac{1}{r}R}{\frac{1}{s}S}$ mit $R \sim \chi^2_r$, $S \sim \chi^2_s$

Python

You might want to look into scipy.stats as it offers many convenient functions.

For example, if you have to find the 95%-Quantile of the \(F_{k=3,n=19}\) distribution, this is what you do:

import scipy.stats

# Create a variable representing the distribution
rv = scipy.stats.f(dfn=3, dfd=19)

# Percent point function
rv.ppf(0.95)  # gives 3.1273500051133989

Klausur Aufbau

  • Aufgabe 1 und 2
    • ML-Schätzer bestimmen
    • Score-Funktion / Fisher-Information
    • Cramér-Rao-Schranke
    • asymptotisch Erwartungstreue / Konsistenz von Schätzern
    • Erwartungswert, Varianz, MQA eines Schätzers bestimmen
    • Momentenschätzer bestimmen
  • Aufgabe 3
    • Neyman-Pearson-Test
    • ZGWS
    • Likelihood-Quotienten-Test
  • Aufgabe 4
    • Statistisches Modell angeben
    • Quartile und Median einer Stichprobe bestimmen
    • Vorzeichen-Test für Median
  • Aufgabe 5
    • Satz von Student
    • Konfidenzintervall
    • Gütefunktion
    • Beziehung zwischen Konfidenzintervall und Tests
  • Aufgabe 6
    • Korrelationskoeffizient
    • ANOVA-Tafel
    • Modellannahmen bei einfacher Varianzanalyse
  • Aufgabe 7
    • Lineares Regressionsmodell
    • Kleinster-Quadrate-Schätzer
    • Bestimmtheitsmaß
    • Chi-Quadrat-Test auf Homogenität (\(D := \sum_{i=1}^n \frac{n_i {(\hat{p}_i - \hat{p})}^2}{\hat{p} (1 - \hat{p})} \stackrel{H_0}{\sim} \chi^2_{k-1}\))
  • Various
    • Exp-Verteilung und Zusammenhang mit Gamma-Verteilung
    • Binomial-Verteilung
    • 1-Stichproben t-Test
    • F-Test für den Varianzquotienten
    • Globaler F-Test

Prüfungsfragen

  • Kann ein Schätzer Erwartungstreu und Konsistent sein?
    → Ja. Seien \(X_1, \dots, X_n \stackrel{uiv}{\sim} Bin(1, \vartheta)\) mit \(\vartheta \in (0, 1)\). Sei außerdem \(\hat{\vartheta}_n = \frac{1}{n} \sum_{i=1}^n x_i\). \(\hat{\vartheta}_n\) ist erwartungstreu und konsistent.
  • Kann ein Schätzer weder Erwartungstreu noch Konsistent sein?
    → Ja. Seien \(X_1, \dots, X_n \stackrel{uiv}{\sim} Bin(1, \vartheta)\) mit \(\vartheta \in (0, 1)\). Der Schätzer \(\hat{\vartheta} = 0.5\) ist weder Erwartungstreu noch konsistent für \(\vartheta \neq 0.5\).
  • Kann ein Schätzer Erwartungstreu, aber nicht konsistent sein?
    → Ja. Setting wie zuvor und \(\hat{\vartheta} = x_n\) (siehe math.SE)
  • Kann ein Schätzer nicht Erwartungstreu, aber konsistent sein?
    → Ja. Setting wie zuvor und \(\hat{\vartheta} = \frac{1}{n} \sum_{i=1}^n x_i + \frac{1}{n}\) (siehe math.SE)

Material und Links

  • Vorlesungswebsite
  • Illias
  • StackExchange
    • Percentile vs quantile vs quartile
    • When is Fishers exact test used; when are approximative tests used?
    • What is the range of values of the Fisher information?
    • How can I calculate the distribution of the least-squares estimator \(\hat{\beta}\)?
  • Blog-Artikel
    • The Absolute Value Function - vgl. Konfidenzintervalle
    • The p value
  • Anki-Karten (direct download)
  • Verteilungsfunktion der Normalverteilung als Tabelle
  • Inverse Verteilungsfunktion der Normalverteilung als Tabelle
  • Fehlende Musterlösungen: KIT-Musterloesungen - Verbesserungshinweise nehme ich immer gerne entgegen ([email protected])

Literatur

  • Skript von Dr. B. Klar: Statistik
  • [Bic01] P.J. Bickel and K.A. Doksum. Mathematical statistics, 2nd ed.
  • [Cza11] C. Cazado and T. Schmidt. Mathematische Statistik.

Übungsbetrieb

Übungsblätter sind freiwillig.

Termine und Klausurablauf

Datum: 01.03.2017, 7:30 - 9:30 Uhr (Quelle: Vorlesungswebsite - Ja, es ist wirklich so früh!)
Ort: Benz-Hörsaal Geb. 10.21
Punkte: 60
Zeit: 2h
Punkteverteilung: TODO
Bestehensgrenze: mit 20 Punkten hat man bestanden
Übungsschein: gibt es nicht
Bonuspunkte: gibt es nicht
Nicht vergessen:

  • Studentenausweis
  • Taschenrechner
  • Uhr
  • Brille
  • Geodreieck

Einsicht: Am 2. März standen schon die Noten fest. Am 16.03.17 um 11:00 - 11:30 Uhr im Raum 2.071 des Mathematikgebäudes ist die Einsicht.


Published

Jan 15, 2017
by Martin Thoma

Category

German posts

Tags

  • Klausur 34
  • Statistik 1

Contact

  • Martin Thoma - A blog about Code, the Web and Cyberculture
  • E-mail subscription
  • RSS-Feed
  • Privacy/Datenschutzerklärung
  • Impressum
  • Powered by Pelican. Theme: Elegant by Talha Mansoor