Dieser Artikel beschäftigt sich mit der Vorlesung „Statistik“ am KIT. Er dient als Prüfungsvorbereitung. Ich habe die Vorlesungen bei Herrn Prof. Dr. Bernhard Klar im Wintersemester 2016 / 2017 gehört.
Behandelter Stoff
Kapitel 0: Vorwissen
- Empirisches $p$-Quantil
- Das empirische $p$-Quantil, $0 < p < 1$, ist definiert durch $$x_p := \begin{cases}x_{(\lceil n p\rceil)} & n \cdot p \notin \mathbb{N}\\ \frac{1}{2} \left ( x_{(np)} + x_{(np + 1)}\right ) & n \cdot p \in \mathbb{N}\end{cases}$$
- Unteres Quartil
- $$x_{1/4}$$
- Empirischer Median
- $$x_{1/2}$$
- Rechenregeln für Covarianz
- $$C(U_1 + U_2, V) = C(U_1, V) + C(U_2, V)$$ $$C(AU, B^T V) = A C(U, V) B$$
- Normalverteilung
- Dichte: $$f(x) = \frac{1}{\sigma \sqrt{2 \pi}} e^{- \frac{1}{2} {\left ( \frac{x-\mu}{\sigma} \right )}^2}$$
- Korrelationskoeffizient
- $$\rho_{X,Y} =\frac{\operatorname{Cov}(X,Y)}{\sqrt{\operatorname{Var}(X)\operatorname{Var}(Y)}}=\frac{\sigma_{X,Y}^2}{\sigma_{X}\sigma_{Y}}$$
Kapitel 1: Parameterschätzung
- Stichprobenraum
- Der Stichprobenraum $\mathfrak{X}$ ist eine Menge von Daten.
- Statistisches Modell
- Ein Tupel $(\mathfrak{X}, (P_\theta)_{\theta \in \Theta})$ heißt statistisches Modell, wenn $\mathfrak{X}$ ein Stichprobenraum und $(P_\theta)_{\theta \in \Theta}$ eine Familie von Verteilungen $P_\theta$ ist, welche durch $\theta \in \Theta$ parametrisiert ist.
- Schätzer
- Sei $(\mathfrak{X}, (P_\theta)_{\theta \in \Theta})$ ein statistisches Modell und $T: \mathfrak{X} \rightarrow \tilde{\Theta}$ eine Abbildung. Dann heißt $T$ ein Schätzer für $\theta$.
- Maximum-Likelihood-Schätzer
-
- Likelihood-Funktion: Multipliziere die Wahrscheinlichkeit der Werte um $L_x(\vartheta)$ zu bestimmen
- Log-Likelihood: Logarithmiere die Likelihood-Funktion $l_x(\vartheta) = \log L_x(\vartheta)$, falls dadurch die Funktion vereinfacht wird
- Maximieren: Leite die (Log)likelihood-Funktion ab und setze sie gleich 0 um den Maximum-Likelihood-Schätzer $\hat{\vartheta}$ zu bestimmen.
- Maximalstelle: Prüfe ob zweite Ableitung negativ ist
- Momentenschätzer
-
- Es sollen z.B. $\mu$ und $\sigma^2$ geschätzt werden.
- Drücke $\mu$ und $\sigma^2$ als Funktion der Momente $E X$, $E X^2$, ... aus.
- Starkes Gesetz großer Zahlen
- Es seien $Y_1, Y_2, Y_3, \dots$ eine Folge u.i.v. ZV mit existierendem Erwartungswert. Dann gilt: $$P(\left \{ \omega \in \Omega : \lim_{n \rightarrow \infty} \frac{1}{n} \sum_{i=1}^n Y_i(\omega) = E Y_i \right \}) = 1$$ Schreibweise: $$\frac{1}{n} \sum_{i=1}^n Y_i \stackrel{P-f.s.}{\longrightarrow} E(Y_1)$$
- Score-Funktion
- $$U_\vartheta(X_1) := \frac{\partial \log f(X_1, \vartheta)}{\partial \vartheta}$$
- Fisher-Information
- $$I(\vartheta) := \mathbb{E}_\vartheta(U_\vartheta^2) = - \mathbb{E}_\vartheta \left [ \frac{\partial U_\vartheta (X_1)}{\partial \vartheta} \right ] \in [0, \infty]$$
- Cramér-Rao Ungleichung
- $$V_\vartheta(T) \geq \frac{[E_\vartheta' (T) (\vartheta)]^2}{n I (\vartheta)}$$ Für erwartungstreue Schätzer $T$ gilt: $$V_\vartheta(T) \geq \frac{1}{n I (\vartheta)}$$
- Cauchy-Schwarz Ungleichung
- $$|\langle x, y \rangle | \leq \| x \| \cdot \| y \|$$
- Zentraler Grenzwertsatz (ZGWS)
- Sei $(X_n)_{n \geq 1}$ eine Folge von u.i.v. Zufallsvariablen mit $0 < \sigma^2 = V(X_1) < \infty $. Mit $\mu = \mathbb{E}(X_1)$ gilt dann: $$P(\frac{\sqrt{n}(\bar{X}_n - \mu)}{\sigma} < c) \stackrel{n \rightarrow \infty}{\longrightarrow} \Phi(c)$$
- Score-Gleichung
- Score-Funktion gleich 0 setzen: $$\sum_{i=1}^n \frac{\partial f(x_i, \vartheta)}{\partial \vartheta} = 0$$
- Bias (Verzerrung)
- $$b_T(\vartheta) := E_\vartheta(T) - \gamma(\vartheta)$$
- Mittlere Quadratische Abweichung (MQA)
- $$MQA_T(\vartheta) = E_\vartheta(T - \gamma(\vartheta))^2$$ Es gilt: $$MQA_T(\vartheta) = V_\vartheta(T) + b_T^2 (\vartheta)$$
- Satz 1.7.5 (Asymptotische Verteilung konsistenter Schätzer)
- $$\sqrt{n} (\hat{\vartheta}_n - \vartheta) \stackrel{D_\vartheta}{\rightarrow} \mathcal{N}(0, \frac{1}{I_1 (\vartheta)})$$
Kapitel 2: Konfidenzbereiche
- Konfidenzintervall (Vertrauensintervall)
-
Ein Konfidenzintervall ist ein Intervall $[U, O]$ für einen Parameter
$\vartheta$, sodass gilt:
$$P([U, O] \ni \vartheta) = 1 - \alpha$$
- 1-Stichproben-t-Test: $I(X) = \left [\bar{X} - \frac{S}{\sqrt{n}} \cdot t_{n-1;1-\frac{\alpha}{2}}, \bar{X} + \frac{S}{\sqrt{n}} \cdot t_{n-1;1-\frac{\alpha}{2}} \right]$
- Approximativer Binomialtest: $I(X) = \left [ \hat{p}_n - z_{1-\frac{\alpha}{2}} \sqrt{\hat{p}_n (1- \hat{p}_n)/n}, \hat{p}_n + z_{1-\frac{\alpha}{2}} \sqrt{\hat{p}_n (1- \hat{p}_n) / n} \right ]$
- Satz von Student
- Es seien $X_1, X_2, \dots, X_n \stackrel{uiv}{\sim} \mathcal{N}(\mu, \sigma^2),\quad n\geq 2$ sowie $\bar{X} = \frac{1}{n} \sum_{i=1}^n X_i$, $S^2 = \frac{1}{n-1} \sum_{i=1}^n {(X_i - \bar{X})}^2$ sowie $S = \sqrt{S^2}$. Dann gilt:
- $\bar{X} \sim \mathcal{N}(\mu, \frac{\sigma}{n})$
- $\bar{X}$ und $S^2$ sind unabhängig
- $\frac{1}{\sigma^2} \sum_{i=1}^n {(X_i - \bar{X})}^2 \sim \chi_{n-1}^2$
- $T = \frac{\sqrt{n} (\bar{X} - \mu)}{S} \sim t_{n-1}$
Kapitel 3: Statistische Tests
- Tests Allgemein
-
Bei statistischen Tests hat man immer eine Testgröße $T(x_1, \dots,
x_n)$, die auf der Stichprobe $x_1, \dots, x_n$ basiert. Um Aussagen
machen zu können, muss man die Verteilung von $T$ unter der
Nullhypothese $H_0$ kennen. Wenn die Verteilung von $T$ der
Studentischen-$t$-Verteilung entspricht ($T \sim t_n$), dann hat man
einen $t$-Test.
Wenn der Testentscheid, ob $H_0$ verworfen wird so aussieht: $$H_0 \text{ wird verworfen, falls } T < 123$$ dann liegt ein einseitiger Test vor. Falls der Testentscheid, ob $H_0$ verworfen wird so aussieht: $$H_0 \text{ wird verworfen, falls } T < -123 \text{ oder } T > +123$$ dann liegt ein zweiseitiger Test vor. Kurz schreibt man dann auch meistens $$H_0 \text{ wird verworfen, falls } |T| > 123$$
In dem beschriebenen Fall liegt eine Stichprobe $X_1, \dots, X_n$ vor, welche aus einer Verteilung gezogen wurde. Es ist aber auch möglich, dass man zwei Stichproben $X_1, \dots, X_n$ und $Y_1, \dots, Y_m$ hat. Das ist z.B. bei Medikamententests häufig der Fall. Da will man wissen ob beide Stichproben aus der gleichen Verteilung stammen (also das Medikament nichts macht) oder eben nicht. - $z$-Test
-
- Hypothesen: $H_0$: $\mu = \mu_0$ vs $H_1: \mu < \mu_0$
- Testgröße: $T(x_1, \dots, x_n) = \frac{\sqrt{n} (\bar{x} - \mu_0)}{\sigma}$
- Verteilung: $T \stackrel{H_0}{\sim} \mathcal{N}(0, 1)$
- Testentscheid: $H_0$ verwerfen, falls $T \leq \Phi^{-1}(\alpha) = z_\alpha$
- Zweiseitiger Ein-Stichproben-$t$-Test
-
- Testgröße: $T(x_1, \dots, x_n) = \frac{\sqrt{n} (\bar{x} - \mu_0)}{s}$
- Verteilung: $T \stackrel{H_0}{\sim} t_{n-1}$
- Testentscheid: $H_0$ verwerfen, falls $|T| \geq t_{n-1; 1-\frac{\alpha}{2}}$
- Einseitiger Ein-Stichproben-$t$-Test
-
- Testgröße: $T(x_1, \dots, x_n) = \frac{\sqrt{n} (\bar{x} - \mu_0)}{s}$
- Verteilung: $T \stackrel{H_0}{\sim} t_{n-1}$
- Testentscheid: $H_0$ verwerfen, falls $T \geq t_{n-1; 1-\alpha}$
- Ein-Stichproben-Varianz-Test
-
- Hypothesen: $H_0: \sigma^2 = \sigma_0^2$ gegen $H_1: \sigma^2 > \sigma_0^2$
- Testgröße: $\chi^2 := \frac{(n-1)S^2}{\sigma_0^2}$
- Verteilung: $\chi^2 \stackrel{H_0}{\sim} \chi_{n-1}^2$
- Testentscheid: $H_0$ verwerfen, falls $\chi^2 \geq \chi^2_{n-1;1-\alpha}$
- Gütefunktion
- Die Gütefunktion ist $g(\vartheta) = P_\vartheta(\text{Test verwirft } H_0), \quad \vartheta \in \Theta$.
Ist die Nullhypothese einelementig (also $H_0: \vartheta = \vartheta_0$), so gilt $g(\vartheta_0) = \alpha$. Ist die Alternative einelementig (also: $H_1: \vartheta = \vartheta_1$), so gilt $g(\vartheta_1) = 1- \text{Fehler 2. Art}$. - Neyman-Pearson-Test (NP-Test)
-
Sei $h_0(x) = \prod_{i=1}^n f(x, \vartheta_0)$ und
$h_1(x) = \prod_{i=1}^n f(x, \vartheta_1)$.
Testentscheid: Verwerfe $H_0$, falls $h_0(x) \leq c h_1(x)$, wobei $c$ so gewählt wird, dass das Niveau $\alpha$ eingehalten wird. - Likelihood-Quotienten-Test
-
- Testgröße: $$\Lambda = \frac{\sup_{\vartheta \in \Theta} L_x (\vartheta)}{\sup_{\vartheta \in \Theta_0} L_x (\vartheta)}$$
- Hypothesen: $H_0$: $\vartheta \in \Theta_0$ vs $H_1$: $\vartheta \in \Theta \setminus \Theta_0$
- Verteilung: Ist der Schätzer konsistent, so gilt $$2 \log(\Lambda_n) \sim \chi_1^2$$
- Testentscheid: Verwerfe $H_0$, falls $\Lambda > c$.
Wähle $c$ so, dass Niveau $\alpha$ eingehalten wird.
Also: Verwerfe $H_0$, falls $2 \log \Lambda_n \geq \chi^2_{1, 1-\alpha}$
- Approximativer Binomialtest
-
Gegeben seien $X_1, \dots, X_n \sim Bin(1, p)$, $p$ unbekannt.
- Hypothesen: $H_0: p = p_0$ vs $H_1: p = p_1$
- Testgröße: $T_n(x) = \frac{\sqrt{n}(\bar{X} - p)}{\sqrt{p (1-p)}}$
- Verteilung: $T_n \stackrel{H_0}{\sim} \mathcal{N}(0, 1)$
- Testentscheid: $H_0$ verwerfen, falls $T_n > z_{1-\alpha}$
Kapitel 4: 2-Stichproben Vergleiche (NV)
- F-Test für den Varianzquotienten
-
Gegeben sind zwei Stichproben $X_1, \dots, X_m$ sowie $Y_1, \dots, Y_n$
mit $X_i \sim \mathcal{N}(\mu, \sigma^2)$ und $\mathcal{N}(\nu, \tau^2)$.
- Hypothesen: $H_0: \sigma^2 = \tau^2$ vs $H_1: \sigma^2 \neq \tau^2$
- Testgröße: $$Q_{m,n} = \frac{\frac{1}{m-1} \sum_{i=1}^m {(X_i - \bar{X}_m)}^2}{\frac{1}{n-1} \sum_{i=1}^n {(Y_i - \bar{Y}_n)}^2}$$
- Verteilung: $Q_{m,n} \stackrel{H_0}{\sim} F_{m-1, n-1}$
- Testentscheid: $H_0$ verwerfen, falls $Q_{m,n} \leq F_{m-1,n-1;\frac{\alpha}{2}}$ oder $Q_{m,n} \geq F_{m-1,n-1;1-\frac{\alpha}{2}}$
Kapitel 5: Lineare Regression
- Satz 5.4.1
- Unter $H_0$ ist die Teststatistik $F = \frac{(TSS - RSS)/(p-r)}{RSS/(n-p)}$ Fisher-verteilt mit $p-r$ Zähler- und $n-p$ Nenner-Freiheitsgraden.
- ANOVA-Tafel
-
Freiheitsgrade Quadratsumme mittlere Quadratsumme Teststatistik Regression $k-1$ TSS - RSS $\frac{TSS-RSS}{k-1}$ F = $\frac{TSS-RSS/(k-1)}{RSS/(n-k)}$ Residuen $n-k$ RSS $\frac{RSS}{n-k}$ Gesamt $n-1$ TSS
$H_0$ verwerfen, wenn $F \geq F_{k-1, n-k; 1- \alpha}$. - Kleinster-Quadrate-Schätzer
- Der Kleinste-Quadrate-Schätzer für das klassische lineares Modell $Y = X \beta + \epsilon$ lautet: $$\hat{\beta} = (X^T X)^{-1} X^T Y$$ $$\hat{Y} \sim N_n(X \beta, \sigma^2 H)$$ $$\hat{\varepsilon}_i \sim \mathcal{N}(0, (1-H_{ii}) \sigma^2)$$ Der übliche Schätzer für $\sigma^2$ ist $$\hat{\sigma}^2 = \frac{1}{n-p} \| Y - \hat{Y} \|^2$$ Die folgenden Sachen kann man alle in der Klausur aus obigen Angaben herleiten (vgl. math.SE): Es gilt: $$\hat{\beta} \sim N_p(\beta, \sigma^2 (X^T X)^{-1})$$ $$\hat{\beta}_i \sim \mathcal{N}(\beta_i, \sigma^2 (X^T X)^{-1}_{i+1, i+1})$$ sowie $$(n-p)\hat{\sigma}^2/\sigma^2 \sim \chi^2_{n-p}$$ Schätzer für die Standardabweichung von $\hat{\beta}$: $$se(\hat{\beta}_i) = \hat{\sigma} \sqrt{{(X^T X)}^{-1}_{i,i}}$$
Kapitel 6: Varianz- und Kovarianzanalyse
- Modellannahmen der Varianzanalyse
- Das Rauschen ist unabhängig und jeweils $\varepsilon_i \sim \mathcal{N}(0, \sigma^2)$.
- Summenrestriktionen
- Es muss ein balanciertes Design ($n_1 = n_2 = \dots = n_k$) vorliegen. Dann muss $$\sum_{i=1}^k \alpha_i = 0$$ gelten. Das Modell ist $Y = X \beta + \varepsilon$ mit Design-Matrix $$X = \begin{pmatrix}1 & 1& 0 & &0\\ \vdots & \vdots & \vdots & &\vdots\\ \vdots & 1 & 0 & &\vdots\\ \vdots & 0 & 1 & &\vdots\\ \vdots & \vdots & \vdots & & \vdots\\ \vdots & \vdots & 1 & & 0\\ \vdots & \vdots & 0 & & 1\\ \vdots & \vdots & \vdots & \ddots &\vdots\\ \vdots & 0 & 0 & & 1\\ \vdots & -1 & -1 & \dots & -1\\ \vdots & \vdots & \vdots & & \vdots\\ 1 & -1 & -1 & \dots & -1\\\end{pmatrix}$$ und Parametervektor $$\beta := \begin{pmatrix}\mu\\\alpha_2\\\dots\\\alpha_k\end{pmatrix}$$
- Bonferroni-Korrektur
- Es liegt eine Familie von $m$ Tests vor. Man macht eine globale Nullhypothese, dass alle Nullhypothesen gelten. Alle $m$ Test werden auf dem Niveau $\frac{\alpha}{m}$ durchgeführt, sodass insgesamt das Niveau $\alpha$ erreicht wird.
- Bestimmtheitsmaß $R^2$
- $$R^2 = 1 - \frac{RSS}{TSS} = 1 - \frac{\sum_{i=1}^n (y_i - \hat{y}_i)}{\sum_{i=1}^n (y_i - \bar{y}_i)}$$ Es gilt: $R^2 \in [0, 1]$ Ist die Kenntnis von $x$ wichtig für die Vorhersage von $y$, so ist das Bestimmtheitsmaß nahe bei 1.
- Globaler $F$-Test
-
- Hypothesen: $H_0$: $\mu_1 = \mu_2 = \dots = \mu_k$ vs $H_1: \exists i, j: \mu_i \neq \mu_j$
- Testgröße: $F = \frac{(TSS - RSS) / (k-1)}{RSS / (n-k)}$
- Verteilung: $F \stackrel{H_0}{\sim} F_{k-1, n-k}$
- Testentscheid: $H_0$ verwerfen, falls $F \geq F_{k-1, n-k; 1 - \alpha}$
Kapitel 7: Kategoriale Daten
-
Kapitel 8: Nichtparametrische Verfahren
- Vorzeichen-Test für den Median
- Teste die Hypothese ob eine Größe $M$ den Mittelwert $\mu$ hat gegen die Alternative $H_1$: $M \neq \mu$. Bilde die Prüfgröße $$S_n = \sum_{i=1}^n \mathbb{1}_{X_i > \mu}$$ Falls $H_0$ gilt, dann ist $S_n \sim Bin(n, 0.5)$ Lehne $H_0$ ab, wenn $S_n \leq c$ oder $S_n \geq n - c$. Bestimme $c$ so, dass $$P_{H_0}(S_n \leq c) + P_{H_0}(S_n \geq n - c) \stackrel{!}{\leq} \alpha$$
Abkürzungen
- MQA: Mittlere Quadratische Abweichung
- RSS: Residual Sum of Squares
- SQI: Summe der Quadrate innerhalb der Gruppen
- SQZ: Summe der Quadrate zwischen den Gruppen
- TSS: Total Sum of Squares (\(TSS = \sum_{i=1}^n {(y_i - \bar{y}_n)}^2\))
- uiv, u.i.v.: unabhängig identisch verteilt
Symbolverzeichnis
Symbol | Bedeutung |
---|---|
$c_\alpha$ | $\Phi^{-1}(\alpha)$: Inverse Verteilungsfunktion der Standardnormalverteilung |
$E(X)$ | Erwartungswert der Zufallsvariable $X$ |
$\mathcal{N}(\mu, \sigma^2)$ | Normalverteilung mit Mittelwert $\mu$ und Standardabweichung $\sigma$ |
$Pois(\lambda)$ | Poisson-Verteilung |
$t_{n; \beta}$ | Das $\beta$-Quantil der $t_n$-Verteilung. |
$V(X)$ | Varianz der Zufallsvariable $X$ |
$\mathfrak{X}$ | Stichprobenraum |
$X \sim A$ | Die Zufallsvariable $X$ ist $AB$-Verteilt. |
$z_{1 - \alpha}$ | Inverse quantilsfunktion der Standardnormalverteilung: $z_{1 - \alpha} = \Phi^{-1}(1-\alpha)$ |
Verteilungen
Verteilung | Schreibweise | $\mathbb{E}(X)$ | $Var(x)$ | Bemerkung |
---|---|---|---|---|
Binomial-Verteilung | $X \sim Bin(n, p)$ | $n \cdot p$ | $n \cdot p \cdot (1-p)$ | $n$-maliges Bernoulli-Experiment |
Poisson-Verteilung | $X \sim Pois(\lambda)$ | $\lambda$ | $\lambda$ | |
Exponential-Verteilung | $X \sim Exp(\lambda)$ | $\frac{1}{\lambda}$ | $\frac{1}{\lambda^2}$ | Zerfall-Prozess |
Normalverteilung | $X \sim \mathcal{N}(\mu, \sigma^2)$ | $\mu$ | $\sigma^2$ | |
Gleichverteilung | $X \sim U[a, b]$ | $\frac{b-a}{2}$ | ||
$\chi^2$-Verteilung | $X \sim \chi^2_n$ | $n$ | $2n$ | Summe von $n$ normalverteilugen Zuvallsvariablen $X_1, \dots, X_n$ |
$t$-Verteilung | $X \sim t_k$ | $n$ | $2n$ | $X = \frac{N}{\sqrt{\frac{Y}{k}}}$ mit $Y \sim \chi^2_k$ und $N \sim \mathcal{N}(0, 1)$ |
$F$-Verteilung | $X \sim F_{m,n}$ | $\frac{n}{n-2}$ für $n > 2$ | $\frac{2n^2 (m+n-2)}{m(n-2)^2 (n-4)}$ für $n > 4$ | $X = \frac{\frac{1}{r}R}{\frac{1}{s}S}$ mit $R \sim \chi^2_r$, $S \sim \chi^2_s$ |
Python
You might want to look into scipy.stats
as it offers many convenient functions.
For example, if you have to find the 95%-Quantile of the \(F_{k=3,n=19}\) distribution, this is what you do:
import scipy.stats
# Create a variable representing the distribution
rv = scipy.stats.f(dfn=3, dfd=19)
# Percent point function
rv.ppf(0.95) # gives 3.1273500051133989
Klausur Aufbau
- Aufgabe 1 und 2
- ML-Schätzer bestimmen
- Score-Funktion / Fisher-Information
- Cramér-Rao-Schranke
- asymptotisch Erwartungstreue / Konsistenz von Schätzern
- Erwartungswert, Varianz, MQA eines Schätzers bestimmen
- Momentenschätzer bestimmen
- Aufgabe 3
- Aufgabe 4
- Statistisches Modell angeben
- Quartile und Median einer Stichprobe bestimmen
- Vorzeichen-Test für Median
- Aufgabe 5
- Satz von Student
- Konfidenzintervall
- Gütefunktion
- Beziehung zwischen Konfidenzintervall und Tests
- Aufgabe 6
- Korrelationskoeffizient
- ANOVA-Tafel
- Modellannahmen bei einfacher Varianzanalyse
- Aufgabe 7
- Lineares Regressionsmodell
- Kleinster-Quadrate-Schätzer
- Bestimmtheitsmaß
- Chi-Quadrat-Test auf Homogenität (\(D := \sum_{i=1}^n \frac{n_i {(\hat{p}_i - \hat{p})}^2}{\hat{p} (1 - \hat{p})} \stackrel{H_0}{\sim} \chi^2_{k-1}\))
- Various
- Exp-Verteilung und Zusammenhang mit Gamma-Verteilung
- Binomial-Verteilung
- 1-Stichproben t-Test
- F-Test für den Varianzquotienten
- Globaler F-Test
Prüfungsfragen
- Kann ein Schätzer Erwartungstreu und Konsistent sein?
→ Ja. Seien \(X_1, \dots, X_n \stackrel{uiv}{\sim} Bin(1, \vartheta)\) mit \(\vartheta \in (0, 1)\). Sei außerdem \(\hat{\vartheta}_n = \frac{1}{n} \sum_{i=1}^n x_i\). \(\hat{\vartheta}_n\) ist erwartungstreu und konsistent. - Kann ein Schätzer weder Erwartungstreu noch Konsistent sein?
→ Ja. Seien \(X_1, \dots, X_n \stackrel{uiv}{\sim} Bin(1, \vartheta)\) mit \(\vartheta \in (0, 1)\). Der Schätzer \(\hat{\vartheta} = 0.5\) ist weder Erwartungstreu noch konsistent für \(\vartheta \neq 0.5\). - Kann ein Schätzer Erwartungstreu, aber nicht konsistent sein?
→ Ja. Setting wie zuvor und \(\hat{\vartheta} = x_n\) (siehe math.SE) - Kann ein Schätzer nicht Erwartungstreu, aber konsistent sein?
→ Ja. Setting wie zuvor und \(\hat{\vartheta} = \frac{1}{n} \sum_{i=1}^n x_i + \frac{1}{n}\) (siehe math.SE)
Material und Links
- Vorlesungswebsite
- Illias
- StackExchange
- Blog-Artikel
- The Absolute Value Function - vgl. Konfidenzintervalle
- The p value
- Anki-Karten (direct download)
- Verteilungsfunktion der Normalverteilung als Tabelle
- Inverse Verteilungsfunktion der Normalverteilung als Tabelle
- Fehlende Musterlösungen: KIT-Musterloesungen - Verbesserungshinweise nehme ich immer gerne entgegen (
[email protected]
)
Literatur
- Skript von Dr. B. Klar: Statistik
- [Bic01] P.J. Bickel and K.A. Doksum. Mathematical statistics, 2nd ed.
- [Cza11] C. Cazado and T. Schmidt. Mathematische Statistik.
Übungsbetrieb
Übungsblätter sind freiwillig.
Termine und Klausurablauf
Datum: 01.03.2017, 7:30 - 9:30 Uhr (Quelle: Vorlesungswebsite - Ja, es ist wirklich so früh!)
Ort: Benz-Hörsaal Geb. 10.21
Punkte: 60
Zeit: 2h
Punkteverteilung: TODO
Bestehensgrenze: mit 20 Punkten hat man bestanden
Übungsschein: gibt es nicht
Bonuspunkte: gibt es nicht
Nicht vergessen:
- Studentenausweis
- Taschenrechner
- Uhr
- Brille
- Geodreieck
Einsicht: Am 2. März standen schon die Noten fest. Am 16.03.17 um 11:00 - 11:30 Uhr im Raum 2.071 des Mathematikgebäudes ist die Einsicht.