Dieser Artikel beschäftigt sich mit der Vorlesung „Statistik“ am KIT. Er dient als Prüfungsvorbereitung. Ich habe die Vorlesungen bei Herrn Prof. Dr. Bernhard Klar im Wintersemester 2016 / 2017 gehört.
Behandelter Stoff ¶
Kapitel 0: Vorwissen ¶
- Empirisches p-Quantil
- Das empirische p-Quantil, 0<p<1, ist definiert durch xp:={x(⌈np⌉)n⋅p∉N12(x(np)+x(np+1))n⋅p∈N
- Unteres Quartil
- x1/4
- Empirischer Median
- x1/2
- Rechenregeln für Covarianz
- C(U1+U2,V)=C(U1,V)+C(U2,V) C(AU,BTV)=AC(U,V)B
- Normalverteilung
- Dichte: f(x)=1σ√2πe−12(x−μσ)2
- Korrelationskoeffizient
- ρX,Y=Cov(X,Y)√Var(X)Var(Y)=σ2X,YσXσY
Kapitel 1: Parameterschätzung ¶
- Stichprobenraum
- Der Stichprobenraum X ist eine Menge von Daten.
- Statistisches Modell
- Ein Tupel (X,(Pθ)θ∈Θ) heißt statistisches Modell, wenn X ein Stichprobenraum und (Pθ)θ∈Θ eine Familie von Verteilungen Pθ ist, welche durch θ∈Θ parametrisiert ist.
- Schätzer
- Sei (X,(Pθ)θ∈Θ) ein statistisches Modell und T:X→˜Θ eine Abbildung. Dann heißt T ein Schätzer für θ.
- Maximum-Likelihood-Schätzer
-
- Likelihood-Funktion: Multipliziere die Wahrscheinlichkeit der Werte um Lx(ϑ) zu bestimmen
- Log-Likelihood: Logarithmiere die Likelihood-Funktion lx(ϑ)=logLx(ϑ), falls dadurch die Funktion vereinfacht wird
- Maximieren: Leite die (Log)likelihood-Funktion ab und setze sie gleich 0 um den Maximum-Likelihood-Schätzer ˆϑ zu bestimmen.
- Maximalstelle: Prüfe ob zweite Ableitung negativ ist
- Momentenschätzer
-
- Es sollen z.B. μ und σ2 geschätzt werden.
- Drücke μ und σ2 als Funktion der Momente EX, EX2, ... aus.
- Starkes Gesetz großer Zahlen
- Es seien Y1,Y2,Y3,… eine Folge u.i.v. ZV mit existierendem Erwartungswert. Dann gilt: P({ω∈Ω:lim Schreibweise: \frac{1}{n} \sum_{i=1}^n Y_i \stackrel{P-f.s.}{\longrightarrow} E(Y_1)
- Score-Funktion
- U_\vartheta(X_1) := \frac{\partial \log f(X_1, \vartheta)}{\partial \vartheta}
- Fisher-Information
- I(\vartheta) := \mathbb{E}_\vartheta(U_\vartheta^2) = - \mathbb{E}_\vartheta \left [ \frac{\partial U_\vartheta (X_1)}{\partial \vartheta} \right ] \in [0, \infty]
- Cramér-Rao Ungleichung
- V_\vartheta(T) \geq \frac{[E_\vartheta' (T) (\vartheta)]^2}{n I (\vartheta)} Für erwartungstreue Schätzer T gilt: V_\vartheta(T) \geq \frac{1}{n I (\vartheta)}
- Cauchy-Schwarz Ungleichung
- |\langle x, y \rangle | \leq \| x \| \cdot \| y \|
- Zentraler Grenzwertsatz (ZGWS)
- Sei (X_n)_{n \geq 1} eine Folge von u.i.v. Zufallsvariablen mit 0 < \sigma^2 = V(X_1) < \infty . Mit \mu = \mathbb{E}(X_1) gilt dann: P(\frac{\sqrt{n}(\bar{X}_n - \mu)}{\sigma} < c) \stackrel{n \rightarrow \infty}{\longrightarrow} \Phi(c)
- Score-Gleichung
- Score-Funktion gleich 0 setzen: \sum_{i=1}^n \frac{\partial f(x_i, \vartheta)}{\partial \vartheta} = 0
- Bias (Verzerrung)
- b_T(\vartheta) := E_\vartheta(T) - \gamma(\vartheta)
- Mittlere Quadratische Abweichung (MQA)
- MQA_T(\vartheta) = E_\vartheta(T - \gamma(\vartheta))^2 Es gilt: MQA_T(\vartheta) = V_\vartheta(T) + b_T^2 (\vartheta)
- Satz 1.7.5 (Asymptotische Verteilung konsistenter Schätzer)
- \sqrt{n} (\hat{\vartheta}_n - \vartheta) \stackrel{D_\vartheta}{\rightarrow} \mathcal{N}(0, \frac{1}{I_1 (\vartheta)})
Kapitel 2: Konfidenzbereiche ¶
- Konfidenzintervall (Vertrauensintervall)
-
Ein Konfidenzintervall ist ein Intervall [U, O] für einen Parameter
\vartheta, sodass gilt:
P([U, O] \ni \vartheta) = 1 - \alpha
- 1-Stichproben-t-Test: I(X) = \left [\bar{X} - \frac{S}{\sqrt{n}} \cdot t_{n-1;1-\frac{\alpha}{2}}, \bar{X} + \frac{S}{\sqrt{n}} \cdot t_{n-1;1-\frac{\alpha}{2}} \right]
- Approximativer Binomialtest: I(X) = \left [ \hat{p}_n - z_{1-\frac{\alpha}{2}} \sqrt{\hat{p}_n (1- \hat{p}_n)/n}, \hat{p}_n + z_{1-\frac{\alpha}{2}} \sqrt{\hat{p}_n (1- \hat{p}_n) / n} \right ]
- Satz von Student
- Es seien X_1, X_2, \dots, X_n \stackrel{uiv}{\sim} \mathcal{N}(\mu, \sigma^2),\quad n\geq 2 sowie \bar{X} = \frac{1}{n} \sum_{i=1}^n X_i, S^2 = \frac{1}{n-1} \sum_{i=1}^n {(X_i - \bar{X})}^2 sowie S = \sqrt{S^2}. Dann gilt:
- \bar{X} \sim \mathcal{N}(\mu, \frac{\sigma}{n})
- \bar{X} und S^2 sind unabhängig
- \frac{1}{\sigma^2} \sum_{i=1}^n {(X_i - \bar{X})}^2 \sim \chi_{n-1}^2
- T = \frac{\sqrt{n} (\bar{X} - \mu)}{S} \sim t_{n-1}
Kapitel 3: Statistische Tests ¶
- Tests Allgemein
-
Bei statistischen Tests hat man immer eine Testgröße T(x_1, \dots,
x_n), die auf der Stichprobe x_1, \dots, x_n basiert. Um Aussagen
machen zu können, muss man die Verteilung von T unter der
Nullhypothese H_0 kennen. Wenn die Verteilung von T der
Studentischen-t-Verteilung entspricht (T \sim t_n), dann hat man
einen t-Test.
Wenn der Testentscheid, ob H_0 verworfen wird so aussieht: H_0 \text{ wird verworfen, falls } T < 123 dann liegt ein einseitiger Test vor. Falls der Testentscheid, ob H_0 verworfen wird so aussieht: H_0 \text{ wird verworfen, falls } T < -123 \text{ oder } T > +123 dann liegt ein zweiseitiger Test vor. Kurz schreibt man dann auch meistens H_0 \text{ wird verworfen, falls } |T| > 123
In dem beschriebenen Fall liegt eine Stichprobe X_1, \dots, X_n vor, welche aus einer Verteilung gezogen wurde. Es ist aber auch möglich, dass man zwei Stichproben X_1, \dots, X_n und Y_1, \dots, Y_m hat. Das ist z.B. bei Medikamententests häufig der Fall. Da will man wissen ob beide Stichproben aus der gleichen Verteilung stammen (also das Medikament nichts macht) oder eben nicht. - z-Test
-
- Hypothesen: H_0: \mu = \mu_0 vs H_1: \mu < \mu_0
- Testgröße: T(x_1, \dots, x_n) = \frac{\sqrt{n} (\bar{x} - \mu_0)}{\sigma}
- Verteilung: T \stackrel{H_0}{\sim} \mathcal{N}(0, 1)
- Testentscheid: H_0 verwerfen, falls T \leq \Phi^{-1}(\alpha) = z_\alpha
- Zweiseitiger Ein-Stichproben-t-Test
-
- Testgröße: T(x_1, \dots, x_n) = \frac{\sqrt{n} (\bar{x} - \mu_0)}{s}
- Verteilung: T \stackrel{H_0}{\sim} t_{n-1}
- Testentscheid: H_0 verwerfen, falls |T| \geq t_{n-1; 1-\frac{\alpha}{2}}
- Einseitiger Ein-Stichproben-t-Test
-
- Testgröße: T(x_1, \dots, x_n) = \frac{\sqrt{n} (\bar{x} - \mu_0)}{s}
- Verteilung: T \stackrel{H_0}{\sim} t_{n-1}
- Testentscheid: H_0 verwerfen, falls T \geq t_{n-1; 1-\alpha}
- Ein-Stichproben-Varianz-Test
-
- Hypothesen: H_0: \sigma^2 = \sigma_0^2 gegen H_1: \sigma^2 > \sigma_0^2
- Testgröße: \chi^2 := \frac{(n-1)S^2}{\sigma_0^2}
- Verteilung: \chi^2 \stackrel{H_0}{\sim} \chi_{n-1}^2
- Testentscheid: H_0 verwerfen, falls \chi^2 \geq \chi^2_{n-1;1-\alpha}
- Gütefunktion
- Die Gütefunktion ist g(\vartheta) = P_\vartheta(\text{Test verwirft } H_0), \quad \vartheta \in \Theta.
Ist die Nullhypothese einelementig (also H_0: \vartheta = \vartheta_0), so gilt g(\vartheta_0) = \alpha. Ist die Alternative einelementig (also: H_1: \vartheta = \vartheta_1), so gilt g(\vartheta_1) = 1- \text{Fehler 2. Art}. - Neyman-Pearson-Test (NP-Test)
-
Sei h_0(x) = \prod_{i=1}^n f(x, \vartheta_0) und
h_1(x) = \prod_{i=1}^n f(x, \vartheta_1).
Testentscheid: Verwerfe H_0, falls h_0(x) \leq c h_1(x), wobei c so gewählt wird, dass das Niveau \alpha eingehalten wird. - Likelihood-Quotienten-Test
-
- Testgröße: \Lambda = \frac{\sup_{\vartheta \in \Theta} L_x (\vartheta)}{\sup_{\vartheta \in \Theta_0} L_x (\vartheta)}
- Hypothesen: H_0: \vartheta \in \Theta_0 vs H_1: \vartheta \in \Theta \setminus \Theta_0
- Verteilung: Ist der Schätzer konsistent, so gilt 2 \log(\Lambda_n) \sim \chi_1^2
- Testentscheid: Verwerfe H_0, falls \Lambda > c.
Wähle c so, dass Niveau \alpha eingehalten wird.
Also: Verwerfe H_0, falls 2 \log \Lambda_n \geq \chi^2_{1, 1-\alpha}
- Approximativer Binomialtest
-
Gegeben seien X_1, \dots, X_n \sim Bin(1, p), p unbekannt.
- Hypothesen: H_0: p = p_0 vs H_1: p = p_1
- Testgröße: T_n(x) = \frac{\sqrt{n}(\bar{X} - p)}{\sqrt{p (1-p)}}
- Verteilung: T_n \stackrel{H_0}{\sim} \mathcal{N}(0, 1)
- Testentscheid: H_0 verwerfen, falls T_n > z_{1-\alpha}
Kapitel 4: 2-Stichproben Vergleiche (NV) ¶
- F-Test für den Varianzquotienten
-
Gegeben sind zwei Stichproben X_1, \dots, X_m sowie Y_1, \dots, Y_n
mit X_i \sim \mathcal{N}(\mu, \sigma^2) und \mathcal{N}(\nu, \tau^2).
- Hypothesen: H_0: \sigma^2 = \tau^2 vs H_1: \sigma^2 \neq \tau^2
- Testgröße: Q_{m,n} = \frac{\frac{1}{m-1} \sum_{i=1}^m {(X_i - \bar{X}_m)}^2}{\frac{1}{n-1} \sum_{i=1}^n {(Y_i - \bar{Y}_n)}^2}
- Verteilung: Q_{m,n} \stackrel{H_0}{\sim} F_{m-1, n-1}
- Testentscheid: H_0 verwerfen, falls Q_{m,n} \leq F_{m-1,n-1;\frac{\alpha}{2}} oder Q_{m,n} \geq F_{m-1,n-1;1-\frac{\alpha}{2}}
Kapitel 5: Lineare Regression ¶
- Satz 5.4.1
- Unter H_0 ist die Teststatistik F = \frac{(TSS - RSS)/(p-r)}{RSS/(n-p)} Fisher-verteilt mit p-r Zähler- und n-p Nenner-Freiheitsgraden.
- ANOVA-Tafel
-
Freiheitsgrade Quadratsumme mittlere Quadratsumme Teststatistik Regression k-1 TSS - RSS \frac{TSS-RSS}{k-1} F = \frac{TSS-RSS/(k-1)}{RSS/(n-k)} Residuen n-k RSS \frac{RSS}{n-k} Gesamt n-1 TSS
H_0 verwerfen, wenn F \geq F_{k-1, n-k; 1- \alpha}. - Kleinster-Quadrate-Schätzer
- Der Kleinste-Quadrate-Schätzer für das klassische lineares Modell Y = X \beta + \epsilon lautet: \hat{\beta} = (X^T X)^{-1} X^T Y \hat{Y} \sim N_n(X \beta, \sigma^2 H) \hat{\varepsilon}_i \sim \mathcal{N}(0, (1-H_{ii}) \sigma^2) Der übliche Schätzer für \sigma^2 ist \hat{\sigma}^2 = \frac{1}{n-p} \| Y - \hat{Y} \|^2 Die folgenden Sachen kann man alle in der Klausur aus obigen Angaben herleiten (vgl. math.SE): Es gilt: \hat{\beta} \sim N_p(\beta, \sigma^2 (X^T X)^{-1}) \hat{\beta}_i \sim \mathcal{N}(\beta_i, \sigma^2 (X^T X)^{-1}_{i+1, i+1}) sowie (n-p)\hat{\sigma}^2/\sigma^2 \sim \chi^2_{n-p} Schätzer für die Standardabweichung von \hat{\beta}: se(\hat{\beta}_i) = \hat{\sigma} \sqrt{{(X^T X)}^{-1}_{i,i}}
Kapitel 6: Varianz- und Kovarianzanalyse ¶
- Modellannahmen der Varianzanalyse
- Das Rauschen ist unabhängig und jeweils \varepsilon_i \sim \mathcal{N}(0, \sigma^2).
- Summenrestriktionen
- Es muss ein balanciertes Design (n_1 = n_2 = \dots = n_k) vorliegen. Dann muss \sum_{i=1}^k \alpha_i = 0 gelten. Das Modell ist Y = X \beta + \varepsilon mit Design-Matrix X = \begin{pmatrix}1 & 1& 0 & &0\\ \vdots & \vdots & \vdots & &\vdots\\ \vdots & 1 & 0 & &\vdots\\ \vdots & 0 & 1 & &\vdots\\ \vdots & \vdots & \vdots & & \vdots\\ \vdots & \vdots & 1 & & 0\\ \vdots & \vdots & 0 & & 1\\ \vdots & \vdots & \vdots & \ddots &\vdots\\ \vdots & 0 & 0 & & 1\\ \vdots & -1 & -1 & \dots & -1\\ \vdots & \vdots & \vdots & & \vdots\\ 1 & -1 & -1 & \dots & -1\\\end{pmatrix} und Parametervektor \beta := \begin{pmatrix}\mu\\\alpha_2\\\dots\\\alpha_k\end{pmatrix}
- Bonferroni-Korrektur
- Es liegt eine Familie von m Tests vor. Man macht eine globale Nullhypothese, dass alle Nullhypothesen gelten. Alle m Test werden auf dem Niveau \frac{\alpha}{m} durchgeführt, sodass insgesamt das Niveau \alpha erreicht wird.
- Bestimmtheitsmaß R^2
- R^2 = 1 - \frac{RSS}{TSS} = 1 - \frac{\sum_{i=1}^n (y_i - \hat{y}_i)}{\sum_{i=1}^n (y_i - \bar{y}_i)} Es gilt: R^2 \in [0, 1] Ist die Kenntnis von x wichtig für die Vorhersage von y, so ist das Bestimmtheitsmaß nahe bei 1.
- Globaler F-Test
-
- Hypothesen: H_0: \mu_1 = \mu_2 = \dots = \mu_k vs H_1: \exists i, j: \mu_i \neq \mu_j
- Testgröße: F = \frac{(TSS - RSS) / (k-1)}{RSS / (n-k)}
- Verteilung: F \stackrel{H_0}{\sim} F_{k-1, n-k}
- Testentscheid: H_0 verwerfen, falls F \geq F_{k-1, n-k; 1 - \alpha}
Kapitel 7: Kategoriale Daten ¶
-
Kapitel 8: Nichtparametrische Verfahren ¶
- Vorzeichen-Test für den Median
- Teste die Hypothese ob eine Größe M den Mittelwert \mu hat gegen die Alternative H_1: M \neq \mu. Bilde die Prüfgröße S_n = \sum_{i=1}^n \mathbb{1}_{X_i > \mu} Falls H_0 gilt, dann ist S_n \sim Bin(n, 0.5) Lehne H_0 ab, wenn S_n \leq c oder S_n \geq n - c. Bestimme c so, dass P_{H_0}(S_n \leq c) + P_{H_0}(S_n \geq n - c) \stackrel{!}{\leq} \alpha
Abkürzungen ¶
- MQA: Mittlere Quadratische Abweichung
- RSS: Residual Sum of Squares
- SQI: Summe der Quadrate innerhalb der Gruppen
- SQZ: Summe der Quadrate zwischen den Gruppen
- TSS: Total Sum of Squares (TSS = \sum_{i=1}^n {(y_i - \bar{y}_n)}^2)
- uiv, u.i.v.: unabhängig identisch verteilt
Symbolverzeichnis ¶
Symbol | Bedeutung |
---|---|
c_\alpha | \Phi^{-1}(\alpha): Inverse Verteilungsfunktion der Standardnormalverteilung |
E(X) | Erwartungswert der Zufallsvariable X |
\mathcal{N}(\mu, \sigma^2) | Normalverteilung mit Mittelwert \mu und Standardabweichung \sigma |
Pois(\lambda) | Poisson-Verteilung |
t_{n; \beta} | Das \beta-Quantil der t_n-Verteilung. |
V(X) | Varianz der Zufallsvariable X |
\mathfrak{X} | Stichprobenraum |
X \sim A | Die Zufallsvariable X ist AB-Verteilt. |
z_{1 - \alpha} | Inverse quantilsfunktion der Standardnormalverteilung: z_{1 - \alpha} = \Phi^{-1}(1-\alpha) |
Verteilungen ¶
Verteilung | Schreibweise | \mathbb{E}(X) | Var(x) | Bemerkung |
---|---|---|---|---|
Binomial-Verteilung | X \sim Bin(n, p) | n \cdot p | n \cdot p \cdot (1-p) | n-maliges Bernoulli-Experiment |
Poisson-Verteilung | X \sim Pois(\lambda) | \lambda | \lambda | |
Exponential-Verteilung | X \sim Exp(\lambda) | \frac{1}{\lambda} | \frac{1}{\lambda^2} | Zerfall-Prozess |
Normalverteilung | X \sim \mathcal{N}(\mu, \sigma^2) | \mu | \sigma^2 | |
Gleichverteilung | X \sim U[a, b] | \frac{b-a}{2} | ||
\chi^2-Verteilung | X \sim \chi^2_n | n | 2n | Summe von n normalverteilugen Zuvallsvariablen X_1, \dots, X_n |
t-Verteilung | X \sim t_k | n | 2n | X = \frac{N}{\sqrt{\frac{Y}{k}}} mit Y \sim \chi^2_k und N \sim \mathcal{N}(0, 1) |
F-Verteilung | X \sim F_{m,n} | \frac{n}{n-2} für n > 2 | \frac{2n^2 (m+n-2)}{m(n-2)^2 (n-4)} für n > 4 | X = \frac{\frac{1}{r}R}{\frac{1}{s}S} mit R \sim \chi^2_r, S \sim \chi^2_s |
Python ¶
You might want to look into scipy.stats
as it offers many convenient functions.
For example, if you have to find the 95%-Quantile of the F_{k=3,n=19} distribution, this is what you do:
import scipy.stats
# Create a variable representing the distribution
rv = scipy.stats.f(dfn=3, dfd=19)
# Percent point function
rv.ppf(0.95) # gives 3.1273500051133989
Klausur Aufbau ¶
- Aufgabe 1 und 2
- ML-Schätzer bestimmen
- Score-Funktion / Fisher-Information
- Cramér-Rao-Schranke
- asymptotisch Erwartungstreue / Konsistenz von Schätzern
- Erwartungswert, Varianz, MQA eines Schätzers bestimmen
- Momentenschätzer bestimmen
- Aufgabe 3
- Aufgabe 4
- Statistisches Modell angeben
- Quartile und Median einer Stichprobe bestimmen
- Vorzeichen-Test für Median
- Aufgabe 5
- Satz von Student
- Konfidenzintervall
- Gütefunktion
- Beziehung zwischen Konfidenzintervall und Tests
- Aufgabe 6
- Korrelationskoeffizient
- ANOVA-Tafel
- Modellannahmen bei einfacher Varianzanalyse
- Aufgabe 7
- Lineares Regressionsmodell
- Kleinster-Quadrate-Schätzer
- Bestimmtheitsmaß
- Chi-Quadrat-Test auf Homogenität ($D := \sum_{i=1}^n \frac{n_i {(\hat{p}i - \hat{p})}^2}{\hat{p} (1 - \hat{p})} \stackrel{H_0}{\sim} \chi^2$)
- Various
- Exp-Verteilung und Zusammenhang mit Gamma-Verteilung
- Binomial-Verteilung
- 1-Stichproben t-Test
- F-Test für den Varianzquotienten
- Globaler F-Test
Prüfungsfragen ¶
- Kann ein Schätzer Erwartungstreu und Konsistent sein?
→ Ja. Seien X_1, \dots, X_n \stackrel{uiv}{\sim} Bin(1, \vartheta) mit \vartheta \in (0, 1). Sei außerdem $\hat{\vartheta}n = \frac{1}{n} \sum^n x_i. \hat{\vartheta}_n$ ist erwartungstreu und konsistent. - Kann ein Schätzer weder Erwartungstreu noch Konsistent sein?
→ Ja. Seien X_1, \dots, X_n \stackrel{uiv}{\sim} Bin(1, \vartheta) mit \vartheta \in (0, 1). Der Schätzer \hat{\vartheta} = 0.5 ist weder Erwartungstreu noch konsistent für \vartheta \neq 0.5. - Kann ein Schätzer Erwartungstreu, aber nicht konsistent sein?
→ Ja. Setting wie zuvor und \hat{\vartheta} = x_n (siehe math.SE) - Kann ein Schätzer nicht Erwartungstreu, aber konsistent sein?
→ Ja. Setting wie zuvor und \hat{\vartheta} = \frac{1}{n} \sum_{i=1}^n x_i + \frac{1}{n} (siehe math.SE)
Material und Links ¶
- Vorlesungswebsite
- Illias
- StackExchange
- Blog-Artikel
- The Absolute Value Function - vgl. Konfidenzintervalle
- The p value
- Anki-Karten (direct download)
- Verteilungsfunktion der Normalverteilung als Tabelle
- Inverse Verteilungsfunktion der Normalverteilung als Tabelle
- Fehlende Musterlösungen: KIT-Musterloesungen - Verbesserungshinweise nehme ich immer gerne entgegen (
info@martin-thoma.de
)
Literatur ¶
- Skript von Dr. B. Klar: Statistik
- [Bic01] P.J. Bickel and K.A. Doksum. Mathematical statistics, 2nd ed.
- [Cza11] C. Cazado and T. Schmidt. Mathematische Statistik.
Übungsbetrieb ¶
Übungsblätter sind freiwillig.
Termine und Klausurablauf ¶
Datum: 01.03.2017, 7:30 - 9:30 Uhr (Quelle: Vorlesungswebsite - Ja, es ist wirklich so früh!)
Ort: Benz-Hörsaal Geb. 10.21
Punkte: 60
Zeit: 2h
Punkteverteilung: TODO
Bestehensgrenze: mit 20 Punkten hat man bestanden
Übungsschein: gibt es nicht
Bonuspunkte: gibt es nicht
Nicht vergessen:
- Studentenausweis
- Taschenrechner
- Uhr
- Brille
- Geodreieck
Einsicht: Am 2. März standen schon die Noten fest. Am 16.03.17 um 11:00 - 11:30 Uhr im Raum 2.071 des Mathematikgebäudes ist die Einsicht.