In der Vorlesung 'Informationsfusion' ist der Kalman-Filter ein zentraler Inhalt.
Behandelter Stoff
Grundlagen
Slides: IF-Kap1_151110.pdf
Es wurden Grundbegriffe wie Daten, Information, Merkmal, Informationsfusion, Signal, usw. eingeführt.
- Information
- Information ist alles was potentiell zur Verringerung von Ungewissheit beiträgt. Sinnvolle Informationen besteht aus Fakten und zugehörigen Unsicherheiten.
- Signal
- Ein Signal ist eine Funktion oder Wertefolge welche Information trägt.
- Daten
- Daten sind maschinenlesbare Repräsentationen von Informationen. Sie werden als Zeichen oder Zeichenketten gespeichert.
- Merkmal
- Ein Merkmal ist eine beobachtbare oder physikalisch messbare Eigenschaft eines oder mehrerer Objekte.
- Vorraussetzungen für Informationsfusion
-
- Gemeinsamer Sachverhalt
- Kompatibler Definitionsbereich
- Kompatibler Wertebereich
- Unsicherheiten: Die Informationen müssen ein Maß für ihre Unsicherheit tragen
- Gemeinsamer Sachverhalt
- Vorteile von Informationsfusion
-
- Höhere Robustheit
- Erweterung der Sensorabdeckung
- Erhöhte Auflösung (z.B. Accelerometer + Kompas in Kamera)
- Kostenreduktion (z.B. mehrere billige Bildsensoren, dann Daten mitteln zur Rauschreduktion)
- Unsicherheit Verringern (z.B. FLIR + Radar)
- Indirektes schließen auf Größen (z.B. Oberflächennormalen)
- Wünschenswerte Eigenschaften von Merkmalen
-
- Leicht gewinnbar
- Interpretierbar
- Hohe Relevanz: Merkmalsvektor ist gut für die Aufgabe geeignet (z.B. lineare separierbarkeit der Klassen bei Klassifikationsproblemen in Merkmalsraum)
- Robustheit gegen Störungen
- Invarianzen werden berücksichtigt (z.B. Drehung des Objekts)
- Geringe Dimensionalität des Merkmalsvektors
- Geringe Abhängigkeit zwischen Merkmalen
- Eigenschaften von Sensorsystemen
-
- Homogenität / Heterogenität
- Wirkmechanismus / Struktur
- Zuverlässigkeit
- Kommensurabilität (Gleichdimensionalität)
- Kollokiertheit (Identische Ausschnitte der Szene): Falls nicht gegeben, ist Registrierung erforderlich
- Aktive / passive Sensoren: z.B. Laser beeinflusst die Umwelt
- Virtuelle Sensorsysteme: Gleiche Sensoren, aber unterschiedliche Parameter
- Kosten, Material
WT
Slides: IF-Kap2_151215.pdf
- Wahrscheinlichkeitsraum, Zufallsvariable
- Guide to the Expression of Uncertainty in Measurement (GUM)
- Bayessche Methodik
- Kolmogorov-Axiome
- Siehe Probabilistische Planung
- Kovarianz (Covariance)
- Es seien $X, Y$ Zufallsvariablen. Dann heißt $$COV(X, Y) = \mathbb{E}((X - \mathbb{E}(X)) \cdot (Y - \mathbb{E}(Y)))$$ die Kovarianz von $X$ und $Y$.
- Statistisches Modell
- Es sei $X$ eine Zufallsvariable. Dann heißt ein Tupel $(X, (P_\theta)_{\theta \in \Theta})$ ein statistisches Modell, wenn $(P_\theta)_{\theta \in \Theta}$ eine Familie von Wahrscheinlichkeitsverteilungen ist.
- Schätzer
- Sei $\mathcal{X}_n = (X_1, \dots, X_n)$ eine Stichprobe und $\theta$ ein Parameter. Dann heißt die Abbildung $$T: \mathcal{X} \rightarrow \tilde{\Theta}$$ mit $\tilde{\Theta} \supseteq \Theta$ ein Schätzer für $\theta$.
- Konsistenter Schätzer
- Sei $\mathcal{X}_n = (X_1, \dots, X_n)$ eine Stichprobe, $\theta$ ein Parameter und $T(\mathcal{X}_n)$ ein Schätzer für $\theta$. $T(\mathcal{X}_n)$ heißt konsistent, wenn gilt: $$\lim_{n \rightarrow \infty} P_\theta (|T(\mathcal{X}_n) - \theta| \geq \varepsilon) = 0$$
- Asymptotisch Erwartungstreuer Schätzer
- Ein Schätzer $\hat{\theta} = \hat{\theta}(X_1, \dots, X_n)$ heißt asymptotisch erwartungstreu, wenn der Grenzwert der zu schätzenden Folge unter Annahme von $\theta$ gleich $\theta$ ist: $$\lim_{n \rightarrow \infty} \mathbb{E}(\hat{\theta}) = \theta$$
- Kalman-Filter (KF)
- Siehe Kalman-filter Artikel.
- Extended Kalman Filter (EKF)
- Siehe Kalman-filter Artikel. GUM (Guide to the Expression of Uncertainty in Measurement)
- GUM ist eine internationale Norm welche das Ziel hat, die
Vergleichbarkeit zwischen Messergebnissen herzustellen. Dazu
wurden in der Norm Grundsätze und Vorgehensweisen zur Bestimmung der
Messunsicherheit festgelegt.
GUM ist auf metrische Merkmale beschränkt.
Vorgehen:- Modellgleichung formulieren: $Y = f(X_1, \dots, X_n)$, wobei $Y$ die Messgröße und $X_i$ die Eingangsgrößen sind.
- Eingangsgrößen und Unsicherheiten bestimmen (entweder durch Messreihen oder durch Erfahrungswerte / Handbücher)
- Schätzwert $\hat{y}$ für Messgröße $Y$ bestimmen
- Ermittlung der kombinierten Unsicherheit
- Standardunsicherheit
- Die Standardunsicherheit einer Messung ist $$u_i = s(\bar{x_i}) = \sqrt{\frac{s^2(x_i)}{n}}$$
Dempster-Shafer-Theorie
Slides: IF-Kap3_160125.pdf
For this chapter, I highly recommend reading Anwendung der Dempster-Shafer Evidenztheorie auf die Bonitätsprüfung.
- Frame of discernment (Wahrnehmungsrahmen)
- Der Wahrnehmungsrahmen ist eine Menge $\Omega$. Die Elemente dieser Mengen heißen Alternativen oder Aussagen. Eine Hypothese ist eine Teilmenge $H \subseteq \Omega$ des Wahrnehmungsrahmens.
- Basismaß (basic probability mass)
-
Sei $\Omega$ ein Wahrnehmungsrahmen und
$$m: \mathcal{P}(\Omega) \rightarrow [0, 1]$$
eine Abbildung von der Potenzmenge von $\Omega$ in das
Einheitsintervall. $m$ heißt Basismaß, wenn gilt:
- $m(\emptyset) = 0$
- $\sum_{X \subseteq \Omega} m(X) = 1$
- Belief function (Glaubensfunktion)
- Sei $\Omega$ ein Wahrnehmungsrahmen, $m$ ein Basismaß und $$Bel: \mathcal{P}(\Omega) \rightarrow [0, 1]$$ eine Funktion. $Bel$ heißt Glaubensfunktion, wenn gilt: $$Bel(X) := \sum_{Y \subseteq X} m(Y)$$ Die Glaubensfunktion stellt also eine untere Grenze für eine unbekannte Wahrscheinlichkeitsfunktion dar.
- Plausibility function (Plausibilitätsfunktion)
- Sei $\Omega$ ein Wahrnehmungsrahmen, $m$ ein Basismaß und $$Pl: \mathcal{P}(\Omega) \rightarrow [0, 1]$$ eine Funktion. $Pl$ heißt Plausibilitätsfunktion, wenn gilt: $$Pl(X) := \sum_{Y \cap X \neq \emptyset} m(Y)$$ Die Plausibilitätsfunktion stellt also eine obere Grenze für eine unbekannte Wahrscheinlichkeitsfunktion dar.
- Fokale Ereignisse
- Ein Ereignis $A$ heißt fokal bzg. eines Basismaßes $m$, wenn $m(A) \neq 0$ gilt.
- Dempsters Kombinationsregel (Dempsters rule of combination, DRC)
- $$m_1 \oplus m_2 (A) := \begin{cases}0&\text{for } A = \emptyset\\
\frac{\sum_{X, Y: X \cap Y = A} m_1(X) m_2(Y)}{|1-K|}\end{cases}$$
für Konfliktgrad $$K := \sum_{X, Y: X \cap Y = \emptyset} m_1(X) m_2(Y)$$
Bei einem Konfliktgrad von $0 < K < 1$ spricht man von einem
partiellen Konflikt. Ist der Konfliktgrad gleich $K=1$, so ist DRC
nicht anwendbar.
DRC ist assoziativ und kommutativ, allerdings nicht idempotent. Es gilt also im Allgemeinen nicht $m \oplus m = m$.
Bei der Berechnung des Konfliktgrades genügt es fokale Ereignisse zu betrachten. - Bayessche Fusion
-
Angenommen man hat eine Klassifikationsaufgabe. $z$ gehört einer der
Klassen $A, B, C$ an. Nun liefert ein Klassifizierer $d_1$ die
Wahrscheinlichkeitsverteilung
$$m_1(A) = 0.01 \qquad m_1(B) = 0.99 \qquad m_1(C) = 0$$
und ein zweiter Klassifizierer $d_2$ liefert
$$m_2(A) = 0.01 \qquad m_2(B) = 0 \qquad m_2(C) = 0.99$$
Gesucht ist eine Wahrscheinlichkeitsverteilung, welche die beiden
Ergebnisse fusioniert.
Da kein Vorwissen existiert, wird das Maximum-Entropie-Prinzip für die a priori Wahrscheinlichkeitsverteilung verwendet. Man geht also a priori davon aus, dass jede Klasse gleich wahrscheinlich ist: $$P(z) = (\frac{1}{3}; \frac{1}{3}; \frac{1}{3})$$
Nun gilt: $$ \begin{align} P(z | d_1, d_2)&= \frac{P(d_1, d_2 | z) \cdot P(z)}{P(d_1, d_2)}\\ &= \frac{P(d_1 | z) \cdot P(d_2 | d_1, z) \cdot P(z)}{P(d_1, d_2)}\\ &\overset{(1)}{=} \frac{P(d_1 | z) \cdot P(d_2 | z) \cdot P(z)}{P(d_1, d_2)}\\ &= \frac{\begin{pmatrix}0.1\\0.99\\0\end{pmatrix} \cdot \begin{pmatrix}0.1\\0\\0.99\end{pmatrix} \cdot \begin{pmatrix}1/3\\1/3\\1/3\end{pmatrix}}{P(d_1, d_2)}\\ &= \frac{\begin{pmatrix}1/300\\0\\0\end{pmatrix}}{P(d_1, d_2)}\\ &\overset{(2)}{=} \begin{pmatrix}1\\0\\0\end{pmatrix}\\ \end{align} $$ bei (1) wurde Unabhängigkeit vorausgesetzt, bei (2) wurde auf 1 normiert, damit eine Wahrscheinlichkeitsverteilung herauskommt.
Fuzzy-Systeme
Slides: IF-Kap4_160125.pdf
Zur Einführung:
- Fuzzy Logic - Computerphile
- Fuzzy Logic: An Introduction
- An Introduction to Fuzzy Logic: An example with breaks
- Zugehörigkeitsfunktion (membership function)
- Sei $\Omega$ ein Grundraum und $A$ eine unscharfe Menge, für die $\mu_A: X \rightarrow [0, 1]$ den Grad der Zugehörigkeit definiert. $\mu_A$ heißt Zugehörigkeitsfunktion, wenn gilt $$\mu_{\Omega \setminus A}(t) = 1 - \mu_{A}$$
- Gesetz vom ausgeschlossenen Dritten
- Für eine beliebige Aussage muss mindestens die Aussage selbst oder ihr Gegenteil gelten. Dies gilt in der klassischen Mengenlehre, jedoch nicht für unscharfe Mengen.
- Gesetz vom ausgeschlossenen Widerspruch
- Zwei einander widersprechende Aussagen können nicht zugleich zutreffen. Dies gilt in der klassischen Mengenlehre, jedoch nicht für unscharfe Mengen.
- Fuzzy-Operationen
-
Es seien $\mu_A, \mu_B$ die Zugehörigkeitsfunktionen zweier unscharfer
Mengen $A, B$ über dem Grundraum $\Omega$. Dann gilt:
Not: $$\forall x \in \Omega: \mu_{\Omega \setminus A}(x) = 1 - \mu_A(x)$$
Konjunktion (AND, Minimum-T-Norm): $$\forall x \in \Omega: \mu_{A \land B}(x) = \min(\mu_A(x), \mu_B(x))$$
Disjunktion (OR, Maximum-T-Norm): $$\forall x \in \Omega: \mu_{A \lor B}(x) = \max(\mu_A(x), \mu_B(x))$$ - Defuzzifizierung (Defuzzification)
- Unter Defuzzifizierung versteht man die Berechnung des scharfen
Wertes der Ausgangsgröße.
Methoden: - Schwerpunktverfahren (center of gravity, COG)
- Das Schwerpunktverfahren dient zur Defuzzifizierung.
- Maximum-Mittelwert-Methode (Mean of maxima, MOM)
- Das Schwerpunktverfahren dient zur Defuzzifizierung.
- Fuzzy-Fusion
-
- Definition linguistischer Variablen (z.B. Temperatur) und Terme (Werte der linguistischen Variablen, z.B. kalt, kühl, lau, warm, heiß)
- Zugehörigkeitsfunktionen definieren
- Fuzzifizierung: Transformation der vorliegenden Information mithilfe der Zugehörigkeitsfunktionen in Fuzzy-konforme Form. Zugehörigkeitsfunktionen bilden numerische Terme auf linguistische Variablen ab.
- Kombination der Terme durch Anwendung von Fuzzy-Logik in der Regelbasis. Die Regeln haben die Form IF Prämisse THEN Konklusion.
- Defuzzifizierung: Abbildung auf Ausgangsbasis (Schwerpunktregel, Maximummethode oder Maximum-Mittelwert Methode)
Neuronale Netze
Slides: IF-Kap5_160125.pdf
Siehe Vorlesung Neuronale Netze
Registrierung
Slides: IF-Kap6_160125.pdf
Wurde nicht besprochen.
Energiefunktionale
Slides: IF-Kap7_160125.pdf
- Funktional
- Ein Funktional ist eine Funktion aus einem Vektorraum $V$ in den Körper, der dem Vektorraum zugrunde liegt. Oft ist $V$ ein Funktionenraum, also ein Vektorraum, dessen Elemente reell- oder komplexwertige Funktionen sind. Ein Funktional ist somit eine Funktion auf Funktionen.
- Energiefunktionale
- Durch die Einführung von Energietermen $E_k$ lassen sich fusionsrelevante Informationen modellieren. Die Fusionsaufgabe wird dann durch das Energiefunktional $$E = \sum_k \lambda_k E_k, \qquad \lambda_k > 0$$ repräsentiert. Die unterschiedliche Relevanz der Energieterme $E_k$ wird durch die Vorfaktoren $\lambda_k$ berücksichtigt.
- Gibbs-Verteilung
- Die Gibbs-Verteilung mit dem Energiefunktional $E$ ist
$$\pi_{\beta, E}(x) = \frac{1}{Z} e^{- \beta E(x)},$$
mit Normierungskonstante $Z$ und der inversen Temperatur
$\beta = \frac{1}{T}$.
Interpretation: Es sei $E: V \rightarrow \mathbb{R}$, $V$ endlich.- $V$: Die Menge aller Konfigurationen eines physikalischen Systems.
- $E(x)$: Energie des Systems, wenn es sich in der Konfiguration $x$ befindet.
- $T$: Temperatur. Ist die Temperatur groß, so sind alle Konfigurationen etwa gleich wahrscheinlich. Bei niedriger Temperatur werden Konfigurationen mit niedriger Energie bevorzugt.
- $\pi_{\beta, E}(x)$: Wahrscheinlichkeit, dass sich das System in der Konfiguration $x$ befindet.
- Energieminimierung
-
- Lösung eines linearen Gleichungssystems (selten möglich)
- Graph-Cuts-Verfahren
- Approximative Lösung durch sukzessive Optimierung
- Methode des steilsten abstiegs
- Monte-Carlo-Methode
- Simulated Annealing
- Lineare Programme
- Dynamische Programmierung
- Mean Field Theorie (Betrachte Erwartungswerte)
Überblick
Unsicherheitsmodellierung | Wahrscheinlichkeiten | Verallgemeinerte W-Keiten | Linguistisch | Neuronale Netze |
---|---|---|---|---|
Fusion | Bayes-Fusion | DRC | Fuzzy-Fusion | |
Unsicherheiten | Wahrscheinlichkeit in [0, 1] | Basismaß in [0, 1] | Zugehörigkeit in [0, 1] |
Abkürzungen
- EKF: Extended Kalman Filter
- GUM: Guide to the Expression of Uncertainty in Measurement
- KF: Kalman Filter
- LS: Least Squares
- UKF: Unscented Kalman Filter
Meine Fragen
- Kapitel 1, Folie 61: Was ist der Definitions / Wertebereich von Information?
- Kapitel 2, Folie 5: Alle Ereignisse paarweise disjunkt
- Kapitel 2, Folie 22: Man muss für wirksame Schätzer noch fordern, dass sie erwartungstreu sind. Es gibt immer den konstanten Schätzer, welcher die Stichprobe ignoriert und somit eine Varianz von 0 hat.
- Kapitel 2, Folie 37: Was ist ein Arbeitspunkt?
- Kapitel 2, Folie 44f: Fusion 2er Größen / Verteilungen
- Kapitel 2, Folie 79: Was ist der Trunkation error? Was ist der base point error und warum ist es ein Problem, dass man um den Schätzwert und nicht um den wahren Wert linearisiert?
Übungsaufgaben
Die Lösungen sind auch online (ausführlicher und besser als ich es hier habe).
ÜB 1
- Aufgabe 1.1: http://math.stackexchange.com/q/1919394/6876
- Aufgabe 1.2: \(P(A) = 0.5 = P(B) = P(C)\),
$$ \begin{align} P(A) \cdot P(B) &= 0.25 = P(A \cap B)\\ P(A) \cdot P(C) &= 0.25 = P(A \cap C)\\ P(A) \cdot P(B) \cdot P(C) &= 0.125 \neq 0.25 = P(A \cap B \cap C) \end{align} $$Daher sind die Ereignisse \(A\) und \(B\), die Ereignisse \(A, C\), die Ereignisse \(B, C\) unabhängig. Die Ereignisse \(A, B, C\) sind jedoch nicht unabhängig.
- Aufgabe 1.3a: \(5 \cdot (\frac{1}{6} \cdot \frac{1}{6}) = \frac{5}{36}\)
- Aufgabe 1.3b: \(\frac{\frac{2}{5} \cdot \frac{5}{36}}{1-0.25} = \frac{2}{27}\)
- Aufgabe 1.4:
- \(P(X = 2) = P(X=12) = \frac{1}{36}\)
- \(P(X = 3) = P(X=11) = \frac{2}{36}\)
- \(P(X = 4) = P(X=10) = \frac{3}{36}\)
- \(P(X = 5) = P(X=9) = \frac{4}{36}\)
- \(P(X = 6) = P(X=8) = \frac{5}{36}\)
- \(P(X = 7) = \frac{6}{36}\)
- \(F(x) = \sum_{i=2}^x P(X = i)\)
- \(\mathbb{E}(X) = 2 \cdot 3.5 = 7\)
- Aufgabe 1.5a: \(\int_0^\infty (\alpha \cdot \exp(-\alpha x)) \mathrm{d}x = \alpha \int_0^\infty \exp(-\alpha x) \mathrm{d}x = \alpha [-\frac{1}{\alpha} \exp(-\alpha x)]_0^\infty = 1\)
- Aufgabe 1.5b: Erwartungswert einer Zufallsvariable ist \(\int_{-\infty}^{+\infty} x f(x) \mathrm{d} x\).
- Aufgabe 1.6:
- \(G\): E-mail ist geschäftlich, \(\bar{G}\) ist privat
- \(S\): E-mail ist spam, \(\bar{S}\) ist ham
- \(F\): E-mail enthält das Wort "Free"
- \(P(S | F) = \frac{P(F | S) \cdot P(S)}{P(F)} = \frac{0.9 \cdot 0.7}{0.9 \cdot 0.7 + 0.01 \cdot 0.3} = \frac{210}{211}\)
ÜB 2
- Aufgabe 1.1: Die kontinuierliche Entropie ist kein resultat immer feiner werdender Diskretisierungen der diskreten Entropie
- Aufgabe 1.2a: \(P(B \cap L) = P(B) \cdot P(L) = 1/3 \cdot 1/3 = 1/9\)
- Aufgabe 1.2b: 1/9
- Aufgabe 1.2c: Das Prinzip der maximalen Entropie für Zufallsvariablen führt zur Unabhängigkeitsannahme.
- Aufgabe 1.2d: Die Entropie wird im Erwartungswert reduziert, wenn eine Größe durch eine andere bedingt wird.
- Aufgabe 1.3a: \(P(z=z_A| d_A) = 0.45\), \(P(z=z_B| d_A) = 0.45\), \(P(z=z_K| d_A) = 0.1\)
- Aufgabe 1.3b: Ist hier ein Zahlendreher passiert?
- Aufgabe 1.4a: Mit "Detektionsleistung" ist gemeint, wie wahrscheinlich der Sensor ein Objekt detektiert, wenn eines da ist. Mit "Klassifikationsleistung" ist gemeint, wie Wahrscheinlich der Sensor bei vorhandenem Objekt dieses richtig klassifiziert.
- Aufgabe 1.4b: Zentralisierte Bayessche Fusion (Likelihoodmatrizen)
- Aufgabe 1.4c: Zentralisierte Bayessche Fusion (A-posteriori-Verteilung)
- Aufgabe 1.4d: Verteilte Fusion
- Aufgabe 1.5: Berechnung der Log-A-posteriori-Verteilung
- Aufgabe 1.6: 0.043 (Das typische Patenten-Test-Beispiel)
ÜB 3
- Aufgabe 1.1:
- \(Bel(A) = \sum_{B \subseteq A} m(B)\)
- \(Pl(A) = 1 - Bel(\bar{A}) = \sum_{B \cap A \neq \emptyset} m(B)\)
- Aufgabe 1.2a: Obwohl beide Basismaße dem Ereignis A eine sehr niedriges Maß zuweisen, ist es durch DRC das Ereignis mit dem höchsten Wert. Das liegt daran, dass die anderen jeweils exakt 0 haben.
- Aufgabe 1.2b: Jeder einzelne Experte gab A nur geringen glauben. Dennoch wird A deutlich am meisten Glauben nach der Fusion geschenkt.
- Aufgabe 1.2c: Das gleiche Ergebnis.
- Aufgabe 1.3a: \(m_{123}(111) = 0.82\), das Ergebnis ist also zu 82% glaubwürdig. (Schönes beispiel, dass DRC nicht idempotent ist)
- Aufgabe 1.3b: Rechnen mit Basismaßen / DRC
- Aufgabe 1.3c: Rechnen mit Basismaßen / DRC
- Aufgabe 1.4: \(P(s=A | w=A) + P(s=B | w=B) = 0.6\)
- Aufgabe 2.1: Spielen mit Fuzzy-Mengen
- Aufgabe 2.2: XOR für Fuzzy-Mengen
Prüfungsfragen
- Welche Bedingungen müssen erfüllt sein, damit Informationen fusioniert werden
können?
→ Gemeinsamer Sachverhalt; kompatible Definitions- und Wertebereiche; Unsicherheitsbehaftet - Welche Arten von Unsicherheit kennen Sie?
→ Unsicherheit kann man mit Wahrscheinlichkeiten, Basismaße (Dempster-Shafer-Theorie) und über unscharfe Mengen (Fuzzy-Systeme) sowie über unsicheres Erfahrungswissen (Neuronale Netze) beschreiben. - Was ist der Unterschied zwischen Wahrscheinlichkeiten und Basismaßen?
→ Basismaße sind nicht monoton und nicht additiv. - Wie lautet die Formel für verteilte Bayessche Fusion?
→ Wie zentrale bayessche Fusion, nur dass die Likelihood-Funktionen vorab berechnet werden (zweimaliges Anwenden der Bayes-Rule mit Unabhängigkeitsannahme zwischendurch) - Wie lauten die Axiome von Kolmogorov?
→ Siehe oben - Was sind Zugehörigkeitsfunktionen?
→ Siehe oben - Wie funktioniert Informationsfusion mit Fuzzy-Systemen?
→ Siehe oben. - Welche Vorteile bietet Informationsfusion?
→ Siehe oben. - Welche Eigenschaften sind bei Merkmalen wünschenswert?
→ Siehe oben. - Welche Beziehung gilt zwischen Erwartungstreue und Konsistenz von Schätzern?
→ TODO
Kalman-Filter
- Aus welchen Schritten besteht der Kalman-Filter?
→ Prädiktion, Innovation - Welche Erweiterungen zum Kalman-Filter kennen Sie?
→ Extended Kalman Filter (EKF), UKF (Unscented Kalman Filter) - Für welche Systeme ist der Kalman-Filter geeignet?
→ Lineare Zeitinvariante Systeme (LTI-Systeme) - Wie entwickeln sich die Wahrscheinlichkeiten beim Kalman-Filter?
→ Bei der Prädiktion steigt die Unsicherheit, bei der Innovation sinkt sie. - Wie lautet das Systemmodell im Kalman-Filter?
→ vgl. Kalman-Filter Artikel
Absprachen
- Kapitel 5 (Neuronale Netze) und Kapitel 6 (Registrierung) kommen nicht dran.
- Übungsaufgaben sind auch Prüfungsrelevant.
Material und Links
- Vorlesungswebsite
- Anki-Deck
- Anwendung der Dempster-Shafer Evidenztheorie auf die Bonitätsprüfung
- Mein Prüfungsprotokoll
Literatur:
- Bayes-Methoden: James O. Berger: Statistical Decision Theory and Bayesian Analysis. 2nd edition, Springer, 2006. ISBN 0-387-96098-8.
- Anwendungen: Rick S. Blum, Zheng Liu (Hrsg.): Multi Sensor Image Fusion and Its Applications. Taylor & Francis, 2006. ISBN 0849334179.
- Energiefunktionale: James J. Clark, Alan L. Yuille: Data Fusion for Sensory Information Processing Systems. Kluwer Academic Publishers, 1990. ISBN 0792391209.
- Fuzzy Logic: Jochen Heinsohn; Rolf Socher-Ambrosius: Wissensverarbeitung: eine Einführung. Spektrum Akademischer Verlag, 1999. ISBN 3827403081.
Vorlesungsempfehlungen
Folgende Vorlesungen sind ähnlich:
- Analysetechniken großer Datenbestände
- Informationsfusion
- Machine Learning 1
- Machine Learning 2
- Mustererkennung
- Neuronale Netze
- Lokalisierung Mobiler Agenten
- Probabilistische Planung
Termine und Klausurablauf
Es ist eine mündliche Prüfung.
Ich habe meine am Fraunhofer IOSB, Fraunhoferstr. 1, 76131 Karlsruhe am 11.10.2016 um 15:30 Uhr bei Herrn Dr. Heizmann.