• Martin Thoma
  • Home
  • Categories
  • Tags
  • Archives
  • Support me

Informationsfusion

Contents

  • Informationsfusion
    • Behandelter Stoff
      • Grundlagen
      • WT
      • Dempster-Shafer-Theorie
      • Fuzzy-Systeme
      • Neuronale Netze
      • Registrierung
      • Energie­funktionale
    • Überblick
    • Abkürzungen
    • Meine Fragen
    • Übungsaufgaben
      • ÜB 1
      • ÜB 2
      • ÜB 3
    • Prüfungsfragen
      • Kalman-Filter
    • Absprachen
    • Material und Links
    • Vorlesungs­empfehlungen
    • Termine und Klausurablauf
Dieser Artikel beschäftigt sich mit der Vorlesung „Informationsfusion“ am KIT. Er dient als Prüfungsvorbereitung. Ich habe die Vorlesungen nicht gehört, aber die Folien von Herrn Prof. Dr.-Ing. Michael Heizmann aus dem Wintersemester 2015/2016 gelesen.

In der Vorlesung 'Informationsfusion' ist der Kalman-Filter ein zentraler Inhalt.

Behandelter Stoff

Grundlagen

Slides: IF-Kap1_151110.pdf

Es wurden Grundbegriffe wie Daten, Information, Merkmal, Informationsfusion, Signal, usw. eingeführt.

Information
Information ist alles was potentiell zur Verringerung von Ungewissheit beiträgt. Sinnvolle Informationen besteht aus Fakten und zugehörigen Unsicherheiten.
Signal
Ein Signal ist eine Funktion oder Wertefolge welche Information trägt.
Daten
Daten sind maschinenlesbare Repräsentationen von Informationen. Sie werden als Zeichen oder Zeichenketten gespeichert.
Merkmal
Ein Merkmal ist eine beobachtbare oder physikalisch messbare Eigenschaft eines oder mehrerer Objekte.
Vorraussetzungen für Informationsfusion
  • Gemeinsamer Sachverhalt
    • Kompatibler Definitionsbereich
    • Kompatibler Wertebereich
  • Unsicherheiten: Die Informationen müssen ein Maß für ihre Unsicherheit tragen
Vorteile von Informationsfusion
  • Höhere Robustheit
  • Erweterung der Sensorabdeckung
  • Erhöhte Auflösung (z.B. Accelerometer + Kompas in Kamera)
  • Kostenreduktion (z.B. mehrere billige Bildsensoren, dann Daten mitteln zur Rauschreduktion)
  • Unsicherheit Verringern (z.B. FLIR + Radar)
  • Indirektes schließen auf Größen (z.B. Oberflächennormalen)
Wünschenswerte Eigenschaften von Merkmalen
  • Leicht gewinnbar
  • Interpretierbar
  • Hohe Relevanz: Merkmalsvektor ist gut für die Aufgabe geeignet (z.B. lineare separierbarkeit der Klassen bei Klassifikationsproblemen in Merkmalsraum)
  • Robustheit gegen Störungen
  • Invarianzen werden berücksichtigt (z.B. Drehung des Objekts)
  • Geringe Dimensionalität des Merkmalsvektors
  • Geringe Abhängigkeit zwischen Merkmalen
Eigenschaften von Sensorsystemen
  • Homogenität / Heterogenität
  • Wirkmechanismus / Struktur
  • Zuverlässigkeit
  • Kommensurabilität (Gleichdimensionalität)
  • Kollokiertheit (Identische Ausschnitte der Szene): Falls nicht gegeben, ist Registrierung erforderlich
Weitere:
  • Aktive / passive Sensoren: z.B. Laser beeinflusst die Umwelt
  • Virtuelle Sensorsysteme: Gleiche Sensoren, aber unterschiedliche Parameter
  • Kosten, Material

WT

Slides: IF-Kap2_151215.pdf

  • Wahrscheinlichkeitsraum, Zufallsvariable
  • Guide to the Expression of Uncertainty in Measurement (GUM)
  • Bayessche Methodik
Kolmogorov-Axiome
Siehe Probabilistische Planung
Kovarianz (Covariance)
Es seien $X, Y$ Zufallsvariablen. Dann heißt $$COV(X, Y) = \mathbb{E}((X - \mathbb{E}(X)) \cdot (Y - \mathbb{E}(Y)))$$ die Kovarianz von $X$ und $Y$.
Statistisches Modell
Es sei $X$ eine Zufallsvariable. Dann heißt ein Tupel $(X, (P_\theta)_{\theta \in \Theta})$ ein statistisches Modell, wenn $(P_\theta)_{\theta \in \Theta}$ eine Familie von Wahrscheinlichkeitsverteilungen ist.
Schätzer
Sei $\mathcal{X}_n = (X_1, \dots, X_n)$ eine Stichprobe und $\theta$ ein Parameter. Dann heißt die Abbildung $$T: \mathcal{X} \rightarrow \tilde{\Theta}$$ mit $\tilde{\Theta} \supseteq \Theta$ ein Schätzer für $\theta$.
Konsistenter Schätzer
Sei $\mathcal{X}_n = (X_1, \dots, X_n)$ eine Stichprobe, $\theta$ ein Parameter und $T(\mathcal{X}_n)$ ein Schätzer für $\theta$. $T(\mathcal{X}_n)$ heißt konsistent, wenn gilt: $$\lim_{n \rightarrow \infty} P_\theta (|T(\mathcal{X}_n) - \theta| \geq \varepsilon) = 0$$
Asymptotisch Erwartungstreuer Schätzer
Ein Schätzer $\hat{\theta} = \hat{\theta}(X_1, \dots, X_n)$ heißt asymptotisch erwartungstreu, wenn der Grenzwert der zu schätzenden Folge unter Annahme von $\theta$ gleich $\theta$ ist: $$\lim_{n \rightarrow \infty} \mathbb{E}(\hat{\theta}) = \theta$$
Kalman-Filter (KF)
Siehe Kalman-filter Artikel.
Extended Kalman Filter (EKF)
Siehe Kalman-filter Artikel.
GUM (Guide to the Expression of Uncertainty in Measurement)
GUM ist eine internationale Norm welche das Ziel hat, die Vergleichbarkeit zwischen Messergebnissen herzustellen. Dazu wurden in der Norm Grundsätze und Vorgehensweisen zur Bestimmung der Messunsicherheit festgelegt.

GUM ist auf metrische Merkmale beschränkt.
Vorgehen:
  1. Modellgleichung formulieren: $Y = f(X_1, \dots, X_n)$, wobei $Y$ die Messgröße und $X_i$ die Eingangsgrößen sind.
  2. Eingangsgrößen und Unsicherheiten bestimmen (entweder durch Messreihen oder durch Erfahrungswerte / Handbücher)
  3. Schätzwert $\hat{y}$ für Messgröße $Y$ bestimmen
  4. Ermittlung der kombinierten Unsicherheit
Standardunsicherheit
Die Standardunsicherheit einer Messung ist $$u_i = s(\bar{x_i}) = \sqrt{\frac{s^2(x_i)}{n}}$$

Dempster-Shafer-Theorie

Slides: IF-Kap3_160125.pdf

For this chapter, I highly recommend reading Anwendung der Dempster-Shafer Evidenztheorie auf die Bonitätsprüfung.

Frame of discernment (Wahrnehmungsrahmen)
Der Wahrnehmungsrahmen ist eine Menge $\Omega$. Die Elemente dieser Mengen heißen Alternativen oder Aussagen. Eine Hypothese ist eine Teilmenge $H \subseteq \Omega$ des Wahrnehmungsrahmens.
Basismaß (basic probability mass)
Sei $\Omega$ ein Wahrnehmungsrahmen und $$m: \mathcal{P}(\Omega) \rightarrow [0, 1]$$ eine Abbildung von der Potenzmenge von $\Omega$ in das Einheitsintervall. $m$ heißt Basismaß, wenn gilt:
  • $m(\emptyset) = 0$
  • $\sum_{X \subseteq \Omega} m(X) = 1$
Belief function (Glaubensfunktion)
Sei $\Omega$ ein Wahrnehmungsrahmen, $m$ ein Basismaß und $$Bel: \mathcal{P}(\Omega) \rightarrow [0, 1]$$ eine Funktion. $Bel$ heißt Glaubensfunktion, wenn gilt: $$Bel(X) := \sum_{Y \subseteq X} m(Y)$$ Die Glaubensfunktion stellt also eine untere Grenze für eine unbekannte Wahrscheinlichkeitsfunktion dar.
Plausibility function (Plausibilitätsfunktion)
Sei $\Omega$ ein Wahrnehmungsrahmen, $m$ ein Basismaß und $$Pl: \mathcal{P}(\Omega) \rightarrow [0, 1]$$ eine Funktion. $Pl$ heißt Plausibilitätsfunktion, wenn gilt: $$Pl(X) := \sum_{Y \cap X \neq \emptyset} m(Y)$$ Die Plausibilitätsfunktion stellt also eine obere Grenze für eine unbekannte Wahrscheinlichkeitsfunktion dar.
Fokale Ereignisse
Ein Ereignis $A$ heißt fokal bzg. eines Basismaßes $m$, wenn $m(A) \neq 0$ gilt.
Dempsters Kombinationsregel (Dempsters rule of combination, DRC)
$$m_1 \oplus m_2 (A) := \begin{cases}0&\text{for } A = \emptyset\\ \frac{\sum_{X, Y: X \cap Y = A} m_1(X) m_2(Y)}{|1-K|}\end{cases}$$ für Konfliktgrad $$K := \sum_{X, Y: X \cap Y = \emptyset} m_1(X) m_2(Y)$$ Bei einem Konfliktgrad von $0 < K < 1$ spricht man von einem partiellen Konflikt. Ist der Konfliktgrad gleich $K=1$, so ist DRC nicht anwendbar.

DRC ist assoziativ und kommutativ, allerdings nicht idempotent. Es gilt also im Allgemeinen nicht $m \oplus m = m$.
Bei der Berechnung des Konfliktgrades genügt es fokale Ereignisse zu betrachten.
Bayessche Fusion
Angenommen man hat eine Klassifikationsaufgabe. $z$ gehört einer der Klassen $A, B, C$ an. Nun liefert ein Klassifizierer $d_1$ die Wahrscheinlichkeitsverteilung $$m_1(A) = 0.01 \qquad m_1(B) = 0.99 \qquad m_1(C) = 0$$ und ein zweiter Klassifizierer $d_2$ liefert $$m_2(A) = 0.01 \qquad m_2(B) = 0 \qquad m_2(C) = 0.99$$ Gesucht ist eine Wahrscheinlichkeitsverteilung, welche die beiden Ergebnisse fusioniert.

Da kein Vorwissen existiert, wird das Maximum-Entropie-Prinzip für die a priori Wahrscheinlichkeitsverteilung verwendet. Man geht also a priori davon aus, dass jede Klasse gleich wahrscheinlich ist: $$P(z) = (\frac{1}{3}; \frac{1}{3}; \frac{1}{3})$$

Nun gilt: $$ \begin{align} P(z | d_1, d_2)&= \frac{P(d_1, d_2 | z) \cdot P(z)}{P(d_1, d_2)}\\ &= \frac{P(d_1 | z) \cdot P(d_2 | d_1, z) \cdot P(z)}{P(d_1, d_2)}\\ &\overset{(1)}{=} \frac{P(d_1 | z) \cdot P(d_2 | z) \cdot P(z)}{P(d_1, d_2)}\\ &= \frac{\begin{pmatrix}0.1\\0.99\\0\end{pmatrix} \cdot \begin{pmatrix}0.1\\0\\0.99\end{pmatrix} \cdot \begin{pmatrix}1/3\\1/3\\1/3\end{pmatrix}}{P(d_1, d_2)}\\ &= \frac{\begin{pmatrix}1/300\\0\\0\end{pmatrix}}{P(d_1, d_2)}\\ &\overset{(2)}{=} \begin{pmatrix}1\\0\\0\end{pmatrix}\\ \end{align} $$ bei (1) wurde Unabhängigkeit vorausgesetzt, bei (2) wurde auf 1 normiert, damit eine Wahrscheinlichkeitsverteilung herauskommt.

Fuzzy-Systeme

Slides: IF-Kap4_160125.pdf

Zur Einführung:

  • Fuzzy Logic - Computerphile
  • Fuzzy Logic: An Introduction
  • An Introduction to Fuzzy Logic: An example with breaks
Zugehörigkeitsfunktion (membership function)
Sei $\Omega$ ein Grundraum und $A$ eine unscharfe Menge, für die $\mu_A: X \rightarrow [0, 1]$ den Grad der Zugehörigkeit definiert. $\mu_A$ heißt Zugehörigkeitsfunktion, wenn gilt $$\mu_{\Omega \setminus A}(t) = 1 - \mu_{A}$$
Gesetz vom ausgeschlossenen Dritten
Für eine beliebige Aussage muss mindestens die Aussage selbst oder ihr Gegenteil gelten. Dies gilt in der klassischen Mengenlehre, jedoch nicht für unscharfe Mengen.
Gesetz vom ausgeschlossenen Widerspruch
Zwei einander widersprechende Aussagen können nicht zugleich zutreffen. Dies gilt in der klassischen Mengenlehre, jedoch nicht für unscharfe Mengen.
Fuzzy-Operationen
Es seien $\mu_A, \mu_B$ die Zugehörigkeitsfunktionen zweier unscharfer Mengen $A, B$ über dem Grundraum $\Omega$. Dann gilt:

Not: $$\forall x \in \Omega: \mu_{\Omega \setminus A}(x) = 1 - \mu_A(x)$$
Konjunktion (AND, Minimum-T-Norm): $$\forall x \in \Omega: \mu_{A \land B}(x) = \min(\mu_A(x), \mu_B(x))$$
Disjunktion (OR, Maximum-T-Norm): $$\forall x \in \Omega: \mu_{A \lor B}(x) = \max(\mu_A(x), \mu_B(x))$$
Defuzzifizierung (Defuzzification)
Unter Defuzzifizierung versteht man die Berechnung des scharfen Wertes der Ausgangsgröße.

Methoden:
  • Schwerpunktverfahren
  • Maximum-Mittelwert-Methode
Schwerpunktverfahren (center of gravity, COG)
Das Schwerpunktverfahren dient zur Defuzzifizierung.
Maximum-Mittelwert-Methode (Mean of maxima, MOM)
Das Schwerpunktverfahren dient zur Defuzzifizierung.
Fuzzy-Fusion
  1. Definition linguistischer Variablen (z.B. Temperatur) und Terme (Werte der linguistischen Variablen, z.B. kalt, kühl, lau, warm, heiß)
  2. Zugehörigkeitsfunktionen definieren
  3. Fuzzifizierung: Transformation der vorliegenden Information mithilfe der Zugehörigkeitsfunktionen in Fuzzy-konforme Form. Zugehörigkeitsfunktionen bilden numerische Terme auf linguistische Variablen ab.
  4. Kombination der Terme durch Anwendung von Fuzzy-Logik in der Regelbasis. Die Regeln haben die Form IF Prämisse THEN Konklusion.
  5. Defuzzifizierung: Abbildung auf Ausgangsbasis (Schwerpunktregel, Maximummethode oder Maximum-Mittelwert Methode)

Neuronale Netze

Slides: IF-Kap5_160125.pdf

Siehe Vorlesung Neuronale Netze

Registrierung

Slides: IF-Kap6_160125.pdf

Wurde nicht besprochen.

Energie­funktionale

Slides: IF-Kap7_160125.pdf

Funktional
Ein Funktional ist eine Funktion aus einem Vektorraum $V$ in den Körper, der dem Vektorraum zugrunde liegt. Oft ist $V$ ein Funktionenraum, also ein Vektorraum, dessen Elemente reell- oder komplexwertige Funktionen sind. Ein Funktional ist somit eine Funktion auf Funktionen.
Energiefunktionale
Durch die Einführung von Energietermen $E_k$ lassen sich fusionsrelevante Informationen modellieren. Die Fusionsaufgabe wird dann durch das Energiefunktional $$E = \sum_k \lambda_k E_k, \qquad \lambda_k > 0$$ repräsentiert. Die unterschiedliche Relevanz der Energieterme $E_k$ wird durch die Vorfaktoren $\lambda_k$ berücksichtigt.
Gibbs-Verteilung
Die Gibbs-Verteilung mit dem Energiefunktional $E$ ist $$\pi_{\beta, E}(x) = \frac{1}{Z} e^{- \beta E(x)},$$ mit Normierungskonstante $Z$ und der inversen Temperatur $\beta = \frac{1}{T}$.

Interpretation: Es sei $E: V \rightarrow \mathbb{R}$, $V$ endlich.
  • $V$: Die Menge aller Konfigurationen eines physikalischen Systems.
  • $E(x)$: Energie des Systems, wenn es sich in der Konfiguration $x$ befindet.
  • $T$: Temperatur. Ist die Temperatur groß, so sind alle Konfigurationen etwa gleich wahrscheinlich. Bei niedriger Temperatur werden Konfigurationen mit niedriger Energie bevorzugt.
  • $\pi_{\beta, E}(x)$: Wahrscheinlichkeit, dass sich das System in der Konfiguration $x$ befindet.
Für $E$ kann dann eine Gibbsche Wahrscheinlichkeitsdichtefunktion WDF $$WDF \propto e^{- \beta E} = \prod_k e^{-\frac{\lambda_k E_k}{T}}$$ definiert werden.
Energieminimierung
  1. Lösung eines linearen Gleichungssystems (selten möglich)
  2. Graph-Cuts-Verfahren
  3. Approximative Lösung durch sukzessive Optimierung
  4. Methode des steilsten abstiegs
  5. Monte-Carlo-Methode
  6. Simulated Annealing
  7. Lineare Programme
  8. Dynamische Programmierung
  9. Mean Field Theorie (Betrachte Erwartungswerte)

Überblick

Unsicherheitsmodellierung Wahrscheinlichkeiten Verallgemeinerte W-Keiten Linguistisch Neuronale Netze
Fusion Bayes-Fusion DRC Fuzzy-Fusion
Unsicherheiten Wahrscheinlichkeit in [0, 1] Basismaß in [0, 1] Zugehörigkeit in [0, 1]

Abkürzungen

  • EKF: Extended Kalman Filter
  • GUM: Guide to the Expression of Uncertainty in Measurement
  • KF: Kalman Filter
  • LS: Least Squares
  • UKF: Unscented Kalman Filter

Meine Fragen

  • Kapitel 1, Folie 61: Was ist der Definitions / Wertebereich von Information?
  • Kapitel 2, Folie 5: Alle Ereignisse paarweise disjunkt
  • Kapitel 2, Folie 22: Man muss für wirksame Schätzer noch fordern, dass sie erwartungstreu sind. Es gibt immer den konstanten Schätzer, welcher die Stichprobe ignoriert und somit eine Varianz von 0 hat.
  • Kapitel 2, Folie 37: Was ist ein Arbeitspunkt?
  • Kapitel 2, Folie 44f: Fusion 2er Größen / Verteilungen
  • Kapitel 2, Folie 79: Was ist der Trunkation error? Was ist der base point error und warum ist es ein Problem, dass man um den Schätzwert und nicht um den wahren Wert linearisiert?

Übungsaufgaben

Die Lösungen sind auch online (ausführlicher und besser als ich es hier habe).

ÜB 1

  • Aufgabe 1.1: http://math.stackexchange.com/q/1919394/6876
  • Aufgabe 1.2: \(P(A) = 0.5 = P(B) = P(C)\),
    $$ \begin{align} P(A) \cdot P(B) &= 0.25 = P(A \cap B)\\ P(A) \cdot P(C) &= 0.25 = P(A \cap C)\\ P(A) \cdot P(B) \cdot P(C) &= 0.125 \neq 0.25 = P(A \cap B \cap C) \end{align} $$
    Daher sind die Ereignisse \(A\) und \(B\), die Ereignisse \(A, C\), die Ereignisse \(B, C\) unabhängig. Die Ereignisse \(A, B, C\) sind jedoch nicht unabhängig.
  • Aufgabe 1.3a: \(5 \cdot (\frac{1}{6} \cdot \frac{1}{6}) = \frac{5}{36}\)
  • Aufgabe 1.3b: \(\frac{\frac{2}{5} \cdot \frac{5}{36}}{1-0.25} = \frac{2}{27}\)
  • Aufgabe 1.4:
    • \(P(X = 2) = P(X=12) = \frac{1}{36}\)
    • \(P(X = 3) = P(X=11) = \frac{2}{36}\)
    • \(P(X = 4) = P(X=10) = \frac{3}{36}\)
    • \(P(X = 5) = P(X=9) = \frac{4}{36}\)
    • \(P(X = 6) = P(X=8) = \frac{5}{36}\)
    • \(P(X = 7) = \frac{6}{36}\)
    • \(F(x) = \sum_{i=2}^x P(X = i)\)
    • \(\mathbb{E}(X) = 2 \cdot 3.5 = 7\)
  • Aufgabe 1.5a: \(\int_0^\infty (\alpha \cdot \exp(-\alpha x)) \mathrm{d}x = \alpha \int_0^\infty \exp(-\alpha x) \mathrm{d}x = \alpha [-\frac{1}{\alpha} \exp(-\alpha x)]_0^\infty = 1\)
  • Aufgabe 1.5b: Erwartungswert einer Zufallsvariable ist \(\int_{-\infty}^{+\infty} x f(x) \mathrm{d} x\).
  • Aufgabe 1.6:
    • \(G\): E-mail ist geschäftlich, \(\bar{G}\) ist privat
    • \(S\): E-mail ist spam, \(\bar{S}\) ist ham
    • \(F\): E-mail enthält das Wort "Free"
    • \(P(S | F) = \frac{P(F | S) \cdot P(S)}{P(F)} = \frac{0.9 \cdot 0.7}{0.9 \cdot 0.7 + 0.01 \cdot 0.3} = \frac{210}{211}\)

ÜB 2

  • Aufgabe 1.1: Die kontinuierliche Entropie ist kein resultat immer feiner werdender Diskretisierungen der diskreten Entropie
  • Aufgabe 1.2a: \(P(B \cap L) = P(B) \cdot P(L) = 1/3 \cdot 1/3 = 1/9\)
  • Aufgabe 1.2b: 1/9
  • Aufgabe 1.2c: Das Prinzip der maximalen Entropie für Zufallsvariablen führt zur Unabhängigkeitsannahme.
  • Aufgabe 1.2d: Die Entropie wird im Erwartungswert reduziert, wenn eine Größe durch eine andere bedingt wird.
  • Aufgabe 1.3a: \(P(z=z_A| d_A) = 0.45\), \(P(z=z_B| d_A) = 0.45\), \(P(z=z_K| d_A) = 0.1\)
  • Aufgabe 1.3b: Ist hier ein Zahlendreher passiert?
  • Aufgabe 1.4a: Mit "Detektionsleistung" ist gemeint, wie wahrscheinlich der Sensor ein Objekt detektiert, wenn eines da ist. Mit "Klassifikationsleistung" ist gemeint, wie Wahrscheinlich der Sensor bei vorhandenem Objekt dieses richtig klassifiziert.
  • Aufgabe 1.4b: Zentralisierte Bayessche Fusion (Likelihoodmatrizen)
  • Aufgabe 1.4c: Zentralisierte Bayessche Fusion (A-posteriori-Verteilung)
  • Aufgabe 1.4d: Verteilte Fusion
  • Aufgabe 1.5: Berechnung der Log-A-posteriori-Verteilung
  • Aufgabe 1.6: 0.043 (Das typische Patenten-Test-Beispiel)

ÜB 3

  • Aufgabe 1.1:
    • \(Bel(A) = \sum_{B \subseteq A} m(B)\)
    • \(Pl(A) = 1 - Bel(\bar{A}) = \sum_{B \cap A \neq \emptyset} m(B)\)
  • Aufgabe 1.2a: Obwohl beide Basismaße dem Ereignis A eine sehr niedriges Maß zuweisen, ist es durch DRC das Ereignis mit dem höchsten Wert. Das liegt daran, dass die anderen jeweils exakt 0 haben.
  • Aufgabe 1.2b: Jeder einzelne Experte gab A nur geringen glauben. Dennoch wird A deutlich am meisten Glauben nach der Fusion geschenkt.
  • Aufgabe 1.2c: Das gleiche Ergebnis.
  • Aufgabe 1.3a: \(m_{123}(111) = 0.82\), das Ergebnis ist also zu 82% glaubwürdig. (Schönes beispiel, dass DRC nicht idempotent ist)
  • Aufgabe 1.3b: Rechnen mit Basismaßen / DRC
  • Aufgabe 1.3c: Rechnen mit Basismaßen / DRC
  • Aufgabe 1.4: \(P(s=A | w=A) + P(s=B | w=B) = 0.6\)
  • Aufgabe 2.1: Spielen mit Fuzzy-Mengen
  • Aufgabe 2.2: XOR für Fuzzy-Mengen

Prüfungsfragen

  • Welche Bedingungen müssen erfüllt sein, damit Informationen fusioniert werden können?
    → Gemeinsamer Sachverhalt; kompatible Definitions- und Wertebereiche; Unsicherheitsbehaftet
  • Welche Arten von Unsicherheit kennen Sie?
    → Unsicherheit kann man mit Wahrscheinlichkeiten, Basismaße (Dempster-Shafer-Theorie) und über unscharfe Mengen (Fuzzy-Systeme) sowie über unsicheres Erfahrungswissen (Neuronale Netze) beschreiben.
  • Was ist der Unterschied zwischen Wahrscheinlichkeiten und Basismaßen?
    → Basismaße sind nicht monoton und nicht additiv.
  • Wie lautet die Formel für verteilte Bayessche Fusion?
    → Wie zentrale bayessche Fusion, nur dass die Likelihood-Funktionen vorab berechnet werden (zweimaliges Anwenden der Bayes-Rule mit Unabhängigkeitsannahme zwischendurch)
  • Wie lauten die Axiome von Kolmogorov?
    → Siehe oben
  • Was sind Zugehörigkeitsfunktionen?
    → Siehe oben
  • Wie funktioniert Informationsfusion mit Fuzzy-Systemen?
    → Siehe oben.
  • Welche Vorteile bietet Informationsfusion?
    → Siehe oben.
  • Welche Eigenschaften sind bei Merkmalen wünschenswert?
    → Siehe oben.
  • Welche Beziehung gilt zwischen Erwartungstreue und Konsistenz von Schätzern?
    → TODO

Kalman-Filter

  • Aus welchen Schritten besteht der Kalman-Filter?
    → Prädiktion, Innovation
  • Welche Erweiterungen zum Kalman-Filter kennen Sie?
    → Extended Kalman Filter (EKF), UKF (Unscented Kalman Filter)
  • Für welche Systeme ist der Kalman-Filter geeignet?
    → Lineare Zeitinvariante Systeme (LTI-Systeme)
  • Wie entwickeln sich die Wahrscheinlichkeiten beim Kalman-Filter?
    → Bei der Prädiktion steigt die Unsicherheit, bei der Innovation sinkt sie.
  • Wie lautet das Systemmodell im Kalman-Filter?
    → vgl. Kalman-Filter Artikel

Absprachen

  • Kapitel 5 (Neuronale Netze) und Kapitel 6 (Registrierung) kommen nicht dran.
  • Übungsaufgaben sind auch Prüfungsrelevant.

Material und Links

  • Vorlesungswebsite
  • Anki-Deck
  • Anwendung der Dempster-Shafer Evidenztheorie auf die Bonitätsprüfung
  • Mein Prüfungsprotokoll

Literatur:

  • Bayes-Methoden: James O. Berger: Statistical Decision Theory and Bayesian Analysis. 2nd edition, Springer, 2006. ISBN 0-387-96098-8.
  • Anwendungen: Rick S. Blum, Zheng Liu (Hrsg.): Multi Sensor Image Fusion and Its Applications. Taylor & Francis, 2006. ISBN 0849334179.
  • Energiefunktionale: James J. Clark, Alan L. Yuille: Data Fusion for Sensory Information Processing Systems. Kluwer Academic Publishers, 1990. ISBN 0792391209.
  • Fuzzy Logic: Jochen Heinsohn; Rolf Socher-Ambrosius: Wissensverarbeitung: eine Einführung. Spektrum Akademischer Verlag, 1999. ISBN 3827403081.

Vorlesungs­empfehlungen

Folgende Vorlesungen sind ähnlich:

  • Analysetechniken großer Datenbestände
  • Informationsfusion
  • Machine Learning 1
  • Machine Learning 2
  • Mustererkennung
  • Neuronale Netze
  • Lokalisierung Mobiler Agenten
  • Probabilistische Planung

Termine und Klausurablauf

Es ist eine mündliche Prüfung.

Ich habe meine am Fraunhofer IOSB, Fraunhoferstr. 1, 76131 Karlsruhe am 11.10.2016 um 15:30 Uhr bei Herrn Dr. Heizmann.


Published

Mai 23, 2016
by Martin Thoma

Category

German posts

Tags

  • Klausur 34

Contact

  • Martin Thoma - A blog about Code, the Web and Cyberculture
  • E-mail subscription
  • RSS-Feed
  • Privacy/Datenschutzerklärung
  • Impressum
  • Powered by Pelican. Theme: Elegant by Talha Mansoor