Maschinelles Lernen II (VL) |
Untertitel: |
Diese Lehrveranstaltung ist Teil des Moduls: Maschinelles Lernen II, Praktikum Data Science |
Semester: |
WiSe 23/24 |
Veranstaltungstyp: |
Vorlesung (Lehre) |
Veranstaltungsnummer: |
lv2436_w23 |
DozentIn: |
Nihat Ay, Dr. Manfred Eppe, Adwait Datar |
Beschreibung: |
- Überwachtes statistisches Lernen und Generalisierung
- Das Prinzip der empirischen Risikominimierung
- Das Gesetz der großen Zahlen und das Glivenko-Cantelli-Theorem
- Shatter-Koeffizienten, VC-Dimension und Rademacher-Komplexität
- Das Schnelle-Konvergenz-Theorem von Vapnik und Chervonenkis
- VC-Dimensionen diskreter neuronaler Netze
- Das Prinzip der strukturellen Risikominimierung
- Lernen von Samples als inverses Problem
- Hilbertraum mit reproduzierendem Kern
- Moore-Penrose-Inverses
- Schlecht gestellte inverse Probleme und Regularisierung
- Tikhonov-Regularisierung
- Regularisierte empirische Risikominimierung
- Überdeckungszahlen
- Das Bias-Variance-Problem
|
Leistungsnachweis: |
m1594 - Praktikum Data Science<ul><li>p1544 - Praktikum Data Science: Fachtheoretisch-fachpraktische Arbeit</li></ul><br>m1594-2022 - Maschinelles Lernen II<ul><li>p1544-2022 - Maschinelles Lernen II: Klausur schriftlich</li><li>vl425-2022 - Freiwillige Studienleistung Bonus-Aufgaben: Übungsaufgaben</li></ul> |
ECTS-Kreditpunkte: |
3 |
Weitere Informationen aus Stud.IP zu dieser Veranstaltung |
Heimatinstitut: Institut für Data Science Foundations (E-21)
In Stud.IP angemeldete Teilnehmer: 58
Anzahl der Postings im Stud.IP-Forum: 13
Anzahl der Dokumente im Stud.IP-Downloadbereich: 31
|