Lehrveranstaltungen in Stud.IP

aktuelles Semester
link to course in Stud.IP Studip_icon
Maschinelles Lernen II (VL)
Subtitle:
Diese Lehrveranstaltung ist Teil des Moduls: Maschinelles Lernen II, Praktikum Data Science
Semester:
WiSe 23/24
Course type:
Lecture
Course number:
lv2436_w23
Lecturer:
Nihat Ay, Dr. Manfred Eppe, Adwait Datar
Description:
  • Überwachtes statistisches Lernen und Generalisierung  
  • Das Prinzip der empirischen Risikominimierung 
  • Das Gesetz der großen Zahlen und das Glivenko-Cantelli-Theorem
  • Shatter-Koeffizienten, VC-Dimension und Rademacher-Komplexität
  • Das Schnelle-Konvergenz-Theorem von Vapnik und Chervonenkis
  • VC-Dimensionen diskreter neuronaler Netze
  • Das Prinzip der strukturellen Risikominimierung
  • Lernen von Samples als inverses Problem
  • Hilbertraum mit reproduzierendem Kern
  • Moore-Penrose-Inverses
  • Schlecht gestellte inverse Probleme und Regularisierung 
  • Tikhonov-Regularisierung
  • Regularisierte empirische Risikominimierung 
  • Überdeckungszahlen 
  • Das Bias-Variance-Problem 
Performance accreditation:
m1594 - Praktikum Data Science<ul><li>p1544 - Praktikum Data Science: Fachtheoretisch-fachpraktische Arbeit</li></ul><br>m1594-2022 - Maschinelles Lernen II<ul><li>p1544-2022 - Maschinelles Lernen II: Klausur schriftlich</li><li>vl425-2022 - Freiwillige Studienleistung Bonus-Aufgaben: Übungsaufgaben</li></ul>
ECTS credit points:
3
Stud.IP informationen about this course:
Home institute: Institut für Data Science Foundations (E-21)
Registered participants in Stud.IP: 59
Postings: 13
Documents: 31
voriges Semester
link to course in Stud.IP Studip_icon
Maschinelles Lernen II (VL)
Subtitle:
Diese Lehrveranstaltung ist Teil des Moduls: Maschinelles Lernen II, Praktikum Data Science
Semester:
WiSe 23/24
Course type:
Lecture
Course number:
lv2436_w23
Lecturer:
Nihat Ay, Dr. Manfred Eppe, Adwait Datar
Description:
  • Überwachtes statistisches Lernen und Generalisierung  
  • Das Prinzip der empirischen Risikominimierung 
  • Das Gesetz der großen Zahlen und das Glivenko-Cantelli-Theorem
  • Shatter-Koeffizienten, VC-Dimension und Rademacher-Komplexität
  • Das Schnelle-Konvergenz-Theorem von Vapnik und Chervonenkis
  • VC-Dimensionen diskreter neuronaler Netze
  • Das Prinzip der strukturellen Risikominimierung
  • Lernen von Samples als inverses Problem
  • Hilbertraum mit reproduzierendem Kern
  • Moore-Penrose-Inverses
  • Schlecht gestellte inverse Probleme und Regularisierung 
  • Tikhonov-Regularisierung
  • Regularisierte empirische Risikominimierung 
  • Überdeckungszahlen 
  • Das Bias-Variance-Problem 
Performance accreditation:
m1594 - Praktikum Data Science<ul><li>p1544 - Praktikum Data Science: Fachtheoretisch-fachpraktische Arbeit</li></ul><br>m1594-2022 - Maschinelles Lernen II<ul><li>p1544-2022 - Maschinelles Lernen II: Klausur schriftlich</li><li>vl425-2022 - Freiwillige Studienleistung Bonus-Aufgaben: Übungsaufgaben</li></ul>
ECTS credit points:
3
Stud.IP informationen about this course:
Home institute: Institut für Data Science Foundations (E-21)
Registered participants in Stud.IP: 59
Postings: 13
Documents: 31

Lehrveranstaltungen

Informationen zu den Lehrveranstaltungen und Modulen entnehmen Sie bitte dem aktuellen Vorlesungsverzeichnis und dem Modulhandbuch Ihres Studienganges.

Modul / Lehrveranstaltung Zeitraum ECTS Leistungspunkte
Modul: Elektrische Energiesysteme I: Einführung in elektrische Energiesysteme WiSe 6
Modul: Elektrische Energiesysteme II: Betrieb und Informationssysteme elektrischer Energienetze WiSe 6
Modul: Elektrische Energiesysteme III: Dynamik und Stabilität elektrischer Energiesysteme SoSe 6
Modul: Elektrotechnik II: Wechselstromnetzwerke und grundlegende Bauelemente SoSe 6
Modul: Elektrotechnisches Projektpraktikum SoSe 6
Modul: Prozessmesstechnik SoSe 4
Modul: Smart-Grid-Technologien WiSe, SoSe 6

Lehrveranstaltung: Seminar zu Elektromagnetischer Verträglichkeit und Elektrischer Energiesystemtechnik

weitere Information

WiSe, SoSe 2

SoSe: Sommersemester
WiSe: Wintersemester