Maschinelles Lernen I (GÜ) |
Untertitel: |
Diese Lehrveranstaltung ist Teil des Moduls: Maschinelles Lernen, Maschinelles Lernen I |
Semester: |
SoSe 24 |
Veranstaltungstyp: |
Übung (Lehre) |
Veranstaltungsnummer: |
lv2433_s24 |
DozentIn: |
Nihat Ay |
Beschreibung: |
- Geschichte der Neurowissenschaften und des maschinellen Lernens (insbesondere des tiefen Lernens)
- McCulloch-Pitts-Neuronen und binäre neuronale Netze
- Boolesche Funktionen und Schellwert-Funktionen
- Universalität von neuronalen McCulloch-Pitts-Netzwerken
- Lernen und das Perzeptron-Konvergenz-Theorem
- Support-Vektor-Maschinen
- Harmonische Analyse von Booleschen Funktionen
- Kontinuierliche künstliche neuronale Netze
- Kolmogorovsches Superpositions-Theorem
- Universelle Approximation mit kontinuierlichen neuronalen Netzen
- Approximationsfehler und die Gradienten-Abstiegs-Methode: die allgemeine Idee
- Die stochastische Gradienten-Abstiegs-Methode (Robbins-Monro- und Kiefer-Wolfowitz-Fälle)
- Mehrschichtige Netzwerke und der Backpropagation-Algorithmus
- Statistische Lerntheorie
|
Leistungsnachweis: |
m1595 - Maschinelles Lernen<ul><li>p1543 - Maschinelles Lernen: Klausur schriftlich</li></ul><br>m1595-2022 - Maschinelles Lernen I<ul><li>p1543-2022 - Maschinelles Lernen I: Klausur schriftlich</li><li>vl424-2022 - Freiwillige Studienleistung Maschinelles Lernen I - Übungsaufgaben: Übungsaufgaben</li></ul> |
ECTS-Kreditpunkte: |
3 |
Weitere Informationen aus Stud.IP zu dieser Veranstaltung |
Heimatinstitut: Institut für Data Science Foundations (E-21)
In Stud.IP angemeldete Teilnehmer: 1
|