Richard Bergmair's Mediathek



ML Vorlesung #1: Das PAC Modell

==> Wie entscheidet man über die Korrektheit einer Lösung eines Machine Learning Problems? Die Antwort eines Theoretikers: Die Lösung muss die formelle Eigenschaft der PAC-Korrektheit aufweisen, muss also “probably approximately correct” sein. <==

Volltext anzeigen.

Nov-07 2014


ML Vorlesung #2: Datenrepräsentation & Informationstheorie

Der Zweck des Machine Learnings besteht darin ein mathematisches Modell an die gegebenen Daten anzupassen. Doch wie kann man messen, wie viel Information in den Daten enthalten ist? Wie viel Information ist nötig, das richtige Modell auszuwählen? Um diese Fragen zu beantworten benötigen wir theoretische Hilfsmittel aus dem Gebiet der Informationstheorie.

Nov-21 2014

ML Vorlesung #3: Datenrepräsentation & Statistik

Die Datenmengen, die den Ausgangspunkt für Machine Learning Probleme darstellen, gehen hervor aus natürlichen oder mathematischen Prozessen, die erkennbare Muster in den Daten hinterlassen.

Dez-05 2014

ML Vorlesung #4: Entscheidungsbäume & Datenrepräsentation

Entscheidungsbäume sind eine sehr allgemeine Konzeptklasse, die für beinahe beliebige Datenmengen verwendet werden kann.

Dez-19 2014

ML Vorlesung #5: Auswertung & Methodologie im Maschinellen Lernen

Die Methodologie der Auswertung hat enormen Einfluss auf das Endprodukt einer Machine Learning Lösung, da es den Theoretischen Rahmen schafft der definiert welche Lösung besser oder schlechter ist.

Jan-09 2015

ML Vorlesung #6: Datenrepräsentation & Ähnlichkeitsmaße

Begrifflichkeiten der Ähnlichkeit und Unterschiedlichkeit, sowie Nähe und Ferne sind von zentraler Bedeutung für die mathematischen Modelle die beim Machine Learning zum Einsatz kommen.

Jan-23 2015

ML Vorlesung #7: Nächstgelegene Prototypen Methoden

Der Überbegriff der Methoden Nächstgelegener Prototypen umfasst Methoden wie k-means und k-nearest neighbor. Diese werden auch manchmal unter dem Begriff “instance-based methods” zusammengefasst.

Feb-20 2015

ML Vorlesung #8: Bayessche Entscheidungstheorie & Gauß-Modelle

Bayessche Entscheidungstheorie liefert ein Modell dafür, wie sich Entscheidungen auf Basis unsicherer Information aus a priori und a posteriori Wahrscheinlichkeiten ableiten. Sie ist daher eines der wichtigsten und vielseitigsten Werkzeuge des Data Scientist.

Mär-20 2015

ML Vorlesung #9: Naive Bayes & Bayessche Netzwerke

Naive Bayes und Bayessche Netzwerke wenden Bayessche Entscheidungstheorie auf Datenmengen an, wobei für die Datenpunkte eine Repräsentationsform gewählt wird in der sie durch Eigenschaften beschrieben werden, die entweder anwesend oder abwesend sein können.

Apr-17 2015