ML Vorlesung #1: Das PAC Modell
Wie entscheidet man über die Korrektheit einer Lösung eines Machine Learning Problems? Die Antwort eines Theoretikers: Die Lösung muss die formelle Eigenschaft der PAC-Korrektheit aufweisen, muss also “probably approximately correct” sein.
Nov-07 2014
ML Vorlesung #2: Datenrepräsentation & Informationstheorie
Der Zweck des Machine Learnings besteht darin ein mathematisches Modell an die gegebenen Daten anzupassen. Doch wie kann man messen, wie viel Information in den Daten enthalten ist? Wie viel Information ist nötig, das richtige Modell auszuwählen? Um diese Fragen zu beantworten benötigen wir theoretische Hilfsmittel aus dem Gebiet der Informationstheorie.
Nov-21 2014
ML Vorlesung #3: Datenrepräsentation & Statistik
Die Datenmengen, die den Ausgangspunkt für Machine Learning Probleme darstellen, gehen hervor aus natürlichen oder mathematischen Prozessen, die erkennbare Muster in den Daten hinterlassen.
Dez-05 2014
ML Vorlesung #4: Entscheidungsbäume & Datenrepräsentation
==> Entscheidungsbäume sind eine sehr allgemeine Konzeptklasse, die für beinahe beliebige Datenmengen verwendet werden kann. <==
Dez-19 2014
ML Vorlesung #5: Auswertung & Methodologie im Maschinellen Lernen
Die Methodologie der Auswertung hat enormen Einfluss auf das Endprodukt einer Machine Learning Lösung, da es den Theoretischen Rahmen schafft der definiert welche Lösung besser oder schlechter ist.
Jan-09 2015
ML Vorlesung #6: Datenrepräsentation & Ähnlichkeitsmaße
Begrifflichkeiten der Ähnlichkeit und Unterschiedlichkeit, sowie Nähe und Ferne sind von zentraler Bedeutung für die mathematischen Modelle die beim Machine Learning zum Einsatz kommen.
Jan-23 2015
ML Vorlesung #7: Nächstgelegene Prototypen Methoden
Der Überbegriff der Methoden Nächstgelegener Prototypen umfasst Methoden wie k-means und k-nearest neighbor. Diese werden auch manchmal unter dem Begriff “instance-based methods” zusammengefasst.
Feb-20 2015
ML Vorlesung #8: Bayessche Entscheidungstheorie & Gauß-Modelle
Bayessche Entscheidungstheorie liefert ein Modell dafür, wie sich Entscheidungen auf Basis unsicherer Information aus a priori und a posteriori Wahrscheinlichkeiten ableiten. Sie ist daher eines der wichtigsten und vielseitigsten Werkzeuge des Data Scientist.
Mär-20 2015
ML Vorlesung #9: Naive Bayes & Bayessche Netzwerke
Naive Bayes und Bayessche Netzwerke wenden Bayessche Entscheidungstheorie auf Datenmengen an, wobei für die Datenpunkte eine Repräsentationsform gewählt wird in der sie durch Eigenschaften beschrieben werden, die entweder anwesend oder abwesend sein können.
Apr-17 2015