100% Zufriedenheitsgarantie Sofort verfügbar nach Zahlung Sowohl online als auch als PDF Du bist an nichts gebunden
logo-home
Vorlesungsmitschrift Maschinelles Lernen 3,99 €   In den Einkaufswagen

Notizen

Vorlesungsmitschrift Maschinelles Lernen

 6 mal angesehen  0 mal verkauft

Hier findest du die Zusammenfassung der Kerninhalte des Moduls Maschinelles Lernen auf dem Wintersemester 22/23 bei Prof. Dr. Korinna Bade. Zunächst werden alle relevanten Themen definiert und entsprechend der Vorlesungsfolien zusammengefasst. Danach findet sich ein kompakter Überblick der Prüfu...

[ Mehr anzeigen ]

vorschau 4 aus 43   Seiten

  • 26. januar 2024
  • 43
  • 2022/2023
  • Notizen
  • Korinna bade
  • Alle klassen
Alle Dokumente für dieses Fach (1)
avatar-seller
StudentKarsten
Maschinelles Lernen

Einführung
- Was ist Lernen?
- Bessere Leistungen erzielen, wenn in der Zukunft eine gleiche oder ähnliche
Aufgabe ausgeführt wird.

- Typische Lernaufgaben:
- Klassifikation (Überwachtes Lernen)
- Clustering (Unüberwachtes Lernen)
- Verstärkendes Lernen

- Basis des Lernens:
- Erfahrung E (aus Trainingsdaten)
- Lernaufgabe T (Lernziel)
- Qualitätsmaß P
- Modell (Abstraktion der Daten)

- Basis des Lernens ist Erfahrung E (in Form von Trainingsdaten)
- Instanz = ein Element eines Datensatzes
- Lernaufgabe T definiert das Lernziel

- Hypothese = Modell das auf Gültigkeit überprüft werden muss


Induktives Lernen
- Eine Hypothese die mit Hilfe von Trainingsdaten sich der Zielfunktion annähert,
kann sich dieser auch durch unbeobachtet/unbekannte Beispiele annähern

- Daten bestehen aus (vielen) beschreibenden Attributen (Features: nominal, ordinal,
metrisch)
- Lernziel (Zielattribut) besteht aus einer Menge an zulässigen Werten

- Induktives Lernen = Verallgemeinern aus Beispielen, Vorhersage für unbekannte
Beispiele aus Trainingsdaten

- Beispiel "Enjoy Sport" Trainingsdaten




- gegebene Werte:

, - Instanzen X: Tage durch Attribute Sky, Temp, …, Forecast beschrieben
- Zielfunktion c: EnjoySport: X → {0,1} (ja,nein)
- Hypothesen H: Regeln nach vorgegebenen Format
- Trainingsbeispiele D: positive und negative Beispiele der Zielfunktion:
{x1 , c(x1)}, …, {xn , c(xn)}
- gesucht:
- Hypothese h in H, so dass h x = c(x) ∀ x ∈D, d.h. alle Trainingsbeispiele
werden korrekt vorhergesagt




Find-S Algorithmus
- Start mit spezifischster Hypothese:
- WENN ∅ DANN ES=yes SONST ES=no
- Verallgemeinern durch positive Trainingsbeispiele




- Eigenschaften
- Find-S findet garantiert die spezifischste Hypothese ℎ ∈ 𝐻, die mit allen
positiven Trainingsbeispielen konsistent ist
- h ist auch mit allen negativen Trainingsbeispielen konsistent
- Probleme
- Unklar, ob Find-S das Zielkonzept wirklich gelernt hat (Es könnte noch andere
passende Hypothesen geben)

, - Kann nicht erkennen, ob die Trainingsdaten inkonsistent sind (Da
negative Trainingsbeispiele nicht beachtet werden)

- Bias: Annahme dass Hypothesenraum H das Zielkonzept c enthält


Hypothesenraum
- mit Verzerrung:
- keine disjunktiven Zielkonzepte enthalten (x OR y)
- keine Konsistente Hypothese für alle Beispiele
- Konjunktionen nicht aussagekräftig genug
- z.B.: <x,z> + ; <y,z> –
- ohne Verzerrung:
- wähle einen Hypothesenraum H der alle vermittelbaren Konzepte enthält (H
= Potenzmenge aller Instanzen) → Problem: wir können nicht mehr
verallgemeinern, da alle Zielkonzepte enthalten sind

- man müsste auf jedes positive Beispiel trainieren, um das Zielkonzept zu
erlernen


Induktive Verzerrung
- gegeben:
- L – Lernalgorithmus, X – Instanzen, c – Zielkonzept
- Dc = { <x, c(x)> } – Trainingsbeispiele
- L(xi, Dc) – Klassifikation der Instanz xi durch L nach Training auf den Daten Dc

- Definition:
- Die induktive Verzerrung von L ist jede minimale Menge von Behauptungen
B, so dass für jedes Zielkonzept c und dazugehörenden Trainingsbeispiele Dc
gilt: ∀ xi ∈ X: (B∧ Dc ∧ xi ) ⊢ L(xi ,Dc) wobei A ⊢ B Bedeutet, dass aus A B
Logisch folgt.
- Unter einer induktiven Verzerrung versteht man die
Annahmen/Behauptungen, die ein Lernalgorithmus machen muss, um aus
Trainingsbeispielen verallgemeinern zu können.

→ induktive Verzerrung beschreibt die minimalen Menge an
Behauptungen, die ein Algorithmus benötigt um mit den Trainingsdaten
eine Instanz zu klassifizieren


Lerner mit unterschiedlicher Verzerrung
- Lerner der auswendig lernt:
- Speichert Beispiele und klassifiziert x wenn es einem der Beispiele entspricht
- KEINE induktive Verzerrung → da er nicht verallgemeinern kann

- Find-S-Algorithmus
- Verzerrung: Zielkonzept muss in Hypothesenraum liegen
- alle Instanzen sind negativ (0) bis das Gegenteil gelernt wurde (1)

, KLASSIFIKATION / ÜBERWACHTES LERNEN
- Vordefinierte Menge an Klassen = Zielattribute (zu erkennende Klassen)
- Zielattribute bei Klassifikation diskret
- Kontinuierliches Zielattribut (Regression)
- Datensatz = Trainingsdaten
- enthalten beschreibende Attribute für jede Instanz (Klasse) in Form eines
Eigenschafts Vektors

- Lernaufgabe: Lerne aus den beschreibenden Attributen das Zielattribut, um
dieses nur mit den beschreibenden Attributen vorhersagen zu können

- Attribute
- nominal (Nur auf Gleichheit prüfbar)
- ordinal (Natürliche Ordnung)
- metrisch (Aussagekräftige numerische Differenz zwischen Werten)
.
- Phasen
- Lernphase:
- Lernen der Abbildung: Vorhersage der Zielattribute mit Hilfe der
beschreibenden Attribute der Trainingsdaten
- Vorhersagephase:
- Vorhersage einer Klasse für neue Instanzen mit unbekanntem
Zielattribut auf Basis der Eingabe der beschreibenden Attribute

Alle Vorteile der Zusammenfassungen von Stuvia auf einen Blick:

Garantiert gute Qualität durch Reviews

Garantiert gute Qualität durch Reviews

Stuvia Verkäufer haben mehr als 700.000 Zusammenfassungen beurteilt. Deshalb weißt du dass du das beste Dokument kaufst.

Schnell und einfach kaufen

Schnell und einfach kaufen

Man bezahlt schnell und einfach mit iDeal, Kreditkarte oder Stuvia-Kredit für die Zusammenfassungen. Man braucht keine Mitgliedschaft.

Konzentration auf den Kern der Sache

Konzentration auf den Kern der Sache

Deine Mitstudenten schreiben die Zusammenfassungen. Deshalb enthalten die Zusammenfassungen immer aktuelle, zuverlässige und up-to-date Informationen. Damit kommst du schnell zum Kern der Sache.

Häufig gestellte Fragen

Was bekomme ich, wenn ich dieses Dokument kaufe?

Du erhältst eine PDF-Datei, die sofort nach dem Kauf verfügbar ist. Das gekaufte Dokument ist jederzeit, überall und unbegrenzt über dein Profil zugänglich.

Zufriedenheitsgarantie: Wie funktioniert das?

Unsere Zufriedenheitsgarantie sorgt dafür, dass du immer eine Lernunterlage findest, die zu dir passt. Du füllst ein Formular aus und unser Kundendienstteam kümmert sich um den Rest.

Wem kaufe ich diese Zusammenfassung ab?

Stuvia ist ein Marktplatz, du kaufst dieses Dokument also nicht von uns, sondern vom Verkäufer StudentKarsten. Stuvia erleichtert die Zahlung an den Verkäufer.

Werde ich an ein Abonnement gebunden sein?

Nein, du kaufst diese Zusammenfassung nur für 3,99 €. Du bist nach deinem Kauf an nichts gebunden.

Kann man Stuvia trauen?

4.6 Sterne auf Google & Trustpilot (+1000 reviews)

45.681 Zusammenfassungen wurden in den letzten 30 Tagen verkauft

Gegründet 2010, seit 14 Jahren die erste Adresse für Zusammenfassungen

Starte mit dem Verkauf
3,99 €
  • (0)
  Kaufen