Weiterbildung · Wissenschaft verstehen · Wie funktioniert ein LLM?

Wie funktioniert es? (Teil 2): Attention — Was zählt, was nicht

7 Abschnitte

Schritt 2: Warum erkennt das Modell 'Frankreich' als das relevante Wort? Der Attention-Mechanismus — Queries, Keys, Values, Multi-Head Attention.

Inhaltsübersicht

  • Lektion 5 — Wie funktioniert es? (Teil 2): Attention — Was zählt, was nicht
  • Was Attention löst
  • Wie Attention funktioniert: Queries, Keys und Values
  • Anker-Beispiel: Was passiert mit „Die Hauptstadt von Frankreich ist"?
  • Multi-Head Attention: Nicht eine Perspektive, sondern viele
  • Der Rest des Transformer-Blocks
  • Was bleibt für Lektion 6?

📚 Vollständiges Lernmaterial mit 7 Abschnitten, Karteikarten und Quizzen verfügbar nach Anmeldung.

Jetzt kostenlos lernen →

Verwandte Themen

Interaktiv lernen mit Karteikarten & Quizzen

Melde dich an und lerne Wie funktioniert ein LLM? mit intelligenten Wiederholungen, Quizzen und KI-Lernhilfen. 7 Tage kostenlos.

Kostenlos testen