Weiterbildung · Wissenschaft verstehen · Wie funktioniert ein LLM?
Wie funktioniert es? (Teil 2): Attention — Was zählt, was nicht
7 Abschnitte
Schritt 2: Warum erkennt das Modell 'Frankreich' als das relevante Wort? Der Attention-Mechanismus — Queries, Keys, Values, Multi-Head Attention.
Inhaltsübersicht
- Lektion 5 — Wie funktioniert es? (Teil 2): Attention — Was zählt, was nicht
- Was Attention löst
- Wie Attention funktioniert: Queries, Keys und Values
- Anker-Beispiel: Was passiert mit „Die Hauptstadt von Frankreich ist"?
- Multi-Head Attention: Nicht eine Perspektive, sondern viele
- Der Rest des Transformer-Blocks
- Was bleibt für Lektion 6?
📚 Vollständiges Lernmaterial mit 7 Abschnitten, Karteikarten und Quizzen verfügbar nach Anmeldung.
Jetzt kostenlos lernen →Verwandte Themen
Interaktiv lernen mit Karteikarten & Quizzen
Melde dich an und lerne Wie funktioniert ein LLM? mit intelligenten Wiederholungen, Quizzen und KI-Lernhilfen. 7 Tage kostenlos.
Kostenlos testen