- Large Language Models
Large Language Models erklärt
Large Language Models, kurz LLMs, sind Systeme, die Sprache verstehen und selbst Texte verfassen können. Grundlage dafür sind sogenannte Transformer-Modelle. Diese Modelle erkennen Zusammenhänge in Texten und können einschätzen, welche Wörter besonders gut zueinander passen.
Um Sprache verarbeiten zu können, zerlegt ein LLM jeden Text zunächst in kleine Einheiten, sogenannte Tokens. Das können einzelne Wörter sein, Wortbestandteile, Satzzeichen oder häufige Buchstabenkombinationen.
Diese Tokens werden dann in Zahlen übersetzt, damit der Computer damit rechnen kann. Auf dieser Basis erkennt das Modell Muster und Zusammenhänge in Sprache.
Trainiert werden LLMs mit riesigen Mengen an Text, etwa aus Wikipedia, Büchern oder öffentlich zugänglichen Webseiten. Dabei lernt das Modell, wie Sprache funktioniert und welche Wörter oft gemeinsam vorkommen.
Wenn das Modell später eine Frage beantwortet oder einen Text schreibt, berechnet es, welche Wörter inhaltlich und sprachlich am besten zur Situation passen. Es erstellt die Antwort also neu, ohne einfach aus dem Gelernten zu kopieren.
L