Grundlagen und Funktionsweise von großen Sprachmodellen
Große Sprachmodelle (LLMs) nutzen statistische Wahrscheinlichkeiten, um Textsequenzen zu generieren. Basierend auf vorgegebenen Wörtern und dem gegebenen Kontext berechnen sie die Wahrscheinlichkeit für das nächste Wort. Prompt-Engineering optimiert diesen Prozess. Prompt-Engineering ist damit die Methodik, Eingaben für LLMs so zu gestalten, dass optimale Ausgaben erzielt werden. Die effektive Nutzung von KI in der Datenanalyse erfordert daher ein tiefes Verständnis der vorhandenen Tools und Prompting-Techniken. Prompts müssen präzise gestaltet sein, um möglichst gute und verlässliche Ergebnisse zu erzielen. Trotz ihrer erstaunlichen Fähigkeiten können Sprachmodelle „Halluzinationen“ produzieren – plausibel klingende, aber faktisch falsche Informationen. Das stellt bei kreativen Aufgaben meist kein Problem dar, kann bei Anwendungen, die ein hohes Maß an Genauigkeit und Richtigkeit von Informationen erfordern, aber problematisch werden.
Ein Beitrag von: Marc Conzelmann und Dominik Klehr