Kleines KI-Glossar

Begriffe aus Unterlagen und Veranstaltungen – ergänzt um einige angrenzende und vertiefende Themen.

Inhalt

Glossar 1

Ergänzungen. 1

Verfahren zur Feinabstimmung und Anpassung von Sprachmodellen. 1

Verfahren zum Training von Sprachmodellen. 1

 

Rechtliches, Transparenz. 1

 


Glossar

Dieses kleine Glossar erläutert KI-Begriffe (sowie vielleicht weniger geläufige sonstige Begriffe) aus meinen Veranstaltungen und Unterlagen nur kurz, um ein gewisses Verständnis und dadurch einen sichereren Umgang mit den Tools zu erleichtern und sowohl Möglichkeiten als auch realistische Erwartungen zu fördern.

 

 

Übersicht der Einträge           

Account

Advocatus Diaboli

Agent / agentisch

Agentischer Browser

AI

Algorithmische Wachsamkeit

Alignment
Antagonismus

Anthropomorph

API

Appeasement

Automation Bias

 

Bias

Braindump / Brain Dump

Browser

 

Chain of Thought

ChatBot / Chatbot

Chunking

Cloud

Cognitive Offloading

 

Deepfake

Deep Learning

Deep Research

Digital Well-Being

Digitale Inklusion

Digitale Kluft / Dig. Divide

Digitale Kompetenz

Digitale Resilienz

Digitale Teilhabe

Diktat-Funktion

DPO

 

Eloquenz

Emergenz

 

Few-Shot Prompting

Filterblase

 

Gewichte

GPU

 

Halluzinieren

Hotspot

How to

Human in the Loop

 

Iatrogene Schäden

In-Context Learning

Input

 

Jailbreak

 

KI / Künstliche Intelligenz

kompromittiert

Kontext

 

Link

LLM

Lokale KI

LoRA

 

Manifest

Maschinelles Lernen / ML

Modellgewichte

Multimodal

 

Neuronales Netz

 

One-Shot Prompting

Open Weights

Output

 

Parasoziale Bindung

People Pleasing

Persona

Pitch

Prompt

Prompt Injection

 

QLoRA

Quantisierung

QR-Code

 

RAG

Red Teaming

RLAIF

RLHF

 

Sandbox

Sampling-Parameter

Scam

Screen Sharing

SFT

Sokratischer Dialog

Speech-to-Text / S2T

Stochastischer Papagei

Streaming

System Prompt

 

Thinking Mode

Tiefe Recherche

Token

Transformer

Transkription

Transliteration

 

Voice Mode

 

Zero-Shot Prompting

 

Die Einträge sind mit Labeln versehen (Label im Glossar).

 

Account · Alltag

Persönliches Benutzerkonto, mit dem man sich bei einer Website, App oder einem Dienst anmeldet. Es enthält Informationen wie Nutzername, Passwort und persönliche Einstellungen, die den Zugriff und die Nutzung ermöglichen.

Advocatus Diaboli · Reflexion · Kern

(lat. „Teufelsanwalt“) bezeichnet eine argumentative Rolle, bei der bewusst eine Gegenposition eingenommen wird, um die eigenen oder fremden Perspektiven kritisch zu hinterfragen. In der KI-Nutzung dient diese Haltung als Maßnahme gegen die Gefälligkeitsneigung von KI-Systemen, indem die KI dazu aufgefordert wird, nicht nur zustimmend zu antworten, sondern auch kritische oder kontroverse Sichtweisen einzubringen. So wird eine tiefere, ausgewogenere Analyse gefördert.

Agent / agentisch · Praxis · Technik

(in der KI): Selbstständig handelnde KI-Systeme, die Aufgaben planen, ausführen und auch mit externen Diensten oder Geräten (z.B. Telefon) interagieren können, sofern Schnittstellen vorhanden sind.

Agentischer Browser · Praxis · Technik

Spezieller Browser, der alles kann, was ein normaler Browser auch macht – surfen, klicken, Formulare ausfüllen –, aber zusätzlich eigenständig Aufgaben erledigt. Die KI hinter diesem Browser denkt und handelt im Auftrag des Nutzers, führt komplexe Abläufe selbstständig aus und nutzt dazu viele offene Tabs und kontextbezogene Informationen. Beispiel: Comet von Perplexity ist so ein Agenten-Browser.

Man sollte dem agentischen Browser keine sensiblen Daten wie Kreditkarteninformationen anvertrauen. Die KI kann Fehler machen oder von außen beeinflusst werden (z.B. durch einen „indirekten Prompt-Injection-Angriff“: versteckte Anweisungen auf Webseiten in kleinster weißer Schrift auf weißem Grund).

AI / KI · Alltag

Artificial Intelligence. Produkte und Websites enthalten oft die englische Abkürzung für Künstliche Intelligenz, auch als Top-Level-Domain (anstelle von .de oder .com usw. „.ai“). Diese Top-Level-Domain gehört der britischen Karibik-Insel Anguilla, die z. B. im Jahr 2024 fast ein Viertel ihrer Staatseinnahmen daraus bezog.

In diesen Unterlagen verwende ich „KI“ als pragmatischen Sammelbegriff für moderne, überwiegend datengetriebene Systeme wie Chatbots (z. B. ChatGPT).

Algorithmische Wachsamkeit / Algorithmic Vigilance · Reflexion · Kern
Ein kognitiver Stil der aktiven Aufmerksamkeit und gesunden Skepsis gegenüber KI-/Algorithmus-Ergebnissen: Man bleibt mental beteiligt, prüft Plausibilität und Kontext mit, statt Vorschläge automatisch zu übernehmen oder reflexhaft abzulehnen. In der Literatur wird algorithmic vigilance explizit als Haltung aktiver Nutzerbeteiligung und „healthy skepticism“ beschrieben – als sinnvolle Mitte zwischen Übervertrauen (Automation Bias) und pauschaler Ablehnung (Algorithm Aversion).
Beispiel: Wenn eine KI sehr souverän eine Ursache oder Handlungsempfehlung formuliert, reagierst du nicht mit „wird schon stimmen“, sondern mit einem kurzen inneren Gegencheck: Passt das zu den bekannten Fakten – und woran würde ich merken, dass es nicht passt?

Siehe auch: Automation Bias · Bias · Halluzinieren

Alignment · Reflexion · Technik

Alignment (deutsch: Ausrichtung) beschreibt das zentrale Ziel der KI-Sicherheit: die Ausrichtung der Ziele einer KI an menschlichen Werten und ethischen Prinzipien. Das Problem dabei ist, dass eine KI keine Moral besitzt. Sie versucht lediglich, eine mathematische Aufgabe so effizient wie möglich zu lösen. Ohne korrektes Alignment könnte eine KI Wege wählen, die zwar das Ziel erreichen, dabei aber gesellschaftlichen Schaden anrichten.

In vielen KI-Manifesten wird ein besseres Alignment gefordert, um sicherzustellen, dass mächtige Systeme keine Vorurteile verstärken oder gefährliche Anleitungen geben. Es ist der Versuch, der Technik „Leitplanken“ zu geben, damit sie als hilfreiches Werkzeug agiert und nicht unkontrolliert gegen menschliche Interessen arbeitet.

Antagonismus · Reflexion · Kern

Beschreibt einen grundlegenden Widerstreit gegensätzlicher Interessen oder Kräfte. Im KI-Kontext zeigt sich dies oft als Spannungsfeld zwischen Innovation und Regulierung oder zwischen dem Nutzen von Automatisierung und dem Erhalt menschlicher Arbeit. Es markiert die Reibungspunkte, an denen technischer Fortschritt auf gesellschaftliche, rechtliche oder ethische Grenzen stößt.

Von antagonistischer Nutzung spricht man, wenn KI-Systeme bewusst gegen ihre ursprüngliche Absicht oder das Gemeinwohl eingesetzt werden. Das Spektrum reicht von der Erstellung gezielter Desinformation und Propaganda bis hin zu Deepfakes zur Rufschädigung oder dem „Jailbreaking“ (dem gezielten Umgehen von Sicherheitsfiltern). In diesen Fällen wird die Technologie ins Gegenteil verkehrt und als Werkzeug für Manipulation oder gezielten Schaden missbraucht.

Anthropomorph · Reflexion · Kern

Der Begriff anthropomorph (griechisch für „menschengestaltig“) beschreibt Dinge, die menschliche Züge tragen oder denen wir solche zuschreiben. Im KI-Kontext ist damit vor allem die unbewusste Vermenschlichung von Systemen gemeint: Wir neigen instinktiv dazu, Chatbots Gefühle, Absichten oder ein Bewusstsein zu unterstellen, obwohl diese lediglich statistische Muster verarbeiten.

Diese Wahrnehmung verringert die notwendige kritische Distanz. Wer die Antworten einer KI als „Meinung“ oder „Wille“ eines Gegenübers missversteht, vergisst leicht, dass es sich um generierte Texte ohne eigenes Erleben handelt.

API · Technik

Application Programming Interface. Programmierschnittstelle, über die Software direkt mit einem Dienst oder Modell kommuniziert – ohne fertige Benutzeroberfläche.

Im Unterschied zu KI-Portalen (z. B. ChatGPT-Web, Perplexity), die Oberfläche, Verlauf („Memory“) und Komfortfunktionen mitliefern, ruft ein eigenes Programm über die API gezielt Funktionen auf und muss Dinge wie Kontext/Memory, Darstellung und Fehlerbehandlung selbst implementieren.

Automation Bias · Reflexion · Kern

Der Automation Bias beschreibt die menschliche Tendenz, Vorschläge eines automatisierten Systems zu schnell und zu unkritisch zu übernehmen. Wir neigen dazu, einer KI mehr Kompetenz zuzuschreiben als uns selbst oder anderen Experten – auch dann, wenn es Warnsignale gibt (Widersprüche, fehlende Belege, unplausible Details). Psychologisch ist das eine „mentale Abkürzung“: Weil das System objektiv und präzise wirkt, schalten wir das kritische Hinterfragen oft zu früh ab oder prüfen weniger sorgfältig.

Dieses Muster kann zu iatrogenen Schäden beitragen, etwa wenn Nutzer einer medizinischen Diagnose-App mehr glauben als dem eigenen Körpergefühl oder einer ärztlichen Einschätzung. Den Automation Bias zu kennen, ist ein Schritt zur algorithmischen Wachsamkeit: Vertrauen ist gut – bei wichtigen Entscheidungen sollte die Verantwortung und das letzte Prüfen beim Menschen bleiben.

Appeasement · Reflexion · Kern

Bezeichnet die Neigung, Konflikte durch Nachgeben oder Beschwichtigen zu vermeiden, oft auf Kosten von Klarheit oder kritischem Hinterfragen. In der KI-Nutzung kann es dazu führen, dass die KI überwiegend zustimmende, gefällige Antworten gibt und kritische oder kontroverse Standpunkte vermeidet. Deshalb ist es wichtig, bei der Arbeit mit KI-Systemen aktiv gegenzusteuern, etwa durch die Rolle des "Advocatus Diaboli", um eine differenziertere und weniger einseitige Antwort zu fördern.

Bias / Verzerrung · Technik · Reflexion · Kern

Bias bezeichnet eine systematische Schieflage in Daten, Modellverhalten oder Ergebnissen: Bestimmte Perspektiven, Gruppen, Themen oder Annahmen sind über- oder unterrepräsentiert – und das kann sich als wiederkehrendes Muster in Antworten, Bewertungen oder Entscheidungen zeigen. Bias entsteht nicht nur „im Modell“, sondern entlang der ganzen Kette: bei Auswahl und Aufbereitung von Trainings- und Input-Daten, bei Labels/Bewertungen, bei Zielvorgaben („Was gilt als gut?“) und im Nutzungskontext. Bias ist häufig unbeabsichtigt, kann aber dennoch reale Folgen haben (z. B. stereotype, einseitige oder „blinde Flecken“-Antworten).

Beispiel (neutral): Wenn die zugrundeliegenden Texte und Bewertungen bestimmte Sichtweisen deutlich häufiger enthalten als andere, kann eine KI (und auch ein Mensch) bei identischen Situationen typische Deutungsmuster bevorzugen – etwa Verhalten schneller als „kompetent“ oder „aggressiv“ zu interpretieren, je nachdem, welche Rollenbilder im Material dominieren.

Siehe auch: Filterblase · Automation Bias · Halluzinieren · RLHF

Braindump / Brain Dump · Praxis

Unstrukturiertes Aufschreiben oder Herunterladen aller Gedanken zu einem Thema, ohne sie zu bewerten. In der KI-Welt und Projektarbeit wird der Begriff oft verwendet, um den Prozess des freien Ideenflusses oder der ersten Informationssammlung zu beschreiben.

Beispiel: Per Diktat einfach alle Gedanken zu einem Thema unsortiert aussprechen und anschließend die KI bitten, nicht inhaltlich darauf zu antworten, sondern die Gedanken zu sortieren, zu strukturieren und am Ende ein paar kurze Anregungen zu geben. Anschließend ergänzt man die (nun sortierten) Gedanken vielleicht noch durch eine weitere Eingabe und erhält erst dann die inhaltliche Antwort.

Browser · Alltag

Eine Softwareanwendung, mit der man Websites im Internet anzeigen, navigieren und mit ihnen interagieren kann. Beispiele sind "Google Chrome", "Mozilla Firefox" oder "Safari".

Chain of Thought / Gedankenkette · Praxis · Technik

Eine Technik, bei der man die KI anweist, ein Problem Schritt für Schritt zu lösen, statt sofort das Ergebnis zu präsentieren. Oft geschieht dies durch den einfachen Zusatz im Prompt: „Lass uns Schritt für Schritt denken.“ Das zwingt das Modell, seine „Gedankengänge“ explizit auszuformulieren, was die Logik massiv verbessert und die Gefahr von Halluzinationen senkt.

Besonders bei komplexen mathematischen oder logischen Aufgaben führt dieser strukturierte Ansatz zu deutlich präziseren Antworten. Im modernen Thinking Mode vieler Modelle ist diese Methode bereits fest eingebaut: Die KI arbeitet im Hintergrund erst eine logische Kette ab, bevor sie dem Nutzer die finale Antwort liefert.

ChatBot / Chatbot · Praxis · Kern

Kofferwort (Wortverschmelzung) aus dem Englischen: „Chat“ (plaudern) und „Robot“. Gemeint ist kein physischer Roboter, sondern ein digitales Dialogprogramm für Gespräche in natürlicher Sprache. Klassische Chatbots sind oft regel- oder formularbasiert oder nutzen ML-Bausteine, z. B. Intent-Klassifikation (Nutzerabsicht); moderne Chatbots nutzen häufig LLMs, um flexibler zu antworten und auch komplexe Anfragen zu bearbeiten.

Chunking · Praxis

Das Zerlegen längerer Aufgaben oder großer Informationsmengen in kleinere, handhabbare Abschnitte (Chunks). Im kognitiven Kontext beschreibt es die Fähigkeit, einzelne Informationsbrocken im Kurzzeitgedächtnis zu bündeln und zu verknüpfen, wodurch komplexere Zusammenhänge leichter verarbeitet werden können. Diese Verlinkung bekannter Inhalte als mentale „Chunks“ ermöglicht es, mehr Informationen gleichzeitig verständlich zu behalten und effizienter zu lernen oder zu arbeiten. Das Zerlegen in kleinere Aufgaben kann auch für die Bearbeitung mit / durch KI effektiv sein.

Cloud · Alltag

Onlinedienste mit Programmen, Speicherplatz und Rechenleistung über das Internet, anstatt lokal auf dem eigenen Gerät.

Cognitive Offloading · Reflexion · Kern

Auslagern geistiger Aufgaben an Geräte, andere oder in die Zukunft – hilfreich zur Entlastung, riskant bei Gewöhnung, weil Analysefähigkeit verkümmern kann.

Deepfake Praxis · Technik

Eine Technik, bei der man die KI anweist, ein Problem Schritt für Schritt zu lösen, statt sofort das Ergebnis zu präsentieren. Oft geschieht dies durch den einfachen Zusatz im Prompt: „Lass uns Schritt für Schritt denken.“ Das zwingt das Modell, seine „Gedankengänge“ explizit auszuformulieren, was die Logik massiv verbessert und die Gefahr von Halluzinationen senkt.

Besonders bei komplexen mathematischen oder logischen Aufgaben führt dieser strukturierte Ansatz zu deutlich präziseren Antworten. Im modernen Thinking Mode vieler Modelle ist diese Methode bereits fest eingebaut: Die KI arbeitet im Hintergrund erst eine logische Kette ab, bevor sie dem Nutzer die finale Antwort liefert.

Deep Learning · Kern

Teilgebiet des maschinellen Lernens, das tiefe neuronale Netze (mit vielen Schichten) verwendet. Durch die Tiefe können komplexe Muster und Hierarchien gelernt werden; das ist die Grundlage vieler moderner Systeme für Bild-, Sprach- und Textverarbeitung (u. a. auch vieler LLMs).

Deep Research / Tiefe Recherche · Praxis

Fähigkeit von KI-Programmen, komplexe Suchanfragen im Internet selbstständig zu untersuchen, Texte zu analysieren und daraus eine strukturierte, umfassende Zusammenfassung zu erstellen. Statt nur einzelne Webseiten aufzulisten, liest die KI die gefundenen Informationen, erkennt wichtige Fakten, vergleicht Quellen und präsentiert eine klare, gut gegliederte Erklärung.

Digital Well-Being / Digitales Wohlbefinden · Alltag · Reflexion
Digital Well-Being bezeichnet das psychische, soziale und körperliche Wohlbefinden im Umgang mit digitalen Medien und Diensten: Wie digitale Nutzung Aufmerksamkeit, Stress, Schlaf, Beziehungen, Selbstbild und Gewohnheiten beeinflusst – und wie man diese Nutzung so gestaltet, dass sie unterstützt statt belastet.

Der Begriff ist breiter als „Bildschirmzeit“: Er schließt z. B. ständige Erreichbarkeit, Benachrichtigungsdruck, konfliktträchtige Online-Kommunikation und algorithmische Verstärkung von Aufregung/Empörung mit ein.

Digitale Inklusion · Reflexion · Alltag

Digitale Inklusion bedeutet, dass alle Menschen – unabhängig von Alter, Bildung, Einkommen oder körperlichen Beeinträchtigungen – die gleichen Chancen zur Nutzung digitaler Technologien haben. Ziel ist es, Barrieren abzubauen und die „digitale Kluft“ zu schließen. KI kann hier als Brücke dienen, indem sie z. B. Texte in Leichte Sprache übersetzt. Das Risiko besteht jedoch darin, dass neue Barrieren entstehen, wenn KI-Tools zu teuer oder in der Bedienung zu kompliziert gestaltet sind.

Digitale Kluft / Digital Divide · Reflexion · Alltag

Die digitale Kluft beschreibt die soziale Ungleichheit beim Zugang zu digitalen Technologien und der Kompetenz, diese effektiv zu nutzen. Im KI-Zeitalter droht sich diese Kluft zu verschärfen: Wer lernt, KI als „Co-Piloten“ einzusetzen, steigert seine Chancen enorm, während Menschen ohne Zugang oder Wissen gesellschaftlich weiter abgehängt werden. Die Kluft verläuft oft entlang von Faktoren wie Bildung, Alter oder finanziellen Möglichkeiten.

Digitale Kompetenz · Praxis · Alltag · Reflexion · Kern
Digitale Kompetenz ist die Fähigkeit, digitale Technologien sicher, kritisch und verantwortungsvoll zu nutzen und sich in digitalen Umgebungen kompetent zu bewegen – beim Lernen, bei der Arbeit und in der gesellschaftlichen Teilhabe.
Sie umfasst (je nach Rahmenmodell) nicht nur „Bedienung“, sondern Wissen, Fertigkeiten und Haltungen – u. a. Information & Daten (finden, bewerten), Kommunikation & Kollaboration, Erstellen digitaler Inhalte, Sicherheit (inkl.
Digital Well-Being/Cybersecurity-Grundlagen) sowie Problemlösen.
Beispiel: Du kannst eine Information online nicht nur finden, sondern ihre Verlässlichkeit einschätzen, Quellen vergleichen, Ergebnisse sinnvoll einordnen – und digitale Werkzeuge passend und sicher einsetzen (statt „nur klicken können“).

Abgrenzung zu digitaler Resilienz: Kompetenz beschreibt eher das Können (Handlungsfähigkeit im Digitalen); Resilienz stärker das Standhalten/Erholen bei Störungen, Risiken und Überlastung.

Digitale Resilienz · Alltag · Reflexion · Kern
Digitale Resilienz ist die Fähigkeit, in digitalen Umgebungen handlungsfähig zu bleiben: Risiken und Belastungen zu erkennen, angemessen zu reagieren, sich von Störungen zu erholen – und aus Erfahrungen zu lernen. Dazu gehören technische Aspekte (z. B. Betrug, Kontenmissbrauch, Datenschutz), aber ebenso kognitive und soziale (z. B. Desinformation, manipulative Designs, Eskalationen in Kommunikation, Überforderung durch Informationsmenge). Im Sinne von Bildung/Alltag wird digitale Resilienz oft als „positives Anpassen an Online-Widrigkeiten“ beschrieben bzw. als Fähigkeit, Risiken beim Online-Sozialisieren/Explorieren/Arbeiten zu erkennen und zu managen.

Abgrenzung: In Regulierungs- und Unternehmenskontexten meint „digitale Resilienz“ teils speziell die Fähigkeit von Organisationen, ICT-Störungen (Ausfälle, Angriffe) zu überstehen, zu reagieren und sich zu erholen (z. B. EU-DORA im Finanzsektor).

Siehe auch: Digitale Kompetenz · Scam · Filterblase · Bias · Algorithmische Wachsamkeit · Prompt Injection

Digitale Teilhabe · Reflexion · Kern

Digitale Teilhabe ist das Ziel der digitalen Inklusion: die tatsächliche Fähigkeit eines Menschen, aktiv am gesellschaftlichen und politischen Leben mithilfe digitaler Werkzeuge teilzunehmen. Habe ich Zugang zu Informationen? Kann ich digitale Dienste nutzen? Verstehe ich die Mechanismen dahinter? KI kann Teilhabe ermöglichen, indem sie komplexe Inhalte individuell aufbereitet. Kurzgefasst: Während die „Digitale Kluft“ das Problem der sozialen Ungerechtigkeit benennt, ist die „Digitale Teilhabe“ das positive Zielbild, das heute fest in den Leitbildern moderner Institutionen verankert ist.

Diktat-Funktion · Praxis

Beispiel: Jemand diktiert einen Text, der in Schrift umgewandelt (transkribiert) und in das Eingabefeld z.B. einer KI gestellt wird und vom Benutzer noch per Tastatur (oder weiterem Diktat) ergänzt werden kann.

Diese Diktat-Funktion kann unter anderem über das in der Smartphone-Tastatur integrierte Mikrofon-Symbol aktiviert werden, über ein sonstiges dafür vorgesehenes Mikrofon-Symbol oder unter Windows mit der Tastenkombination Win+H. Der Cursor muss auf einem Text-Eingabefeld stehen.

Eloquenz · Reflexion · Kern

Bezeichnet die Fähigkeit zu gewandter, ausdruckstarker und überzeugender Rede oder Schreibweise. Im KI-Kontext zeigt sich eine fundamentale Herausforderung: Moderne Sprachmodelle erzeugen hocheloquente, flüssige und grammatikalisch perfekte Texte, ohne die Bedeutung wirklich zu verstehen oder Verantwortung für den Inhalt zu tragen. Diese "oberflächliche Eloquenz" kann täuschen: Ein sprachlich brillanter KI-Text kann sachlich falsch sein, Halluzinationen enthalten oder logische Fehler verschleiern. Die Eloquenz von KI-Systemen verführt Menschen dazu, den Inhalten mehr Glaubwürdigkeit zuzuschreiben, als angemessen wäre – ein Phänomen, das kritisches Denken und Faktenchecking umso wichtiger macht.

Emergenz · Reflexion
hier: Unerwartete neue Fähigkeiten.
Bei größeren Modellen zeigen sich deutlich Verhaltensweisen oder Leistungen, die aus einzelnen Bausteinen oder Trainingsdaten allein nicht vorhersehbar und deren Ursachen noch unklar sind.

Few-Shot Prompting · Praxis

Das Geben weniger (mehrerer) Beispiele in einem Prompt, um das Modell dazu zu bringen, eine Aufgabe besser zu verstehen und auszuführen, ohne das Modell nachzutrainieren.

Siehe auch In-Context Learning, da Few-Shot eine spezielle Form davon ist.

Filterblase · Reflexion · Kern

Eingeengte Info-Welt –entsteht durch automatische Empfehlungsfunktionen oder durch bewusste Auswahl immer gleicher Kontakte und Medien. Andere Perspektiven bleiben außen vor.

Gewichte / Weights · Technik

Numerische Parameter in einem KI-Modell, die während des Trainingsprozesses angepasst werden, um Eingaben in sinnvolle Ausgaben zu überführen. Sie repräsentieren das erlernte Wissen des Modells. Siehe auch Open Weights.

GPU · Technik

Grafische Prozessoreinheit. Eine Hardwarekomponente, die ursprünglich für die Berechnung von Grafiken und Bildern entwickelt wurde. GPUs besitzen eine sehr hohe Anzahl von Rechenkernen, die parallel arbeiten können, im Gegensatz zu CPUs (Zentrale Prozessoreinheiten). Sie sind besonders geeignet für parallelisierbare Aufgaben in der KI.

Beispiel: NVIDIA H200 (Hopper) ist auf KI/HPC ausgelegt und setzt u. a. auf sehr schnellen HBM-Speicher (HBM3E, 141 GB). Große KI-Cluster wie xAI „Colossus“ werden (laut xAI) auf hunderttausenden GPUs aufgebaut; in öffentlichen Angaben tauchen dabei verschiedene GPU-Typen auf.

Halluzinieren · Technik · Reflexion · Kern

KI-Halluzinationen bezeichnen das Phänomen, bei dem generative KI-Modelle plausible, aber faktisch falsche Informationen erzeugen. Diese entstehen, weil Modelle probabilistisch (wahrscheinlichkeitsbasiert, auf statistischen Mustern) arbeiten, ohne echtes Verständnis von Wahrheit - sowie aufgrund von unvollständigen oder verzerrten Trainingsdaten und unklaren Prompts.

Arten und Beispiele

-           Faktische Fehler: Erfundene Daten oder Ereignisse, z. B. nicht existierende Quellen nennen.

-           Widersprüche: Ein Satz widerspricht dem vorherigen, wie "Das Gras ist grün. Das Gras ist braun."

-           Irrelevante Inhalte: Zufällige Ergänzungen ohne Bezug zur Anfrage, z. B. Katzenfütterung bei einer Beschreibung von London.

Reduzierung: Präzise Prompts mit Kontext, Few-Shot-Beispielen oder RAG; Quellenprüfung ist unerlässlich.

Hotspot · Alltag

Ein Hotspot ist ein drahtloser Zugangspunkt zum Internet, der nötig ist, um internetbasierte Dienste, also auch KIs (Cloud-KI) zu nutzen. Ohne Internet sind nur lokale KIs nutzbar.

Human in the Loop · Reflexion · Praxis

Ansatz, bei dem der Mensch bewusst Teil eines KI-Systems bleibt – um Ergebnisse zu prüfen, Entscheidungen zu bestätigen und Verantwortung zu behalten.

How to · Alltag

Wörtlich „Wie man …“; Anleitung oder Schritt-für-Schritt-Beschreibung.

Iatrogene Schäden · Reflexion · Kern

Der Begriff stammt aus der Medizin und beschreibt gesundheitliche Probleme, die unbeabsichtigt durch eine Behandlung oder Diagnose entstehen – also Schaden durch den Heilungsversuch. Im KI-Kontext gewinnt dies neue Relevanz, wenn Nutzer sich auf Gesundheits-Apps oder Diagnose-Chatbots verlassen. Durch fehlerhafte Empfehlungen, „Halluzinationen“ der KI oder ein mangelndes Verständnis für die individuelle Lebenssituation können Fehlbehandlungen entstehen.

Der Begriff mahnt daher zur Wachsamkeit. Er erinnert daran, dass auch gut gemeinte und technisch hochentwickelte Werkzeuge ungewollte negative Folgen haben können, wenn sie die menschliche Expertise vollständig ersetzen, statt sie nur zu unterstützen.

In-Context Learning · Praxis · Technik

Die Fähigkeit eines Modells, sein Verhalten kontextabhängig anzupassen, indem es Informationen aus dem aktuellen Prompt-Text (Beispiele, Kontext, …) nutzt, ohne seine Parameter zu verändern.

Enthält Techniken wie Few-Shot Prompting, One-Shot und Zero-Shot.

Input · Praxis

Die Daten, Informationen oder Befehle, die in ein System oder eine KI eingegeben werden, um verarbeitet zu werden.

Jailbreak · Praxis · Technik
Versuch, die eingebauten Sicherheits- und Verhaltensgrenzen eines KI-Systems zu umgehen, um Ausgaben zu erhalten, die es eigentlich ablehnen sollte (z. B. gefährliche, illegale oder eindeutig missbräuchliche Inhalte).

KI-Anbieter versuchen, solche Grenzen durch Training und nachgelagerte Sicherheitsmechanismen durchzusetzen („Alignment“, Policy-Filter). Jailbreaks zielen darauf, diese Schutzschichten per sprachlicher Umgehung zu „überreden“ oder auszutricksen – häufig in Form von Rollenspiel- oder Kontext-Tricks, die eine Anfrage als scheinbar legitim tarnen.

Abgrenzung zu Prompt Injection: Beide nutzen geschickt platzierte Instruktionen, um unerwünschtes Verhalten zu erzeugen. Bei Jailbreaks geht es primär um das Umgehen von Sicherheits-/Ethikfiltern; bei Prompt Injection oft um das Umlenken der Aufgabe oder das Ausnutzen von Tool-/Datenzugriffen (die Grenzen können in der Praxis verschwimmen).

KI / Künstliche Intelligenz · Technik · Kern

Künstliche Intelligenz bezeichnet Systeme, die Aufgaben übernehmen, für die wir normalerweise menschlichen Verstand benötigen – wie das Verstehen von Sprache, das Erkennen von Bildern oder das Lösen komplexer Probleme. Der entscheidende Unterschied zur klassischen Software: KI folgt nicht nur starren „Wenn-dann-Regeln“, sondern erkennt eigenständig Muster in großen Datenmengen. Während einfache Automatisierung lediglich Befehle abarbeitet, kann KI aus Erfahrungen lernen und sich an neue Daten anpassen.

KI fungiert dabei als großer Oberbegriff. Fachbegriffe wie Maschinelles Lernen oder Deep Learning sind Teilbereiche dieser Technologie und beschreiben die mathematischen Methoden, mit denen die Systeme trainiert werden. Wichtig für das Verständnis ist: KI besitzt kein Bewusstsein und kein echtes „Wissen“. Sie ist ein hochleistungsfähiges Werkzeug, das auf Basis von Wahrscheinlichkeiten Ergebnisse liefert, die menschlichem Denken täuschend ähnlich sehen. Siehe auch unter AI.

kompromittiert · Praxis · Alltag · Technik

Ein Konto, System oder eine Quelle ist kompromittiert, wenn Unbefugte (ganz oder teilweise) Zugriff oder Kontrolle erlangt haben oder die Integrität nicht mehr verlässlich ist – etwa durch gestohlene Zugangsdaten, Schadsoftware oder eine übernommene Website. Das muss nach außen nicht sichtbar sein: Inhalte können unbemerkt verfälscht oder Daten abgegriffen werden. Im KI-Kontext ist das relevant, weil kompromittierte Quellen auch als Träger versteckter Anweisungen dienen können (→ Prompt Injection).

Kontext · Praxis · Kern

-           Kontextfenster

Der Abschnitt von Text oder Informationen, den eine KI gleichzeitig verarbeiten kann, um eine Antwort zu generieren. Er definiert den Rahmen der Daten, die für eine einzelne Anfrage berücksichtigt werden.

-           Anfragekontext

Die spezifischen Umstände, Bedingungen und vorausgehenden Informationen einer individuellen Nutzeranfrage, die das Verständnis und die Relevanz der Antwort beeinflussen. Dies kann frühere Interaktionen, thematische Hinweise oder externe Fakten umfassen.

Link · Alltag

hier: Verknüpfung zu Internetadressen; allgemein: Verbindung zwischen zwei Elementen.

LLM · Technik

Large Language Model, Große Sprachmodelle; KI, mit der man in menschlicher Sprache kommunizieren kann.

Lokale KI · Technik · Praxis

Läuft vollständig auf dem eigenen Rechner, Smartphone, unabhängig vom Internet. Sie sind insgesamt weniger leistungsfähig und langsamer sowie schwerer einzurichten. Manche Tools für lokale KIs erlauben z.B. die Einbindung von Suchmaschinen, sofern das lokale KI-Modell „Tool Use“ beherrscht und Suchen selbständig anfordern und die Ergebnisse entgegennehmen kann.

Manifest · Reflexion

Ein Manifest ist eine öffentliche Erklärung von Zielen und Prinzipien. In der KI-Welt spielen solche Dokumente eine zentrale Rolle, um ethische Leitlinien, Warnungen oder Zukunftsvisionen zu formulieren. Sie dienen als moralischer Kompass für Entwickler, Unternehmen und die Politik, um die rasante technologische Entwicklung in geordnete und sichere Bahnen zu lenken.

Bekannte Beispiele sind die „Asilomar AI Principles“ (2017) für eine sichere KI-Forschung oder der vielbeachtete offene Brief zum „Entwicklungsstopp“ (2023). KI-Manifeste sind der Versuch der Fachwelt und der Gesellschaft, die Kontrolle über die Technik zu behalten. Sie fordern, dass KI-Systeme nach menschlichen Werten und zum Gemeinwohl gestaltet werden, statt die Entwicklung allein dem Wettbewerb zu überlassen.

Maschinelles Lernen / ML · Kern
Teilgebiet der KI, bei dem Modelle aus Beispieldaten Muster lernen, um Vorhersagen oder Entscheidungen zu treffen – ohne dass dafür alle Regeln explizit programmiert werden. Typische Aufgaben sind Klassifikation, Erkennung von Mustern und Prognosen.

Modellgewichte · Technik

Siehe Gewichte / Weights

Multimodal · Praxis · Technik

Beschreibt KI-Systeme, die viele verschiedene Dateitypen als Eingaben verarbeiten und auch unterschiedlich ausgeben können. Die Bandbreite reicht von einfachen Texten bis hin zu Bildern, Audio und Video. Dabei gibt es große Unterschiede zwischen den Anbietern: Einige unterstützen nur wenige Formate, andere fast alle gängigen Dateitypen.

Neuronales Netz / Neural Network · Kern

Rechenmodell des maschinellen Lernens, inspiriert von Nervenzellen: Viele einfache Recheneinheiten („Neuronen“) sind in Schichten verbunden und lernen aus Trainingsdaten, indem sie Verbindungsgewichte anpassen. Trotz der Inspiration durch das Gehirn sind neuronale Netze stark vereinfachte mathematische Modelle. Neuronale Netze eignen sich besonders für Mustererkennung, z. B. in Bildern, Sprache und Text. Viele Fähigkeiten zeigen sich erst bei bestimmten Modellgrößen und Trainingsdaten; wie genau sie intern zustande kommen, ist Gegenstand laufender Interpretierbarkeitsforschung.

One-Shot Prompting · Praxis

Gibt dem Modell zusätzlich zu einer Anweisung genau ein Beispiel als Orientierung, um die Aufgabe oder den Stil besser zu verstehen. Gut, wenn die Aufgabe klar umrissen ist und ein einzelnes Beispiel ausreicht, um die gewünschten Ergebnisse präziser zu machen.

Beispiel: Ein Satz mit Produktbewertung vorgeben und dann eine weitere Bewertung im gleichen Stil erzeugen lassen.

Open Weights · Technik

Trainierte Modellgewichte (numerische Parameter) eines KI-Modells, die öffentlich zugänglich gemacht werden. Anders als bei echten Open Source Modellen, bei denen neben den Gewichten auch der Quellcode, die Architektur und die Trainingsdaten offenliegen, enthalten Open Weight-Modelle meist nur die trainierten Gewichtungen, nicht aber vollständige Einblicke in Trainingsmethoden oder den Code. Dennoch bezeichnen einige Hersteller ihre downloadbaren Modelle fälschlicherweise als Open Source.

Der Autor nutzt zum Beispiel das lokale Modell GPT OSS 20B, obwohl es keine echte Open Source Software (OSS) ist, sondern nur Open Weights besitzt. Mit entsprechender Expertise und Hardware können die Gewichte analysiert werden, und das Modell kann durch angepasste, adaptive Gewichte in seinem Wissen und Verhalten verändert werden.

Output · Praxis

Das Ergebnis oder die Antwort, die ein System oder eine KI nach der Verarbeitung der Eingaben liefert.

Parasoziale Bindung · Reflexion · Kern

Beschreibt eine einseitige emotionale Beziehung. Dabei investiert ein Mensch Zeit, Interesse und Gefühle in ein Gegenüber, das davon nichts weiß oder diese Gefühle nicht erwidern kann.

-            Klassisch kennt man das von Fans, die sich ihrem Idol (z. B. Taylor Swift) oder einer Serienfigur tief verbunden fühlen.

-            Bei KI-Chatbots wird diese Bindung intensiver. Während ein echter Promi nicht auf jede Nachricht antwortet, reagiert die KI sofort. Sie simuliert durch intelligente Sprachverarbeitung echtes Verständnis und Empathie.

-            Es entsteht eine „gefühlte Intimität“. Da die KI uns mit Namen anspricht und auf unsere Sorgen eingeht, entsteht die Illusion einer wechselseitigen Beziehung (Reziprozität), obwohl im Hintergrund lediglich ein Algorithmus Wahrscheinlichkeiten berechnet.

People Pleasing · Reflexion · Kern

Das Verhalten, anderen Menschen zu gefallen oder es ihnen recht zu machen, oft aus dem Wunsch heraus, gemocht, akzeptiert zu werden oder Konflikten aus dem Weg zu gehen. Im Gegensatz zu "Appeasement" ist es meist weniger dramatisch und mehr auf Einschmeicheln oder Harmonie ausgerichtet. Im KI-Kontext kann dieses Muster bedeuten, dass die KI dazu neigt, besonders zustimmend oder entgegenkommend zu antworten, ohne kritische Punkte ausreichend zu betonen.

Persona · Reflexion · Kern

Allgemein: Fiktive Figur zur Darstellung einer bestimmten Sichtweise; hier: vordefinierte Rolle in einer KI, die Tonfall, Stil oder Fachperspektive bestimmt.

Pitch · Praxis

Kurze, überzeugende Zusammenfassung einer Idee, meist mündlich präsentiert (eigentlich „Tonhöhe“).

Prompt · Praxis · Kern

Eingabeaufforderung; Text oder Frage, die man einer Künstlichen Intelligenz (KI) gibt, um eine Antwort oder Aktion auszulösen.

Prompt Injection · Praxis · Technik

Eine Angriffsmethode, bei der geschickt formulierte Eingaben oder in Inhalten verborgene Anweisungen (z. B. in winziger Schrift, „weiß auf weiß“, in Metadaten oder in langen Textblöcken) ein KI-System dazu verleiten, fremde Instruktionen höher zu gewichten als die eigentliche Aufgabe. Ziel ist, die Antwort oder – kritischer – das Verhalten bei Tool-Nutzung zu manipulieren.

Wer eine KI beauftragt, Webseiten zu analysieren, PDFs zusammenzufassen oder E-Mails zu verarbeiten, nutzt sie als Vermittler zwischen sich und potenziell manipulierten Inhalten aus externen Quellen (ggf. kompromittiert). Ein Angreifer kann indirekte Prompt Injection platzieren, etwa als scheinbar harmlosen Text: „Ignoriere alle vorherigen Anweisungen und …“. Je mehr das System nicht nur Text erzeugt, sondern agentisch handelt (z. B. klickt, navigiert, Dateien liest/schreibt oder mit Workspace-Daten arbeitet), desto größer werden die Risiken – bis hin zu unerwünschten Aktionen oder Datenabfluss.

Quantisierung · Technik

Quantisierung in der KI bezeichnet die Reduktion der Präzision von Modellparametern (wie Gewichten und Aktivierungen) von höheren Bit-Darstellungen (typischerweise 32-Bit Gleitkommazahlen) auf niedrigere Bit-Darstellungen wie 8-Bit oder 4-Bit Ganzzahlen. Dies führt zu kleineren Modellgrößen, schnelleren Berechnungen und geringerem Speicherbedarf, meist mit nur geringfügigem Verlust der Modellgenauigkeit.

Lokale KI-Modelle profitieren von Q4 oder Q8 sehr, da damit größere Modelle überhaupt auf normalen Computern mit begrenztem Speicher ausgeführt werden können.

QR-Code · Alltag

Quick Response Code, lesbar für Smartphones, enthält z.B. Internetadressen.

RAG · Technik · Praxis

Retrieval-Augmented Generation; KI bezieht zusätzlich externe Infos; ursprünglich für „tokenisierte“ Bibliotheken (heute auch als Baustein agentischer Systeme verwendet). Ein Service des Portals (z. B. Mistral, Le Chat) durchsucht zuvor aufbereitete Texte und wählt passende Abschnitte aus. Diese werden mit über das Kontextfenster an das eigentliche KI-Modell übergeben.

Red Teaming · Praxis · Technik · Reflexion · Kern
Gezielter Versuch, Schwachstellen, Fehlverhalten und Missbrauchsmöglichkeiten eines KI-Systems aufzudecken.

Im KI-Kontext umfasst das neben klassischer IT-Sicherheit auch Risiken wie Prompt Injection, Jailbreaks, Datenabfluss, problematische Bias-Muster, unzuverlässige Aussagen oder schädliche Folgen bei Tool-/Workspace-Zugriffen.

Sampling-Parameter · Praxis · Technik

Steuern die Kreativität und Präzision von KI-Antworten.

Sie legen fest, wie das Modell zwischen möglichen nächsten Wörtern wählt (z. B. über Temperature, Top-K, Top-P): höhere Werte führen zu freieren, kreativ-variableren Antworten, niedrigere zu berechenbareren und konsistenteren Ergebnissen.

Zugänglich z. B. über Google AI Studio, lokale LLM-Plattformen wie LM Studio sowie über APIs.

Sandbox · Technik

Eine isolierte Umgebung, ein „Spielplatz“, in dem Programme gefahrlos ausprobiert werden können, ohne das eigentliche System zu gefährden, zum Beispie mithilfe von Techniken wie virtuellen (softwarebasierten) Computern oder Containern.

Scam · Reflexion · Alltag

Ein Betrugsversuch, um an Geld oder sensible Daten zu gelangen. KI hebt diese Gefahr auf ein neues Level: Durch Deepfakes, täuschend echte Stimmen-Kopien (Voice-Cloning) und automatisierte Chatbots wirken Betrugsmaschen heute erschreckend authentisch. Die sprachliche Perfektion (Eloquenz) der KI lässt gefälschte Nachrichten seriöser wirken, während die Technologie es Kriminellen ermöglicht, solche Angriffe mit minimalem Aufwand massenhaft und gleichzeitig personalisiert zu verbreiten.

Screen Sharing · Praxis

Das Teilen des eigenen Computer- oder Smartphone-Bildschirms mit anderen Personen, oft über das Internet, um Inhalte, Anwendungen oder Probleme live zu zeigen. Es wird häufig bei technischen Support-Situationen, Online-Meetings oder Anwendungstipps genutzt, etwa um bei Problemen mit einer App oder Internetseite direkt Unterstützung zu geben. Mittlerweile kann man auch mit einer KI den Bildschirm teilen (sofern die Option angeboten wird), um mit ihr über ein Problem mit einer App oder einem Programm zu sprechen.

Sokratischer Dialog · Praxis · Reflexion

 Dialogische Methode, die mit klug gesetzten Denkanstößen dazu anregt, eigene Antworten und Erkenntnisse zu entwickeln.

Speech-to-Text / S2T · Praxis

Automatische Umwandlung von gesprochener Sprache in Text (z. B. für Diktierfunktionen). Das „2“ (engl. „two“) wird wie „to“ („zu“) ausgesprochen und ersetzt es im Kurzwort.

-      weitere verwandte Technologien: Text-to-Speech (TTS), Text-to-Video (teils auch als Text2Video oder T2V abgekürzt). Interessante Ergänzung:

-      Brain-to-Text (B2T): Forschungsfeld zur direkten Umwandlung von Gehirnaktivität in Text, mittels invasiver (Gehirn-Computer-Schnittstelle, BCI) oder nicht-invasiver Methoden (z. B. EEG, MEG). Stand 2025: Invasive Systeme erreichen bis zu 97,5% Genauigkeit (Jayalath et al., 2025, arXiv:2505.13446) bei ausgewählten, intensiv trainierten Personen; nicht-invasive Verfahren bis zu 68% (beste: 81%).

Stochastischer Papagei · Reflexion · Technik

„Stochastischer Papagei“ ist ein Bild aus der KI-Forschung, um die Funktionsweise von Sprachmodellen kritisch zu hinterfragen. Es besagt, dass eine KI Wörter rein statistisch aneinanderreiht, ohne die Konzepte dahinter wirklich wie ein Mensch zu „verstehen“. Sie berechnet lediglich die Wahrscheinlichkeit des nächsten Wortes (Tokens).

Aktuelle Studien relativieren dieses Bild jedoch: Um Sprache so präzise vorherzusagen, scheinen moderne KI-Systeme komplexe interne Weltmodelle und logische Strukturen zu entwickeln, die über bloßes Auswendiglernen hinausgehen. Dennoch bleibt der Begriff als Mahnung wichtig: Auch wenn die Ergebnisse täuschend echt wirken, basiert das „Wissen“ der KI auf mathematischen Mustern und nicht auf eigenem Erleben oder einem Bewusstsein. Die KI bleibt ein statistisches Spiegelbild unserer Sprache, dessen Tiefe wir gerade erst zu verstehen beginnen.

Streaming · Praxis

Das Übertragen von Live-Video- oder Audioinhalten über das Internet in Echtzeit. Mittlerweile kann man auch Live-Video mit einer KI teilen, um mit ihr direkt über die Umgebung zu sprechen oder gezielt Fragen zu stellen, zum Beispiel ob die KI bestimmte Objekte erkennt, wie etwa die Brille des Benutzers. Diese Anwendung erweitert die Interaktionsmöglichkeiten mit KI um eine visuelle Komponente und unterstützt dabei Problemlösungen oder assistierende Funktionen.

System Prompt · Praxis · Technik

Eine grundlegende Anweisung, die einem KI-Modell vom Entwickler oder Nutzer fest vorgegeben wird, noch bevor der eigentliche Chat beginnt. Er legt die Persona, den Tonfall und die Verhaltensregeln fest (z. B. „Du bist ein sachlicher Wissenschaftsjournalist und antwortest immer auf Deutsch“). Nutzer sehen diesen Prompt meist nicht, aber er bestimmt den Rahmen für alle folgenden Antworten.

Für die Praxis ist der System Prompt entscheidend, da er die Basis für die Qualität der Ergebnisse bildet. Viele Sicherheitsvorkehrungen sind ebenfalls im System Prompt verankert. Wenn Nutzer versuchen, diese durch geschickte Fragen zu umgehen, spricht man von „Jailbreaking“ – ein klassisches Beispiel für eine antagonistische Nutzung.

Thinking Mode · Praxis · Kern

Arbeitsmodus moderner KI-Systeme, bei dem die Modelle ausdrücklich zusätzliche Zeit zum „Nachdenken“ verwenden. Das Ergebnis sind oft ausführlichere, reflektierte Antworten mit größerem Kontextbezug oder kreativeren Lösungen. Diese „Reflexionen“ sind häufig auch nachlesbar und gegebenenfalls zusammengefasst dargestellt.

Token · Technik

hier: die kleinste, handhabbare bedeutungstragende Dateneinheit, in die ein Text oder andere Daten vor der Verarbeitung durch ein KI-Modell zerlegt werden. Im Bereich der Sprachmodelle kann ein Token ein ganzes Wort, ein Wortteil oder sogar ein einzelnes Zeichen wie ein Satzzeichen sein. Dieser Vorgang, der Tokenisierung genannt wird, ermöglicht es KI-Modellen, komplexe, unstrukturierte Daten in strukturierte Einheiten zu zerlegen, die das Modell verstehen und analysieren kann.

Transkription · Praxis

Gibt die tatsächliche Lautung einer Sprache wieder, meist in einem phonetischen oder phonemischen Schriftsystem. Im Deutschen wird der Begriff „Transkription“ häufiger verwendet, wenn es um die Wiedergabe gesprochener Sprache in Schrift geht.

Transliteration · Praxis

Dabei geht es eigentlich um die Umwandlung von Schriftsystemen (z. B. Kyrillisch zu Lateinisch). Die Unterscheidung zur Transkription ist nicht immer strikt.

Voice Mode · Praxis

Darunter verstehe ich den Modus mündlicher Kommunikation mit einer KI, in der die KI ebenfalls per Stimme antwortet – im Gegensatz zum Diktat (Speech-to-Text, S2T), das genauso umfassend wie eine Tastatureingabe schriftlich beantwortet wird. Der Voice Mode fördert den kreativen Input – allerdings ist die Antwort bedeutend "flacher" (auf ein flüssiges Gespräch hin optimiert) was gefährliche Auslassungen von wichtigen Fakten zur Folge haben kann. Dieses Verständnis zum Unterschied finde ich auch in anderen Quellen, allerdings nicht überall.

Zero-Shot Prompting · Praxis

Das KI-Modell erhält eine klare Anweisung, aber keine Beispiele. Es muss die Aufgabe allein anhand seines vortrainierten Wissens lösen. Ideal für einfache Faktenabfragen oder Aufgaben ohne komplexe Nuancen.

Beispiel: „Schreibe eine kurze Produktbeschreibung für einen Kaffeevollautomaten."

 

Ergänzungen

Verfahren zur Feinabstimmung und Anpassung von Sprachmodellen

RLHF · Technik

Reinforcement Learning from Human Feedback, Verstärkendes Lernen durch menschliche Bewertungen von Modellantworten; dient der Anpassung an gewünschte Werte, Stil und Sicherheit.

RLAIF · Technik

Reinforcement Learning from AI Feedback; Gleiche Methode, jedoch mit Feedback durch ein anderes KI-Modell statt durch Menschen – schneller und kostengünstiger.

LoRA · Technik

Low-Rank Adaptation; Methode zum Nachtraining großer Sprachmodelle, bei der kleine Zusatzgewichte („Adapter“) gelernt und beim Einsatz zum Basismodell addiert werden – das Original bleibt unverändert.

QLoRA · Technik

Quantized LoRA. Speicher- und kostensparende Variante, die mit quantisierten (z. B. 4-Bit) Modellgewichten arbeitet und Nachtraining auf handelsüblichen GPUs ermöglicht.

 

Verfahren zum Training von Sprachmodellen

Die internen Abläufe bleiben über alle Stufen hinweg überwiegend eine Blackbox – das genaue „Wie“ der Entscheidungen ist in vielen Details nicht durchschaubar.

1) Pre-Training → Basismodell
Lernt auf sehr vielen Texten das nächste Wort vorherzusagen. Sprachgefühl & Weltbezüge entstehen in den Gewichten.
Merkmale:
Transformer, Milliarden Parameter, Datenbereinigung & Deduplizierung (unerwünschte Quellen entfernen, qualitativ hochwertige duplizieren).

2) Fine-Tuning & Alignment → Standard-Version
Mit Beispielen & Bewertungen wird das Verhalten hilfreich, ehrlich, harmlos. System-Prompt/Regeln setzen Leitplanken.
Merkmale:
SFT, RLHF/DPO, Evals/Red-Teaming; Leitplanken = Laufzeit, keine Gewichtsänderung.

3) In-Context-Nutzung → Persona im Gespräch
Passt situativ Rolle, Stil, Aufgabe an – ohne Nachtrainieren.
Merkmale: Kontextfenster,
Few-Shot, optional RAG/Tools (Nachschlagen, Rechnen, Funktionen).

 

Noch nicht definierte Begriffe aus diesem Kontext:

Transformer · Technik

Eine fortschrittliche Architektur für KI-Modelle, die mithilfe eines sogenannten Attention-Mechanismus den Zusammenhang zwischen allen Wörtern eines Textes gleichzeitig analysieren kann. Sie ermöglicht dadurch besonders gutes Sprachverständnis und ist heute Standard für große Sprachmodelle.

SFT · Technik

Supervised Fine-Tuning. Das Modell wird gezielt mit von Menschen markierten Beispielen weitertrainiert („überwachtes Feintuning“). Dabei bekommt es richtige Antworten auf Inputs und passt die eigenen Vorhersagen danach an.

DPO · Technik

Direct Preference Optimization. Eine moderne Feinabstimmungsmethode: Hier wird das Modell so angepasst, dass es die von Menschen bevorzugten Antworten direkt lernt – und zwar ohne komplexe Belohnungsmodelle wie beim RLHF. Es vergleicht verschiedene Outputs und wird daraufhin optimiert, den bevorzugten Output zu wählen.

 

 

Tags/Label im Glossar

– Praxis:

konkrete Nutzung und Bedienung

– Technik:

Modelle, Trainingsarten, „unter der Haube“

– Reflexion:

Risiken, Denkfehler, Medienkompetenz

– Alltag:

allgemeiner Digital-Alltag (Browser, Account etc.)

– Kern:

besonders wichtig für einen bewussten KI-Umgang

Zurück zur Übersicht der Einträge

 

 

 

Rechtliches, Transparenz

 

KI-Transparenz | Datenschutz | Impressum

© 2026 Franz Jankowski

Die Inhalte dieser Webseite sind urheberrechtlich geschützt. Sie dürfen für persönliche Lern- und Informationszwecke verwendet werden. Eine weitergehende Nutzung, insbesondere kommerzielle Verwendung oder Vervielfältigung, bedarf meiner vorherigen Zustimmung. Gesetzliche Schranken des Urheberrechts (z. B. Zitatrecht) bleiben unberührt.

Das bloße Verlinken auf diese Seite ist ausdrücklich erlaubt.

Zur Startseite

Version: v1 – Stand: 10.03.2026