KI-Glossar
KI-Begriffe verständlich erklärt
Die wichtigsten Begriffe rund um Künstliche Intelligenz — praxisnah erklärt für Entscheider und Teams im Mittelstand. Kein Fachjargon, sondern verständliche Definitionen mit Bezug zum Unternehmensalltag.
Grundlagen
Künstliche Intelligenz (KI)
Überbegriff für Systeme, die Aufgaben ausführen, die normalerweise menschliche Intelligenz erfordern — z. B. Texte verstehen, Bilder erkennen oder Entscheidungen treffen. Im Unternehmenskontext meint KI heute meist Machine Learning und Large Language Models, nicht die „allgemeine KI" aus der Science-Fiction. Der praktische Nutzen liegt in Automatisierung, Mustererkennung und Entscheidungsunterstützung.
Machine Learning
Teilgebiet der KI, bei dem Algorithmen aus Daten lernen, statt explizit programmiert zu werden. Ein ML-Modell erkennt Muster in Trainingsdaten und kann diese auf neue Daten anwenden — etwa zur Vorhersage von Kundenabwanderung oder zur automatischen Klassifikation von Dokumenten. Die Qualität hängt direkt von der Datenqualität ab.
Deep Learning
Spezialisierte Form des Machine Learning mit künstlichen neuronalen Netzen, die aus vielen Schichten bestehen. Deep Learning ermöglicht es, komplexe Muster zu erkennen — in Bildern, Sprache oder Text. Die Technologie hinter den meisten modernen KI-Durchbrüchen, von Spracherkennung bis Bildgenerierung.
Neuronales Netz
Rechenmodell, das biologische Nervenzellen nachahmt: Viele einfache Einheiten (Neuronen), die in Schichten organisiert sind und über gewichtete Verbindungen miteinander kommunizieren. Durch Training werden die Gewichte angepasst, bis das Netz die gewünschte Aufgabe löst. Basis aller modernen Deep-Learning-Systeme.
Natural Language Processing (NLP)
Technologien, die es Computern ermöglichen, menschliche Sprache zu verstehen, zu analysieren und zu erzeugen. Einsatzgebiete: automatische Zusammenfassungen, Sentiment-Analyse, Chatbots, Übersetzungen und Textklassifikation. Für Unternehmen besonders relevant bei der Verarbeitung großer Textmengen — E-Mails, Verträge, Kundenfeedback.
Computer Vision
KI-Disziplin, die Computern beibringt, Bilder und Videos zu interpretieren — Objekte erkennen, Szenen klassifizieren oder Anomalien in Produktionslinien identifizieren. Im Mittelstand eingesetzt für Qualitätskontrolle, Dokumentenverarbeitung (OCR) und visuelle Inspektion.
Token
Die kleinste Einheit, in die ein Sprachmodell Text zerlegt — ungefähr ein Wort oder Wortteil. „Unternehmensstrategie" wird z. B. in mehrere Tokens aufgeteilt. Relevant für die Praxis, weil KI-Dienste nach Token abrechnen und Modelle eine maximale Token-Anzahl pro Anfrage verarbeiten können (Kontextfenster).
Supervised Learning
Lernverfahren, bei dem das Modell mit gelabelten Daten trainiert wird — also Eingabe-Ausgabe-Paare. Beispiel: E-Mails, die als „Spam" oder „kein Spam" markiert sind. Das Modell lernt die Zuordnung und kann neue E-Mails klassifizieren. Am weitesten verbreitet und am einfachsten zu verstehen.
Unsupervised Learning
Lernverfahren ohne gelabelte Daten — das Modell findet selbständig Strukturen und Muster. Typische Anwendungen: Kundensegmentierung, Anomalieerkennung oder Themenclustering in großen Textmengen. Nützlich, wenn keine vorklassifizierten Trainingsdaten verfügbar sind.
Reinforcement Learning
Lernverfahren, bei dem ein Agent durch Versuch und Irrtum lernt, Belohnungen zu maximieren. Wird eingesetzt, wenn es keine „richtigen" Trainingsbeispiele gibt, aber eine Bewertungsfunktion — z. B. bei Robotersteuerung oder der Optimierung von Sprachmodellen (RLHF). Auch die Grundlage hinter den beeindruckenden Ergebnissen bei Schach und Go.
Transfer Learning
Prinzip, ein auf einer großen Datenmenge vortrainiertes Modell für eine spezifischere Aufgabe weiterzuverwenden. Statt von Null zu starten, wird das vorhandene Wissen des Modells als Basis genutzt und nur für den eigenen Anwendungsfall angepasst. Spart enorm Rechenzeit und Trainingsdaten. Grundprinzip hinter Fine-Tuning.
Modelle & Architektur
Large Language Model (LLM)
Große Sprachmodelle wie GPT-4, Claude oder Llama, die auf riesigen Textmengen trainiert wurden. LLMs können Texte verstehen, generieren, zusammenfassen und übersetzen. Sie sind die Basis der meisten aktuellen KI-Anwendungen im Unternehmen — von Chatbots über Dokumentenanalyse bis hin zur Codegenerierung.
Transformer
Die Architektur hinter allen modernen Sprachmodellen (GPT, Claude, Llama). Entscheidende Innovation: der „Attention-Mechanismus", der es dem Modell erlaubt, Zusammenhänge über lange Textpassagen hinweg zu erkennen. 2017 von Google vorgestellt und seitdem Grundlage praktisch aller Fortschritte im NLP.
Embedding
Mathematische Darstellung von Text (oder Bildern, Audio) als Zahlenvektor. Ähnliche Inhalte liegen im Vektorraum nahe beieinander — „Geschäftsführer" und „CEO" haben ähnliche Embeddings. Grundlage für semantische Suche, Empfehlungssysteme und Retrieval Augmented Generation (RAG).
Vektordatenbank
Spezialisierte Datenbank, die Embeddings speichert und effizient nach ähnlichen Vektoren suchen kann. Ermöglicht es, in Sekundenbruchteilen die relevantesten Dokumente, Produktbeschreibungen oder FAQ-Einträge zu finden — nicht nach Stichworten, sondern nach Bedeutung. Kernkomponente moderner RAG-Systeme.
Praxis & Umsetzung
Prompt
Die Eingabe (Anweisung, Frage, Kontext), die an ein Sprachmodell geschickt wird. Die Qualität des Prompts bestimmt maßgeblich die Qualität der Antwort. Im Unternehmenseinsatz werden Prompts oft als Templates standardisiert, um konsistente Ergebnisse über verschiedene Anwender und Anwendungsfälle hinweg sicherzustellen.
Prompt Engineering
Die Kunst und Methodik, Prompts so zu formulieren, dass Sprachmodelle optimale Ergebnisse liefern. Umfasst Techniken wie Rollenanweisungen, strukturierte Ausgabeformate, Chain-of-Thought-Prompting und Few-Shot-Beispiele. Für Unternehmen oft der schnellste Weg, die Qualität von KI-Ergebnissen deutlich zu verbessern — ohne Modelle zu ändern.
Chain of Thought (CoT)
Prompt-Technik, bei der man das Sprachmodell auffordert, schrittweise zu denken, bevor es eine Antwort gibt. Verbessert die Ergebnisqualität bei komplexen Aufgaben erheblich — z. B. bei Analysen, Berechnungen oder mehrstufigen Entscheidungen. Einfach umsetzbar: „Denke Schritt für Schritt" im Prompt reicht oft aus.
Few-Shot Learning
Methode, einem Sprachmodell durch wenige Beispiele im Prompt zu zeigen, was man erwartet. Statt langer Erklärungen gibt man 2–5 Beispiele für Input und gewünschten Output. Besonders nützlich für standardisierte Aufgaben wie Klassifikation, Formatierung oder Datenextraktion.
Fine-Tuning
Nachtraining eines vortrainierten Modells auf eigenen Daten, um es für einen spezifischen Anwendungsfall zu optimieren. Teurer und aufwändiger als Prompt Engineering, aber notwendig, wenn das Basismodell fachspezifisches Wissen oder einen bestimmten Schreibstil dauerhaft beherrschen soll. Erfordert qualitativ hochwertige Trainingsdaten.
Retrieval Augmented Generation (RAG)
Architekturmuster, bei dem ein Sprachmodell vor der Antwortgenerierung relevante Dokumente aus einer Wissensbasis abruft. Löst zwei zentrale Probleme: Das Modell kann auf aktuelle, unternehmensspezifische Informationen zugreifen, und Halluzinationen werden reduziert, weil Antworten auf echten Quellen basieren.
Halluzination
Wenn ein KI-Modell plausibel klingende, aber faktisch falsche Informationen generiert — erfundene Zitate, nicht existierende Gesetze oder falsche Zahlen. Ein Kernrisiko beim Unternehmenseinsatz von LLMs. Gegenmaßnahmen: RAG, Faktenprüfung, strukturierte Ausgaben und Human-in-the-Loop-Prozesse.
Inference
Der Prozess, bei dem ein trainiertes KI-Modell eine Eingabe verarbeitet und eine Ausgabe erzeugt — also der produktive Einsatz im Gegensatz zum Training. Inference-Kosten (Rechenzeit, API-Gebühren) sind ein wesentlicher Faktor bei der Wirtschaftlichkeitsberechnung von KI-Lösungen.
KI-Agent
Ein KI-System, das eigenständig Teilaufgaben plant, ausführt und die Ergebnisse bewertet — über eine einzelne Modell-Anfrage hinaus. KI-Agenten können Tools nutzen (Websuche, APIs, Datenbanken), Zwischenergebnisse bewerten und ihren Ansatz anpassen. Aktuell eines der dynamischsten Entwicklungsfelder in der KI.
Agentic Engineering
Die Disziplin, KI-Agenten systematisch in Arbeitsprozesse einzubetten — nicht als passive Assistenten, sondern als aktiv geführte Teammitglieder. Umfasst Aufgabenzerlegung, Kontextmanagement, Qualitätssicherung und die Orchestrierung mehrerer Agenten. Der Unterschied zum reinen Tool-Einsatz: methodische Führung statt Ad-hoc-Nutzung.
MLOps
Practices und Tools für den produktiven Betrieb von Machine-Learning-Modellen — analog zu DevOps für Software. Umfasst Versionierung von Daten und Modellen, automatisiertes Training, Monitoring der Modellqualität und Deployment-Pipelines. Wird relevant, sobald KI-Modelle nicht nur experimentell, sondern dauerhaft im Einsatz sind.
Governance & Recht
EU AI Act
Die europäische KI-Verordnung — das weltweit erste umfassende KI-Gesetz. Klassifiziert KI-Systeme nach Risikostufen und definiert Anforderungen an Transparenz, Dokumentation und menschliche Aufsicht. Für Unternehmen relevant: Bestimmte KI-Anwendungen (z. B. in HR oder Kreditwesen) unterliegen strengen Auflagen. Schrittweises Inkrafttreten seit 2024.
KI-Governance
Regeln, Prozesse und Verantwortlichkeiten für den verantwortungsvollen KI-Einsatz im Unternehmen. Umfasst Datenqualität, Bias-Prüfung, Transparenz von Entscheidungen, Zugriffskontrollen und Compliance mit dem EU AI Act. Keine Bürokratie-Übung, sondern die Grundlage dafür, dass KI-Projekte skalieren können, ohne Risiken zu erzeugen.
KI-Reifegrad
Einschätzung, wie weit ein Unternehmen in der KI-Adoption fortgeschritten ist — von „erste Experimente" bis „KI in Kernprozessen verankert". Wichtig für die Strategieplanung: Maßnahmen, die für ein KI-reifes Unternehmen sinnvoll sind, überfordern ein Unternehmen in der Anfangsphase. Eine ehrliche Standortbestimmung spart Fehlallokation.
KI-Strategie
Ein strukturierter Plan, wie ein Unternehmen KI gewinnbringend einsetzen will — nicht „überall ein bisschen", sondern priorisiert nach Wirkung und Machbarkeit. Eine gute KI-Strategie verbindet Geschäftsziele mit technischen Möglichkeiten, berücksichtigt vorhandene Daten und Kompetenzen und definiert konkrete nächste Schritte.
Modellsouveränität
Die Fähigkeit eines Unternehmens, bei KI-Modellen Wahlfreiheit zu behalten — nicht von einem einzelnen Anbieter abhängig zu sein. Umfasst Strategien wie Multi-Provider-Ansätze, den Einsatz von Open-Source-Modellen und klare API-Abstraktionen. Besonders relevant im europäischen Kontext mit Blick auf Datenschutz und geopolitische Risiken.
KI-Begriffe in der Praxis?
Verstehen ist der erste Schritt — lassen Sie uns besprechen, wie diese Konzepte in Ihrem Unternehmen konkret anwendbar sind.