KI-Glossar

KI-Begriffe verständlich erklärt

Die wichtigsten Begriffe rund um Künstliche Intelligenz — praxisnah erklärt für Entscheider und Teams im Mittelstand. Kein Fachjargon, sondern verständliche Definitionen mit Bezug zum Unternehmensalltag.

Grundlagen

Künstliche Intelligenz (KI)

Überbegriff für Systeme, die Aufgaben ausführen, die normalerweise menschliche Intelligenz erfordern — z. B. Texte verstehen, Bilder erkennen oder Entscheidungen treffen. Im Unternehmenskontext meint KI heute meist Machine Learning und Large Language Models, nicht die „allgemeine KI" aus der Science-Fiction. Der praktische Nutzen liegt in Automatisierung, Mustererkennung und Entscheidungsunterstützung.

Machine Learning

Teilgebiet der KI, bei dem Algorithmen aus Daten lernen, statt explizit programmiert zu werden. Ein ML-Modell erkennt Muster in Trainingsdaten und kann diese auf neue Daten anwenden — etwa zur Vorhersage von Kundenabwanderung oder zur automatischen Klassifikation von Dokumenten. Die Qualität hängt direkt von der Datenqualität ab.

Deep Learning

Spezialisierte Form des Machine Learning mit künstlichen neuronalen Netzen, die aus vielen Schichten bestehen. Deep Learning ermöglicht es, komplexe Muster zu erkennen — in Bildern, Sprache oder Text. Die Technologie hinter den meisten modernen KI-Durchbrüchen, von Spracherkennung bis Bildgenerierung.

Neuronales Netz

Rechenmodell, das biologische Nervenzellen nachahmt: Viele einfache Einheiten (Neuronen), die in Schichten organisiert sind und über gewichtete Verbindungen miteinander kommunizieren. Durch Training werden die Gewichte angepasst, bis das Netz die gewünschte Aufgabe löst. Basis aller modernen Deep-Learning-Systeme.

Natural Language Processing (NLP)

Technologien, die es Computern ermöglichen, menschliche Sprache zu verstehen, zu analysieren und zu erzeugen. Einsatzgebiete: automatische Zusammenfassungen, Sentiment-Analyse, Chatbots, Übersetzungen und Textklassifikation. Für Unternehmen besonders relevant bei der Verarbeitung großer Textmengen — E-Mails, Verträge, Kundenfeedback.

Computer Vision

KI-Disziplin, die Computern beibringt, Bilder und Videos zu interpretieren — Objekte erkennen, Szenen klassifizieren oder Anomalien in Produktionslinien identifizieren. Im Mittelstand eingesetzt für Qualitätskontrolle, Dokumentenverarbeitung (OCR) und visuelle Inspektion.

Verwandte Begriffe: Deep LearningNeuronales Netz

Token

Die kleinste Einheit, in die ein Sprachmodell Text zerlegt — ungefähr ein Wort oder Wortteil. „Unternehmensstrategie" wird z. B. in mehrere Tokens aufgeteilt. Relevant für die Praxis, weil KI-Dienste nach Token abrechnen und Modelle eine maximale Token-Anzahl pro Anfrage verarbeiten können (Kontextfenster).

Supervised Learning

Lernverfahren, bei dem das Modell mit gelabelten Daten trainiert wird — also Eingabe-Ausgabe-Paare. Beispiel: E-Mails, die als „Spam" oder „kein Spam" markiert sind. Das Modell lernt die Zuordnung und kann neue E-Mails klassifizieren. Am weitesten verbreitet und am einfachsten zu verstehen.

Unsupervised Learning

Lernverfahren ohne gelabelte Daten — das Modell findet selbständig Strukturen und Muster. Typische Anwendungen: Kundensegmentierung, Anomalieerkennung oder Themenclustering in großen Textmengen. Nützlich, wenn keine vorklassifizierten Trainingsdaten verfügbar sind.

Reinforcement Learning

Lernverfahren, bei dem ein Agent durch Versuch und Irrtum lernt, Belohnungen zu maximieren. Wird eingesetzt, wenn es keine „richtigen" Trainingsbeispiele gibt, aber eine Bewertungsfunktion — z. B. bei Robotersteuerung oder der Optimierung von Sprachmodellen (RLHF). Auch die Grundlage hinter den beeindruckenden Ergebnissen bei Schach und Go.

Transfer Learning

Prinzip, ein auf einer großen Datenmenge vortrainiertes Modell für eine spezifischere Aufgabe weiterzuverwenden. Statt von Null zu starten, wird das vorhandene Wissen des Modells als Basis genutzt und nur für den eigenen Anwendungsfall angepasst. Spart enorm Rechenzeit und Trainingsdaten. Grundprinzip hinter Fine-Tuning.

Verwandte Begriffe: Fine-TuningMachine Learning

Modelle & Architektur

Large Language Model (LLM)

Große Sprachmodelle wie GPT-4, Claude oder Llama, die auf riesigen Textmengen trainiert wurden. LLMs können Texte verstehen, generieren, zusammenfassen und übersetzen. Sie sind die Basis der meisten aktuellen KI-Anwendungen im Unternehmen — von Chatbots über Dokumentenanalyse bis hin zur Codegenerierung.

Transformer

Die Architektur hinter allen modernen Sprachmodellen (GPT, Claude, Llama). Entscheidende Innovation: der „Attention-Mechanismus", der es dem Modell erlaubt, Zusammenhänge über lange Textpassagen hinweg zu erkennen. 2017 von Google vorgestellt und seitdem Grundlage praktisch aller Fortschritte im NLP.

Embedding

Mathematische Darstellung von Text (oder Bildern, Audio) als Zahlenvektor. Ähnliche Inhalte liegen im Vektorraum nahe beieinander — „Geschäftsführer" und „CEO" haben ähnliche Embeddings. Grundlage für semantische Suche, Empfehlungssysteme und Retrieval Augmented Generation (RAG).

Vektordatenbank

Spezialisierte Datenbank, die Embeddings speichert und effizient nach ähnlichen Vektoren suchen kann. Ermöglicht es, in Sekundenbruchteilen die relevantesten Dokumente, Produktbeschreibungen oder FAQ-Einträge zu finden — nicht nach Stichworten, sondern nach Bedeutung. Kernkomponente moderner RAG-Systeme.

Praxis & Umsetzung

Prompt

Die Eingabe (Anweisung, Frage, Kontext), die an ein Sprachmodell geschickt wird. Die Qualität des Prompts bestimmt maßgeblich die Qualität der Antwort. Im Unternehmenseinsatz werden Prompts oft als Templates standardisiert, um konsistente Ergebnisse über verschiedene Anwender und Anwendungsfälle hinweg sicherzustellen.

Prompt Engineering

Die Kunst und Methodik, Prompts so zu formulieren, dass Sprachmodelle optimale Ergebnisse liefern. Umfasst Techniken wie Rollenanweisungen, strukturierte Ausgabeformate, Chain-of-Thought-Prompting und Few-Shot-Beispiele. Für Unternehmen oft der schnellste Weg, die Qualität von KI-Ergebnissen deutlich zu verbessern — ohne Modelle zu ändern.

Chain of Thought (CoT)

Prompt-Technik, bei der man das Sprachmodell auffordert, schrittweise zu denken, bevor es eine Antwort gibt. Verbessert die Ergebnisqualität bei komplexen Aufgaben erheblich — z. B. bei Analysen, Berechnungen oder mehrstufigen Entscheidungen. Einfach umsetzbar: „Denke Schritt für Schritt" im Prompt reicht oft aus.

Verwandte Begriffe: Prompt EngineeringPrompt

Few-Shot Learning

Methode, einem Sprachmodell durch wenige Beispiele im Prompt zu zeigen, was man erwartet. Statt langer Erklärungen gibt man 2–5 Beispiele für Input und gewünschten Output. Besonders nützlich für standardisierte Aufgaben wie Klassifikation, Formatierung oder Datenextraktion.

Fine-Tuning

Nachtraining eines vortrainierten Modells auf eigenen Daten, um es für einen spezifischen Anwendungsfall zu optimieren. Teurer und aufwändiger als Prompt Engineering, aber notwendig, wenn das Basismodell fachspezifisches Wissen oder einen bestimmten Schreibstil dauerhaft beherrschen soll. Erfordert qualitativ hochwertige Trainingsdaten.

Retrieval Augmented Generation (RAG)

Architekturmuster, bei dem ein Sprachmodell vor der Antwortgenerierung relevante Dokumente aus einer Wissensbasis abruft. Löst zwei zentrale Probleme: Das Modell kann auf aktuelle, unternehmensspezifische Informationen zugreifen, und Halluzinationen werden reduziert, weil Antworten auf echten Quellen basieren.

Halluzination

Wenn ein KI-Modell plausibel klingende, aber faktisch falsche Informationen generiert — erfundene Zitate, nicht existierende Gesetze oder falsche Zahlen. Ein Kernrisiko beim Unternehmenseinsatz von LLMs. Gegenmaßnahmen: RAG, Faktenprüfung, strukturierte Ausgaben und Human-in-the-Loop-Prozesse.

Inference

Der Prozess, bei dem ein trainiertes KI-Modell eine Eingabe verarbeitet und eine Ausgabe erzeugt — also der produktive Einsatz im Gegensatz zum Training. Inference-Kosten (Rechenzeit, API-Gebühren) sind ein wesentlicher Faktor bei der Wirtschaftlichkeitsberechnung von KI-Lösungen.

KI-Agent

Ein KI-System, das eigenständig Teilaufgaben plant, ausführt und die Ergebnisse bewertet — über eine einzelne Modell-Anfrage hinaus. KI-Agenten können Tools nutzen (Websuche, APIs, Datenbanken), Zwischenergebnisse bewerten und ihren Ansatz anpassen. Aktuell eines der dynamischsten Entwicklungsfelder in der KI.

Agentic Engineering

Die Disziplin, KI-Agenten systematisch in Arbeitsprozesse einzubetten — nicht als passive Assistenten, sondern als aktiv geführte Teammitglieder. Umfasst Aufgabenzerlegung, Kontextmanagement, Qualitätssicherung und die Orchestrierung mehrerer Agenten. Der Unterschied zum reinen Tool-Einsatz: methodische Führung statt Ad-hoc-Nutzung.

Verwandte Begriffe: KI-AgentPrompt Engineering

MLOps

Practices und Tools für den produktiven Betrieb von Machine-Learning-Modellen — analog zu DevOps für Software. Umfasst Versionierung von Daten und Modellen, automatisiertes Training, Monitoring der Modellqualität und Deployment-Pipelines. Wird relevant, sobald KI-Modelle nicht nur experimentell, sondern dauerhaft im Einsatz sind.

Verwandte Begriffe: Machine LearningFine-Tuning

Governance & Recht

EU AI Act

Die europäische KI-Verordnung — das weltweit erste umfassende KI-Gesetz. Klassifiziert KI-Systeme nach Risikostufen und definiert Anforderungen an Transparenz, Dokumentation und menschliche Aufsicht. Für Unternehmen relevant: Bestimmte KI-Anwendungen (z. B. in HR oder Kreditwesen) unterliegen strengen Auflagen. Schrittweises Inkrafttreten seit 2024.

Verwandte Begriffe: KI-GovernanceKI-Strategie

KI-Governance

Regeln, Prozesse und Verantwortlichkeiten für den verantwortungsvollen KI-Einsatz im Unternehmen. Umfasst Datenqualität, Bias-Prüfung, Transparenz von Entscheidungen, Zugriffskontrollen und Compliance mit dem EU AI Act. Keine Bürokratie-Übung, sondern die Grundlage dafür, dass KI-Projekte skalieren können, ohne Risiken zu erzeugen.

KI-Reifegrad

Einschätzung, wie weit ein Unternehmen in der KI-Adoption fortgeschritten ist — von „erste Experimente" bis „KI in Kernprozessen verankert". Wichtig für die Strategieplanung: Maßnahmen, die für ein KI-reifes Unternehmen sinnvoll sind, überfordern ein Unternehmen in der Anfangsphase. Eine ehrliche Standortbestimmung spart Fehlallokation.

Verwandte Begriffe: KI-StrategieKI-Governance

KI-Strategie

Ein strukturierter Plan, wie ein Unternehmen KI gewinnbringend einsetzen will — nicht „überall ein bisschen", sondern priorisiert nach Wirkung und Machbarkeit. Eine gute KI-Strategie verbindet Geschäftsziele mit technischen Möglichkeiten, berücksichtigt vorhandene Daten und Kompetenzen und definiert konkrete nächste Schritte.

Verwandte Begriffe: KI-ReifegradKI-Governance

Modellsouveränität

Die Fähigkeit eines Unternehmens, bei KI-Modellen Wahlfreiheit zu behalten — nicht von einem einzelnen Anbieter abhängig zu sein. Umfasst Strategien wie Multi-Provider-Ansätze, den Einsatz von Open-Source-Modellen und klare API-Abstraktionen. Besonders relevant im europäischen Kontext mit Blick auf Datenschutz und geopolitische Risiken.

KI-Begriffe in der Praxis?

Verstehen ist der erste Schritt — lassen Sie uns besprechen, wie diese Konzepte in Ihrem Unternehmen konkret anwendbar sind.

EmpiriAInsight

KI-Beratung für den Mittelstand in Baden-Württemberg.

Kontakt

kontakt@empiriainsight.com

© 2026 Empiria Insight UG (haftungsbeschränkt). Alle Rechte vorbehalten.