KI-Glossar
Begriffe rund um KI und Automatisierung — verständlich erklärt für Entscheider im Mittelstand.
A
Agentic AI
KI-Systeme, die eigenständig mehrstufige Aufgaben planen und ausführen, indem sie Werkzeuge nutzen, Zwischenergebnisse auswerten und Entscheidungen treffen.
AGI (Artificial General Intelligence)
Eine hypothetische Form der KI, die jede intellektuelle Aufgabe verstehen und lösen kann, die auch ein Mensch bewältigen könnte – im Gegensatz zu heutiger, spezialisierter KI.
AI Alignment
Das Forschungsfeld, das sicherstellen soll, dass KI-Systeme im Einklang mit menschlichen Werten und Absichten handeln und keine unbeabsichtigten oder schädlichen Ziele verfolgen.
AI Safety
Oberbegriff für alle Forschungs- und Entwicklungsmaßnahmen, die darauf abzielen, KI-Systeme sicher, kontrollierbar und vorhersagbar zu gestalten.
AI Slop
Abwertender Begriff für massenhaft produzierte, minderwertige KI-Inhalte wie generische Blogposts, seelenlose Bilder oder roboterhafte Videos.
Algorithmus
Eine feste Abfolge von Rechenregeln, die ein Problem Schritt für Schritt löst. Jede KI basiert letztlich auf Algorithmen.
Annotation
Der Prozess der manuellen Kennzeichnung von Daten (z. B. Bilder beschriften, Text kategorisieren), damit ein KI-Modell daraus lernen kann.
Anomalieerkennung
Die KI-gestützte Erkennung ungewöhnlicher Muster oder Ausreißer in Daten – z. B. für Betrugserkennung oder Qualitätskontrolle.
Anthropic
Das Unternehmen hinter dem KI-Assistenten Claude, gegründet 2021 von ehemaligen OpenAI-Mitarbeitern. Bekannt für den Fokus auf KI-Sicherheit und Constitutional AI.
API (Application Programming Interface)
Eine Schnittstelle, über die Programme miteinander kommunizieren. Entwickler können so auf KI-Modelle zugreifen, ohne sie selbst betreiben zu müssen.
ASI (Artificial Superintelligence)
Der nächste theoretische Schritt nach AGI: Eine KI, die den Menschen in allen Bereichen übertrifft – Wissenschaft, Kreativität, Strategie. Noch rein spekulativ.
Attention-Mechanismus
Ein Kernbaustein moderner Transformer-Modelle, der es dem Modell ermöglicht, beim Verarbeiten einer Eingabe unterschiedlich stark auf verschiedene Teile zu achten.
Autoencoder
Ein neuronales Netzwerk, das Daten komprimiert (Encoder) und wieder rekonstruiert (Decoder), häufig verwendet für Dimensionsreduktion oder Rauschunterdrückung.
AutoML
Die Automatisierung des Prozesses, KI-Modelle zu erstellen – also KI, die sich selbst trainiert und optimiert, ohne dass jeder Schritt manuell konfiguriert werden muss.
B
Backpropagation
Das mathematische Verfahren, mit dem neuronale Netze aus Fehlern lernen, indem Gradienten vom Ausgang zurück durch alle Schichten propagiert werden.
Batch Size
Die Anzahl der Trainingsbeispiele, die gleichzeitig durch ein Modell geleitet werden, bevor die Gewichte aktualisiert werden.
Benchmark
Ein standardisierter Testdatensatz oder eine Aufgabensammlung, mit der die Leistung verschiedener KI-Modelle objektiv verglichen wird (z. B. MMLU, HellaSwag).
Bias (Verzerrung)
Systematische Fehler oder Vorurteile in KI-Systemen, die aus unausgewogenen Trainingsdaten oder fehlerhaften Modellannahmen resultieren und zu unfairen Ergebnissen führen können.
Bias Mitigation
Techniken zur Erkennung und Reduzierung unerwünschter Verzerrungen in KI-Modellen, z. B. durch Datenanpassung oder faire Trainingsverfahren.
Big Data
Enorm große Datenmengen, die mit herkömmlicher Software nicht mehr sinnvoll verarbeitet werden können. KI benötigt Big Data als Rohmaterial zum Lernen.
Bot
Ein automatisiertes Programm, das Aufgaben selbstständig erledigt – z. B. ein Chatbot, der Kundenanfragen beantwortet.
C
Chain-of-Thought (CoT)
Eine Prompting-Technik, bei der das Modell aufgefordert wird, seinen Denkprozess Schritt für Schritt offenzulegen, was zu genaueren Ergebnissen bei komplexen Aufgaben führt.
Chatbot
Ein KI-basiertes Dialogsystem, das in natürlicher Sprache mit Menschen kommunizieren kann. Moderne Chatbots basieren auf LLMs und können natürliche Gespräche führen.
ChatGPT
Das bekannteste KI-Produkt von OpenAI – eine Chat-Anwendung auf Basis der GPT-Modelle zum Schreiben, Brainstormen, Programmieren, Übersetzen und vielem mehr.
Classifier (Klassifikator)
Ein Modell, das Eingaben in vordefinierte Kategorien einordnet – z. B. Spam-Erkennung, Stimmungsanalyse oder Bilderkennung.
Claude
Der KI-Assistent von Anthropic, bekannt für seinen Fokus auf Sicherheit und Nützlichkeit. Bei vielen Entwicklern für komplexe und kreative Aufgaben beliebt.
CLIP (Contrastive Language-Image Pretraining)
Ein Modell von OpenAI, das Bilder und Texte in einem gemeinsamen Vektorraum abbildet und so multimodale Aufgaben ermöglicht.
Computer Vision
Der Bereich der KI, der sich mit dem maschinellen Verstehen und Analysieren von Bildern und Videos befasst – z. B. für autonomes Fahren oder medizinische Bildanalyse.
Constitutional AI
Ein von Anthropic entwickelter Ansatz, bei dem KI-Modelle anhand eines Satzes von Prinzipien trainiert werden, um hilfreicher und weniger schädlich zu sein.
Contrastive Learning
Eine Trainingsmethode, bei der das Modell lernt, ähnliche Datenpunkte näher zusammen und unähnliche weiter auseinander im Vektorraum zu platzieren.
Convolutional Neural Network (CNN)
Ein spezielles neuronales Netz, das vor allem für Bildverarbeitung entwickelt wurde und lokale Muster in Bildern besonders gut erkennt.
Cross Validation
Eine Methode zur Bewertung der Modellqualität, bei der verschiedene Teile des Datensatzes abwechselnd zum Trainieren und Testen genutzt werden.
CUDA
Eine von NVIDIA entwickelte Plattform und API, die die parallele Berechnung auf Grafikkarten (GPUs) ermöglicht und für KI-Training essenziell ist.
Cursor
Ein KI-gestützter Code-Editor auf Basis von VS Code, der das gesamte Projekt versteht und Code generieren, refaktorisieren und erklären kann.
D
Data Augmentation
Techniken zur künstlichen Vergrößerung von Trainingsdaten durch Transformationen wie Drehen, Spiegeln oder Hinzufügen von Rauschen.
Data Mining
Die Extraktion nützlicher Muster und Zusammenhänge aus großen Datenmengen – eine wichtige Grundlage für viele KI-Anwendungen.
Decision Tree (Entscheidungsbaum)
Ein Modell, das Entscheidungen durch eine Baumstruktur mit Ja/Nein-Fragen trifft. Einfach zu verstehen und gut zu erklären.
Deep Learning
Ein Teilgebiet des maschinellen Lernens, das tiefe neuronale Netze mit vielen Schichten verwendet, um komplexe Muster in großen Datenmengen zu erkennen.
Deepfake
Durch KI (häufig GANs oder Diffusionsmodelle) erzeugte gefälschte Medieninhalte wie Videos oder Audiodateien, die täuschend echt wirken.
DeepSeek
Ein chinesisches KI-Unternehmen, das Anfang 2025 mit seinem Modell R1 Aufsehen erregte, weil es mit Reinforcement Learning ähnliche Ergebnisse wie OpenAIs o1 erzielte – zu einem Bruchteil der Kosten.
Diffusionsmodell
Ein generatives Modell, das Bilder erzeugt, indem es schrittweise Rauschen aus einer Zufallseingabe entfernt (z. B. Stable Diffusion, DALL-E, Midjourney).
Distillation (Wissensdestillation)
Ein Verfahren, bei dem ein kleines Modell (Student) trainiert wird, das Verhalten eines großen Modells (Teacher) nachzuahmen, um effizientere Modelle zu erzeugen.
Domain Adaptation
Die Anpassung eines trainierten Modells an einen neuen Datenbereich, z. B. von allgemeinem Text auf medizinische Fachsprache.
DSGVO / GDPR
Die Datenschutz-Grundverordnung der EU – besonders relevant für KI in Bezug auf Datenverarbeitung, Trainingsnutzung von Gesprächen und DSGVO-konforme KI-Lösungen.
E
Embedding
Eine numerische Darstellung (Vektor) von Daten wie Wörtern, Sätzen oder Bildern, die semantische Ähnlichkeiten im Vektorraum widerspiegelt.
Emergente Fähigkeiten
Fähigkeiten, die erst bei sehr großen Modellen auftreten und bei kleineren Modellen nicht vorhanden sind, z. B. komplexes logisches Schlussfolgern.
Encoder-Decoder-Architektur
Ein Netzwerkaufbau, bei dem ein Encoder die Eingabe in eine kompakte Darstellung umwandelt und ein Decoder daraus die Ausgabe erzeugt.
Ensemble Learning
Die Kombination mehrerer KI-Modelle, um bessere Ergebnisse zu erzielen, als jedes einzelne Modell allein liefern könnte.
Epoch
Ein vollständiger Durchlauf des gesamten Trainingsdatensatzes während des Modelltrainings. Mehrere Epochen verbessern in der Regel das Lernen.
Ethik der KI
Das interdisziplinäre Feld, das sich mit moralischen Fragen rund um Entwicklung, Einsatz und Auswirkungen von KI-Systemen beschäftigt.
EU AI Act
Die KI-Verordnung der Europäischen Union, die KI-Systeme nach Risikoklassen reguliert und seit 2024 schrittweise in Kraft tritt.
Evaluation
Der systematische Prozess der Leistungsbewertung eines Modells anhand definierter Metriken und Testdaten.
F
Feature Engineering
Die Auswahl und Umwandlung relevanter Datenmerkmale, bevor ein Modell damit trainiert wird. Bestimmt maßgeblich die Modellqualität.
Feintuning (Fine-Tuning)
Das gezielte Nachtrainieren eines vortrainierten Modells auf einem spezifischen Datensatz, um es für bestimmte Aufgaben oder Schreibstile zu spezialisieren.
Few-Shot Learning
Die Fähigkeit eines Modells, aus nur wenigen Beispielen im Prompt eine Aufgabe zu verstehen und auszuführen, ohne erneut trainiert zu werden.
FLOPS (Floating Point Operations Per Second)
Ein Maß für die Rechenleistung eines Systems, das angibt, wie viele Gleitkommaoperationen pro Sekunde ausgeführt werden können.
Foundation Model
Ein großes, auf breiten Daten vortrainiertes Modell, das als Basis für viele verschiedene Anwendungen dient (z. B. GPT-4, Claude, Llama).
Frontier Model
Die leistungsstärksten und größten KI-Modelle einer Generation, die den aktuellen Stand der Technik definieren.
G
GAN (Generative Adversarial Network)
Eine Architektur aus zwei konkurrierenden Netzwerken – einem Generator und einem Diskriminator – die zusammen lernen, realistische Daten zu erzeugen.
Gemini
Googles KI-Modellfamilie, der direkte Konkurrent zu GPT und Claude. In Google-Produkte wie Docs und Gmail integriert – früher bekannt als Bard.
Generative KI (GenAI)
KI-Systeme, die neue Inhalte wie Text, Bilder, Audio, Video oder Code erzeugen können, im Gegensatz zu rein analytischen Systemen.
GPT (Generative Pre-trained Transformer)
Die Modellfamilie von OpenAI. Der Name beschreibt die Funktionsweise: generativ (erzeugt Inhalte), vortrainiert (auf riesigen Daten) und Transformer-basiert.
GPU (Graphics Processing Unit)
Grafikprozessoren, die wegen ihrer Fähigkeit zur Parallelverarbeitung für das Training neuronaler Netze genutzt werden (z. B. NVIDIA H100).
Gradient Descent
Das grundlegende Optimierungsverfahren beim Training neuronaler Netze, bei dem die Gewichte schrittweise in Richtung des geringsten Fehlers angepasst werden.
Grok
Die KI von Elon Musks Unternehmen xAI, integriert in die Plattform X. Positioniert sich als weniger eingeschränkte Alternative zu anderen KI-Modellen.
Grounding
Die Verankerung von KI-Ausgaben in verifizierbaren Fakten oder externen Datenquellen, um die Zuverlässigkeit zu erhöhen.
Guardrails
Sicherheitsmechanismen und Einschränkungen, die verhindern sollen, dass KI-Modelle schädliche, unethische oder falsche Inhalte generieren.
H
Halluzination
Das Phänomen, wenn ein KI-Modell überzeugend klingende, aber faktisch falsche oder erfundene Informationen ausgibt – da es auf Plausibilität trainiert ist, nicht auf Wahrheit.
Human-in-the-Loop (HITL)
Ein Ansatz, bei dem Menschen aktiv in den KI-Entscheidungsprozess eingebunden werden, um Ergebnisse zu überprüfen, zu korrigieren oder zu genehmigen.
Hyperparameter
Konfigurationseinstellungen, die vor dem Training festgelegt werden und den Trainingsprozess steuern (z. B. Lernrate, Batch-Größe, Anzahl der Schichten).
I
Image Recognition
Die Fähigkeit einer KI, Objekte, Personen oder Szenen in Bildern zu erkennen und zu benennen.
In-Context Learning
Die Fähigkeit großer Sprachmodelle, Aufgaben ausschließlich aus dem Kontext des Prompts zu lernen, ohne Anpassung der Modellgewichte.
Inference-Time Compute
Zusätzliche Rechenleistung, die während der Antwortgenerierung eingesetzt wird (z. B. durch Chain-of-Thought), um die Qualität der Ausgabe zu verbessern.
Inferenz
Der Vorgang, bei dem ein trainiertes KI-Modell auf neue Daten angewandt wird, um Vorhersagen oder Ausgaben zu erzeugen.
Instruction Tuning
Ein Feintuning-Verfahren, bei dem ein Modell gezielt darauf trainiert wird, natürlichsprachliche Anweisungen zu verstehen und zu befolgen.
Intent Recognition
Die KI-gestützte Erkennung der Absicht hinter einer Nutzeranfrage – z. B. erkennen, dass jemand eine Bestellung stornieren möchte, statt nur auf einzelne Schlüsselwörter zu reagieren.
J
Jailbreak
Der Versuch, die Sicherheitsvorkehrungen eines KI-Modells durch geschickte Prompts zu umgehen, um Inhalte zu erzeugen, die das Modell normalerweise ablehnen würde.
K
Knowledge Graph
Eine strukturierte Wissensbasis, die Fakten als Netzwerk aus Entitäten und ihren Beziehungen darstellt und von KI-Systemen genutzt werden kann.
Kontextfenster (Context Window)
Die maximale Menge an Text (gemessen in Tokens), die ein Sprachmodell gleichzeitig verarbeiten kann – bei modernen Modellen oft 128K bis über 1M Tokens.
Künstliche Intelligenz (KI/AI)
Der Oberbegriff für Computersysteme, die Aufgaben ausführen können, die normalerweise menschliche Intelligenz erfordern, z. B. Lernen, Schlussfolgern und Problemlösen.
L
Labeling
Die Beschriftung von Trainingsdaten mit den richtigen Antworten – eine zentrale Voraussetzung für überwachtes Lernen.
Large Language Model (LLM)
Ein sehr großes Sprachmodell mit Milliarden von Parametern, das auf riesigen Textmengen trainiert wurde und vielfältige Sprachaufgaben bewältigen kann (z. B. GPT, Claude, Llama).
Latenter Raum
Ein abstrakter, mehrdimensionaler Raum, in dem ein Modell komprimierte Darstellungen der Eingabedaten speichert.
Lernrate (Learning Rate)
Ein Hyperparameter, der bestimmt, wie stark die Gewichte eines Modells bei jedem Trainingsschritt angepasst werden. Zu hoch führt zu instabilem, zu niedrig zu sehr langsamem Lernen.
Llama
Die Open-Source-Modellfamilie von Meta. Kostenlos nutzbar, anpassbar und die Basis vieler Community-Projekte.
LoRA (Low-Rank Adaptation)
Eine effiziente Feintuning-Methode, die nur kleine, zusätzliche Gewichtsmatrizen trainiert, anstatt das gesamte Modell zu verändern.
Loss Function (Verlustfunktion)
Eine mathematische Funktion, die misst, wie weit die Vorhersage eines Modells vom tatsächlichen Ergebnis abweicht – das Ziel des Trainings ist es, diesen Wert zu minimieren.
M
Machine Learning (ML)
Ein Teilbereich der KI, bei dem Algorithmen aus Daten lernen und Muster erkennen, ohne explizit programmiert zu werden. Oberbegriff für Supervised, Unsupervised und Reinforcement Learning.
MCP (Model Context Protocol)
Ein offenes Protokoll von Anthropic, das es KI-Modellen ermöglicht, standardisiert auf externe Datenquellen und Werkzeuge zuzugreifen.
Midjourney
Einer der beliebtesten KI-Bildgeneratoren, bekannt für hochwertige, künstlerisch anmutende Ergebnisse.
Mixture of Experts (MoE)
Eine Modellarchitektur, bei der nur ein Teil der Parameter pro Anfrage aktiviert wird, was Effizienz bei gleichzeitig großer Modellkapazität ermöglicht.
Modell
Das trainierte System selbst – Milliarden von Zahlenwerten, die zusammen Sprache, Bilder oder andere Daten verstehen und verarbeiten.
Modell-Kollaps
Ein Phänomen, bei dem Modelle, die auf KI-generierten Daten trainiert werden, zunehmend an Qualität und Vielfalt verlieren.
Multi-Agent-System
Ein System, in dem mehrere autonome KI-Agenten zusammenarbeiten oder miteinander interagieren, um komplexe Aufgaben zu lösen.
Multimodalität
Die Fähigkeit eines KI-Modells, verschiedene Datentypen wie Text, Bilder, Audio und Video gleichzeitig zu verarbeiten und zu erzeugen.
N
n8n
Eine Open-Source-Automatisierungsplattform, besonders beliebt für KI-Workflows. Kann selbst gehostet werden und ermöglicht den Bau eigener KI-Agenten ohne tiefes Programmierwissen.
Named Entity Recognition (NER)
Eine NLP-Technik, die in einem Text automatisch Eigennamen, Orte, Datumsangaben oder Marken erkennt und markiert.
Narrow AI
KI, die auf eine spezifische Aufgabe spezialisiert ist (z. B. Schach spielen, Bilder erkennen) – der derzeitige Stand praktisch aller KI-Systeme.
Natural Language Processing (NLP)
Der Oberbegriff für alle KI-Technologien, die natürliche Sprache verarbeiten: Übersetzung, Chatbots, Textanalyse, Stimmungserkennung.
Natural Language Understanding (NLU)
Ein Teilbereich von NLP, der sich speziell auf das Verstehen der Bedeutung und Intention natürlichsprachlicher Eingaben konzentriert.
Neuronales Netzwerk
Ein vom menschlichen Gehirn inspiriertes Rechenmodell aus miteinander verbundenen Schichten künstlicher Neuronen. Die Basis von Deep Learning und fast aller modernen KI.
Next-Token-Prediction
Das grundlegende Trainingsprinzip von Sprachmodellen: Das Modell lernt, das jeweils nächste Wort (Token) in einer Textsequenz vorherzusagen.
NVIDIA
Der führende Hersteller von GPUs und KI-Beschleunigern (z. B. A100, H100, B200), deren Hardware das Rückgrat des KI-Trainings bildet.
O
Object Detection
Die KI-gestützte Erkennung und Lokalisierung von Objekten in Bildern oder Videos mit Begrenzungsrahmen und Klassenlabels.
OCR (Optical Character Recognition)
KI-gestützte Texterkennung, die gedruckten oder handgeschriebenen Text aus Bildern oder gescannten Dokumenten extrahiert.
Open Source (KI)
KI-Modelle und Frameworks, deren Quellcode oder Gewichte öffentlich zugänglich sind und frei verwendet werden dürfen (z. B. Llama, Stable Diffusion).
Open Weight
Modelle, deren trainierte Gewichte veröffentlicht werden, aber nicht unbedingt der Trainingscode oder die Daten – eine Abgrenzung zu vollständigem Open Source.
OpenAI
Das Unternehmen hinter ChatGPT und den GPT-Modellen. Gegründet als Non-Profit, heute eines der wertvollsten KI-Unternehmen weltweit.
Orchestrierung
Das Koordinieren mehrerer KI-Komponenten zu einem Gesamtsystem – ein Orchestrierungs-Layer entscheidet, welches Modell und welches Werkzeug zum Einsatz kommt.
Overfitting (Überanpassung)
Ein Problem, bei dem ein Modell die Trainingsdaten auswendig lernt, statt allgemeine Muster zu erkennen, und daher auf neuen Daten schlecht abschneidet.
P
Parameter
Die trainierbaren Gewichtswerte in einem neuronalen Netz, die während des Trainings angepasst werden – moderne LLMs haben Hunderte Milliarden davon.
Perplexität
Ein Maß dafür, wie gut ein Sprachmodell die nächste Zeichenfolge vorhersagen kann – niedrigere Werte bedeuten bessere Vorhersagen.
Pipeline
Eine Abfolge von automatisierten Verarbeitungsschritten – z. B. Daten einlesen, aufbereiten, Modell anwenden und Ergebnis ausgeben.
Positional Encoding
Eine Methode in Transformer-Modellen, die Informationen über die Position von Tokens in einer Sequenz kodiert, da die Architektur keine inhärente Reihenfolge kennt.
Post-Training
Alle Trainingsschritte nach dem Vortraining: RLHF, Sicherheitstraining, Instruction Tuning. Macht aus einem rohen Sprachmodell einen hilfreichen Assistenten.
Pre-Training (Vortraining)
Die erste und aufwändigste Trainingsphase eines Foundation Models, in der es auf großen, allgemeinen Datensätzen grundlegende Sprachmuster und Weltwissen lernt.
Prompt
Die Eingabe oder Anweisung, die einem KI-Modell gegeben wird, um eine bestimmte Ausgabe zu erzeugen. Ein guter Prompt führt zu deutlich besseren Ergebnissen.
Prompt Engineering
Die Kunst und Technik, Prompts so zu formulieren, dass das KI-Modell möglichst präzise und nützliche Ergebnisse liefert.
Prompt Injection
Ein Sicherheitsangriff, bei dem bösartige Anweisungen in den Prompt eingeschleust werden, um das Verhalten des Modells zu manipulieren.
Pruning
Das Entfernen unwichtiger Gewichte oder Neuronen aus einem trainierten Modell, um es kleiner und schneller zu machen, ohne die Leistung wesentlich zu beeinträchtigen.
Q
Quantisierung
Eine Technik zur Komprimierung von Modellen, indem die Genauigkeit der Gewichte reduziert wird (z. B. von 32-Bit auf 4-Bit), um Speicher und Rechenleistung zu sparen.
Quantum Computing
Quantencomputer nutzen die Gesetze der Quantenphysik und könnten langfristig bestimmte KI-Berechnungen massiv beschleunigen – befindet sich noch in einer frühen Entwicklungsphase.
R
RAG (Retrieval-Augmented Generation)
Ein Verfahren, bei dem ein Sprachmodell vor der Antwortgenerierung relevante Informationen aus einer externen Wissensdatenbank abruft – reduziert Halluzinationen erheblich.
Reasoning Models
Modelle, die vor der Antwort intern nachdenken, bevor sie antworten – z. B. über Chain-of-Thought-Prozesse, die minutenlang laufen können (z. B. OpenAIs o3, DeepSeek R1).
Recurrent Neural Network (RNN)
Eine ältere Netzwerkarchitektur mit Rückkopplungsschleifen, die sequenzielle Daten verarbeiten kann, heute weitgehend durch Transformer abgelöst.
Red Teaming
Das gezielte Testen von KI-Systemen durch spezialisierte Teams, die versuchen, Schwachstellen, Fehlverhalten oder Sicherheitslücken aufzudecken.
Reinforcement Learning (RL)
Eine Lernmethode, bei der ein Agent durch Interaktion mit einer Umgebung lernt, Belohnungen zu maximieren und Strafen zu minimieren.
Reinforcement Learning from Human Feedback (RLHF)
Eine Technik, bei der menschliches Feedback verwendet wird, um das Verhalten eines Sprachmodells nach dem Pre-Training zu verbessern und an menschliche Präferenzen anzupassen.
Responsible AI
Ein Rahmenwerk für die ethische und verantwortungsvolle Entwicklung und den Einsatz von KI-Systemen unter Berücksichtigung von Fairness, Transparenz und Sicherheit.
Reward Model
Ein Modell, das menschliche Präferenzen abbildet und dazu dient, die Ausgaben eines KI-Modells im RLHF-Prozess zu bewerten und zu verbessern.
Robotic Process Automation (RPA)
Die Automatisierung regelbasierter, repetitiver Aufgaben mit Softwarerobotern – z. B. Formulare ausfüllen oder Daten kopieren.
Robotik
Der Bereich, in dem KI mit physischen Maschinen kombiniert wird, um autonome oder halbautonome Roboter zu schaffen.
S
Self-Supervised Learning
Ein Trainingsparadigma, bei dem das Modell aus ungelabelten Daten lernt, indem es sich selbst Aufgaben stellt (z. B. Wörter vorhersagen).
Semantic Search
KI-gestützte Suche, die die Bedeutung einer Anfrage versteht und relevante Ergebnisse liefert, anstatt nur nach exakten Schlüsselwörtern zu suchen.
Sentient AI
Die umstrittene Vorstellung, dass KI-Systeme Bewusstsein oder subjektive Erfahrungen entwickeln könnten – derzeit rein spekulativ.
Skalierungsgesetze (Scaling Laws)
Empirische Gesetzmäßigkeiten, die beschreiben, wie die Leistung von KI-Modellen mit zunehmender Größe, Datenmenge und Rechenleistung vorhersehbar wächst.
Small Language Model (SLM)
Kompaktere Sprachmodelle mit weniger Parametern, die effizienter sind und auch auf lokaler Hardware laufen können (z. B. Phi, Gemma).
Softmax-Funktion
Eine mathematische Funktion, die Rohwerte eines Netzwerks in Wahrscheinlichkeiten umwandelt, sodass alle Werte zwischen 0 und 1 liegen und sich zu 1 summieren.
Sora
OpenAIs Videogenerierungsmodell – aus einer Textbeschreibung wird ein realistisches Video erzeugt. Konkurriert mit Googles Veo und Runway Gen.
Spracherkennung (Speech-to-Text, STT)
KI-Technologie, die gesprochene Sprache in geschriebenen Text umwandelt (z. B. Whisper von OpenAI).
Sprachsynthese (Text-to-Speech, TTS)
KI-Technologie, die geschriebenen Text in natürlich klingende Sprache umwandelt. Moderne Modelle klingen täuschend menschlich.
Stable Diffusion
Ein Open-Source-Bildgenerator auf Basis von Diffusionsmodellen, der lokal auf dem eigenen Computer laufen kann. Sehr flexibel und anpassbar.
Supervised Learning (Überwachtes Lernen)
Eine Trainingsmethode, bei der das Modell aus gelabelten Daten lernt, also Eingaben zusammen mit den korrekten Ausgaben erhält.
Synthetic Data (Synthetische Daten)
Künstlich erzeugte Daten, die reale Daten imitieren und zum Trainieren oder Testen von KI-Modellen verwendet werden – besonders nützlich, wenn echte Daten knapp oder sensibel sind.
System Prompt
Eine versteckte Anweisung, die das Verhalten, die Rolle und die Einschränkungen eines KI-Modells vor Beginn einer Konversation festlegt.
T
Temperature
Ein Parameter bei der Textgenerierung, der die Zufälligkeit der Ausgabe steuert – niedrige Werte erzeugen vorhersagbare, hohe Werte kreativere Texte.
Tensor
Eine mehrdimensionale mathematische Datenstruktur, die die Grundlage für Berechnungen in neuronalen Netzen bildet.
Token
Die kleinste Verarbeitungseinheit eines Sprachmodells – ein Wort, Teilwort oder Satzzeichen, in das Text zerlegt wird. KI-APIs rechnen nach Tokens ab.
Tokenizer
Das Werkzeug, das Text in Tokens zerlegt und wieder zusammensetzt – verschiedene Modelle verwenden unterschiedliche Tokenizer.
Tokenomics / API-Pricing
Das Preismodell von KI-Anbietern, bei dem Kosten pro verarbeitetem Token berechnet werden, unterschieden nach Input- und Output-Tokens.
TPU (Tensor Processing Unit)
Von Google entwickelte spezialisierte KI-Chips, die für das Training und die Inferenz von neuronalen Netzen optimiert sind.
Training
Der Prozess, bei dem ein Modell aus riesigen Datenmengen lernt. Das Training großer Modelle kostet Dutzende Millionen Euro und dauert Monate auf Tausenden GPUs.
Transfer Learning
Die Übertragung von Wissen, das ein Modell bei einer Aufgabe gelernt hat, auf eine andere, verwandte Aufgabe – spart enorm viel Zeit und Rechenleistung.
Transformer
Die dominierende Architektur hinter modernen LLMs, die auf dem Attention-Mechanismus basiert und erstmals 2017 von Google vorgestellt wurde. Ohne Transformer kein GPT, kein Claude, kein Gemini.
Turing-Test
Ein von Alan Turing vorgeschlagener Test, bei dem eine Maschine als intelligent gilt, wenn ein Mensch sie im Gespräch nicht von einem Menschen unterscheiden kann.
U
Underfitting
Das Gegenteil von Overfitting: Das Modell hat zu wenig gelernt und kann weder Trainings- noch neue Daten gut verarbeiten.
Unsupervised Learning (Unüberwachtes Lernen)
Eine Trainingsmethode, bei der das Modell ohne gelabelte Daten Muster und Strukturen in den Daten selbstständig erkennt – z. B. beim Clustering.
V
Vektordatenbank
Eine spezialisierte Datenbank, die Embeddings speichert und schnelle Ähnlichkeitssuchen ermöglicht – zentral für RAG-Systeme und semantische Suche.
Veo
Googles Videogenerierungsmodell von DeepMind. Veo 3 setzt den aktuellen Standard mit 4K-Videos und nativ synchronisiertem Dialog, Musik und Umgebungsgeräuschen.
Vibe Coding
Ein von Andrej Karpathy geprägter Begriff: Man beschreibt grob, was man will, die KI generiert den Code, man testet und iteriert – ohne jede Zeile selbst verstehen zu müssen.
Vision-Language-Modell (VLM)
Ein multimodales Modell, das sowohl Bilder als auch Text versteht und darüber kommunizieren kann (z. B. GPT-4V, Claude).
Voice Recognition
Erkennung und Umwandlung von Sprache in Text, heute oft kombiniert mit NLP, damit KI-Assistenten Sprache nicht nur hören, sondern auch verstehen.
W
Watermarking
Techniken, um KI-generierte Inhalte mit unsichtbaren Kennzeichnungen zu versehen, damit sie als maschinell erzeugt identifiziert werden können.
Weights (Gewichte)
Die numerischen Werte in einem neuronalen Netz, die während des Trainings angepasst werden und das gelernte Wissen des Modells repräsentieren.
Word Embedding
Eine Methode, Wörter als Vektoren darzustellen, sodass semantisch ähnliche Wörter im Vektorraum nahe beieinander liegen – Grundlage für das Sprachverständnis moderner LLMs.
Wrapper
Eine Software oder ein Dienst, der ein bestehendes KI-Modell (z. B. über eine API) nutzt und mit zusätzlicher Funktionalität oder einer eigenen Oberfläche versieht.
X
xAI
Elon Musks KI-Unternehmen, gegründet 2023, das die Grok-Modelle entwickelt und als weniger eingeschränkte Alternative zu OpenAI positioniert.
XAI (Explainable AI)
Methoden und Techniken, die die Entscheidungen von KI-Modellen für Menschen nachvollziehbar und erklärbar machen – besonders wichtig in Medizin, Justiz und Finanzen.
Y
YOLO (You Only Look Once)
Ein hocheffizientes Modell zur Echtzeit-Objekterkennung in Bildern und Videos – wird z. B. für autonomes Fahren oder Überwachungssysteme eingesetzt.
Z
Zero-Shot Learning
Die Fähigkeit eines Modells, Aufgaben auszuführen, für die es keine spezifischen Beispiele erhalten hat, allein auf Basis seines vortrainierten Wissens.
Zero-Shot Prompting
Eine Prompting-Methode, bei der dem Modell keine Beispiele gegeben werden, sondern nur eine direkte Anweisung – funktioniert bei starken Modellen erstaunlich gut.
Kein Begriff gefunden. Versuchen Sie einen anderen Suchbegriff.
Sie möchten KI in Ihrem Unternehmen einsetzen?
Von der Begriffsklärung zur konkreten Umsetzung: Im persönlichen Erstgespräch zeige ich Ihnen, welche KI-Lösungen für Ihr Unternehmen sinnvoll sind.
Jetzt Erstgespräch vereinbaren – kostenlos und unverbindlichOder direkt per E-Mail: kontakt@valueate.de
Telefon: +49 152 06237493