Valueate

KI-Glossar

Begriffe rund um KI und Automatisierung — verständlich erklärt für Entscheider im Mittelstand.

A

Agentic AI

KI-Systeme, die eigenständig mehrstufige Aufgaben planen und ausführen, indem sie Werkzeuge nutzen, Zwischenergebnisse auswerten und Entscheidungen treffen.

AGI (Artificial General Intelligence)

Eine hypothetische Form der KI, die jede intellektuelle Aufgabe verstehen und lösen kann, die auch ein Mensch bewältigen könnte – im Gegensatz zu heutiger, spezialisierter KI.

AI Alignment

Das Forschungsfeld, das sicherstellen soll, dass KI-Systeme im Einklang mit menschlichen Werten und Absichten handeln und keine unbeabsichtigten oder schädlichen Ziele verfolgen.

AI Safety

Oberbegriff für alle Forschungs- und Entwicklungsmaßnahmen, die darauf abzielen, KI-Systeme sicher, kontrollierbar und vorhersagbar zu gestalten.

AI Slop

Abwertender Begriff für massenhaft produzierte, minderwertige KI-Inhalte wie generische Blogposts, seelenlose Bilder oder roboterhafte Videos.

Algorithmus

Eine feste Abfolge von Rechenregeln, die ein Problem Schritt für Schritt löst. Jede KI basiert letztlich auf Algorithmen.

Annotation

Der Prozess der manuellen Kennzeichnung von Daten (z. B. Bilder beschriften, Text kategorisieren), damit ein KI-Modell daraus lernen kann.

Anomalieerkennung

Die KI-gestützte Erkennung ungewöhnlicher Muster oder Ausreißer in Daten – z. B. für Betrugserkennung oder Qualitätskontrolle.

Anthropic

Das Unternehmen hinter dem KI-Assistenten Claude, gegründet 2021 von ehemaligen OpenAI-Mitarbeitern. Bekannt für den Fokus auf KI-Sicherheit und Constitutional AI.

API (Application Programming Interface)

Eine Schnittstelle, über die Programme miteinander kommunizieren. Entwickler können so auf KI-Modelle zugreifen, ohne sie selbst betreiben zu müssen.

ASI (Artificial Superintelligence)

Der nächste theoretische Schritt nach AGI: Eine KI, die den Menschen in allen Bereichen übertrifft – Wissenschaft, Kreativität, Strategie. Noch rein spekulativ.

Attention-Mechanismus

Ein Kernbaustein moderner Transformer-Modelle, der es dem Modell ermöglicht, beim Verarbeiten einer Eingabe unterschiedlich stark auf verschiedene Teile zu achten.

Autoencoder

Ein neuronales Netzwerk, das Daten komprimiert (Encoder) und wieder rekonstruiert (Decoder), häufig verwendet für Dimensionsreduktion oder Rauschunterdrückung.

AutoML

Die Automatisierung des Prozesses, KI-Modelle zu erstellen – also KI, die sich selbst trainiert und optimiert, ohne dass jeder Schritt manuell konfiguriert werden muss.

B

Backpropagation

Das mathematische Verfahren, mit dem neuronale Netze aus Fehlern lernen, indem Gradienten vom Ausgang zurück durch alle Schichten propagiert werden.

Batch Size

Die Anzahl der Trainingsbeispiele, die gleichzeitig durch ein Modell geleitet werden, bevor die Gewichte aktualisiert werden.

Benchmark

Ein standardisierter Testdatensatz oder eine Aufgabensammlung, mit der die Leistung verschiedener KI-Modelle objektiv verglichen wird (z. B. MMLU, HellaSwag).

Bias (Verzerrung)

Systematische Fehler oder Vorurteile in KI-Systemen, die aus unausgewogenen Trainingsdaten oder fehlerhaften Modellannahmen resultieren und zu unfairen Ergebnissen führen können.

Bias Mitigation

Techniken zur Erkennung und Reduzierung unerwünschter Verzerrungen in KI-Modellen, z. B. durch Datenanpassung oder faire Trainingsverfahren.

Big Data

Enorm große Datenmengen, die mit herkömmlicher Software nicht mehr sinnvoll verarbeitet werden können. KI benötigt Big Data als Rohmaterial zum Lernen.

Bot

Ein automatisiertes Programm, das Aufgaben selbstständig erledigt – z. B. ein Chatbot, der Kundenanfragen beantwortet.

C

Chain-of-Thought (CoT)

Eine Prompting-Technik, bei der das Modell aufgefordert wird, seinen Denkprozess Schritt für Schritt offenzulegen, was zu genaueren Ergebnissen bei komplexen Aufgaben führt.

Chatbot

Ein KI-basiertes Dialogsystem, das in natürlicher Sprache mit Menschen kommunizieren kann. Moderne Chatbots basieren auf LLMs und können natürliche Gespräche führen.

ChatGPT

Das bekannteste KI-Produkt von OpenAI – eine Chat-Anwendung auf Basis der GPT-Modelle zum Schreiben, Brainstormen, Programmieren, Übersetzen und vielem mehr.

Classifier (Klassifikator)

Ein Modell, das Eingaben in vordefinierte Kategorien einordnet – z. B. Spam-Erkennung, Stimmungsanalyse oder Bilderkennung.

Claude

Der KI-Assistent von Anthropic, bekannt für seinen Fokus auf Sicherheit und Nützlichkeit. Bei vielen Entwicklern für komplexe und kreative Aufgaben beliebt.

CLIP (Contrastive Language-Image Pretraining)

Ein Modell von OpenAI, das Bilder und Texte in einem gemeinsamen Vektorraum abbildet und so multimodale Aufgaben ermöglicht.

Computer Vision

Der Bereich der KI, der sich mit dem maschinellen Verstehen und Analysieren von Bildern und Videos befasst – z. B. für autonomes Fahren oder medizinische Bildanalyse.

Constitutional AI

Ein von Anthropic entwickelter Ansatz, bei dem KI-Modelle anhand eines Satzes von Prinzipien trainiert werden, um hilfreicher und weniger schädlich zu sein.

Contrastive Learning

Eine Trainingsmethode, bei der das Modell lernt, ähnliche Datenpunkte näher zusammen und unähnliche weiter auseinander im Vektorraum zu platzieren.

Convolutional Neural Network (CNN)

Ein spezielles neuronales Netz, das vor allem für Bildverarbeitung entwickelt wurde und lokale Muster in Bildern besonders gut erkennt.

Cross Validation

Eine Methode zur Bewertung der Modellqualität, bei der verschiedene Teile des Datensatzes abwechselnd zum Trainieren und Testen genutzt werden.

CUDA

Eine von NVIDIA entwickelte Plattform und API, die die parallele Berechnung auf Grafikkarten (GPUs) ermöglicht und für KI-Training essenziell ist.

Cursor

Ein KI-gestützter Code-Editor auf Basis von VS Code, der das gesamte Projekt versteht und Code generieren, refaktorisieren und erklären kann.

D

Data Augmentation

Techniken zur künstlichen Vergrößerung von Trainingsdaten durch Transformationen wie Drehen, Spiegeln oder Hinzufügen von Rauschen.

Data Mining

Die Extraktion nützlicher Muster und Zusammenhänge aus großen Datenmengen – eine wichtige Grundlage für viele KI-Anwendungen.

Decision Tree (Entscheidungsbaum)

Ein Modell, das Entscheidungen durch eine Baumstruktur mit Ja/Nein-Fragen trifft. Einfach zu verstehen und gut zu erklären.

Deep Learning

Ein Teilgebiet des maschinellen Lernens, das tiefe neuronale Netze mit vielen Schichten verwendet, um komplexe Muster in großen Datenmengen zu erkennen.

Deepfake

Durch KI (häufig GANs oder Diffusionsmodelle) erzeugte gefälschte Medieninhalte wie Videos oder Audiodateien, die täuschend echt wirken.

DeepSeek

Ein chinesisches KI-Unternehmen, das Anfang 2025 mit seinem Modell R1 Aufsehen erregte, weil es mit Reinforcement Learning ähnliche Ergebnisse wie OpenAIs o1 erzielte – zu einem Bruchteil der Kosten.

Diffusionsmodell

Ein generatives Modell, das Bilder erzeugt, indem es schrittweise Rauschen aus einer Zufallseingabe entfernt (z. B. Stable Diffusion, DALL-E, Midjourney).

Distillation (Wissensdestillation)

Ein Verfahren, bei dem ein kleines Modell (Student) trainiert wird, das Verhalten eines großen Modells (Teacher) nachzuahmen, um effizientere Modelle zu erzeugen.

Domain Adaptation

Die Anpassung eines trainierten Modells an einen neuen Datenbereich, z. B. von allgemeinem Text auf medizinische Fachsprache.

DSGVO / GDPR

Die Datenschutz-Grundverordnung der EU – besonders relevant für KI in Bezug auf Datenverarbeitung, Trainingsnutzung von Gesprächen und DSGVO-konforme KI-Lösungen.

E

Embedding

Eine numerische Darstellung (Vektor) von Daten wie Wörtern, Sätzen oder Bildern, die semantische Ähnlichkeiten im Vektorraum widerspiegelt.

Emergente Fähigkeiten

Fähigkeiten, die erst bei sehr großen Modellen auftreten und bei kleineren Modellen nicht vorhanden sind, z. B. komplexes logisches Schlussfolgern.

Encoder-Decoder-Architektur

Ein Netzwerkaufbau, bei dem ein Encoder die Eingabe in eine kompakte Darstellung umwandelt und ein Decoder daraus die Ausgabe erzeugt.

Ensemble Learning

Die Kombination mehrerer KI-Modelle, um bessere Ergebnisse zu erzielen, als jedes einzelne Modell allein liefern könnte.

Epoch

Ein vollständiger Durchlauf des gesamten Trainingsdatensatzes während des Modelltrainings. Mehrere Epochen verbessern in der Regel das Lernen.

Ethik der KI

Das interdisziplinäre Feld, das sich mit moralischen Fragen rund um Entwicklung, Einsatz und Auswirkungen von KI-Systemen beschäftigt.

EU AI Act

Die KI-Verordnung der Europäischen Union, die KI-Systeme nach Risikoklassen reguliert und seit 2024 schrittweise in Kraft tritt.

Evaluation

Der systematische Prozess der Leistungsbewertung eines Modells anhand definierter Metriken und Testdaten.

F

Feature Engineering

Die Auswahl und Umwandlung relevanter Datenmerkmale, bevor ein Modell damit trainiert wird. Bestimmt maßgeblich die Modellqualität.

Feintuning (Fine-Tuning)

Das gezielte Nachtrainieren eines vortrainierten Modells auf einem spezifischen Datensatz, um es für bestimmte Aufgaben oder Schreibstile zu spezialisieren.

Few-Shot Learning

Die Fähigkeit eines Modells, aus nur wenigen Beispielen im Prompt eine Aufgabe zu verstehen und auszuführen, ohne erneut trainiert zu werden.

FLOPS (Floating Point Operations Per Second)

Ein Maß für die Rechenleistung eines Systems, das angibt, wie viele Gleitkommaoperationen pro Sekunde ausgeführt werden können.

Foundation Model

Ein großes, auf breiten Daten vortrainiertes Modell, das als Basis für viele verschiedene Anwendungen dient (z. B. GPT-4, Claude, Llama).

Frontier Model

Die leistungsstärksten und größten KI-Modelle einer Generation, die den aktuellen Stand der Technik definieren.

G

GAN (Generative Adversarial Network)

Eine Architektur aus zwei konkurrierenden Netzwerken – einem Generator und einem Diskriminator – die zusammen lernen, realistische Daten zu erzeugen.

Gemini

Googles KI-Modellfamilie, der direkte Konkurrent zu GPT und Claude. In Google-Produkte wie Docs und Gmail integriert – früher bekannt als Bard.

Generative KI (GenAI)

KI-Systeme, die neue Inhalte wie Text, Bilder, Audio, Video oder Code erzeugen können, im Gegensatz zu rein analytischen Systemen.

GPT (Generative Pre-trained Transformer)

Die Modellfamilie von OpenAI. Der Name beschreibt die Funktionsweise: generativ (erzeugt Inhalte), vortrainiert (auf riesigen Daten) und Transformer-basiert.

GPU (Graphics Processing Unit)

Grafikprozessoren, die wegen ihrer Fähigkeit zur Parallelverarbeitung für das Training neuronaler Netze genutzt werden (z. B. NVIDIA H100).

Gradient Descent

Das grundlegende Optimierungsverfahren beim Training neuronaler Netze, bei dem die Gewichte schrittweise in Richtung des geringsten Fehlers angepasst werden.

Grok

Die KI von Elon Musks Unternehmen xAI, integriert in die Plattform X. Positioniert sich als weniger eingeschränkte Alternative zu anderen KI-Modellen.

Grounding

Die Verankerung von KI-Ausgaben in verifizierbaren Fakten oder externen Datenquellen, um die Zuverlässigkeit zu erhöhen.

Guardrails

Sicherheitsmechanismen und Einschränkungen, die verhindern sollen, dass KI-Modelle schädliche, unethische oder falsche Inhalte generieren.

H

Halluzination

Das Phänomen, wenn ein KI-Modell überzeugend klingende, aber faktisch falsche oder erfundene Informationen ausgibt – da es auf Plausibilität trainiert ist, nicht auf Wahrheit.

Human-in-the-Loop (HITL)

Ein Ansatz, bei dem Menschen aktiv in den KI-Entscheidungsprozess eingebunden werden, um Ergebnisse zu überprüfen, zu korrigieren oder zu genehmigen.

Hyperparameter

Konfigurationseinstellungen, die vor dem Training festgelegt werden und den Trainingsprozess steuern (z. B. Lernrate, Batch-Größe, Anzahl der Schichten).

I

Image Recognition

Die Fähigkeit einer KI, Objekte, Personen oder Szenen in Bildern zu erkennen und zu benennen.

In-Context Learning

Die Fähigkeit großer Sprachmodelle, Aufgaben ausschließlich aus dem Kontext des Prompts zu lernen, ohne Anpassung der Modellgewichte.

Inference-Time Compute

Zusätzliche Rechenleistung, die während der Antwortgenerierung eingesetzt wird (z. B. durch Chain-of-Thought), um die Qualität der Ausgabe zu verbessern.

Inferenz

Der Vorgang, bei dem ein trainiertes KI-Modell auf neue Daten angewandt wird, um Vorhersagen oder Ausgaben zu erzeugen.

Instruction Tuning

Ein Feintuning-Verfahren, bei dem ein Modell gezielt darauf trainiert wird, natürlichsprachliche Anweisungen zu verstehen und zu befolgen.

Intent Recognition

Die KI-gestützte Erkennung der Absicht hinter einer Nutzeranfrage – z. B. erkennen, dass jemand eine Bestellung stornieren möchte, statt nur auf einzelne Schlüsselwörter zu reagieren.

J

Jailbreak

Der Versuch, die Sicherheitsvorkehrungen eines KI-Modells durch geschickte Prompts zu umgehen, um Inhalte zu erzeugen, die das Modell normalerweise ablehnen würde.

K

Knowledge Graph

Eine strukturierte Wissensbasis, die Fakten als Netzwerk aus Entitäten und ihren Beziehungen darstellt und von KI-Systemen genutzt werden kann.

Kontextfenster (Context Window)

Die maximale Menge an Text (gemessen in Tokens), die ein Sprachmodell gleichzeitig verarbeiten kann – bei modernen Modellen oft 128K bis über 1M Tokens.

Künstliche Intelligenz (KI/AI)

Der Oberbegriff für Computersysteme, die Aufgaben ausführen können, die normalerweise menschliche Intelligenz erfordern, z. B. Lernen, Schlussfolgern und Problemlösen.

L

Labeling

Die Beschriftung von Trainingsdaten mit den richtigen Antworten – eine zentrale Voraussetzung für überwachtes Lernen.

Large Language Model (LLM)

Ein sehr großes Sprachmodell mit Milliarden von Parametern, das auf riesigen Textmengen trainiert wurde und vielfältige Sprachaufgaben bewältigen kann (z. B. GPT, Claude, Llama).

Latenter Raum

Ein abstrakter, mehrdimensionaler Raum, in dem ein Modell komprimierte Darstellungen der Eingabedaten speichert.

Lernrate (Learning Rate)

Ein Hyperparameter, der bestimmt, wie stark die Gewichte eines Modells bei jedem Trainingsschritt angepasst werden. Zu hoch führt zu instabilem, zu niedrig zu sehr langsamem Lernen.

Llama

Die Open-Source-Modellfamilie von Meta. Kostenlos nutzbar, anpassbar und die Basis vieler Community-Projekte.

LoRA (Low-Rank Adaptation)

Eine effiziente Feintuning-Methode, die nur kleine, zusätzliche Gewichtsmatrizen trainiert, anstatt das gesamte Modell zu verändern.

Loss Function (Verlustfunktion)

Eine mathematische Funktion, die misst, wie weit die Vorhersage eines Modells vom tatsächlichen Ergebnis abweicht – das Ziel des Trainings ist es, diesen Wert zu minimieren.

M

Machine Learning (ML)

Ein Teilbereich der KI, bei dem Algorithmen aus Daten lernen und Muster erkennen, ohne explizit programmiert zu werden. Oberbegriff für Supervised, Unsupervised und Reinforcement Learning.

MCP (Model Context Protocol)

Ein offenes Protokoll von Anthropic, das es KI-Modellen ermöglicht, standardisiert auf externe Datenquellen und Werkzeuge zuzugreifen.

Midjourney

Einer der beliebtesten KI-Bildgeneratoren, bekannt für hochwertige, künstlerisch anmutende Ergebnisse.

Mixture of Experts (MoE)

Eine Modellarchitektur, bei der nur ein Teil der Parameter pro Anfrage aktiviert wird, was Effizienz bei gleichzeitig großer Modellkapazität ermöglicht.

Modell

Das trainierte System selbst – Milliarden von Zahlenwerten, die zusammen Sprache, Bilder oder andere Daten verstehen und verarbeiten.

Modell-Kollaps

Ein Phänomen, bei dem Modelle, die auf KI-generierten Daten trainiert werden, zunehmend an Qualität und Vielfalt verlieren.

Multi-Agent-System

Ein System, in dem mehrere autonome KI-Agenten zusammenarbeiten oder miteinander interagieren, um komplexe Aufgaben zu lösen.

Multimodalität

Die Fähigkeit eines KI-Modells, verschiedene Datentypen wie Text, Bilder, Audio und Video gleichzeitig zu verarbeiten und zu erzeugen.

N

n8n

Eine Open-Source-Automatisierungsplattform, besonders beliebt für KI-Workflows. Kann selbst gehostet werden und ermöglicht den Bau eigener KI-Agenten ohne tiefes Programmierwissen.

Named Entity Recognition (NER)

Eine NLP-Technik, die in einem Text automatisch Eigennamen, Orte, Datumsangaben oder Marken erkennt und markiert.

Narrow AI

KI, die auf eine spezifische Aufgabe spezialisiert ist (z. B. Schach spielen, Bilder erkennen) – der derzeitige Stand praktisch aller KI-Systeme.

Natural Language Processing (NLP)

Der Oberbegriff für alle KI-Technologien, die natürliche Sprache verarbeiten: Übersetzung, Chatbots, Textanalyse, Stimmungserkennung.

Natural Language Understanding (NLU)

Ein Teilbereich von NLP, der sich speziell auf das Verstehen der Bedeutung und Intention natürlichsprachlicher Eingaben konzentriert.

Neuronales Netzwerk

Ein vom menschlichen Gehirn inspiriertes Rechenmodell aus miteinander verbundenen Schichten künstlicher Neuronen. Die Basis von Deep Learning und fast aller modernen KI.

Next-Token-Prediction

Das grundlegende Trainingsprinzip von Sprachmodellen: Das Modell lernt, das jeweils nächste Wort (Token) in einer Textsequenz vorherzusagen.

NVIDIA

Der führende Hersteller von GPUs und KI-Beschleunigern (z. B. A100, H100, B200), deren Hardware das Rückgrat des KI-Trainings bildet.

O

Object Detection

Die KI-gestützte Erkennung und Lokalisierung von Objekten in Bildern oder Videos mit Begrenzungsrahmen und Klassenlabels.

OCR (Optical Character Recognition)

KI-gestützte Texterkennung, die gedruckten oder handgeschriebenen Text aus Bildern oder gescannten Dokumenten extrahiert.

Open Source (KI)

KI-Modelle und Frameworks, deren Quellcode oder Gewichte öffentlich zugänglich sind und frei verwendet werden dürfen (z. B. Llama, Stable Diffusion).

Open Weight

Modelle, deren trainierte Gewichte veröffentlicht werden, aber nicht unbedingt der Trainingscode oder die Daten – eine Abgrenzung zu vollständigem Open Source.

OpenAI

Das Unternehmen hinter ChatGPT und den GPT-Modellen. Gegründet als Non-Profit, heute eines der wertvollsten KI-Unternehmen weltweit.

Orchestrierung

Das Koordinieren mehrerer KI-Komponenten zu einem Gesamtsystem – ein Orchestrierungs-Layer entscheidet, welches Modell und welches Werkzeug zum Einsatz kommt.

Overfitting (Überanpassung)

Ein Problem, bei dem ein Modell die Trainingsdaten auswendig lernt, statt allgemeine Muster zu erkennen, und daher auf neuen Daten schlecht abschneidet.

P

Parameter

Die trainierbaren Gewichtswerte in einem neuronalen Netz, die während des Trainings angepasst werden – moderne LLMs haben Hunderte Milliarden davon.

Perplexität

Ein Maß dafür, wie gut ein Sprachmodell die nächste Zeichenfolge vorhersagen kann – niedrigere Werte bedeuten bessere Vorhersagen.

Pipeline

Eine Abfolge von automatisierten Verarbeitungsschritten – z. B. Daten einlesen, aufbereiten, Modell anwenden und Ergebnis ausgeben.

Positional Encoding

Eine Methode in Transformer-Modellen, die Informationen über die Position von Tokens in einer Sequenz kodiert, da die Architektur keine inhärente Reihenfolge kennt.

Post-Training

Alle Trainingsschritte nach dem Vortraining: RLHF, Sicherheitstraining, Instruction Tuning. Macht aus einem rohen Sprachmodell einen hilfreichen Assistenten.

Pre-Training (Vortraining)

Die erste und aufwändigste Trainingsphase eines Foundation Models, in der es auf großen, allgemeinen Datensätzen grundlegende Sprachmuster und Weltwissen lernt.

Prompt

Die Eingabe oder Anweisung, die einem KI-Modell gegeben wird, um eine bestimmte Ausgabe zu erzeugen. Ein guter Prompt führt zu deutlich besseren Ergebnissen.

Prompt Engineering

Die Kunst und Technik, Prompts so zu formulieren, dass das KI-Modell möglichst präzise und nützliche Ergebnisse liefert.

Prompt Injection

Ein Sicherheitsangriff, bei dem bösartige Anweisungen in den Prompt eingeschleust werden, um das Verhalten des Modells zu manipulieren.

Pruning

Das Entfernen unwichtiger Gewichte oder Neuronen aus einem trainierten Modell, um es kleiner und schneller zu machen, ohne die Leistung wesentlich zu beeinträchtigen.

Q

Quantisierung

Eine Technik zur Komprimierung von Modellen, indem die Genauigkeit der Gewichte reduziert wird (z. B. von 32-Bit auf 4-Bit), um Speicher und Rechenleistung zu sparen.

Quantum Computing

Quantencomputer nutzen die Gesetze der Quantenphysik und könnten langfristig bestimmte KI-Berechnungen massiv beschleunigen – befindet sich noch in einer frühen Entwicklungsphase.

R

RAG (Retrieval-Augmented Generation)

Ein Verfahren, bei dem ein Sprachmodell vor der Antwortgenerierung relevante Informationen aus einer externen Wissensdatenbank abruft – reduziert Halluzinationen erheblich.

Reasoning Models

Modelle, die vor der Antwort intern nachdenken, bevor sie antworten – z. B. über Chain-of-Thought-Prozesse, die minutenlang laufen können (z. B. OpenAIs o3, DeepSeek R1).

Recurrent Neural Network (RNN)

Eine ältere Netzwerkarchitektur mit Rückkopplungsschleifen, die sequenzielle Daten verarbeiten kann, heute weitgehend durch Transformer abgelöst.

Red Teaming

Das gezielte Testen von KI-Systemen durch spezialisierte Teams, die versuchen, Schwachstellen, Fehlverhalten oder Sicherheitslücken aufzudecken.

Reinforcement Learning (RL)

Eine Lernmethode, bei der ein Agent durch Interaktion mit einer Umgebung lernt, Belohnungen zu maximieren und Strafen zu minimieren.

Reinforcement Learning from Human Feedback (RLHF)

Eine Technik, bei der menschliches Feedback verwendet wird, um das Verhalten eines Sprachmodells nach dem Pre-Training zu verbessern und an menschliche Präferenzen anzupassen.

Responsible AI

Ein Rahmenwerk für die ethische und verantwortungsvolle Entwicklung und den Einsatz von KI-Systemen unter Berücksichtigung von Fairness, Transparenz und Sicherheit.

Reward Model

Ein Modell, das menschliche Präferenzen abbildet und dazu dient, die Ausgaben eines KI-Modells im RLHF-Prozess zu bewerten und zu verbessern.

Robotic Process Automation (RPA)

Die Automatisierung regelbasierter, repetitiver Aufgaben mit Softwarerobotern – z. B. Formulare ausfüllen oder Daten kopieren.

Robotik

Der Bereich, in dem KI mit physischen Maschinen kombiniert wird, um autonome oder halbautonome Roboter zu schaffen.

S

Self-Supervised Learning

Ein Trainingsparadigma, bei dem das Modell aus ungelabelten Daten lernt, indem es sich selbst Aufgaben stellt (z. B. Wörter vorhersagen).

Semantic Search

KI-gestützte Suche, die die Bedeutung einer Anfrage versteht und relevante Ergebnisse liefert, anstatt nur nach exakten Schlüsselwörtern zu suchen.

Sentient AI

Die umstrittene Vorstellung, dass KI-Systeme Bewusstsein oder subjektive Erfahrungen entwickeln könnten – derzeit rein spekulativ.

Skalierungsgesetze (Scaling Laws)

Empirische Gesetzmäßigkeiten, die beschreiben, wie die Leistung von KI-Modellen mit zunehmender Größe, Datenmenge und Rechenleistung vorhersehbar wächst.

Small Language Model (SLM)

Kompaktere Sprachmodelle mit weniger Parametern, die effizienter sind und auch auf lokaler Hardware laufen können (z. B. Phi, Gemma).

Softmax-Funktion

Eine mathematische Funktion, die Rohwerte eines Netzwerks in Wahrscheinlichkeiten umwandelt, sodass alle Werte zwischen 0 und 1 liegen und sich zu 1 summieren.

Sora

OpenAIs Videogenerierungsmodell – aus einer Textbeschreibung wird ein realistisches Video erzeugt. Konkurriert mit Googles Veo und Runway Gen.

Spracherkennung (Speech-to-Text, STT)

KI-Technologie, die gesprochene Sprache in geschriebenen Text umwandelt (z. B. Whisper von OpenAI).

Sprachsynthese (Text-to-Speech, TTS)

KI-Technologie, die geschriebenen Text in natürlich klingende Sprache umwandelt. Moderne Modelle klingen täuschend menschlich.

Stable Diffusion

Ein Open-Source-Bildgenerator auf Basis von Diffusionsmodellen, der lokal auf dem eigenen Computer laufen kann. Sehr flexibel und anpassbar.

Supervised Learning (Überwachtes Lernen)

Eine Trainingsmethode, bei der das Modell aus gelabelten Daten lernt, also Eingaben zusammen mit den korrekten Ausgaben erhält.

Synthetic Data (Synthetische Daten)

Künstlich erzeugte Daten, die reale Daten imitieren und zum Trainieren oder Testen von KI-Modellen verwendet werden – besonders nützlich, wenn echte Daten knapp oder sensibel sind.

System Prompt

Eine versteckte Anweisung, die das Verhalten, die Rolle und die Einschränkungen eines KI-Modells vor Beginn einer Konversation festlegt.

T

Temperature

Ein Parameter bei der Textgenerierung, der die Zufälligkeit der Ausgabe steuert – niedrige Werte erzeugen vorhersagbare, hohe Werte kreativere Texte.

Tensor

Eine mehrdimensionale mathematische Datenstruktur, die die Grundlage für Berechnungen in neuronalen Netzen bildet.

Token

Die kleinste Verarbeitungseinheit eines Sprachmodells – ein Wort, Teilwort oder Satzzeichen, in das Text zerlegt wird. KI-APIs rechnen nach Tokens ab.

Tokenizer

Das Werkzeug, das Text in Tokens zerlegt und wieder zusammensetzt – verschiedene Modelle verwenden unterschiedliche Tokenizer.

Tokenomics / API-Pricing

Das Preismodell von KI-Anbietern, bei dem Kosten pro verarbeitetem Token berechnet werden, unterschieden nach Input- und Output-Tokens.

TPU (Tensor Processing Unit)

Von Google entwickelte spezialisierte KI-Chips, die für das Training und die Inferenz von neuronalen Netzen optimiert sind.

Training

Der Prozess, bei dem ein Modell aus riesigen Datenmengen lernt. Das Training großer Modelle kostet Dutzende Millionen Euro und dauert Monate auf Tausenden GPUs.

Transfer Learning

Die Übertragung von Wissen, das ein Modell bei einer Aufgabe gelernt hat, auf eine andere, verwandte Aufgabe – spart enorm viel Zeit und Rechenleistung.

Transformer

Die dominierende Architektur hinter modernen LLMs, die auf dem Attention-Mechanismus basiert und erstmals 2017 von Google vorgestellt wurde. Ohne Transformer kein GPT, kein Claude, kein Gemini.

Turing-Test

Ein von Alan Turing vorgeschlagener Test, bei dem eine Maschine als intelligent gilt, wenn ein Mensch sie im Gespräch nicht von einem Menschen unterscheiden kann.

U

Underfitting

Das Gegenteil von Overfitting: Das Modell hat zu wenig gelernt und kann weder Trainings- noch neue Daten gut verarbeiten.

Unsupervised Learning (Unüberwachtes Lernen)

Eine Trainingsmethode, bei der das Modell ohne gelabelte Daten Muster und Strukturen in den Daten selbstständig erkennt – z. B. beim Clustering.

V

Vektordatenbank

Eine spezialisierte Datenbank, die Embeddings speichert und schnelle Ähnlichkeitssuchen ermöglicht – zentral für RAG-Systeme und semantische Suche.

Veo

Googles Videogenerierungsmodell von DeepMind. Veo 3 setzt den aktuellen Standard mit 4K-Videos und nativ synchronisiertem Dialog, Musik und Umgebungsgeräuschen.

Vibe Coding

Ein von Andrej Karpathy geprägter Begriff: Man beschreibt grob, was man will, die KI generiert den Code, man testet und iteriert – ohne jede Zeile selbst verstehen zu müssen.

Vision-Language-Modell (VLM)

Ein multimodales Modell, das sowohl Bilder als auch Text versteht und darüber kommunizieren kann (z. B. GPT-4V, Claude).

Voice Recognition

Erkennung und Umwandlung von Sprache in Text, heute oft kombiniert mit NLP, damit KI-Assistenten Sprache nicht nur hören, sondern auch verstehen.

W

Watermarking

Techniken, um KI-generierte Inhalte mit unsichtbaren Kennzeichnungen zu versehen, damit sie als maschinell erzeugt identifiziert werden können.

Weights (Gewichte)

Die numerischen Werte in einem neuronalen Netz, die während des Trainings angepasst werden und das gelernte Wissen des Modells repräsentieren.

Word Embedding

Eine Methode, Wörter als Vektoren darzustellen, sodass semantisch ähnliche Wörter im Vektorraum nahe beieinander liegen – Grundlage für das Sprachverständnis moderner LLMs.

Wrapper

Eine Software oder ein Dienst, der ein bestehendes KI-Modell (z. B. über eine API) nutzt und mit zusätzlicher Funktionalität oder einer eigenen Oberfläche versieht.

X

xAI

Elon Musks KI-Unternehmen, gegründet 2023, das die Grok-Modelle entwickelt und als weniger eingeschränkte Alternative zu OpenAI positioniert.

XAI (Explainable AI)

Methoden und Techniken, die die Entscheidungen von KI-Modellen für Menschen nachvollziehbar und erklärbar machen – besonders wichtig in Medizin, Justiz und Finanzen.

Y

YOLO (You Only Look Once)

Ein hocheffizientes Modell zur Echtzeit-Objekterkennung in Bildern und Videos – wird z. B. für autonomes Fahren oder Überwachungssysteme eingesetzt.

Z

Zero-Shot Learning

Die Fähigkeit eines Modells, Aufgaben auszuführen, für die es keine spezifischen Beispiele erhalten hat, allein auf Basis seines vortrainierten Wissens.

Zero-Shot Prompting

Eine Prompting-Methode, bei der dem Modell keine Beispiele gegeben werden, sondern nur eine direkte Anweisung – funktioniert bei starken Modellen erstaunlich gut.

Kein Begriff gefunden. Versuchen Sie einen anderen Suchbegriff.

Sie möchten KI in Ihrem Unternehmen einsetzen?

Von der Begriffsklärung zur konkreten Umsetzung: Im persönlichen Erstgespräch zeige ich Ihnen, welche KI-Lösungen für Ihr Unternehmen sinnvoll sind.

Jetzt Erstgespräch vereinbaren – kostenlos und unverbindlich

Oder direkt per E-Mail: kontakt@valueate.de

Telefon: +49 152 06237493