Dieses Glossar gibt dir einen schnellen Überblick über die wichtigsten Begriffe der künstlichen Intelligenz – verständlich erklärt und direkt anwendbar. Ob du neu im Thema bist oder dein Wissen auffrischen willst: Hier findest du klare, kurze Definitionen zu Machine Learning, Deep Learning, Modellen, Training, Risiken und Grundlagen, die dir jede KI-Diskussion erleichtern.
A
Active Learning
Das Modell bittet gezielt um neue Beispiele, bei denen es noch unsicher ist. Das spart teures Labeln. Beispiel: Nur strittige Betrugsfälle gehen an Menschen.
Activation Function (Aktivierungsfunktion)
Mathematischer „Schalter“ im Neuron, der Nichtlinearität bringt. Ohne ihn wäre das Netz nur eine Gerade. Beispiel: ReLU setzt negative Werte auf 0.
Adaptive Learning
Das System passt Tempo und Inhalt an Lernende an. Beispiel: App zeigt mehr Übungen bei Schwächen.
Adversarial Attack
Winzige Eingabetricks bringen Modelle aus dem Tritt. Beispiel: Ein paar Pixel ändern, Bild wird falsch erkannt.
Adversarial Training
Training mit solchen „fiesen“ Beispielen macht das Modell robuster. Beispiel: Klassifikator übt mit absichtlich gestörten Bildern.
Agent / Agentic AI
Software, die eigenständig Schritte plant und Tools nutzt, um Ziele zu erreichen. Beispiel: Agent recherchiert Quellen und erstellt ein Memo.
AI Firewall / Guardrails
Sicherheitsgurt für KI: filtert heikle Inhalte und wehrt Prompt-Tricks ab. Beispiel: Verhindert, dass vertrauliche Daten ausgegeben werden.
Algorithmus
Rezept aus klaren Schritten zur Problemlösung. Beispiel: Sortierverfahren ordnet Listen.
Alignment (Ausrichtung)
Sicherstellen, dass KI das Richtige tut – im Sinne menschlicher Ziele und Regeln. Beispiel: Assistent lehnt gefährliche Anfragen ab.
Anomalieerkennung
Findet Ungewöhnliches in Daten. Beispiel: Karte wird plötzlich im Ausland genutzt → Alarm.
Artificial General Intelligence (AGI)
Gedachte KI, die fast alles so gut kann wie Menschen. Beispiel: Von Mathe bis Smalltalk.
Artificial Intelligence (AI / KI)
Überbegriff für Systeme mit „intelligenten“ Fähigkeiten. Beispiel: Bilder erkennen, Sprache verstehen, entscheiden.
Artificial Narrow Intelligence (ANI)
KI für eine enge Aufgabe. Beispiel: Spitzen-Spracherkennung, aber kein Schach.
ASI (Artificial Superintelligence)
KI, die Menschen in fast allem übertrifft – bisher Science-Fiction.
Attention Mechanism
Das Modell achtet stärker auf wichtige Teile der Eingabe. Beispiel: „Bank am Fluss“ → „Fluss“ klärt die Bedeutung.
AUC/ROC
Misst, wie gut ein Modell Klassen trennt – über alle Schwellen. PR-AUC ist bei seltenen Positiven oft hilfreicher. Beispiel: Betrugserkennung.
AutoML
Automatisiert viele ML-Schritte wie Modellwahl und Tuning. Beispiel: Tool testet Varianten und wählt die beste.
B
Backpropagation
Fehler laufen rückwärts durchs Netz, Gewichte werden angepasst. Beispiel: Nach falscher Prognose justiert das Modell seine Parameter.
Batch Normalization
Bringt Zwischenergebnisse je Minibatch in Ordnung, damit das Training stabil bleibt. Beispiel: Weniger „Zickzack“ beim Lernen.
Bayesian Inference (Bayessche Inferenz)
Vorwissen + neue Daten = aktualisierte Einschätzung. Beispiel: Dunkle Wolken erhöhen Regenwahrscheinlichkeit.
Bayesian Network
Grafik, die zeigt, wie Zufallsgrößen zusammenhängen. Beispiel: Rauchen ↔ Lungenkrebs (Wahrscheinlichkeitskanten).
Bias (Verzerrung)
Systematische Schieflage in Daten oder Modell. Beispiel: Eine Gruppe ist im Training unterrepräsentiert → Benachteiligung möglich.
Big Data
So viele/vielfältige Daten, dass klassische Methoden nicht reichen. Beispiel: Milliarden Log-Einträge pro Tag.
Bot
Programm, das Aufgaben automatisch erledigt. Beispiel: Chatbot beantwortet Standardfragen.
Betrugserkennung (Fraud Detection)
Fahndung nach seltenen „Bad Cases“. Recall/PR-AUC und Kosten zählen mehr als reine Genauigkeit. Beispiel: Kreditkarten-Fraud.
C
Calibration (Kalibrierung)
Vorhersage-Wahrscheinlichkeiten passen zur Realität. Beispiel: „80 % Risiko“ trifft in ~8 von 10 Fällen.
Capsule Networks
Lernen Teil-zu-Ganzes-Beziehungen; heute Nische. Beispiel: Auge+Nase+Mund → Gesicht.
Causal Inference (Kausalität)
Unterscheidet Ursache und Wirkung, nicht nur Korrelation. Beispiel: Macht der Rabatt wirklich mehr Umsatz?
Classification (Klassifikation)
Einteilen in Kategorien. Beispiel: „Hund“ vs. „Katze“.
Clustering
Ähnliche Dinge automatisch gruppieren – ohne Labels. Beispiel: Kundensegmente.
Cognitive Computing
Älterer Begriff für „menschenähnliches“ Rechnen; heute selten genutzt.
Collaborative Filtering
Empfehlungen über Nutzer- oder Artikel-Ähnlichkeiten. Beispiel: „Kund:innen wie du mochten …“
Computer Vision
Computer „sehen“ Bilder/Videos und erkennen Inhalte. Beispiel: Nummernschilder lesen.
Confusion Matrix (Konfusionsmatrix)
Tabelle: was richtig und was verwechselt wurde. Beispiel: 12 echte Betrugsfälle, 9 erkannt, 3 verpasst.
Concept Drift
Die Regeln ändern sich mit der Zeit. Beispiel: Neue Betrugsmuster → altes Modell passt nicht mehr.
Context Window (Kontextfenster)
Wie viel Text ein Sprachmodell auf einmal „im Kopf“ hat. Beispiel: Langer Bericht braucht großes Fenster.
Contextual Bandits
Lernen mit Sofort-Belohnung abhängig vom Kontext. Beispiel: Welche Benachrichtigung jetzt die meisten Klicks bringt.
Conformal Prediction
Gibt Vorhersage plus verlässliche Unsicherheits-Spanne. Beispiel: „Risiko 0,62 ± 0,08“.
Contrastive Learning
Ähnliches näher zusammen, Unähnliches weiter auseinander – im Vektorraum. Beispiel: Zwei Fotos derselben Person werden Nachbarn.
Convolutional Neural Network (CNN)
Bild-Spezialist: findet Kanten, Formen, Objekte. Beispiel: Tumorerkennung im Scan.
Cross-Entropy Loss
Beliebte Fehlerfunktion für Klassifikationen auf Basis von Wahrscheinlichkeiten.
Cross-Validation
Mehrere Train/Test-Aufteilungen für ehrliche Leistungsschätzung. Beispiel: 5-fach-CV.
D
Data Augmentation
Künstlich mehr Trainingsbeispiele erzeugen. Beispiel: Bilder drehen/spiegeln.
Data Drift
Die Eingabedaten verändern sich. Beispiel: Neue Kundentypen → Merkmale sehen anders aus.
Data Governance
Regeln und Zuständigkeiten für saubere, sichere Datennutzung. Beispiel: Wer darf was sehen?
Data Imputation (Imputation)
Fehlende Werte sinnvoll auffüllen. Beispiel: Durchschnittsalter statt „leer“.
Data Labeling
Daten bekommen ein korrektes Etikett. Beispiel: Bild erhält Label „Katze“.
Data Leakage
„Zukunft“/Test-Infos rutschen ins Training → Schein-Topwerte. Beispiel: Feature nutzt nachträglich bekannte Umsätze.
Data Lineage (Datenherkunft)
Nachvollziehen, wo Daten herkommen und was damit geschah. Beispiel: Audit-Pfad für Compliance.
Dataset (Datensatz)
Daten für Training, Validierung und Test. Beispiel: 80/10/10-Split.
Datenschutz bei KI
Personen schützen: minimieren, anonymisieren, Zugriffe steuern. Beispiel: DP-Techniken im Training.
Decision Boundary (Entscheidungsgrenze)
Linie/Fläche, die Klassen trennt. Beispiel: Links „Katze“, rechts „Hund“.
Decision Tree (Entscheidungsbaum)
Fragenkette führt zur Entscheidung. Beispiel: „Einkommen > X?“ → „Ja/Nein“.
Deep Learning
Viele Schichten lernen komplexe Muster. Beispiel: Sprache verstehen.
Diffusionsmodell
Startet mit Rauschen und arbeitet Bild/Audio schrittweise heraus. Beispiel: Text → Bild mit Stable Diffusion.
Digital Twin (Digitaler Zwilling)
Virtuelle Kopie eines realen Systems. Beispiel: Digitale Fabrik zur Optimierung.
Dimensionality Reduction (Dimensionsreduktion)
Weniger Merkmale, ähnliche Aussage. Beispiel: PCA fasst 100 Variablen zu wenigen zusammen.
Differential Privacy (DP)
Gezieltes Rauschen schützt Einzelpersonen. Beispiel: Statistik ohne Rückschluss auf eine Person.
Distributed Learning
Training verteilt auf viele Rechner/GPUs. Beispiel: Großes Modell schneller trainieren.
Dropout Regularization
Zufällig Neuronen „abschalten“, damit das Netz nicht überpasst. Beispiel: Robustere Features.
E
Early Fusion / Late Fusion
Modalitäten früh in Features oder spät in Vorhersagen zusammenführen. Beispiel: Text+Bild erst mischen oder erst am Ende kombinieren.
Early Stopping
Training stoppen, wenn es auf Validierung nicht mehr besser wird. Beispiel: Overfitting vermeiden.
Edge AI
KI rechnet direkt am Gerät. Beispiel: Smartphone-Modell ohne Cloud.
ElasticNet Regression
Lineares Modell mit L1+L2-Strafe gegen Überanpassung. Beispiel: Stabilere Gewichte bei vielen Features.
Embedding Layer
Wandelt IDs/Wörter in Vektoren um. Beispiel: Kunden-ID → Dichte Repräsentation.
Embeddings (Einbettungen)
Vektoren, die Bedeutung/Ähnlichkeit abbilden. Beispiel: „Auto“ nahe bei „Fahrzeug“.
Encoder-Decoder-Modell
Encoder komprimiert, Decoder erzeugt Ausgabe. Beispiel: Übersetzungsmodell.
Ensemble Methods
Mehrere Modelle stimmen ab → robuster. Beispiel: Random Forest, Gradient Boosting.
Epoch
Ein kompletter Durchlauf durch die Trainingsdaten.
Erklärbare KI (XAI)
Macht Entscheidungen nachvollziehbar. Beispiel: SHAP zeigt, welche Merkmale zählen.
EU-KI-Verordnung (AI Act)
EU-Regeln nach Risikoklassen; fordert u. a. Transparenz, Dokumentation, Governance. Beispiel: Hochrisiko-Modelle brauchen strenge Kontrollen.
Evaluation Metrics (Bewertungsmetriken)
Kennzahlen zur Modellgüte. Beispiel: Accuracy, F1, ROC-AUC, PR-AUC.
Expectation-Maximization (EM)
Wechsel aus „versteckte Variablen schätzen“ und „Parameter optimieren“. Beispiel: Gaussian Mixture Models.
Exploratory Data Analysis (EDA)
Erster Blick: Verteilungen, Ausreißer, Qualität. Beispiel: Histogramme, Boxplots.
F
F1-Score
Mittel aus Precision und Recall. Beispiel: Ausgewogene Bewertung bei unbalancierten Daten.
Federated Learning
Geräte lernen lokal, teilen nur Updates. Beispiel: Tastaturvorschläge ohne Rohdaten.
Feature
Merkmal, das ein Modell nutzt. Beispiel: Alter, Einkommen.
Feature Engineering
Merkmale formen, kombinieren, ableiten. Beispiel: Verhältnis Schulden/Einkommen.
Feature Scaling
Skalieren für stabile Optimierung. Beispiel: Standardisierung.
Feature Selection
Nur wichtige Merkmale behalten. Beispiel: Lasso wählt aus.
Few-Shot Learning
Lernen mit wenigen Beispielen. Beispiel: Neue Klasse nach 5 Beispielen.
Few-Shot Transfer
Vortrainiertes Modell mit wenig Daten anpassen. Beispiel: Fachjargon-Tuning.
Fine-Tuning
Vortrainiertes Modell gezielt weiterlernen lassen. Beispiel: LLM → juristische FAQs.
G
Gated Recurrent Unit (GRU)
RNN-Variante mit Gates, effizienter als LSTM. Beispiel: Zeitreihenprognosen.
Generative Adversarial Networks (GANs)
Generator erzeugt, Diskriminator prüft. Beispiel: Realistische Produktfotos.
Generative KI (GenAI)
Erzeugt neue Inhalte (Text, Bild, Code, Audio). Beispiel: Text-zu-Bild.
Gradient Clipping
Begrenzt Gradienten, hält Training stabil. Beispiel: Kein „Explodieren“ der Updates.
Gradient Descent (Gradientenabstieg)
Parameter entlang negativer Gradienten anpassen. Beispiel: Schritt für Schritt zum Minimum.
Graph Neural Network (GNN)
Lernt auf Graphen (Knoten/Kanten). Beispiel: Betrugsnetzwerke, Moleküle.
GPU / TPU
Spezialchips für paralleles Rechnen. Beispiel: Schnellere Trainingsläufe.
Grounding (Quellenbindung)
Antworten an verlässliche Quellen koppeln (z. B. via RAG). Beispiel: Bot zitiert interne Dokus.
H
Halluzination (GenAI)
Plausibel klingend, aber falsch. Beispiel: Nicht existierende Studie wird „zitiert“.
Hidden Layer (Verborgene Schicht)
Zwischenschicht, die Merkmale verwandelt. Beispiel: Von Rohdaten zu abstrakten Features.
Hierarchical Clustering
Gruppen werden zusammengeführt oder geteilt (Dendrogramm). Beispiel: Produktfamilien clustern.
Human-in-the-Loop (HITL)
Mensch prüft/entscheidet in kritischen Fällen. Beispiel: AML-Treffer freigeben.
Hyperparameter
Voreinstellungen fürs Lernen (nicht gelernt). Beispiel: Lernrate, Tiefe.
I
Image Recognition (Bilderkennung)
Objekte/Szenen automatisch erkennen. Beispiel: Katze im Foto finden.
Inductive Bias
Vorausgesetzte Annahmen eines Lernverfahrens. Beispiel: „Einfachere Modelle sind wahrscheinlicher“.
Information Gain (Informationsgewinn)
Wie stark ein Merkmal Unsicherheit senkt. Beispiel: Baum wählt bestes Attribut.
Instance Segmentation
Jedes Objekt im Bild pixelgenau abgrenzen. Beispiel: Alle Autos einzeln markieren.
J
Jailbreak / Prompt-Injection
Tricks, die Sicherheitsregeln aushebeln. Beispiel: Versteckte Anweisungen im Prompt.
Jittering
Kleine Zufallsstörungen zur Datenanreicherung. Beispiel: Zeitreihen leicht verschieben.
Joint Probability (Gemeinsame Wahrscheinlichkeit)
Wahrscheinlichkeit für gleichzeitige Ereignisse. Beispiel: P(Regen UND Stau).
K
K-means Clustering
Teilt Daten in k Gruppen nach Nähe zu Zentren. Beispiel: Kundensegmente in 5 Clustern.
KI-Governance
Rollen, Prozesse, Kontrollen für sicheren, regelkonformen KI-Einsatz. Beispiel: Modellkatalog, Freigabeprozess.
Knowledge Graph (Wissensgraph)
Netz aus Entitäten und Beziehungen. Beispiel: Person–Firma–Rolle.
Kredit-Scoring / Underwriting
Risikobewertung mit Fokus auf Fairness, Erklärbarkeit, Kalibrierung. Beispiel: Score für Kreditanträge.
L
Language Model (Sprachmodell)
Sagt Wahrscheinlichkeiten für Wortfolgen voraus. Beispiel: Nächstes Wort vorhersagen.
Latent Space (Latenter Raum)
Verdichteter Merkmalsraum, in dem Ähnliches nahe liegt. Beispiel: Ähnliche Produkte liegen beieinander.
Latent Variable (Latente Variable)
Nicht beobachtbar, erklärt aber Datenverhalten. Beispiel: „Qualität“ hinter Bewertungen.
Learning Curve (Lernkurve)
Leistung in Abhängigkeit von Daten/Epochen. Beispiel: Mehr Daten → bessere Kurve.
Learning Rate (Lernrate)
Schrittweite der Updates. Beispiel: Zu hoch → springt; zu niedrig → schleicht.
Learning Rate Schedule
Plan zur Anpassung der Lernrate. Beispiel: Stufenweise absenken.
LLM (Large Language Model)
Großes Sprachmodell mit breiten Fähigkeiten. Beispiel: Chat-Assistent.
LLMOps / MLOps
Praktiken für Entwicklung, Betrieb und Überwachung von (LLM-)Modellen. Beispiel: Monitoring & Retraining.
LoRA / PEFT
Feintuning über kleine Zusatzgewichte – schnell und günstig. Beispiel: LLM auf Bank-Jargon anpassen.
Loss Function (Verlustfunktion)
Misst den Fehler, den das Training minimiert. Beispiel: Kreuzentropie.
M
Machine Learning (ML)
Modelle lernen Muster aus Daten statt feste Regeln. Beispiel: Spamfilter.
Machine Learning Pipeline
Von Datensammlung bis Monitoring – der gesamte Ablauf. Beispiel: ETL → Training → Deployment.
Markov Decision Process (MDP)
Formalisierung für Entscheidungen über Zeit. Beispiel: RL-Agent im Spiel.
Masked Language Model (MLM)
Ergänzt „maskierte“ Wörter. Beispiel: BERT errät fehlende Tokens.
Matrix Factorization
Zerlegt Ratings in Nutzer-/Item-Faktoren. Beispiel: Empfehlungssysteme.
Memory Networks
Netze mit externem/implizitem Speicher. Beispiel: Längere Dialogkontexte behalten.
Meta-Learning
„Lernen zu lernen“ – schnelle Anpassung an neue Aufgaben. Beispiel: Wenige Beispiele genügen.
Model Risk Management (MRM)
Risiken von Modellen steuern: Validierung, Dokus, Monitoring. Beispiel: Bank-Governance.
Moore’s Law (Mooresches Gesetz)
Transistordichte/Leistung wächst (historisch) rasant. Beispiel: Mehr Rechenpower pro Chip.
Monte-Carlo-Simulation
Zufallsstichproben nähern Erwartungen an. Beispiel: Risikoverteilungen schätzen.
Multi-modal Learning
Gleichzeitig aus Text/Bild/Audio lernen. Beispiel: Bildbeschreibung aus Bild+Text.
Multi-task Learning
Verwandte Aufgaben gemeinsam lernen. Beispiel: POS-Tagging + NER.
N
Natural Gradient
Effizientere Updates, weil die Geometrie des Parameterraums berücksichtigt wird. Beispiel: Schnellere Konvergenz.
Natural Language Processing (NLP)
Automatische Verarbeitung natürlicher Sprache. Beispiel: Sentiment-Analyse.
Neural Network (Neuronales Netzwerk)
Viele verknüpfte Neuronen approximieren Funktionen. Beispiel: Bildklassifikation.
Neuro-symbolic AI
Neurales Lernen + logische Regeln. Beispiel: Faktenwissen mit Perception verbinden.
Noise Contrastive Estimation (NCE)
Schätzt Verteilungen über „Daten vs. Rauschen“-Unterscheidung. Beispiel: Sprachmodelle trainieren.
Out-of-Distribution (OOD)
Eingaben fern vom Training → höheres Fehlerrisiko. Beispiel: Exotische Transaktionen.
O
Online Learning
Kontinuierliches Lernen im Datenstrom. Beispiel: Modell passt sich täglich an.
Optimal Transport (Optimaler Transport)
Verteilungen möglichst kostengünstig ineinander überführen. Beispiel: Domänenanpassung.
Optimization Algorithms (Optimierer)
Regeln die Updates der Gewichte. Beispiel: SGD, Adam.
Outlier Detection (Ausreißererkennung)
Extrem abweichende Punkte finden. Beispiel: Tippfehler bei Preisen.
Oversampling / Undersampling
Klassen ausbalancieren. Beispiel: Seltene Klasse vervielfachen.
Overfitting
Zu sehr auf Training gemerkt, generalisiert schlecht. Beispiel: Lernkurve top, Live-Daten flop.
P
Parameter
Interne Gewichte eines Modells. Beispiel: Filterwerte im CNN.
Parameter Sharing
Gewichte an mehreren Stellen wiederverwenden. Beispiel: Gleicher Filter über Bildpositionen.
Parameter Tuning (Hyperparameter-Tuning)
Beste Einstellungen suchen. Beispiel: Lernrate, Bäume, Tiefe.
Pattern Recognition (Mustererkennung)
Wiederkehrende Strukturen erkennen. Beispiel: Handschrift lesen.
Perceptron
Einfacher, historischer Linear-Klassifikator. Beispiel: Ja/Nein-Entscheidung.
Policy Gradient Methods
Optimieren Strategien im RL direkt über Gradienten. Beispiel: Kontinuierliche Aktionen steuern.
Precision & Recall
Precision: Wie „sauber“ sind Positive? Recall: Wie viele Positive gefunden? Beispiel: Fraud → hoher Recall wichtig.
Predictive Analytics
Datengetriebene Vorhersagen. Beispiel: Churn-Prognose.
Principal Component Analysis (PCA)
Lineare Dimensionsreduktion. Beispiel: 2D-Plot vieler Variablen.
PR-AUC (Precision-Recall AUC)
Fläche unter der PR-Kurve; top bei seltenen Positiven. Beispiel: Betrug, Ausfälle.
Prompt Engineering
Clever formulieren, was das Modell tun soll. Beispiel: Aufgabe, Format, Kriterien angeben.
Prompting
Interaktive Eingabe an ein Sprachmodell. Beispiel: „Erkläre in 3 Punkten …“
Q
Q-Learning
Lernt Werte für „Aktion im Zustand“, um Belohnung zu maximieren. Beispiel: Agent findet beste Moves.
Quantum AI
KI auf Quantencomputern – noch experimentell. Beispiel: Beschleunigungen bei Optimierung (Forschung).
R
RAG (Retrieval-Augmented Generation)
LLM holt passende Quellen und antwortet darauf basierend. Beispiel: Bot durchsucht interne Doku und zitiert.
Random Forest
Viele Bäume stimmen ab → robust. Beispiel: Kreditentscheidung.
Recurrent Neural Network (RNN)
Verarbeitet Sequenzen mit internem Zustand. Beispiel: Text, Zeitreihen.
Regression
Sagt Zahlenwerte voraus. Beispiel: Preis, Temperatur.
Regularization (Regularisierung)
Bremst Überanpassung. Beispiel: L1/L2, Dropout, Early-Stopping.
Reinforcement Learning (RL)
Lernen durch Belohnung/Strafe in einer Umgebung. Beispiel: Spiel-Agent.
Reinforcement Learning Environments
Welten für RL-Training. Beispiel: Simulator, Börsenumgebung.
ResNet (Residual Network)
Tiefe Netze mit Skip-Verbindungen, die Lernen erleichtern. Beispiel: Bildklassifikation.
Residual Block
Baustein: Eingang wird zum Ausgang addiert. Beispiel: Besserer Gradientenfluss.
S
Safety Spec / System Prompt
Startanweisung + Sicherheitsregeln steuern Stil, Grenzen, Compliance. Beispiel: Keine personenbezogenen Daten ausgeben.
Self-Attention Mechanism
Jedes Token bezieht sich auf andere Tokens. Beispiel: Kontext verstehen in langen Sätzen.
Self-supervised Learning
Lernen ohne Labels über künstliche Aufgaben. Beispiel: Maskierte Wörter erraten.
Semi-supervised Learning
Wenig gelabelt, viel ungelabelt – kombiniert. Beispiel: 1 % Labels, 99 % Rohdaten.
Sentiment Analysis
Erkennt Stimmung in Texten. Beispiel: Produktbewertungen positiv/negativ.
Siamese Network
Zwillingsnetze messen Ähnlichkeit. Beispiel: Gesicht-Verifikation.
Sigmoid Activation
Gibt Werte zwischen 0 und 1 aus. Beispiel: Binäre Wahrscheinlichkeit.
Softmax Function
Wandelt Scores in Klassen-Wahrscheinlichkeiten um. Beispiel: „Katze/Hund/Maus“.
Sparse Coding
Repräsentation mit wenigen aktiven Komponenten. Beispiel: Effiziente Merkmale.
Sparse Data
Daten mit vielen Nullen/Leerstellen. Beispiel: Große Nutzer-Item-Matrizen.
Stochastic Gradient Descent (SGD)
Lernt in Minibatches statt auf allen Daten. Beispiel: Schnellere Updates.
Structured Data (Strukturierte Daten)
Tabellendaten mit festen Feldern. Beispiel: Excel-Tabelle.
Style Transfer
Stil eines Bildes auf ein anderes Motiv übertragen. Beispiel: Foto im Van-Gogh-Stil.
Supervised Learning (Überwachtes Lernen)
Lernen mit gelabelten Beispielen. Beispiel: Spam vs. Nicht-Spam.
Support Vector Machine (SVM)
Findet Trennfläche mit maximalem Abstand. Beispiel: Tabellendaten-Klassifikation.
Synthetische Daten
Künstlich erzeugt, echten ähnlich – gut für Datenschutz/Balancing. Beispiel: Simulierte Kundendaten.
T
Target Variable (Zielvariable)
Das, was vorhergesagt werden soll. Beispiel: „Kredit genehmigt: Ja/Nein“.
Temporal Difference Learning
RL-Methode mit schrittweiser Wert-Aktualisierung. Beispiel: Zwischenfeedback beim Spielen.
Test Dataset (Testdaten)
Unberührte Daten für die finale Bewertung. Beispiel: Erst am Ende verwenden.
Text-to-Image (Text-zu-Bild)
Erzeugt Bilder aus Text. Beispiel: „Hund mit Sonnenbrille“.
Tokenization (Tokenisierung)
Text in kleine Einheiten zerlegen. Beispiel: Subwords statt ganzer Wörter.
Training Dataset (Trainingsdaten)
Daten, auf denen Gewichte gelernt werden. Beispiel: Größter Datenteil.
Transfer Learning
Vortrainiertes Modell für neue Aufgaben nutzen. Beispiel: Bildnetz für Medizin feintunen.
Transformer Model
Architektur mit Self-Attention und Positionskodierung; Standard für Text/Bild/Multimodal. Beispiel: GPT, ViT.
TTS (Text-to-Speech)
Liest Text vor. Beispiel: Screenreader-Stimme.
Turing-Test
Fragt: Wirkt die Maschine im Chat menschlich? Beispiel: Verdeckter Dialogtest.
Temperature / Top-p
Stellen die Zufälligkeit generativer Modelle ein. Beispiel: Höher = kreativer, niedriger = nüchterner.
Tool Use / Function Calling
LLMs rufen externe Tools/APIs auf. Beispiel: SQL-Abfrage starten.
U
Underfitting
Zu einfach/untertrainiert – erkennt Muster nicht. Beispiel: Hoher Fehler auf Train und Test.
Uncertainty Estimation (Unsicherheitsabschätzung)
Gibt an, wie sicher die Vorhersage ist. Beispiel: Konfidenz-Score.
Unsupervised Learning (Unüberwachtes Lernen)
Strukturen ohne Labels finden. Beispiel: Clustering, Dimensionsreduktion.
V
Validation Dataset (Validierungsdaten)
Hilft beim Tuning und der Modellauswahl. Beispiel: Hyperparameter wählen.
Vanishing Gradient Problem
Gradienten werden in tiefen Netzen winzig. Beispiel: ResNets helfen dagegen.
Variational Autoencoder (VAE)
Generatives Modell mit latentem Raum. Beispiel: Neue, ähnliche Bilder erzeugen.
Variational Inference (VI)
Komplexe Verteilungen durch einfachere annähern. Beispiel: Schneller als exakte Bayes-Verfahren.
Vector Database (Vektordatenbank)
Speichert Embeddings und findet semantisch Ähnliches. Beispiel: „Finde ähnliche FAQs“.
Virtual Assistant (Virtueller Assistent)
Hilft per Sprache/Text bei Aufgaben. Beispiel: Termin buchen.
Voice Recognition (Spracherkennung)
Gesprochene Sprache in Text umwandeln. Beispiel: Diktat transkribieren.
W
Weak AI (Schwache KI)
Gleichbedeutend mit ANI: auf enge Aufgaben beschränkt. Beispiel: Nur Bilderkennung.
Weight Initialization (Gewichtsinitialisierung)
Gute Startwerte erleichtern das Lernen. Beispiel: He/Xavier-Init.
Weighted Sum (Gewichtete Summe)
Eingaben × Gewichte addieren – Grundoperation im Neuron. Beispiel: Nettoscore vor Aktivierung.
Windowed Monitoring (Drift-Wächter)
Regelmäßige Leistungs-/Drift-Checks nach dem Go-Live. Beispiel: Shadow-Mode, Canary-Test.
Word Embedding
Vektor für ein Wort; ähnliche Wörter liegen nah. Beispiel: „König“ nahe „Königin“.
Word2Vec
Klassische Methode, solche Wortvektoren zu lernen. Beispiel: „king – man + woman ≈ queen“.
Z
Zero-Shot Learning
Erkennt neue Klassen ohne Trainingsbeispiele durch Generalisierung. Beispiel: Unbekannte Tierart wird korrekt zugeordnet.
Wenn du tiefer einsteigen willst, empfehle ich dir als nächsten Schritt diesen Artikel:
Wie Sprachmodelle wirklich funktionieren – und warum sie nicht denken wie wir.


Schreibe einen Kommentar