KI-Glossar Kompakt: Die wichtigsten Begriffe einfach erklärt

von

in

Dieses Glossar gibt dir einen schnellen Überblick über die wichtigsten Begriffe der künstlichen Intelligenz – verständlich erklärt und direkt anwendbar. Ob du neu im Thema bist oder dein Wissen auffrischen willst: Hier findest du klare, kurze Definitionen zu Machine Learning, Deep Learning, Modellen, Training, Risiken und Grundlagen, die dir jede KI-Diskussion erleichtern.

A

Active Learning
Das Modell bittet gezielt um neue Beispiele, bei denen es noch unsicher ist. Das spart teures Labeln. Beispiel: Nur strittige Betrugsfälle gehen an Menschen.

Activation Function (Aktivierungsfunktion)
Mathematischer „Schalter“ im Neuron, der Nichtlinearität bringt. Ohne ihn wäre das Netz nur eine Gerade. Beispiel: ReLU setzt negative Werte auf 0.

Adaptive Learning
Das System passt Tempo und Inhalt an Lernende an. Beispiel: App zeigt mehr Übungen bei Schwächen.

Adversarial Attack
Winzige Eingabetricks bringen Modelle aus dem Tritt. Beispiel: Ein paar Pixel ändern, Bild wird falsch erkannt.

Adversarial Training
Training mit solchen „fiesen“ Beispielen macht das Modell robuster. Beispiel: Klassifikator übt mit absichtlich gestörten Bildern.

Agent / Agentic AI
Software, die eigenständig Schritte plant und Tools nutzt, um Ziele zu erreichen. Beispiel: Agent recherchiert Quellen und erstellt ein Memo.

AI Firewall / Guardrails
Sicherheitsgurt für KI: filtert heikle Inhalte und wehrt Prompt-Tricks ab. Beispiel: Verhindert, dass vertrauliche Daten ausgegeben werden.

Algorithmus
Rezept aus klaren Schritten zur Problemlösung. Beispiel: Sortierverfahren ordnet Listen.

Alignment (Ausrichtung)
Sicherstellen, dass KI das Richtige tut – im Sinne menschlicher Ziele und Regeln. Beispiel: Assistent lehnt gefährliche Anfragen ab.

Anomalieerkennung
Findet Ungewöhnliches in Daten. Beispiel: Karte wird plötzlich im Ausland genutzt → Alarm.

Artificial General Intelligence (AGI)
Gedachte KI, die fast alles so gut kann wie Menschen. Beispiel: Von Mathe bis Smalltalk.

Artificial Intelligence (AI / KI)
Überbegriff für Systeme mit „intelligenten“ Fähigkeiten. Beispiel: Bilder erkennen, Sprache verstehen, entscheiden.

Artificial Narrow Intelligence (ANI)
KI für eine enge Aufgabe. Beispiel: Spitzen-Spracherkennung, aber kein Schach.

ASI (Artificial Superintelligence)
KI, die Menschen in fast allem übertrifft – bisher Science-Fiction.

Attention Mechanism
Das Modell achtet stärker auf wichtige Teile der Eingabe. Beispiel: „Bank am Fluss“ → „Fluss“ klärt die Bedeutung.

AUC/ROC
Misst, wie gut ein Modell Klassen trennt – über alle Schwellen. PR-AUC ist bei seltenen Positiven oft hilfreicher. Beispiel: Betrugserkennung.

AutoML
Automatisiert viele ML-Schritte wie Modellwahl und Tuning. Beispiel: Tool testet Varianten und wählt die beste.

B

Backpropagation
Fehler laufen rückwärts durchs Netz, Gewichte werden angepasst. Beispiel: Nach falscher Prognose justiert das Modell seine Parameter.

Batch Normalization
Bringt Zwischenergebnisse je Minibatch in Ordnung, damit das Training stabil bleibt. Beispiel: Weniger „Zickzack“ beim Lernen.

Bayesian Inference (Bayessche Inferenz)
Vorwissen + neue Daten = aktualisierte Einschätzung. Beispiel: Dunkle Wolken erhöhen Regenwahrscheinlichkeit.

Bayesian Network
Grafik, die zeigt, wie Zufallsgrößen zusammenhängen. Beispiel: Rauchen ↔ Lungenkrebs (Wahrscheinlichkeitskanten).

Bias (Verzerrung)
Systematische Schieflage in Daten oder Modell. Beispiel: Eine Gruppe ist im Training unterrepräsentiert → Benachteiligung möglich.

Big Data
So viele/vielfältige Daten, dass klassische Methoden nicht reichen. Beispiel: Milliarden Log-Einträge pro Tag.

Bot
Programm, das Aufgaben automatisch erledigt. Beispiel: Chatbot beantwortet Standardfragen.

Betrugserkennung (Fraud Detection)
Fahndung nach seltenen „Bad Cases“. Recall/PR-AUC und Kosten zählen mehr als reine Genauigkeit. Beispiel: Kreditkarten-Fraud.

C

Calibration (Kalibrierung)
Vorhersage-Wahrscheinlichkeiten passen zur Realität. Beispiel: „80 % Risiko“ trifft in ~8 von 10 Fällen.

Capsule Networks
Lernen Teil-zu-Ganzes-Beziehungen; heute Nische. Beispiel: Auge+Nase+Mund → Gesicht.

Causal Inference (Kausalität)
Unterscheidet Ursache und Wirkung, nicht nur Korrelation. Beispiel: Macht der Rabatt wirklich mehr Umsatz?

Classification (Klassifikation)
Einteilen in Kategorien. Beispiel: „Hund“ vs. „Katze“.

Clustering
Ähnliche Dinge automatisch gruppieren – ohne Labels. Beispiel: Kundensegmente.

Cognitive Computing
Älterer Begriff für „menschenähnliches“ Rechnen; heute selten genutzt.

Collaborative Filtering
Empfehlungen über Nutzer- oder Artikel-Ähnlichkeiten. Beispiel: „Kund:innen wie du mochten …“

Computer Vision
Computer „sehen“ Bilder/Videos und erkennen Inhalte. Beispiel: Nummernschilder lesen.

Confusion Matrix (Konfusionsmatrix)
Tabelle: was richtig und was verwechselt wurde. Beispiel: 12 echte Betrugsfälle, 9 erkannt, 3 verpasst.

Concept Drift
Die Regeln ändern sich mit der Zeit. Beispiel: Neue Betrugsmuster → altes Modell passt nicht mehr.

Context Window (Kontextfenster)
Wie viel Text ein Sprachmodell auf einmal „im Kopf“ hat. Beispiel: Langer Bericht braucht großes Fenster.

Contextual Bandits
Lernen mit Sofort-Belohnung abhängig vom Kontext. Beispiel: Welche Benachrichtigung jetzt die meisten Klicks bringt.

Conformal Prediction
Gibt Vorhersage plus verlässliche Unsicherheits-Spanne. Beispiel: „Risiko 0,62 ± 0,08“.

Contrastive Learning
Ähnliches näher zusammen, Unähnliches weiter auseinander – im Vektorraum. Beispiel: Zwei Fotos derselben Person werden Nachbarn.

Convolutional Neural Network (CNN)
Bild-Spezialist: findet Kanten, Formen, Objekte. Beispiel: Tumorerkennung im Scan.

Cross-Entropy Loss
Beliebte Fehlerfunktion für Klassifikationen auf Basis von Wahrscheinlichkeiten.

Cross-Validation
Mehrere Train/Test-Aufteilungen für ehrliche Leistungsschätzung. Beispiel: 5-fach-CV.

D

Data Augmentation
Künstlich mehr Trainingsbeispiele erzeugen. Beispiel: Bilder drehen/spiegeln.

Data Drift
Die Eingabedaten verändern sich. Beispiel: Neue Kundentypen → Merkmale sehen anders aus.

Data Governance
Regeln und Zuständigkeiten für saubere, sichere Datennutzung. Beispiel: Wer darf was sehen?

Data Imputation (Imputation)
Fehlende Werte sinnvoll auffüllen. Beispiel: Durchschnittsalter statt „leer“.

Data Labeling
Daten bekommen ein korrektes Etikett. Beispiel: Bild erhält Label „Katze“.

Data Leakage
„Zukunft“/Test-Infos rutschen ins Training → Schein-Topwerte. Beispiel: Feature nutzt nachträglich bekannte Umsätze.

Data Lineage (Datenherkunft)
Nachvollziehen, wo Daten herkommen und was damit geschah. Beispiel: Audit-Pfad für Compliance.

Dataset (Datensatz)
Daten für Training, Validierung und Test. Beispiel: 80/10/10-Split.

Datenschutz bei KI
Personen schützen: minimieren, anonymisieren, Zugriffe steuern. Beispiel: DP-Techniken im Training.

Decision Boundary (Entscheidungsgrenze)
Linie/Fläche, die Klassen trennt. Beispiel: Links „Katze“, rechts „Hund“.

Decision Tree (Entscheidungsbaum)
Fragenkette führt zur Entscheidung. Beispiel: „Einkommen > X?“ → „Ja/Nein“.

Deep Learning
Viele Schichten lernen komplexe Muster. Beispiel: Sprache verstehen.

Diffusionsmodell
Startet mit Rauschen und arbeitet Bild/Audio schrittweise heraus. Beispiel: Text → Bild mit Stable Diffusion.

Digital Twin (Digitaler Zwilling)
Virtuelle Kopie eines realen Systems. Beispiel: Digitale Fabrik zur Optimierung.

Dimensionality Reduction (Dimensionsreduktion)
Weniger Merkmale, ähnliche Aussage. Beispiel: PCA fasst 100 Variablen zu wenigen zusammen.

Differential Privacy (DP)
Gezieltes Rauschen schützt Einzelpersonen. Beispiel: Statistik ohne Rückschluss auf eine Person.

Distributed Learning
Training verteilt auf viele Rechner/GPUs. Beispiel: Großes Modell schneller trainieren.

Dropout Regularization
Zufällig Neuronen „abschalten“, damit das Netz nicht überpasst. Beispiel: Robustere Features.

E

Early Fusion / Late Fusion
Modalitäten früh in Features oder spät in Vorhersagen zusammenführen. Beispiel: Text+Bild erst mischen oder erst am Ende kombinieren.

Early Stopping
Training stoppen, wenn es auf Validierung nicht mehr besser wird. Beispiel: Overfitting vermeiden.

Edge AI
KI rechnet direkt am Gerät. Beispiel: Smartphone-Modell ohne Cloud.

ElasticNet Regression
Lineares Modell mit L1+L2-Strafe gegen Überanpassung. Beispiel: Stabilere Gewichte bei vielen Features.

Embedding Layer
Wandelt IDs/Wörter in Vektoren um. Beispiel: Kunden-ID → Dichte Repräsentation.

Embeddings (Einbettungen)
Vektoren, die Bedeutung/Ähnlichkeit abbilden. Beispiel: „Auto“ nahe bei „Fahrzeug“.

Encoder-Decoder-Modell
Encoder komprimiert, Decoder erzeugt Ausgabe. Beispiel: Übersetzungsmodell.

Ensemble Methods
Mehrere Modelle stimmen ab → robuster. Beispiel: Random Forest, Gradient Boosting.

Epoch
Ein kompletter Durchlauf durch die Trainingsdaten.

Erklärbare KI (XAI)
Macht Entscheidungen nachvollziehbar. Beispiel: SHAP zeigt, welche Merkmale zählen.

EU-KI-Verordnung (AI Act)
EU-Regeln nach Risikoklassen; fordert u. a. Transparenz, Dokumentation, Governance. Beispiel: Hochrisiko-Modelle brauchen strenge Kontrollen.

Evaluation Metrics (Bewertungsmetriken)
Kennzahlen zur Modellgüte. Beispiel: Accuracy, F1, ROC-AUC, PR-AUC.

Expectation-Maximization (EM)
Wechsel aus „versteckte Variablen schätzen“ und „Parameter optimieren“. Beispiel: Gaussian Mixture Models.

Exploratory Data Analysis (EDA)
Erster Blick: Verteilungen, Ausreißer, Qualität. Beispiel: Histogramme, Boxplots.

F

F1-Score
Mittel aus Precision und Recall. Beispiel: Ausgewogene Bewertung bei unbalancierten Daten.

Federated Learning
Geräte lernen lokal, teilen nur Updates. Beispiel: Tastaturvorschläge ohne Rohdaten.

Feature
Merkmal, das ein Modell nutzt. Beispiel: Alter, Einkommen.

Feature Engineering
Merkmale formen, kombinieren, ableiten. Beispiel: Verhältnis Schulden/Einkommen.

Feature Scaling
Skalieren für stabile Optimierung. Beispiel: Standardisierung.

Feature Selection
Nur wichtige Merkmale behalten. Beispiel: Lasso wählt aus.

Few-Shot Learning
Lernen mit wenigen Beispielen. Beispiel: Neue Klasse nach 5 Beispielen.

Few-Shot Transfer
Vortrainiertes Modell mit wenig Daten anpassen. Beispiel: Fachjargon-Tuning.

Fine-Tuning
Vortrainiertes Modell gezielt weiterlernen lassen. Beispiel: LLM → juristische FAQs.

G

Gated Recurrent Unit (GRU)
RNN-Variante mit Gates, effizienter als LSTM. Beispiel: Zeitreihenprognosen.

Generative Adversarial Networks (GANs)
Generator erzeugt, Diskriminator prüft. Beispiel: Realistische Produktfotos.

Generative KI (GenAI)
Erzeugt neue Inhalte (Text, Bild, Code, Audio). Beispiel: Text-zu-Bild.

Gradient Clipping
Begrenzt Gradienten, hält Training stabil. Beispiel: Kein „Explodieren“ der Updates.

Gradient Descent (Gradientenabstieg)
Parameter entlang negativer Gradienten anpassen. Beispiel: Schritt für Schritt zum Minimum.

Graph Neural Network (GNN)
Lernt auf Graphen (Knoten/Kanten). Beispiel: Betrugsnetzwerke, Moleküle.

GPU / TPU
Spezialchips für paralleles Rechnen. Beispiel: Schnellere Trainingsläufe.

Grounding (Quellenbindung)
Antworten an verlässliche Quellen koppeln (z. B. via RAG). Beispiel: Bot zitiert interne Dokus.

H

Halluzination (GenAI)
Plausibel klingend, aber falsch. Beispiel: Nicht existierende Studie wird „zitiert“.

Hidden Layer (Verborgene Schicht)
Zwischenschicht, die Merkmale verwandelt. Beispiel: Von Rohdaten zu abstrakten Features.

Hierarchical Clustering
Gruppen werden zusammengeführt oder geteilt (Dendrogramm). Beispiel: Produktfamilien clustern.

Human-in-the-Loop (HITL)
Mensch prüft/entscheidet in kritischen Fällen. Beispiel: AML-Treffer freigeben.

Hyperparameter
Voreinstellungen fürs Lernen (nicht gelernt). Beispiel: Lernrate, Tiefe.

I

Image Recognition (Bilderkennung)
Objekte/Szenen automatisch erkennen. Beispiel: Katze im Foto finden.

Inductive Bias
Vorausgesetzte Annahmen eines Lernverfahrens. Beispiel: „Einfachere Modelle sind wahrscheinlicher“.

Information Gain (Informationsgewinn)
Wie stark ein Merkmal Unsicherheit senkt. Beispiel: Baum wählt bestes Attribut.

Instance Segmentation
Jedes Objekt im Bild pixelgenau abgrenzen. Beispiel: Alle Autos einzeln markieren.

J

Jailbreak / Prompt-Injection
Tricks, die Sicherheitsregeln aushebeln. Beispiel: Versteckte Anweisungen im Prompt.

Jittering
Kleine Zufallsstörungen zur Datenanreicherung. Beispiel: Zeitreihen leicht verschieben.

Joint Probability (Gemeinsame Wahrscheinlichkeit)
Wahrscheinlichkeit für gleichzeitige Ereignisse. Beispiel: P(Regen UND Stau).

K

K-means Clustering
Teilt Daten in k Gruppen nach Nähe zu Zentren. Beispiel: Kundensegmente in 5 Clustern.

KI-Governance
Rollen, Prozesse, Kontrollen für sicheren, regelkonformen KI-Einsatz. Beispiel: Modellkatalog, Freigabeprozess.

Knowledge Graph (Wissensgraph)
Netz aus Entitäten und Beziehungen. Beispiel: Person–Firma–Rolle.

Kredit-Scoring / Underwriting
Risikobewertung mit Fokus auf Fairness, Erklärbarkeit, Kalibrierung. Beispiel: Score für Kreditanträge.

L

Language Model (Sprachmodell)
Sagt Wahrscheinlichkeiten für Wortfolgen voraus. Beispiel: Nächstes Wort vorhersagen.

Latent Space (Latenter Raum)
Verdichteter Merkmalsraum, in dem Ähnliches nahe liegt. Beispiel: Ähnliche Produkte liegen beieinander.

Latent Variable (Latente Variable)
Nicht beobachtbar, erklärt aber Datenverhalten. Beispiel: „Qualität“ hinter Bewertungen.

Learning Curve (Lernkurve)
Leistung in Abhängigkeit von Daten/Epochen. Beispiel: Mehr Daten → bessere Kurve.

Learning Rate (Lernrate)
Schrittweite der Updates. Beispiel: Zu hoch → springt; zu niedrig → schleicht.

Learning Rate Schedule
Plan zur Anpassung der Lernrate. Beispiel: Stufenweise absenken.

LLM (Large Language Model)
Großes Sprachmodell mit breiten Fähigkeiten. Beispiel: Chat-Assistent.

LLMOps / MLOps
Praktiken für Entwicklung, Betrieb und Überwachung von (LLM-)Modellen. Beispiel: Monitoring & Retraining.

LoRA / PEFT
Feintuning über kleine Zusatzgewichte – schnell und günstig. Beispiel: LLM auf Bank-Jargon anpassen.

Loss Function (Verlustfunktion)
Misst den Fehler, den das Training minimiert. Beispiel: Kreuzentropie.

M

Machine Learning (ML)
Modelle lernen Muster aus Daten statt feste Regeln. Beispiel: Spamfilter.

Machine Learning Pipeline
Von Datensammlung bis Monitoring – der gesamte Ablauf. Beispiel: ETL → Training → Deployment.

Markov Decision Process (MDP)
Formalisierung für Entscheidungen über Zeit. Beispiel: RL-Agent im Spiel.

Masked Language Model (MLM)
Ergänzt „maskierte“ Wörter. Beispiel: BERT errät fehlende Tokens.

Matrix Factorization
Zerlegt Ratings in Nutzer-/Item-Faktoren. Beispiel: Empfehlungssysteme.

Memory Networks
Netze mit externem/implizitem Speicher. Beispiel: Längere Dialogkontexte behalten.

Meta-Learning
„Lernen zu lernen“ – schnelle Anpassung an neue Aufgaben. Beispiel: Wenige Beispiele genügen.

Model Risk Management (MRM)
Risiken von Modellen steuern: Validierung, Dokus, Monitoring. Beispiel: Bank-Governance.

Moore’s Law (Mooresches Gesetz)
Transistordichte/Leistung wächst (historisch) rasant. Beispiel: Mehr Rechenpower pro Chip.

Monte-Carlo-Simulation
Zufallsstichproben nähern Erwartungen an. Beispiel: Risikoverteilungen schätzen.

Multi-modal Learning
Gleichzeitig aus Text/Bild/Audio lernen. Beispiel: Bildbeschreibung aus Bild+Text.

Multi-task Learning
Verwandte Aufgaben gemeinsam lernen. Beispiel: POS-Tagging + NER.

N

Natural Gradient
Effizientere Updates, weil die Geometrie des Parameterraums berücksichtigt wird. Beispiel: Schnellere Konvergenz.

Natural Language Processing (NLP)
Automatische Verarbeitung natürlicher Sprache. Beispiel: Sentiment-Analyse.

Neural Network (Neuronales Netzwerk)
Viele verknüpfte Neuronen approximieren Funktionen. Beispiel: Bildklassifikation.

Neuro-symbolic AI
Neurales Lernen + logische Regeln. Beispiel: Faktenwissen mit Perception verbinden.

Noise Contrastive Estimation (NCE)
Schätzt Verteilungen über „Daten vs. Rauschen“-Unterscheidung. Beispiel: Sprachmodelle trainieren.

Out-of-Distribution (OOD)
Eingaben fern vom Training → höheres Fehlerrisiko. Beispiel: Exotische Transaktionen.

O

Online Learning
Kontinuierliches Lernen im Datenstrom. Beispiel: Modell passt sich täglich an.

Optimal Transport (Optimaler Transport)
Verteilungen möglichst kostengünstig ineinander überführen. Beispiel: Domänenanpassung.

Optimization Algorithms (Optimierer)
Regeln die Updates der Gewichte. Beispiel: SGD, Adam.

Outlier Detection (Ausreißererkennung)
Extrem abweichende Punkte finden. Beispiel: Tippfehler bei Preisen.

Oversampling / Undersampling
Klassen ausbalancieren. Beispiel: Seltene Klasse vervielfachen.

Overfitting
Zu sehr auf Training gemerkt, generalisiert schlecht. Beispiel: Lernkurve top, Live-Daten flop.

P

Parameter
Interne Gewichte eines Modells. Beispiel: Filterwerte im CNN.

Parameter Sharing
Gewichte an mehreren Stellen wiederverwenden. Beispiel: Gleicher Filter über Bildpositionen.

Parameter Tuning (Hyperparameter-Tuning)
Beste Einstellungen suchen. Beispiel: Lernrate, Bäume, Tiefe.

Pattern Recognition (Mustererkennung)
Wiederkehrende Strukturen erkennen. Beispiel: Handschrift lesen.

Perceptron
Einfacher, historischer Linear-Klassifikator. Beispiel: Ja/Nein-Entscheidung.

Policy Gradient Methods
Optimieren Strategien im RL direkt über Gradienten. Beispiel: Kontinuierliche Aktionen steuern.

Precision & Recall
Precision: Wie „sauber“ sind Positive? Recall: Wie viele Positive gefunden? Beispiel: Fraud → hoher Recall wichtig.

Predictive Analytics
Datengetriebene Vorhersagen. Beispiel: Churn-Prognose.

Principal Component Analysis (PCA)
Lineare Dimensionsreduktion. Beispiel: 2D-Plot vieler Variablen.

PR-AUC (Precision-Recall AUC)
Fläche unter der PR-Kurve; top bei seltenen Positiven. Beispiel: Betrug, Ausfälle.

Prompt Engineering
Clever formulieren, was das Modell tun soll. Beispiel: Aufgabe, Format, Kriterien angeben.

Prompting
Interaktive Eingabe an ein Sprachmodell. Beispiel: „Erkläre in 3 Punkten …“

Q

Q-Learning
Lernt Werte für „Aktion im Zustand“, um Belohnung zu maximieren. Beispiel: Agent findet beste Moves.

Quantum AI
KI auf Quantencomputern – noch experimentell. Beispiel: Beschleunigungen bei Optimierung (Forschung).

R

RAG (Retrieval-Augmented Generation)
LLM holt passende Quellen und antwortet darauf basierend. Beispiel: Bot durchsucht interne Doku und zitiert.

Random Forest
Viele Bäume stimmen ab → robust. Beispiel: Kreditentscheidung.

Recurrent Neural Network (RNN)
Verarbeitet Sequenzen mit internem Zustand. Beispiel: Text, Zeitreihen.

Regression
Sagt Zahlenwerte voraus. Beispiel: Preis, Temperatur.

Regularization (Regularisierung)
Bremst Überanpassung. Beispiel: L1/L2, Dropout, Early-Stopping.

Reinforcement Learning (RL)
Lernen durch Belohnung/Strafe in einer Umgebung. Beispiel: Spiel-Agent.

Reinforcement Learning Environments
Welten für RL-Training. Beispiel: Simulator, Börsenumgebung.

ResNet (Residual Network)
Tiefe Netze mit Skip-Verbindungen, die Lernen erleichtern. Beispiel: Bildklassifikation.

Residual Block
Baustein: Eingang wird zum Ausgang addiert. Beispiel: Besserer Gradientenfluss.

S

Safety Spec / System Prompt
Startanweisung + Sicherheitsregeln steuern Stil, Grenzen, Compliance. Beispiel: Keine personenbezogenen Daten ausgeben.

Self-Attention Mechanism
Jedes Token bezieht sich auf andere Tokens. Beispiel: Kontext verstehen in langen Sätzen.

Self-supervised Learning
Lernen ohne Labels über künstliche Aufgaben. Beispiel: Maskierte Wörter erraten.

Semi-supervised Learning
Wenig gelabelt, viel ungelabelt – kombiniert. Beispiel: 1 % Labels, 99 % Rohdaten.

Sentiment Analysis
Erkennt Stimmung in Texten. Beispiel: Produktbewertungen positiv/negativ.

Siamese Network
Zwillingsnetze messen Ähnlichkeit. Beispiel: Gesicht-Verifikation.

Sigmoid Activation
Gibt Werte zwischen 0 und 1 aus. Beispiel: Binäre Wahrscheinlichkeit.

Softmax Function
Wandelt Scores in Klassen-Wahrscheinlichkeiten um. Beispiel: „Katze/Hund/Maus“.

Sparse Coding
Repräsentation mit wenigen aktiven Komponenten. Beispiel: Effiziente Merkmale.

Sparse Data
Daten mit vielen Nullen/Leerstellen. Beispiel: Große Nutzer-Item-Matrizen.

Stochastic Gradient Descent (SGD)
Lernt in Minibatches statt auf allen Daten. Beispiel: Schnellere Updates.

Structured Data (Strukturierte Daten)
Tabellendaten mit festen Feldern. Beispiel: Excel-Tabelle.

Style Transfer
Stil eines Bildes auf ein anderes Motiv übertragen. Beispiel: Foto im Van-Gogh-Stil.

Supervised Learning (Überwachtes Lernen)
Lernen mit gelabelten Beispielen. Beispiel: Spam vs. Nicht-Spam.

Support Vector Machine (SVM)
Findet Trennfläche mit maximalem Abstand. Beispiel: Tabellendaten-Klassifikation.

Synthetische Daten
Künstlich erzeugt, echten ähnlich – gut für Datenschutz/Balancing. Beispiel: Simulierte Kundendaten.

T

Target Variable (Zielvariable)
Das, was vorhergesagt werden soll. Beispiel: „Kredit genehmigt: Ja/Nein“.

Temporal Difference Learning
RL-Methode mit schrittweiser Wert-Aktualisierung. Beispiel: Zwischenfeedback beim Spielen.

Test Dataset (Testdaten)
Unberührte Daten für die finale Bewertung. Beispiel: Erst am Ende verwenden.

Text-to-Image (Text-zu-Bild)
Erzeugt Bilder aus Text. Beispiel: „Hund mit Sonnenbrille“.

Tokenization (Tokenisierung)
Text in kleine Einheiten zerlegen. Beispiel: Subwords statt ganzer Wörter.

Training Dataset (Trainingsdaten)
Daten, auf denen Gewichte gelernt werden. Beispiel: Größter Datenteil.

Transfer Learning
Vortrainiertes Modell für neue Aufgaben nutzen. Beispiel: Bildnetz für Medizin feintunen.

Transformer Model
Architektur mit Self-Attention und Positionskodierung; Standard für Text/Bild/Multimodal. Beispiel: GPT, ViT.

TTS (Text-to-Speech)
Liest Text vor. Beispiel: Screenreader-Stimme.

Turing-Test
Fragt: Wirkt die Maschine im Chat menschlich? Beispiel: Verdeckter Dialogtest.

Temperature / Top-p
Stellen die Zufälligkeit generativer Modelle ein. Beispiel: Höher = kreativer, niedriger = nüchterner.

Tool Use / Function Calling
LLMs rufen externe Tools/APIs auf. Beispiel: SQL-Abfrage starten.

U

Underfitting
Zu einfach/untertrainiert – erkennt Muster nicht. Beispiel: Hoher Fehler auf Train und Test.

Uncertainty Estimation (Unsicherheitsabschätzung)
Gibt an, wie sicher die Vorhersage ist. Beispiel: Konfidenz-Score.

Unsupervised Learning (Unüberwachtes Lernen)
Strukturen ohne Labels finden. Beispiel: Clustering, Dimensionsreduktion.

V

Validation Dataset (Validierungsdaten)
Hilft beim Tuning und der Modellauswahl. Beispiel: Hyperparameter wählen.

Vanishing Gradient Problem
Gradienten werden in tiefen Netzen winzig. Beispiel: ResNets helfen dagegen.

Variational Autoencoder (VAE)
Generatives Modell mit latentem Raum. Beispiel: Neue, ähnliche Bilder erzeugen.

Variational Inference (VI)
Komplexe Verteilungen durch einfachere annähern. Beispiel: Schneller als exakte Bayes-Verfahren.

Vector Database (Vektordatenbank)
Speichert Embeddings und findet semantisch Ähnliches. Beispiel: „Finde ähnliche FAQs“.

Virtual Assistant (Virtueller Assistent)
Hilft per Sprache/Text bei Aufgaben. Beispiel: Termin buchen.

Voice Recognition (Spracherkennung)
Gesprochene Sprache in Text umwandeln. Beispiel: Diktat transkribieren.

W

Weak AI (Schwache KI)
Gleichbedeutend mit ANI: auf enge Aufgaben beschränkt. Beispiel: Nur Bilderkennung.

Weight Initialization (Gewichtsinitialisierung)
Gute Startwerte erleichtern das Lernen. Beispiel: He/Xavier-Init.

Weighted Sum (Gewichtete Summe)
Eingaben × Gewichte addieren – Grundoperation im Neuron. Beispiel: Nettoscore vor Aktivierung.

Windowed Monitoring (Drift-Wächter)
Regelmäßige Leistungs-/Drift-Checks nach dem Go-Live. Beispiel: Shadow-Mode, Canary-Test.

Word Embedding
Vektor für ein Wort; ähnliche Wörter liegen nah. Beispiel: „König“ nahe „Königin“.

Word2Vec
Klassische Methode, solche Wortvektoren zu lernen. Beispiel: „king – man + woman ≈ queen“.

Z

Zero-Shot Learning
Erkennt neue Klassen ohne Trainingsbeispiele durch Generalisierung. Beispiel: Unbekannte Tierart wird korrekt zugeordnet.

Wenn du tiefer einsteigen willst, empfehle ich dir als nächsten Schritt diesen Artikel:
Wie Sprachmodelle wirklich funktionieren – und warum sie nicht denken wie wir.


Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert