KI-Glossar Kompakt: Die wichtigsten Begriffe einfach erklärt

von

in

Mit diesem Glossar erhältst du einen guten Überblick über die wichtigsten KI-Begriffe. Ob du gerade erst in die Welt der künstlichen Intelligenz eintauchst oder deine bestehenden Kenntnisse auffrischen möchtest: Hier findest du schnell die passenden Erläuterungen zu Themen wie Machine Learning, Deep Learning und Co. Ich hoffe, die kurzen, verständlichen Definitionen helfen dir dabei, sicherer in KI-Diskussionen aufzutreten und komplexe Themen besser zu durchdringen.

A

Active Learning
Das Modell entscheidet, welche Daten es noch braucht, um besser zu werden. So spart man Zeit und Daten.

Activation Function (Aktivierungsfunktion)
Funktion in einem künstlichen Neuron, die entscheidet, wie stark das Neuron „feuert“. Bringt „Nicht-Linearität“ ins Modell.

Adaptive Learning
Lern- oder Trainingssysteme, die sich an dich oder andere Lernende anpassen – damit jeder seinem eigenen Tempo folgen kann.

Adversarial Attack (Angriff auf KI-Modelle)
Winzige Änderungen an Eingabedaten (z. B. Bilder), um ein KI-System zu verwirren und falsche Vorhersagen zu provozieren.

Adversarial Training
Eine Trainingsmethode, bei der solche „bösartigen“ (adversarial) Beispiele absichtlich genutzt werden, damit das Modell robust gegen Angriffe wird.

Algorithmus
Wie ein Kochrezept für den Computer: klare Schritte, die ein Problem lösen sollen.

Anomalieerkennung
Suche nach ungewöhnlichen Mustern in Daten, zum Beispiel um Betrug, Fehler oder seltsame Abweichungen früh zu erkennen.

Artificial General Intelligence (AGI)
Eine noch hypothetische KI, die jede Art von Aufgabe ebenso gut (oder besser) lösen könnte wie ein Mensch.

Artificial Intelligence (AI)
Sammelbegriff für Programme oder Systeme, die „intelligent“ wirken – zum Beispiel, weil sie lernen oder Entscheidungen treffen.

Artificial Narrow Intelligence (ANI)
KI-Systeme, die nur eine bestimmte Aufgabe meistern, z. B. Bilderkennung oder Spracherkennung – aber sonst nichts.

ASI (Artificial Super Intelligence)
Eine KI, die weit schlauer wäre als jeder Mensch. Bisher reine Science-Fiction.

Attention Mechanism
Eine Technik, bei der das KI-Modell „aufpasst“, welche Teile einer Eingabe (z. B. eines Textes) besonders wichtig sind.

AUC / ROC (Area Under the ROC Curve)
Kennzahl, um zu messen, wie gut ein Klassifikationsmodell verschiedene Klassen unterscheiden kann. 1,0 wäre perfekt.

AutoML (Automated Machine Learning)
Hilfsmittel, das die Schritte des maschinellen Lernens (Datenaufbereitung, Modellwahl etc.) automatisch ausführt, sodass weniger Expertenarbeit nötig ist.

B

Backpropagation
„Rückwärts-Lernen“: Das Modell berechnet, wie falsch es liegt, und verteilt diesen Fehler zurück durch das Netzwerk, um die Gewichte anzupassen.

Batch Normalization
Ein Verfahren, das den Zahlenbereich in neuronalen Netzen beim Training stabilisiert, damit das Lernen schneller und zuverlässiger läuft.

Bayesian Inference
Verknüpft altes Wissen (Prior) mit neuen Beobachtungen, um bessere Schätzungen (Posterior) zu erhalten.

Bayesian Network (Bayessches Netz)
Grafische Darstellung von Zufallsgrößen und ihren Zusammenhängen (Wer hängt von wem ab?).

Bias (Verzerrung)
Systematische Bevorzugung oder Benachteiligung durch Daten oder Algorithmen, die zu falschen oder unfairen Ergebnissen führen kann.

Big Data
Riesige Datenmengen, die so umfangreich oder komplex sind, dass herkömmliche Methoden sie kaum bewältigen können.

Bot
Ein Programm, das automatisch Aufgaben ausführt, z. B. ein Chatbot oder ein Webcrawler.

C

Capsule Networks
Eine verbesserte Art neuronaler Netze, die Zusammenhänge in Bildern stabiler erkennt als klassische CNNs.

Classification (Klassifikation)
Das Einteilen von Daten in Kategorien, z. B. „Hund“ oder „Katze“ bei Bildern.

Clustering
Ein Verfahren, das Datenpunkte ohne vorherige Labels in Gruppen steckt, die sich ähnlich sind.

Cognitive Computing
Versuch, Computer so zu entwickeln, dass sie ähnlich wie Menschen denken, lernen und Entscheidungen treffen.

Collaborative Filtering (Kollaborative Filterung)
Empfehlungssystem, das Nutzungs- oder Bewertungsverhalten verschiedener Leute vergleicht, um dir passende Empfehlungen zu geben (z. B. in Online-Shops).

Computer Vision
Das „Sehen“ für Computer: Bilder oder Videos analysieren, um Objekte zu erkennen oder Szenen zu verstehen.

Confusion Matrix (Konfusionsmatrix)
Eine Tabelle, die zeigt, wie oft ein Modell richtig oder falsch klassifiziert hat – aufgeschlüsselt nach allen Klassen.

Contextual Bandits
Eine vereinfachte Form von Reinforcement Learning, bei der das System mit jeder Aktion direkt eine Belohnung bekommt, abhängig vom Kontext.

Contrastive Learning
Eine Methode, bei der ähnliche Beispiele näher zueinander gerückt und unähnliche Beispiele weiter voneinander entfernt werden.

Convolutional Neural Network (CNN)
Neuronales Netz, das besonders gut mit Bilddaten umgeht, indem es „Faltungen“ (Convolutions) zum Erkennen von Mustern nutzt.

Cross Entropy Loss
Fehlermessung bei Klassifikationsaufgaben, die Wahrscheinlichkeiten vergleicht: Wie gut stimmt die Modell-Prognose mit der Realität überein?

Cross-validation
Trainieren und Testen des Modells in mehreren Durchgängen, um sicherer zu wissen, wie gut das Modell wirklich generalisiert.

D

Data Augmentation
Das künstliche Vergrößern eines Datensatzes, z. B. durch Drehen oder Spiegeln von Bildern, um mehr Trainingsbeispiele zu schaffen.

Data Drift
Veränderung von Daten im Lauf der Zeit, wodurch ein ursprünglich gut trainiertes Modell schlechter wird, da sich die Rahmenbedingungen ändern.

Data Governance
Regeln und Prozesse, die festlegen, wie Daten verantwortungsvoll genutzt und verwaltet werden (Datenschutz, -qualität etc.).

Data Imputation (Datenimputation)
Das Auffüllen fehlender Daten mit vernünftigen Schätzungen, sodass keine Informationen verloren gehen.

Data Labeling (Datenkennzeichnung)
Das manuelle oder automatische Zuweisen von Labels zu Daten (z. B. „Katze“ bei einem Katzenfoto), damit ein Modell lernen kann.

Dataset (Datensatz)
Die Gesamtheit aller Daten, die für das Training und/oder Testen eines KI-Modells verwendet werden.

Decision Boundary
Die „Grenzlinie“, die ein Modell zieht, um festzulegen, in welcher Klasse ein Datenpunkt liegt.

Decision Tree (Entscheidungsbaum)
Ein Diagramm aus Fragen und Zweigen, das am Ende eine Entscheidung (Vorhersage) trifft.

Deep Learning
Ein Sammelbegriff für neuronale Netze mit vielen Schichten, die komplexe Muster in Daten erkennen können.

Digital Twin
Ein virtuelles Abbild eines realen Objekts oder Systems, das man zur Überwachung, Analyse und Optimierung nutzt.

Dimensionality Reduction (Dimensionsreduktion)
Verfahren, die viele Merkmale auf wenige wichtige Merkmale reduzieren, z. B. um Datensätze übersichtlicher zu machen.

Distributed Learning
Wenn das Training auf mehrere Rechner verteilt wird, damit große Modelle schneller lernen können.

Dropout Regularization
Das zufällige „Abschalten“ von Neuronen während des Trainings, damit das Modell nicht zu sehr ins Detail der Trainingsdaten abdriftet.

E

Early Fusion vs. Late Fusion
In Multi-Modal Learning: Werden Daten (z. B. Text+Bild) schon früh oder erst in späteren Schichten zusammengeführt?

Early Stopping
Beendet das Training rechtzeitig, damit das Modell nicht „übertrainiert“ (Overfitting) wird und allgemeingültiger bleibt.

Edge AI
Wenn KI-Berechnungen direkt auf dem Gerät (Smartphone, Sensor) stattfinden, statt in einer entfernten Cloud. So spart man Bandbreite und Zeit.

ElasticNet Regression
Verfahren, das gleichzeitig L1- und L2-Regularisierung nutzt, um ein Modell stabiler zu machen.

Embedding Layer
In NLP: Die erste Schicht, die Worte in Zahlenvektoren umwandelt, damit ein KI-System sie leichter verarbeiten kann.

Embeddings (Einbettungen)
Die Zahlenvektoren selbst, die zeigen, wie ähnlich oder unähnlich sich Begriffe oder andere Daten sind.

Encoder-Decoder Model
Eine Modellarchitektur mit zwei Teilen: Der Encoder fasst Informationen zusammen, der Decoder erzeugt daraus die Ausgabe (z. B. Übersetzung).

Ensemble Methods
Kombination mehrerer Modelle. Die „Mehrheitsentscheidung“ ist oft stabiler als die eines einzelnen Modells.

Epoch
Ein vollständiger Durchlauf aller Trainingsbeispiele, nach dem das Modell (idealerweise) schon dazulernt.

Evaluation Metrics (Bewertungsmetriken)
Sammelbezeichnung für Kennzahlen wie Genauigkeit, F1-Score oder AUC, die die Modellleistung beschreiben.

Expectation-Maximization Algorithm
Ein schrittweises Verfahren, das verborgene Strukturen in Daten aufdeckt und Parameter wiederholt anpasst.

Explainable AI (XAI)
Techniken, um KI-Systeme „durchsichtig“ zu machen und zu verstehen, warum sie bestimmte Vorhersagen treffen.

Exploratory Data Analysis (EDA)
Der erste Blick in den Datensatz: Was ist überhaupt drin? Gibt es Ausreißer? Welche Verteilungen finden wir?

F

F1 Score
Ein Maß, das „Precision“ und „Recall“ zusammenfasst, sodass beide gleich stark gewichtet sind.

Federated Learning
Mehrere Geräte (Smartphones, PCs) trainieren lokal ein Modell und senden nur die Lern-Ergebnisse (statt der Daten) zurück an den Server.

Feature
Ein einzelnes Merkmal oder Attribut im Datensatz, das das Modell zur Vorhersage nutzt, z. B. die Höhe eines Menschen.

Feature Engineering
Das Erstellen oder Verbessern von Merkmalen, damit das Modell bessere Vorhersagen machen kann.

Feature Scaling
Das Anpassen der Wertebereiche einzelner Merkmale, z. B. auf [0,1] oder mit Mittelwert 0 und Standardabweichung 1.

Feature Selection
Das Aussortieren unwichtiger Merkmale, damit das Modell nicht zu kompliziert wird.

Few-shot Learning
Ein KI-Modell kommt mit nur wenigen Beispielen je Klasse aus, weil es gelernt hat, sein allgemeines Wissen anzuwenden.

Few-shot Transfer
Man nutzt ein schon trainiertes Modell und passt es mit sehr wenigen neuen Daten auf eine andere Aufgabe an.

Fine-Tuning
Letzter Feinschliff an einem bereits vortrainierten Modell, um es an eine spezifische Aufgabe anzupassen.

G

Gated Recurrent Unit (GRU)
Variante eines RNN-Zellenaufbaus, einfacher als LSTM, aber dennoch gegen das Verschwinden von Gradienten gewappnet.

Generative Adversarial Networks (GANs)
Zwei Netze: Eins erzeugt (Generator), eins erkennt echte vs. künstliche Daten (Diskriminator). So lernt der Generator, sehr realistische Daten zu machen.

Gradient Clipping
Begrenzt zu große Update-Schritte beim Training, damit das Netz stabil bleibt.

Gradient Descent
Zentrales Optimierungsverfahren, das in Richtung des kleinsten Fehlers „bergab“ wandert, um die besten Gewichte zu finden.

Graph Neural Network (GNN)
Ein neurales Netz für Daten in Graphenform (Knoten + Kanten), z. B. soziale Netzwerke oder Moleküle.

GPU / TPU (Hardwarebeschleunigung)
Spezielle Prozessoren, die viele kleine Aufgaben gleichzeitig rechnen können und so KI-Modelle schneller trainieren.

H

Hidden Layer
Zwischenschicht im neuronalen Netz, wo die Daten „verarbeitet“ werden, bevor sie zur Ausgabe gelangen.

Hierarchical Clustering
Clustering, bei dem die Gruppen nach und nach zusammengefasst oder geteilt werden, sodass eine Hierarchie entsteht.

Hyperparameter
„Voreinstellungen“ fürs Lernen (z. B. Lernrate, Anzahl Schichten), die man nicht direkt aus den Daten lernt.

I

Image Recognition (Bilderkennung)
Allgemeine Aufgabe: Automatisches Erkennen und Einordnen von Objekten oder Szenen in Fotos oder Videos.

Inductive Bias
Die grundlegenden Annahmen eines Lernalgorithmus über die Art der Daten oder die Form der Lösungen.

Information Gain
Wie stark eine bestimmte Frage (z. B. in einem Entscheidungsbaum) die Unsicherheit über die Klassenzugehörigkeit reduziert.

Instance Segmentation
Bilder in einzelne Objekte zerteilen, sodass jedes Objekt als eigene Region gekennzeichnet wird.

J

Joint Probability (Gemeinsame Wahrscheinlichkeit)
Die Wahrscheinlichkeit, dass mehrere Ereignisse gleichzeitig eintreten.

Jittering
Kleine zufällige „Verwackelungen“ oder Verzerrungen, mit denen man seine Trainingsdaten anreichert, um robustere Modelle zu bekommen.

K

K-means Clustering
Ein einfacher, aber beliebter Algorithmus, der Datenpunkte in k Gruppen sortiert, basierend auf Abständen zu Gruppenschwerpunkten.

Knowledge Graph (Wissensgraph)
Ein Netz aus Begriffen (Knoten) und deren Beziehungen (Kanten). Nutzt man z. B. bei Suchmaschinen, um Zusammenhänge darzustellen.

L

Language Model
Modell, das die Wahrscheinlichkeit bestimmter Wortfolgen oder Sätze vorhersagen kann (z. B. GPT).

Latent Space
Ein versteckter (meist kleiner) Raum, in dem Daten so abgebildet werden, dass ähnliche Dinge beieinanderliegen.

Latent Variable
Eine nicht direkt messbare Größe, die jedoch das Verhalten der beobachtbaren Daten erklären kann.

Learning Curve
Zeigt, wie gut (oder schlecht) das Modell mit zunehmenden Daten oder Epochen wird.

Learning Rate
Bestimmt, wie große Schritte das Modell beim Anpassen der Gewichte macht. Zu hoch -> wildes Springen, zu niedrig -> sehr langsames Lernen.

Learning Rate Schedule
Plan, wie sich die Lernrate während des Trainings ändert (z. B. Absenkung nach einigen Epochen).

LLM (Large Language Model)
Sehr großes Sprachmodell, trainiert auf gewaltigen Textmengen, das Text verstehen und oft auch selbst generieren kann.

Loss Function
Rechengrundlage fürs Training: Sie misst, wie falsch das Modell liegt. Ziel ist es, diesen „Verlust“ zu minimieren.

M

Machine Learning (ML)
Allgemeine Bezeichnung für Algorithmen, die aus Daten lernen, anstatt alle Regeln vom Menschen vorgegeben zu bekommen.

Machine Learning Pipeline
Der gesamte Arbeitsablauf in ML-Projekten: Daten sammeln, aufbereiten, Modell trainieren, bewerten und schließlich in Betrieb nehmen.

Markov Decision Process (MDP)
Eine formale Beschreibung für Entscheidungsprozesse, wichtig im Reinforcement Learning (Zustand, Aktion, Belohnung).

Masked Language Model
Texteingaben mit versteckten Wörtern („Masken“), die das Modell ergänzen soll (z. B. BERT).

Matrix Factorization
Zerlegt große Tabellen (z. B. Nutzer-Bewertungen) in zwei kleinere Matrizen, um versteckte Zusammenhänge zu entdecken.

Memory Networks
Netze mit eigenem Speichersystem, das lange Zusammenhänge in Texten oder Dialogen besser behalten kann.

Meta-Learning
„Lernen, wie man lernt“. Ein Modell lernt, welche Strategien für verschiedene Aufgaben gut funktionieren.

Moores Law (Mooresches Gesetz)
Beobachtung, dass die Anzahl an Transistoren pro Chip (und damit Rechenleistung) sich ungefähr alle 1–2 Jahre verdoppelt.

Monte Carlo Simulation
Zufallsbasiertes Verfahren: Man zieht viele Stichproben, um Wahrscheinlichkeiten oder Erwartungswerte abzuschätzen.

Multi-modal Learning
Lernen aus verschiedenen Datenformaten (z. B. Text, Bild, Ton) gleichzeitig.

Multi-task Learning
Trainiert ein Modell auf mehreren verwandten Aufgaben, sodass das Gelernte untereinander helfen kann.

N

Natural Gradient
Ein ausgefeilterer Weg, die Gewichte anzupassen, weil er die „Form“ des Parameterraums berücksichtigt.

Natural Language Processing (NLP)
KI-Bereich, der sich mit der Verarbeitung und dem Verständnis menschlicher Sprache (Text & Spracheingabe) beschäftigt.

Neural Network (Neuronales Netzwerk)
Inspiration aus dem Gehirn: Viele künstliche Neuronen sind miteinander verbunden und lernen Muster aus Beispielen.

Neuro-symbolic AI
Verbindet statistische Methoden (Neuronale Netze) mit symbolischen Ansätzen (Logik, Regeln), um Vorteile beider Welten zu nutzen.

Noise Contrastive Estimation (NCE)
Verfahren, das echte Daten von zufälligem „Rauschen“ unterscheiden lässt – dient oft dem Schätzen von Wahrscheinlichkeiten.

O

Online Learning
Ständiges Weiterlernen mit jedem neu ankommenden Datenpunkt, statt das Modell immer wieder komplett neu zu trainieren.

Optimal Transport
Mathematisches Konzept, das berechnet, wie Datenverteilungen möglichst „kostengünstig“ ineinander überführt werden können.

Optimization Algorithms
Die „Motoren“ des Trainings (z. B. Adam, SGD), die steuern, wie schnell und in welche Richtung die Gewichte geändert werden.

Outlier Detection (Ausreißererkennung)
Erkennen, wenn Datenpunkte extrem vom Rest abweichen, etwa weil sie fehlerhaft sind oder etwas Besonderes anzeigen.

Oversampling / Undersampling
Methoden, um bei stark unausgeglichenen Klassen mehr Gleichgewicht zu schaffen: entweder seltene Klasse vervielfachen (Oversampling) oder häufige Klasse verkleinern (Undersampling).

Overfitting
Das Modell merkt sich die Trainingsdaten zu genau und versagt bei neuen Daten – wie ein Schüler, der nur auswendig gelernt hat.

P

Parameter
Die internen Werte (Gewichte) eines Modells, die beim Lernen angepasst werden, um bessere Vorhersagen zu ermöglichen.

Parameter Sharing
Gleiche Gewichte werden an mehreren Stellen des Modells verwendet, z. B. in CNNs, um weniger Parameter zu benötigen.

Parameter Tuning
Das Finden der optimalen Hyperparameter (z. B. Lernrate, Anzahl Schichten), damit das Modell besonders gut funktioniert.

Pattern Recognition
Erkennen von Mustern und Strukturen in Daten – das Grundprinzip von vielen KI-Verfahren.

Perceptron
Ein Urmodell eines künstlichen Neurons, das einfache Ja/Nein-Aufgaben lösen kann.

Policy Gradient Methods
Reinforcement-Learning-Techniken, bei denen man direkt eine Strategie (Policy) lernt, wie Aktionen ausgewählt werden.

Precision and Recall
Zwei Kennzahlen, um Klassifikationen zu bewerten. Precision: Wie viele deiner positiven Vorhersagen waren richtig? Recall: Wie viele der tatsächlich positiven Fälle hast du erwischt?

Predictive Analytics
Vorausschauende Analysen, die mit Hilfe von Daten und Modellen die Zukunft vorhersagen (z. B. Umsätze oder Trends).

Principal Component Analysis (PCA)
Ein beliebtes Dimensionsreduktionsverfahren, das neue Variablen (Komponenten) berechnet, die möglichst viel Varianz erklären.

Prompting
Das gezielte „Fragen“ oder „Befehle-Geben“ an ein Sprachmodell, damit es eine passende Antwort erzeugt (z. B. ChatGPT).

Q

Q-Learning
Reinforcement-Learning-Algorithmus, der abschätzt, wie gut eine Aktion in einem bestimmten Zustand ist (sogenannter Q-Wert).

Quantum AI
Verknüpft Quantencomputer und KI. Idee: Quantencomputer könnten komplexe KI-Aufgaben schneller lösen.

R

RAG (Retrieval Augmented Generation)
Ein Sprachmodell ruft externe Wissensquellen ab und fügt diese Infos in seinen Text ein. So entstehen bessere, informierte Antworten.

Random Forest
Ein Ensemble aus vielen Entscheidungsbäumen, die zusammen abstimmen, was die beste Vorhersage ist.

Recurrent Neural Network (RNN)
Netzwerk, das Eingaben nacheinander verarbeitet und Informationen im internen Zustand behält (wichtig für Sequenzen).

Regression
Wenn das Modell einen Zahlenwert vorhersagt, z. B. eine Temperatur oder einen Preis.

Regularization
Techniken (z. B. L1, L2, Dropout), die verhindern sollen, dass das Modell zu sehr auf seine Trainingsdaten „fixiert“ wird.

Reinforcement Learning
Lernen durch Belohnung: Ein Agent probiert Aktionen aus und bekommt Punkte (Rewards) dafür. Ziel: maximal viele Punkte sammeln.

Reinforcement Learning Environments
Die „Welten“, in denen ein RL-Agent agiert, z. B. Spiele oder reale Roboterumgebungen, um dort das Lernen zu üben.

ResNet
Eine Architektur, die sehr tiefe neuronale Netze trainierbar macht, indem sie den Ausgang wieder zurück zum Eingang schleift („Skip Connections“).

Residual Block
Baustein von ResNet: Die Eingabe einer Schicht wird zum Ausgang hinzuaddiert, damit wichtige Infos nicht „verloren“ gehen.

S

Self-Attention Mechanism
Grundlage moderner NLP-Modelle (Transformer). Jedes Wortelement guckt auf jedes andere Wort, um Zusammenhänge zu verstehen.

Self-supervised Learning
Lernverfahren, bei dem das Modell selbst Labels erzeugt (z. B. im Text maskierte Wörter zu erraten). Kein menschliches Labeling nötig.

Semi-supervised Learning
Mix aus gelabelten und ungelabelten Daten. Das Modell nutzt „viele“ ungekennzeichnete Daten und „lernt“ trotzdem, da es auch einige echte Labels hat.

Sentiment Analysis
Erkennen, ob ein Text eher positiv, negativ oder neutral ist, z. B. in Online-Bewertungen.

Siamese Network
Zwei parallele Netze mit identischen Gewichten, die lernen, wie ähnlich oder unähnlich zwei Eingaben sind (z. B. Bilder).

Sigmoid Activation Function
Eine Kurve, die Werte zwischen 0 und 1 ausgibt. Gut geeignet für binäre Entscheidungsprobleme.

Softmax Function
Verwandelt beliebige Zahlen in Wahrscheinlichkeiten, indem jeder Wert exponentiell erhöht und dann normalisiert wird.

Sparse Coding
Representationen, bei denen nur wenige „aktive“ Elemente nötig sind, um Daten zu beschreiben.

Sparse Data
Daten mit sehr vielen Lücken oder Nullen, z. B. in großen Tabellen, wo vieles fehlt.

Stochastic Gradient Descent (SGD)
Das Modell berechnet die Gradienten nicht für alle Daten auf einmal, sondern für kleine Zufallsportionen (Minibatches).

Structured Data
Daten, die in festen Zeilen und Spalten organisiert sind, z. B. in einer Excel-Tabelle.

Style Transfer
Den Stil eines Bildes (z. B. Van Gogh) auf ein anderes Bild übertragen, ohne dessen Motiv zu ändern.

Supervised Learning
Lernverfahren, bei dem alle Trainingsdaten ein passendes Label haben (z. B. „Hund“, „Katze“).

Support Vector Machine (SVM)
Klassisches ML-Modell, das versucht, eine optimale Trennlinie zwischen verschiedenen Klassen zu finden.

Synthetische Daten
Künstlich generierte Daten, die echten Daten ähneln, aber keine echten persönlichen Infos enthalten.

Synthetic Data
Dasselbe auf Englisch. Gemeint sind ebenfalls künstlich erstellte Daten.

Synthetic Data Generation
Prozess, bei dem mithilfe von KI neue, künstliche Daten erzeugt werden, um Lücken zu schließen oder Privatsphäre zu schützen.

T

Target Variable
Das Merkmal (Label), das ein Modell vorhersagt (z. B. Kategorie oder Preis).

Temporal Difference Learning
Reinforcement-Learning-Verfahren, das die Belohnung (Reward) „schrittweise“ berechnet, ohne das Ende eines Spiels abzuwarten.

Test Dataset
Extra-Daten, die man erst nach dem Training nutzt, um zu prüfen, wie gut das Modell wirklich ist.

Tokenization
Zerteilen eines Texts in kleinere Einheiten (Tokens), damit das Modell einzelne Teile besser verarbeiten kann.

Training Dataset
Alle Daten, die das Modell während des Trainings sieht. Hier passen sich die Gewichte an.

Transfer Learning
Man nutzt ein vortrainiertes Modell und passt es mit wenig Aufwand an eine neue Aufgabe an.

Transformer Model
Grundlage moderner NLP-Systeme (z. B. GPT). Nutzt Self-Attention, um Wörter in einem Text in Relation zueinander zu setzen.

TTS (Text-to-Speech)
Verfahren, das Text automatisch vorliest. So entsteht Sprache aus geschriebenen Wörtern (z. B. für Sprachassistenten).

Turing-Test
Ein menschlicher Tester unterhält sich (z. B. per Chat) und weiß nicht, ob die Antworten von Mensch oder Maschine kommen. Gelingt die Täuschung, hat die KI den Test bestanden.

U

Underfitting
Das Modell hat zu wenig gelernt und erkennt die Muster nicht gut genug.

Uncertainty Estimation
Das Modell schätzt, wie sicher oder unsicher es ist. So weiß man, ob man dem Ergebnis vertrauen kann.

Unsupervised Learning
Das Modell hat keine Labels; es sucht von alleine Strukturen oder Gruppen in den Daten.

V

Validation Dataset
Daten, die beim Training helfen, die richtigen Einstellungen (z. B. Hyperparameter) zu finden, ohne die finalen Testdaten anzurühren.

Vanishing Gradient Problem
In sehr tiefen Netzen werden die Gradienten bei den vorderen Schichten winzig, sodass das Training kaum noch Änderungen bewirkt.

Variational Autoencoder (VAE)
Ein Modell, das Daten in eine „latente“ Form komprimiert und daraus wieder rekonstruiert – wird oft zum Erzeugen neuer Daten genutzt.

Variational Inference
Statistisches Verfahren, das komplizierte Verteilungen durch einfacher zu handhabende „annähert“.

Virtual Assistant
Ein Programm, das auf deine Sprachbefehle reagiert und dir weiterhilft (z. B. Siri, Alexa).

Voice Recognition
Das Umwandeln von gesprochener Sprache in Text (Speech-to-Text).

W

Weak AI
Ein anderes Wort für spezialisiertes KI-System (ANI), das nur eine eng umrissene Aufgabe erledigen kann.

Weight Initialization
Der Startpunkt der Gewichte in einem neuronalen Netz. Gute Startwerte helfen, schneller und stabiler zu lernen.

Weighted Sum
Die Summe der Eingaben, multipliziert mit ihren Gewichten – Grundoperation in jedem künstlichen Neuron.

Word Embedding
Ein Vektor, der einem Wort zugeordnet wird, sodass ähnliche Wörter nahe beieinander liegen.

Word2Vec
Bekannte Technik, um solche Word Embeddings zu erstellen.

Z

Zero-shot Learning
Das Modell erkennt neue Klassen oder Konzepte, ohne zuvor Beispiele davon gesehen zu haben – es nutzt allgemeines Vorwissen.


Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert