Kompaktes Nachschlagewerk rund um Künstliche Intelligenz als historisch ältester Begriff: KI ist das übergeordnete Feld, das sich mit der Schaffung von Maschinen und Systemen befasst, die Aufgaben ausführen können, für die normalerweise menschliche Intelligenz erforderlich ist.

Dazu zählen als Technologien im Kern

  1. Maschinelles Lernen (Machine Learning)
  2. Neuronale Netze (Neural Networks)
  3. Mehrschichtiges Lernen (Deep Learning)

Die einzelnen Fachbegriffe bzw. wichtigsten Marktplayer und deren KI Produkte:

A

  • A2A Protocol (Agent-to-Agent Protocol): Ein Kommunikationsprotokoll, das speziell für die Interaktion zwischen Agenten von Google entwickelt wurde.
  • ACI Agent-Computer Interface: Schnittstelle, die es einem autonomen Software-Agenten ermöglicht, direkt mit einem Computersystem zu interagieren, um komplexe Aufgaben zu lösen. In Analogie zu GUI Grafische Benutzeroberfläche: Für Menschen gemacht.
  • ADK: Quelloffenes Multi-Agenten-Framework von Google, das seit dem Jahr 2025 Entwicklern zur Verfügung gestellt wird.
  • Anomalieerkennung (Anomaly Detection): Verfahren zum Aufspüren ungewöhnlicher, potenziell fehlerhafter oder betrügerischer Muster in Daten.
  • AP2 (Agent Payments Protocol): Offenes Protokoll, das als neue „Vertrauensebene“ für Agenten-Transaktionen dient. Manipulationssichere, kryptographisch signierte Verträge, die einen prüfbaren Nachweis der Anweisungen liefern.
  • ART – Adaptive Resonanz­theorie: Architektur für neuronale Netze, die neue Muster lernen kann, ohne bereits Gelerntes zu überschreiben (stabile inkrementelle Lernfähigkeit).
  • Aufmerksamkeitsmechanismus (Attention Mechanism): Ermöglicht es einem LLM, die Wichtigkeit verschiedener Tokens in einer Sequenz abzuwägen. Berechnung von Ähnlichkeitswerten zwischen „Query“-, „Key“- und „Value“-Vektoren, um sich auf relevante Teile des Inputs zu konzentrieren.
  • Automatic Reasoning: Ableitung neuer Fakten oder Entscheidungen aus vorhandenen Regeln/Aussagen durch logische Schlussverfahren.
  • Automatisierte Programmierung (Automated Programming): Systeme, die Quellcode oder Algorithmen eigenständig erzeugen oder anpassen.
  • Autoregressive Modelle (Autoregressive Models): Modelle wie GPT, die Tokens sequenziell auf der Grundlage vorhergehender Tokens vorhersagen.

B

  • BoW – Bag of Words: Eine Methode, um eine Sammlung von Dokumenten in Merkmalsvektoren umzuwandeln.
  • Bias: Ein Parameter in einem Machine-Learning-Modell, auch Intercept, konstanter Term oder Bias-Term genannt. Er verschiebt den Graphen einer Funktion vertikal.
  • Backpropagation: Ein Algorithmus, der das Training von neuronalen Netzen ermöglicht, indem er Differenzierungsregeln (insbesondere die Kettenregel) anwendet, um Gradienten durch tiefe zusammengesetzte Funktionen zu berechnen.
  • Boltzmann-Maschine (Boltzmann Machine): Stochastisches neuronales Netz, das Wahrscheinlichkeitsverteilungen modelliert und oft zum Vortrainieren tiefer Netze eingesetzt wurde.
  • BPE – Byte-Pair Encoding: Ein Tokenisierungsalgorithmus, der Wörter in kleinere Einheiten, sogenannte Subwords, zerlegt, um das Problem von Wörtern außerhalb des Vokabulars zu lösen.

C

  • Claude: Ein Familie großer Sprachmodelle, die von dem amerikanischen KI-Forschungsunternehmen Anthropic seit dem Jahr 2021 entwickelt werden.
  • CoT – Chain of Thought: Eine Technik, bei der große Sprachmodelle trainiert werden, eine explizite Kette von Gedankenschritten zu generieren, um komplexe Aufgaben schrittweise zu lösen.
  • CNN – Convolutional Neural Network: Neuronales Netz mit Faltungsschichten; extrahiert hierarchische Merkmale, besonders effektiv für Bild- und Video­verarbeitung.
  • CrewAI: Open-Source Multi-Agenten-Framework in der Programmiersprache Python.

D

  • Decision Tree (Entscheidungs­baum): Baumstruktur, die Daten durch aufeinanderfolgende Abfragen in Klassen/Regressionswerte aufteilt.
  • Deepseek: Ein in 2023 gegründetes chinesisches KI-Unternehmen, das sich darauf spezialisiert hat, große Sprach- und Code­modelle („open-weight LLMs“) kostenlos oder zu sehr niedrigen Preisen bereitzustellen.
  • Deep Autoencoder: Tiefer Autoencoder mit symmetrischem Encoder-Decoder-Aufbau; reduziert Dimensionalität und rekonstruiert Daten.
  • DBN – Deep Belief Network: Mehrere gestapelte (Restricted) Boltzmann-Maschinen; lernt schichtenweise Merkmale und dient oft als Vortraining für tiefe Netze.
  • Deep Learning: Teilgebiet des maschinellen Lernens, das tiefe neuronale Netze (viele Schichten) nutzt, um hoch­komplexe Muster in großen Datenmengen zu lernen.
  • Deep Reinforcement Learning: Kombination von Verstärkendem Lernen mit tiefen Netzen; der Agent erlernt optimale Handlungen in komplexen, hochdimensionalen Umgebungen.
  • Distillation: Schlüsseltechnik, um die Power großer Sprachmodelle praktikabel, kosteneffizient und alltagstauglich zu machen. Vergleich: Lehrer (das große Modell) und Schüler (das kleine Modell). Der Lehrer verfügt über umfassendes Wissen und hohe Fähigkeiten. Ziel der Distillation ist es, den Schüler so zu trainieren, dass er die Fähigkeiten des Lehrers nachahmt, aber viel schneller und kostengünstiger arbeitet.

E

  • Ensemble-Methode (Ensemble Methods): Kombination mehrerer Modelle (z. B. Random Forest, Boosting), um Genauigkeit und Robustheit zu steigern.
  • Embeddings: Dichte Vektoren, die Tokens in einem kontinuierlichen Raum darstellen und dabei ihre semantischen und syntaktischen Eigenschaften erfassen.
  • Encoder: Der Teil eines Transformer- oder Seq2Seq-Modells, der die Eingabesequenz verarbeitet und in eine abstrakte, kontextreiche Repräsentation umwandelt. Nach dem Vortraining wird er oft als universeller Merkmalsextraktor wiederverwendet.
  • Expertensystem (Expert System): Regelbasiertes KI-System, das das Expertenwissen eines Fachgebiets kodiert und Schlussfolgerungen zieht.

F

  • Few-Shot Learning: Lernverfahren, bei denen ein Modell mit nur sehr wenigen Beispiel­daten (1-10 pro Klasse) in der Lage ist, neue Aufgaben zu lösen.
  • Foundation Models: Modelle, die auf sehr breiten Daten vortrainiert wurden und als Grundlage für eine Vielzahl von spezialisierten Aufgaben dienen können. Dazu gehören Sprach-, Bild-, generative und multimodale Modelle.

G

  • GAN – Generative Adversarial Network: Zwei Netze (Generator & Diskriminator) in Wettbewerb; Generator erzeugt realistisch wirkende Daten (Bilder, Audio u. a.).
  • Gemini: Familie multimodaler Large-Language-Modelle von Google DeepMind. Sie tritt die Nachfolge von PaLM 2/LAM-DA an.
  • GPT – Generative Pretrained Transformer: Sprachmodelle auf Basis der Transformer-Architektur; lernen kontextabhängige Repräsentationen und ermöglichen Textverständnis bzw. -generierung.
  • Grok: LLM Familie von xAI (Elon Musk), veröffentlicht seit November 2023 mit zahlreichen Kontroversen und Kritiken.

H

  • Hopfield-Netz (Hopfield Network): Rekurrentes binäres Netz, das als assoziativer Speicher arbeitet; erinnert sich an zuvor eingeprägte Muster.

I

  • Inferenz: Ausführungs‑ bzw. Nutzungsphase eines bereits trainierten KI‑Modells.
  • Intelligente Robotik (Intelligent Robotics): Integration von KI-Methoden in Robotern, um Wahrnehmung, Planung und Handlungen autonom auszuführen.

K

  • Kimi: Markenname der Chat‑App und der zugrundeliegenden LLM Familie des chinesischen Startups Moonshot AI mit besonderem Fokus auf Agentic AI und einem Open-Source Ansatz.
  • K-Means-Clustering: Unüberwachtes Lernverfahren, das Daten in K Gruppen aufteilt, um innerhalb einer Gruppe Ähnlichkeiten zu maximieren.
  • KNN – K-Nächste Nachbarn (K-Nearest Neighbors): Instanzbasiertes Verfahren; neue Beobachtungen werden gemäß der Klassen ihrer K nächsten Trainingspunkte eingestuft.
  • Knowledge Representation (Wissensrepräsentation): Formale Darstellung von Fakten, Regeln und Beziehungen, sodass KI-Systeme darauf schlussfolgern können.
  • Kontext (Context): Die vorangehende Sequenz von Token, auf deren Grundlage ein Sprachmodell das nächste Token vorhersagt.
  • Kontextfenster (Context Window): Die maximale Anzahl von Token, die ein modernes Sprachmodell auf einmal verarbeiten kann. Es begrenzt, wie weit voneinander entfernt das Modell Beziehungen im Text verbinden kann

L

  • Langchain: Open-Source-Framework, das die Entwicklung von Anwendungen mit LLMs vereinfacht. Eine Art Baukasten für die Verkettung verschiedener Module für anspruchsvolle Aufgaben.
  • Lineare/Logistische Regression: Lineare Modelle zur Vorhersage kontinuierlicher (linear) oder binärer (logistisch) Zielgrößen.
  • LLaMA: LLaMA ist eine Reihe von Großen Sprachmodellen (LLMs) des Meta Konzerns, veröffentlicht seit dem Jahr 2023.
  • LLM Large Language Model: Ein Sprachmodell, das sich durch eine große Anzahl von Parametern, große Kontextfenster und das Training auf riesigen Korpora auszeichnet.
  • LMRM Large Multimodal Reasoning Models: Ein KI-Paradigma, das mehrere Modalitäten wie Text, Bilder, Audio und Video integriert, um komplexe Schlussfolgerungsfähigkeiten zu unterstützen.
  • LSTM – Long Short-Term Memory Netz: Spezialform von RNNs mit Speicherzellen und Toren; verarbeitet lange Sequenzen, ohne den Gradient zu verlieren.

M

  • MCoT – Multimodal Chain-of-Thought: Eine Methode, die implizites Schlussfolgern in explizite Zwischenschritte umwandelt.
  • MCP Model Context Protocol: Offener Standard von Anthropic, der es seit dem Jahr 2024 LLM‑Agenten erlaubt, sicher und standardisiert auf externe Tools, Datenquellen und Dienste zuzugreifen.
  • Maschinelles Lernen (Machine Learning): Oberbegriff für Methoden, die aus Daten Muster erkennen und Prognosen treffen, ohne explizit programmiert zu sein.
  • MoE Mixture of Experts: Leistungsstarke Architektur für neuronale Netze. Statt ein einziges, monolithisches KI-Modell für alle Aufgaben einzusetzen, zerlegt die MoE-Architektur ein Problem in kleinere, handhabbare Teile und weist diese spezialisierten Untermodellen den sogenannten Experten zu.
  • Modulares Neuronales Netz (Modular Neural Network): Sammlung unabhängiger Netz-Module, deren Ausgaben zu einer Gesamtlösung kombiniert werden.
  • MLP – Multilayer Perceptron: Feed-forward-Netz mit mindestens einer versteckten Schicht; kann nichtlineare Beziehungen modellieren.

N

  • Naive-Bayes-Klassifikation: Wahrscheinlichkeitsbasiertes Modell, das (stark) bedingte Unabhängigkeiten zwischen Merkmalen annimmt.
  • Neuronales Netz (Neural Network): Rechenmodell aus miteinander verknüpften, gewichteten Knoten („Neuronen“), das Daten durch Lernen von Gewichten verarbeitet.
  • NSP - Next Sentence Prediction: Eine Trainingsaufgabe, bei der ein Modell lernt zu bestimmen, ob zwei Sätze aufeinanderfolgen oder nicht.
  • NLL - Negative Log Likelihood: Der negative Logarithmus der Wahrscheinlichkeiten, die ein Sprachmodell zuweist. Sie dient sowohl als Verlustfunktion während des Trainings als auch als Bewertungsmaßstab für die Vorhersagegüte eines Modells
  • NLP – Natural Language Processing: KI-Techniken, die natürliche Sprache analysieren, verstehen und generieren.

O

  • OpenAI Agents SDK: Open-Source Agenten Kit – als Python‑Bibliothek und als JavaScript/TypeScript‑Variante verfügbar seit dem Jahr 2025.
  • Open Weight LLM: Ein großes KI-Sprachmodell wie Deepseek R1, bei dem die trainierten Modellgewichte öffentlich verfügbar gemacht werden – im Gegensatz zu rein proprietären Modellen wie GPT-4, Gemini oder Claude.
  • Ollama: Open-Source Paketmanager für die lokale Ausführung von LLMs auf Windows, macOS oder Linux – ohne Cloud, API-Key oder Internetverbindung.
  • OOV Out-of-Vocabulary Words: Wörter, die nicht im Vokabular des Modells enthalten sind. LLMs verwenden Subword-Tokenisierung, um diese Wörter in bekannte Untereinheiten zu zerlegen und sie dennoch verarbeiten zu können

P

  • Planung & Terminierung (Planning and Scheduling): Algorithmen zur Festlegung optimaler Aktionen/Reihenfolgen, um Ziele unter Nebenbedingungen zu erreichen.
  • PCA – Principal Component Analysis: Verfahren zur Dimensionsreduktion; projiziert Daten auf orthogonale Hauptkomponenten mit maximaler Varianz.
  • Problemlösen & Suchstrategien (Problem Solving & Search): Systematisches Durchsuchen eines Lösungsraums (z. B. A*, Min-Max), um optimale oder zulässige Lösungen zu finden.

Q

  • QWEN: LLM Familie des chinesischen Technologiekonzerns Alibaba, veröffentlicht seit April 2023 im Open-Source Ansatz.

R

  • RAG – Retrieval-Augmented Generation: Architektur zur Reduzierung von Halluzinationen, bei der die Antworten eines Modells durch Einbeziehung relevanter sachlicher Kontexte (Datenbanken, Dokuemtensammlungen...) direkt im Prompt auf verifizierten Informationen verankert werden.
  • Random Forest: Ensemble aus Entscheidungsbäumen, der das Overfitting bei Entscheidungsbäumen behebt, indem er mehrere Bäume auf zufälligen Teilmengen der Daten erstellt und deren Ausgaben kombiniert.
  • RBFN –Radial Basis Function Network: Netz mit einer verborgenen RBF-Schicht; modelliert lokale Regionen im Merkmalsraum.
  • Reinforcement Learning (Verstärkendes Lernen): Lernparadigma, bei dem ein Agent durch Belohnungen/Bestrafungen eine Strategie zum Handeln erlernt.
  • RLHF Reinforcement Learning from Human Feedback: Eine Methode zur Anpassung von LLMs, bei der menschliche Präferenzen genutzt werden, um ein Belohnungsmodell (Reward Model) zu trainieren. Das LLM wird optimiert, um Antworten zu generieren, die die vom Belohnungsmodell vorhergesagte Punktzahl maximieren.
  • RLVR Reinforcement Learning with Verifiable Rewards: Machine Learning Methode zur Feinabstimmung von LLMs mit Belohnungen, die objektiv und automatisch überprüft werden können.
  • RNN – Recurrent Neural Network: Netze mit Rückkopplungen, die Sequenzabhängigkeiten modellieren (Text, Zeitreihen).

S

  • Scaling Laws: Bezieht sich auf empirisch beobachtete Muster, wie den Leistungszuwachs von LLMs in Abhängigkeit von Datenmenge, Parametern und Rechenressourcen.
  • Seq2Seq (Sequence-to-Sequence): Modell­paradigma, bei dem eine Eingabe­sequenz beliebiger Länge in eine Ausgabe­sequenz (ebenfalls beliebiger Länge) transformiert wird.
  • SOM – Self-Organizing Map: Unüberwachtes Netz, das hochdimensionale Daten auf eine niedrigdimensionale (meist 2D-) Karte abbildet und Cluster sichtbar macht.
  • Spracherkennung (Speech Recognition): Umwandlung von gesprochener Sprache in Text; nutzt akustische Modelle, Sprachmodelle und oft Deep Learning.
  • SVM – Support Vector Machine: Klassifikations-/Regressionsverfahren, das optimale Trennhyper­ebenen mit maximalem Rand findet.
  • Symbolische KI (Symbolic AI): Ein Zweig der KI-Forschung, der auch als "gute alte KI" (GOFAI) bezeichnet wird und sich auf explizit kodierte Regeln und Symbole zur Darstellung von Wissen und Logik stützt.
  • Subword Tokenization: Techniken wie Byte-Pair Encoding, die Wörter in kleinere, bekannte Einheiten (Subwörter) zerlegen. Siehe OCV.

T

  • Tensor: Die Kerndatenstrukturen von PyTorch; mehrdimensionale Arrays, die für Berechnungen auf CPU und GPU optimiert sind und automatische Differenzierung unterstützen.
  • Temperatur (Temperature): Ein Hyperparameter, der die Zufälligkeit der Token-Auswahl bei der Textgenerierung steuert. Eine niedrige Temperatur führt zu vorhersagbareren Ausgaben, während eine hohe Temperatur die Kreativität und Vielfalt erhöht.
  • Transformer: Architektur, die auf Selbstaufmerksamkeit (Self-Attention) basiert; ersetzt RNN/CNN in vielen Sequenzaufgaben.

V

  • Visuelle Wahrnehmung (Visual Perception): Computergestützte Analyse von Bildern/Videos zur Szenen-, Objekt- oder Bewegungserkennung.

Z

  • ZSL - Zero-Shot Learning: Ein Ansatz im maschinellen Lernen, bei dem ein Modell Aufgaben korrekt ausführt, obwohl es dafür keine expliziten Trainingsbeispiele gesehen hat.