(Bearbeitungszeit: 1.September 2025 – 13.September 2025)
KONTAKT : info@oksimo.org
Dieser Text gehört zur Seite ‚Mensch & KI: Risiko oder Chance‘

AKTUELLE KI-Chatbots 2025
(Letzte Änderung: 1.Sept. 2025)
Kurzer Überblick über die 10 am meisten genutzen Chatbots weltweit (ohne China)
Glossar von Abkürzungen (Mit Links)
- API – Application Programming Interface
Schnittstelle, über die Software-Komponenten miteinander kommunizieren können (z. B. für Dateizugriff oder externe Dienste). - FP8 – Floating Point 8-bit
Ein komprimiertes Zahlenformat (nur 8 Bit) für schnellere und speichersparendere Berechnungen beim Training von LLMs.- GPT – Generative Pre-trained Transformer : https://en.wikipedia.org/wiki/Generative_pre-trained_transformer
Modellreihe von OpenAI; „pre-trained“ heißt: vortrainiert auf großen Textmengen; „transformer“ bezeichnet die Architektur.- Transformer (deep learning architecture): https://en.wikipedia.org/wiki/Transformer_(deep_learning_architecture)
- Attention (machine learning): https://en.wikipedia.org/wiki/Attention_(machine_learning)
- Task-specific models: Teil von GPT – https://en.wikipedia.org/wiki/Generative_pre-trained_transformer
- GPT – Generative Pre-trained Transformer : https://en.wikipedia.org/wiki/Generative_pre-trained_transformer
- LLM – Large Language Model
Sprachmodell mit sehr vielen Parametern (meist Milliarden), trainiert auf großen Textkorpora, Grundlage fast aller modernen Chatbots. - https://en.wikipedia.org/wiki/Large_language_model
- https://transformer-circuits.pub/2025/attribution-graphs/biology.html#dives-poems%7Ctitle=On
- LLaMA – Large Language Model Meta AI
Open-Source-Modellreihe von Meta, dient häufig als Basis für andere Modelle (z. B. Sonar in Perplexity) - MLA – Multi-head Latent Attention
Architektur-Variante von DeepSeek: Effiziente Aufmerksamkeitsschicht (Attention) für parallele Verarbeitung. - MoE – Mixture of Experts
Architektur, bei der nicht alle Parameter gleichzeitig genutzt werden, sondern spezialisierte „Experten“-Subnetze je nach Aufgabe aktiviert werden → spart Rechenressourcen. - https://en.wikipedia.org/wiki/Mixture_of_experts
- R1 – DeepSeek Reasoning Model, Version 1
Eine spezielle Modellreihe von DeepSeek, trainiert für komplexes logisches Denken (reasoning). - RL – Reinforcement Learning
Lernmethode, bei der ein Modell durch Belohnung/Bestrafung optimiert wird (ähnlich wie Versuch & Irrtum). - RLHF – Reinforcement Learning from Human Feedback
Trainingstechnik: Menschen bewerten Modellantworten, und diese Rückmeldungen werden als Belohnungssignal für RL genutzt. - https://en.wikipedia.org/wiki/Fine-tuning_(deep_learning)
- https://en.wikipedia.org/wiki/Reinforcement_learning_from_human_feedback
- RoPE – Rotary Positional Embedding
Mathematische Technik, um Reihenfolge (Positionen) in Transformer-Modellen effizient darzustellen. - RMSNorm – Root Mean Square Normalization
Normalisierungsmethode innerhalb neuronaler Netze, die Rechenstabilität verbessert (Alternative zu LayerNorm). - SFT – Supervised Fine-Tuning
Nachtraining eines Modells mit klar beschrifteten Beispielen (z. B. Frage-Antwort-Paare), um gewünschtes Verhalten zu verstärken. - https://en.wikipedia.org/wiki/Supervised_learning
- Transformer: https://en.wikipedia.org/wiki/Transformer_(deep_learning_architecture) und darauf aufbauend Generative pre-trained transformer (GPT): https://en.wikipedia.org/wiki/Generative_pre-trained_transformer
- SwiGLU – Swish-Gated Linear Unit
Aktivierungsfunktion in neuronalen Netzen, die oft bessere Leistung als Standardfunktionen (ReLU, GELU) bringt.