(Bearbeitungszeit: 1.September 2025 – 13.September 2025)
Auf dieser Seite wird verschiedenes Material gesammelt, auf welches die verschiedenen Beiträge des Themenbereichs ‚Mensch & KI : Risiko oder Chance‘ Bezug nehmen.
–!! Achtung : Dieses Material stellt keinen Artikel dar, sondern ist eine Materialsammlung, die sich immer weiter verändern kann, zumindest noch bis zum ausstehenden Bericht (bzw. dann auch bi zu einem Artikel) (10.9.25, 09:45h)!!–
KONTAKT : info@oksimo.org
Dieser Text gehört zur Seite ‚Mensch & KI: Risiko oder Chance‘

AKTUELLE KI-Chatbots 2025
(Letzte Änderung: 1.Sept. 2025)
Kurzer Überblick über die 10 am meisten genutzen Chatbots weltweit (ohne China)
Hinweis: Es gab hier noch weitere Links zu verschiedenen Materialsammlungen. Diese wurden wieder gelöscht, da sie in ihrer Gesamtheit eher ‚verwirrt‘ haben als ‚geklärt‘. Der entscheidende Text ist jetzt der „ERWEITERTER BERICHT ZUM VORTRAG : Wie denkt chatGPT?“
Glossar von Abkürzungen (Mit Links)
- API – Application Programming Interface
Schnittstelle, über die Software-Komponenten miteinander kommunizieren können (z. B. für Dateizugriff oder externe Dienste). - FP8 – Floating Point 8-bit
Ein komprimiertes Zahlenformat (nur 8 Bit) für schnellere und speichersparendere Berechnungen beim Training von LLMs.- GPT – Generative Pre-trained Transformer : https://en.wikipedia.org/wiki/Generative_pre-trained_transformer
Modellreihe von OpenAI; „pre-trained“ heißt: vortrainiert auf großen Textmengen; „transformer“ bezeichnet die Architektur.- Transformer (deep learning architecture): https://en.wikipedia.org/wiki/Transformer_(deep_learning_architecture)
- Attention (machine learning): https://en.wikipedia.org/wiki/Attention_(machine_learning)
- Task-specific models: Teil von GPT – https://en.wikipedia.org/wiki/Generative_pre-trained_transformer
- GPT – Generative Pre-trained Transformer : https://en.wikipedia.org/wiki/Generative_pre-trained_transformer
- LLM – Large Language Model
Sprachmodell mit sehr vielen Parametern (meist Milliarden), trainiert auf großen Textkorpora, Grundlage fast aller modernen Chatbots. - https://en.wikipedia.org/wiki/Large_language_model
- https://transformer-circuits.pub/2025/attribution-graphs/biology.html#dives-poems%7Ctitle=On
- LLaMA – Large Language Model Meta AI
Open-Source-Modellreihe von Meta, dient häufig als Basis für andere Modelle (z. B. Sonar in Perplexity) - MLA – Multi-head Latent Attention
Architektur-Variante von DeepSeek: Effiziente Aufmerksamkeitsschicht (Attention) für parallele Verarbeitung. - MoE – Mixture of Experts
Architektur, bei der nicht alle Parameter gleichzeitig genutzt werden, sondern spezialisierte „Experten“-Subnetze je nach Aufgabe aktiviert werden → spart Rechenressourcen. - https://en.wikipedia.org/wiki/Mixture_of_experts
- R1 – DeepSeek Reasoning Model, Version 1
Eine spezielle Modellreihe von DeepSeek, trainiert für komplexes logisches Denken (reasoning). - RL – Reinforcement Learning
Lernmethode, bei der ein Modell durch Belohnung/Bestrafung optimiert wird (ähnlich wie Versuch & Irrtum). - RLHF – Reinforcement Learning from Human Feedback
Trainingstechnik: Menschen bewerten Modellantworten, und diese Rückmeldungen werden als Belohnungssignal für RL genutzt. - https://en.wikipedia.org/wiki/Fine-tuning_(deep_learning)
- https://en.wikipedia.org/wiki/Reinforcement_learning_from_human_feedback
- RoPE – Rotary Positional Embedding
Mathematische Technik, um Reihenfolge (Positionen) in Transformer-Modellen effizient darzustellen. - RMSNorm – Root Mean Square Normalization
Normalisierungsmethode innerhalb neuronaler Netze, die Rechenstabilität verbessert (Alternative zu LayerNorm). - SFT – Supervised Fine-Tuning
Nachtraining eines Modells mit klar beschrifteten Beispielen (z. B. Frage-Antwort-Paare), um gewünschtes Verhalten zu verstärken. - https://en.wikipedia.org/wiki/Supervised_learning
- Transformer: https://en.wikipedia.org/wiki/Transformer_(deep_learning_architecture) und darauf aufbauend Generative pre-trained transformer (GPT): https://en.wikipedia.org/wiki/Generative_pre-trained_transformer
- SwiGLU – Swish-Gated Linear Unit
Aktivierungsfunktion in neuronalen Netzen, die oft bessere Leistung als Standardfunktionen (ReLU, GELU) bringt.