Wer mehr verstehen wollte, wie ChatGPT eigentlich tickt, oder vertrauter ‚Wie denkt ChatGPT?, der konnte am 3.September 2025 tatsächlich einen ersten Einstieg finden. In lockerer Weise zeigte Prof. Dr. Gerd Doeben-Henisch auf, wie ChatGPT als Bindeglied zwischen seinen sprachlichen Eingaben und Ausgaben Sprache vollständig in ein Meer von Zahlen verwandelt, in dem er jede Menge von Rechenoperationen durchführt. Auf die Details wurde im Vortrag verzichtet (es gab Literaturhinweise). Die grundsätzliche Arbeitsweise wurde dennoch soweit klar, dass man eine Ahnung davon bekommen konnte, warum er so antwortet, wie er antwortet. Alle sagten, dass sie dies so vorher noch nie gesehen hatten. Im Lichte dieses neuen ‚Hintergrundwissens‘ wirkte dann der Live-Chat mit chatGPT am Ende der Veranstaltung schon sehr beeindruckend: auf die Frage nach der Verantwortung eines Hausbesitzers für mögliche Unfälle auf dem Gehweg vor dem Haus lieferte ChatGPT ausführlichste Antworten, auch mit direkten Zitaten aus der Straßenreinigungssatzung der Gemeinde Schöneck (PLZ 61137). Wie immer, war die Zeit zum Schluß ‚zu kurz‘.
Zur Veranstaltung am 3.September 2025 gibt es jetzt einen sehr ausführlichen Bericht, in dem die Themen und Beispiele des Abends verständlich und spannend beschrieben werden, dazu auch weiterführende und grundlegende Überlegungen zur Wirkung von KI weltweit. Für den Bericht siehe hier [1]
Wer weiter im Thema bleiben will, der hat die Gelegenheit am Dienstag, den 21.Oktober 2025 im Bürgertreff von Schöneck-Kilianstädten, weitere spannende Dinge zu erfahren.
Hinweis: Die beiden Veranstaltungen zu ‚Mensch & KI‘ am 6.August und am 3.September fanden auf Einladung des Ortsvereins von ‚Bündnis90/Die Grünen‘ statt, in Kooperation mit BiG.
NEWS ZU BIG
im letzten BiG-Rundbrief vom 3.Sept 2025 [2] wurde darauf hingewiesen, dass innerhalb von BiG ein intensiver Gedankenaustausch stattfindet zur Frage, ob wir mit BiG so weiter arbeiten sollten wie bisher oder ob wir doch das eine oder andere ändern sollten. Nach gut zweieinhalb Jahren BiG mit vielen interessanten Erfahrungen waren diese Überlegungen nicht überraschend. Gerd Doeben-Henisch, der Initiator und Koordinator von BiG hat jetzt mit einer grundlegenden Unterscheidung, dass BiG keine ‚Organisation‘ ist sondern ein ‚Konzept‘, welches Anforderungen formuliert, die eine Gruppe erfüllen sollte, wenn sie sich als ‚BiG-Gruppe‘ verstehen will, einen entscheidenden Impuls gesetzt. Ausführlich nachzulesen auf dieser Seite [3]. Mit dieser Formatierung ist eine BiG-Gruppe nicht mehr auf einen Ort alleine beschränkt. Es kann jetzt überall in Deutschland BiG-Gruppen geben. Auch die Form der Organisation einer Gruppe ist völlig offen.
Gerd Doeben-Henisch ist Bürger von Schöneck, emeritierter Informatik-Prof. der Frankfurt University of Applied Sciences und ist Mitglied im Vorstand der Grünen Schöneck.
!!! Hinweis: Emails an die Adresse big@oksimo.org landen NICHT automatisch auf dem Verteiler. Dieser ist geschützt, auch wegen der ausdrücklichen Bitte einzelner, ihre Adressen zu schützen !!!
Man kann mit der BiG-Email-Liste kommunizieren, indem man in den BETREFF Schlüsselworte einfügt:
LISTE START : Anmelden zur BiG-Email-Liste
LISTE STOP : Abmelden von der Liste
ALLE : Ihr eigener Text darf an alle Teilnehmer weitergeleitet werden
Hier ausnahmsweise eine sehr kurzfristige Veranstaltungsinfo für heute Abend Mi, 3.September 2025, 20-22h (!) im Bürgertreff Kilianstädten und erste NEWs zu anstehenden Veränderungen bei BiG.
WIE DENKT CHATGPT?
Im Rahmen der Veranstaltungsreihe ‚Mensch & KI : Risiko oder Chance?‘ findet heute Abend im Bürgertreff Kilianstädten 20-22h die zweite Veranstaltung statt. In Ihr kann man lernen, wie eine generative KI ‚denkt‘ und wie dies im Vergleich zu uns Menschen aussieht. Es gibt dazu Beispiele und kleine Experimente.
Angesichts der Tatsache, dass die generativen KIs mittlerweile überall zu finden sind und viele damit täglich arbeiten müssen, kann es interessant sein, ein wenig ‚hinter die Oberfläche‘ zu schauen. Schon jetzt sind die feststellbaren Änderungen in unserer Gesellschaft durch diese neuen KIs massiv und eine Auseinandersetzung mit dieser neuen Technologiewirklichkeit ist keine Zeitverschwendung. Wo führt uns dies alles hin?
Es ist angedacht, im Rahmen weiterer Veranstaltung anhand konkreter Beispiele aus der Gemeinde zu untersuchen, ob diese neue Technologie uns bei der Erfüllung von wichtigen Zukunftsaufgaben helfen kann.
NEWS ZU BIG
Seit einiger Zeit ist BiG in Bewegung geraten, sich möglicherweise ein neues Format zu geben. Bisher haben die einzelnen BiG-Themengruppen sich — initiiert von Gerd Doeben-Hensich – in lockerer Form über den Blog ‚oksimo.org‘ mit der eigenen Webseite ‚https://www.oksimo.org/start-buerger-im-gespraech-big/‘ organisiert. Dabei haben wir eine Menge Dinge gelernt. Es entstand aber dennoch der Eindruck, dass wir noch ‚beweglicher‘ sein könnten oder gar sollten. Die Idee von BiG (Bürger im Gespräch) ist ja nicht an eine bestimmte Form gebunden. Seit einigen Monaten werden verschiedene Gedanken durchgespielt. Die zwei Hauptkandidaten bislang sind (1) BiG-Themengruppen arbeiten unabhängig von jeder politischen Partei und (2) BiG-Themengruppen nehmen den §1.2 des Deutschen Parteiengesetzes ernst und arbeiten in enger Kooperation mit einer — oder mehreren? — der demokratischen Parteien von Schöneck zusammen. Dies würde die Unabhängigkeit der verschiedenen BiG-Themengruppen nicht wesentlich beeinflussen (siehe §1.2); sie können sich trotzdem beliebig untereinander zusammen schließen. Dies ergibt sich auch schon daraus, dass ‚Sachthemen, die alle betreffen‘, in der Regel unabhängig von jedem Parteiprogramm sind.
Wir versuchen, den Klärungsprozess bis spätestens Ende Oktober abzuschließen.
Herzliche Grüße,
Gerd Doeben-Henisch
(Initiator und Koordinator von BiG)
0151-727 45 601
BiG versteht sich als überparteilich und nicht konfessionell
Gerd Doeben-Henisch ist Bürger von Schöneck, emeritierter Informatik-Prof. der Frankfurt University of Applied Sciences und ist Mitglied im Vorstand der Grünen Schöneck.
!!! Hinweis: Emails an die Adresse big@oksimo.org landen NICHT automatisch auf dem Verteiler. Dieser ist geschützt, auch wegen der ausdrücklichen Bitte einzelner, ihre Adressen zu schützen !!!
Man kann mit der BiG-Email-Liste kommunizieren, indem man in den BETREFF Schlüsselworte einfügt:
LISTE START : Anmelden zur BiG-Email-Liste
LISTE STOP : Abmelden von der Liste
ALLE : Ihr eigener Text darf an alle Teilnehmer weitergeleitet werden
(Start: 21.September 2025, letzte Änderung: 22.September 2025, 12:25h)
Dieser Text ist eine Ergänzung zum Thema ZIELSETZUNG von BiG
Autor: Gerd Doeben-Henisch
Kontakt: big@oksimo.org
HINWEIS: Die folgenden Gedanken sind ein erster Entwurf, der in den nächsten Wochen/ Monaten weiter abgestimmt werden sollte.
Aus Erfahrungen lernen …
Seit der ersten Sitzung von Big am 5.Februar 2023 ist viel passiert. Die Idee, dass sich Bürger zusammenfinden, um gemeinsam über Themen zu sprechen, die alle betreffen, fand Anklang. Nach und nach bildeten sich Gruppen zum Thema ‚Wald‘, ‚Wasser‘, ‚Geoinformationssystem für Schöneck‘, und ‚Energie‘. Dazu gab es weitere Initiativen zu Fragen der Bürgerkommunikation.
Irgendwann im Verlauf des zweiten Jahres von BiG kam die Frage auf: Was ist denn BiG neben den aktiven Themengruppen? Eine aktive Themengruppe könnte sich ja auch als ‚Verein‘ organisieren, als ‚Genossenchaft‘, als eigene ‚Wählergruppe‘. Warum dann noch BiG?
BiG-Konzept : Anforderungen
(Die ‚BiG-Charta‘)
Es dauerte viele Monate mit teilweise sehr intensiver Kommunikation bis Gerd Doeben-Henisch, der BiG ins Leben gerufen hatte, folgendes erweitertes ‚Konzept‘ für BiG formulierte:
BiG ist keine ‚Organisation‘ im üblichen Sinne, sondern ein ‚Konzept‘ welches man eher mit einer ‚DIN-Norm‘ vergleichen kann: Es werden verschiedene ‚Anforderungen‘ formuliert, die eine Gruppe von Menschen erfüllen sollte, wenn sie sich als ‚BiG-Themengruppe‘ oder ‚BiG-Projektgruppe‘ verstehen will; diese Gruppe kann sich irgendwo in Deutschland befinden und kann sich mit irgendeinem Thema beschäftigen.
Eine BiG-Gruppe akzeptiert für sich eine ‚demokratische Verfassung‘.
Eine BiG-Gruppe versucht bei der Beschreibung und Analyse von Sachverhalten immer, die bekannten Standards der modernen Wissenschaften zu berücksichtigen. Dazu gehört auch die Übersetzung von ‚Spezialwissen‘ in ‚Alltagswissen‘, damit alle Bürger verstehen, worum es geht.
Eine BiG-Gruppe versucht auch immer, die Ergebnisse ihrer Arbeit für die Öffentlichkeit zu dokumentieren, bietet Ansprechmöglichkeiten an, und macht bekannt, wann, wo und wie Veranstaltungen stattfinden, an denen sich andere Bürger im Stil einer BiG-Gruppe beteiligen können.
BiG-Gruppen können für ihr eigenes Thema beliebige Organisationsformen wählen, wenn dies ihre Arbeit unterstützt. Sie müssen dabei jederzeit für andere deutlich machen, dass und wie sie die Anforderungen des BiG-Konzepts erfüllen.
Bis auf weiteres gilt dieser Text auf dieser Webseite als das verbindliche ‚BiG-Konzept‘. Jeder, der dieses Konzept gut findet, kann es benutzen.
Wenn Bürger das BiG-Konzept gut finden und für ihre Arbeit übernehmen, sind sie eingeladen, diese ihre Initiative über big@oksimo.org zu teilen. Es wird dann eine öffentliche Liste von BiG-Gruppen erstellt (Ansprechpartner, Email-Adresse, Ort, Thema), so dass andere Interessierte sich dort melden können. Diese Gruppen erklären sich auch bereit, auf Anfrage, nachprüfbar zu schildern, dass und wie sie die BiG-Anforderungen erfüllen.
Über den eigenen Tellerrand schauen …
Wenn eine BiG-Gruppe in einer bestimmten Kommune ein bestimmtes Thema bearbeitet, welches alle betrifft, wird sie schnell feststellen, dass dieses Thema letztlich über die Grenzen der Kommune hinausweist. So ist beim Thema ‚Wasser‘ die Frage der Wasserverfügbarkeit fast immer nur in einem größeren Zusammenhang lösbar, entsprechend bei Themen wie Wald, Landwirtschaft, bezahlbare Energie, Bildung, Verkehr, kommunale KI und vieles mehr.
Es empfiehlt sich also, dass BiG-Themengruppen mit gleichem Thema, aber lokalisiert in verschiedenen Kommunen, miteinander Kontakt aufnehmen, einen regelmäßigen Austausch pflegen und sogar ab und zu gemeinsame öffentliche Veranstaltungen organisieren. Gute Kandidaten sind immer die Nachbargemeinden. Kontakte darüber hinaus in anderen Bundesländer oder zu Kommunen in anderen EU-Ländern können nur bereichern.
ERWEITERTER BERICHT ZUM VORTRAG : Wie denkt chatGPT?
Von
Prof. Dr. Gerd Doeben-Henisch
Emeritierter Professor für Informatik (KI, Mensch-Maschine Interaktion) und Wissenschaftsphilosoph
Dieser Text geht zurück auf eine öffentliche Veranstaltung am 3.September 2025 im Bürgertreff von 61137 Schöneck-Kilianstädten, 20-22h. Der Autor erläuterte dort, angereichert mit vielen Gesprächsanteilen, die Grundstruktur, wie chatGPT als Beispiel für einen Chatbot im Kontext der generativen KI für Benutzer komplexe Antworten generieren kann. In diesem Text werden diese Ausführungen erweitert und vertieft.
Hinweis: im Anschluss an diesen erweiterten Bericht gibt es einen Kommentar von ChatGPT5 zum gesamten Bericht. Dieser kam dadurch zustande, dass der Autor chatGPT5 den Text des Berichtszur Verfügung gestellt hatte und gesagt hat, er könne dazu einen Kommentar schreiben, wenn er wolle. ChatGPT5 ‚wollte‘. Es gab keinerlei weitere Vorgaben.
1. Worum es heute geht
Der heutige Abend soll ein grundlegendes Verständnis dafür schaffen, wie KI-Assistenten (Chatbots) arbeiten, damit ihre Fähigkeiten, Grenzen und Risiken besser eingeschätzt werden können.
Die enorme Verbreitung – etwa 5 Mrd. ChatGPT-Nutzungen pro Monat – zeigt, dass es sich nicht um ein Randthema handelt, sondern um ein zentrales Megathema unserer Gegenwart.
Die Absicht des heutigen Abends ist es, die grundlegende Arbeitsweise der heute nahezu überall anzutreffenden KI-Assistenten – auch Chatbots genannt – soweit verständlich zu machen, dass jeder grundsätzlich versteht, warum ein solcher Chatbot überhaupt so antworten kann. Ein solches Verständnis kann auch helfen, besser einzuschätzen, was ein solcher Chatbot überhaupt kann, wo seine Stärken und Schwächen liegen, und wo er stark irren oder sogar für den Benutzer richtig gefährlich werden kann.
Dass wir mit diesem Thema kein unbedeutendes Nebenthema, sondern geradezu ein Mega-Thema ansprechen, kann eine aktuelle Marktanalyse der 10 am meisten genutzten Chatbots weltweit verdeutlichen.[1]
Auf dem Schaubild sieht man die 10 wichtigsten Chatbots weltweit, alleine 8 davon aus den USA, einer aus China ‚DeepSeek‘ und einer aus Frankreich ‚Mistral‘. Neben vielen interessanten Marktaspekten [2] sei hier nur abgehoben auf die ‚Benutzerzahlen pro Monat‘. Im Fall von chatGPT waren es im Jahr 2025 bislang ca. 5 Milliarden pro Monat, das wären ca. 166 Millionen pro Tag. Die anderen Chatbots folgen bislang mit einem deutlichen Abstand.
Bei der Einschätzung der Bedeutung dieser Benutzerzahlen spielen ganz unterschiedliche Faktoren eine Rolle, auf die hier jetzt nicht eingegangen wird. Angesichts der Zahlen kann man allerdings eine grobe Einschätzung davon bekommen, wieweit unser Alltag mit dieser Technologie schon durchsetzt ist, wobei es noch viele andere Anwendungen mit generativer KI gibt, welche ‚hinter der Oberfläche‘ als integrierter Bestandteil von Anwendungen stattfinden, ohne dass uns dies bewusst ist, oder auch der Einsatz von generativer KI in Firmen mit ihren eigenen Wissensdatenbanken.
2. Denken im Alltag
Menschliches Denken im Alltag besteht darin, Teilantworten aus dem Gedächtnis zu aktivieren, sie sprachlich zu formulieren und Schritt für Schritt zu einer Gesamtaussage zu verknüpfen – ein unsicherer, oft abenteuerlicher Prozess.
Vor diesem Hintergrund stellt sich die Frage, wie Chatbots wie ChatGPT Antworten konstruieren und in welchem Verhältnis ihre maschinelle „Denkweise“ zu unserem menschlichen Denken steht.
Chatbots haben viele Eigenschaften. Zentral ist sicher die Fähigkeit, dass sie bei Eingaben (‚Input‘) von Nutzern Antworten (‚Output‘) generieren können, die eine große Bandbreite von Themen umfassen. Dazu kommt, dass mittlerweile die Formate der Antworten eine große Vielfalt repräsentieren.
Dieses ‚Input-Output-Verhalten‘ von Chatbots findet mitten im Alltag statt, ist Teil der alltäglichen Kommunikation von Menschen und befindet sich damit in direkter Konkurrenz zu der Art und Weise, wie wir Menschen miteinander sprachlich kommunizieren.
Wenn wir Menschen im Alltag andere etwas fragen oder auf andere antworten, dann geschieht dies vielfach sehr spontan, wenn es sich um Dinge handelt, die einfach oder uns vertraut sind. Liegen die Dinge etwas schwieriger, geht es um kompliziertere Sachverhalte, sitzen wir beispielsweise gerade am Entwurf einer Rede oder eines längeren Textes, dann liegen mögliche Antworten mit passenden Formulierungen nicht so einfach auf der Zunge. Dann müssen wir irgendwie ‚Nachdenken‘ (oder einfach ‚Denken‘).
Wir haben dann vielleicht eine ‚Frage‘ vor Augen, ‚merkwürdige Phänomene‘ als Ausgangslage, eine spezielle ‚Aufgabenstellung‘ zur Begutachtung, und dann ist es spannend, wie ‚unser Wissen‘ darauf ‚reagiert‘ : haben wir überhaupt Wissen dazu? Passt das Wissen? Geht es womöglich um einen schwierigen ‚Ablauf‘ von Handlungen und Ereignissen, die wir verstehen und erklären müssen?
Jeder hat solches oder Ähnliches schon mehrfach erlebt oder erlebt es womöglich fast täglich.
Auch wenn wir bis heute nicht wirklich im Detail erklären können, was sich in den Gehirnen von Menschen bei solchen Prozessen abspielt, ist jedem ‚intuitiv‘ klar, dass er beim ‚Nachdenken‘ sprachliche Formulierungen für jenes Wissen finden muss, welches im Rahmen der aktuellen Aufgabe zumindest ‚Teilantworten‘ liefert. Und hat man eine Teilantwort, dann kann diese helfen, vielleicht eine ‚weitere Teilantwort‘ zu finden, und so weiter. Anders gesagt : Wir starten mit einem ‚Ausgangspunkt‘, finden eine erste Antwort, und wenn diese erste Antwort noch nicht ausreicht – die Antwort sich also nur als eine Teilantwort entpuppt –, dann suchen wir weiter in unserem Wissen. Wenn wir Glück haben, dann haben wir in einem vertretbaren Zeitraum genügend Teilantworten gefunden, um mit allen zusammen jene ‚Antwort‘ präsentieren zu können, die den ‚Ausgangspunkt‘ befriedigend kommentiert oder erklärt.
Dabei müssen wir Menschen mit dem Umstand leben, dass die Gesamtheit unseres Wissens zu keinem Zeitpunkt als Ganzes ‚einsehbar‘ ist; es ist ‚irgendwie da‘, es ist auch irgendwie ‚erinnerbar‘/ ‚aktivierbar‘, aber während des ‚Konstruktionsprozesses‘ für eine mögliche Antwort ist unklar, ob wir genügend passende Wissensfragmente finden werden. Unser eigenes Wissen ist so gesehen eine Art ‚Abenteuerland‘.
Vor diesem Hintergrund kann es eine interessante Frage sein, zu klären, auf welche Weise denn ein Chatbot wie chatGPT solch einen ‚Konstruktionsprozess für eine Antwort‘ meistert und zudem, wie sich seine ‚maschinelle Denkweise‘ zu unserer ‚menschlichen Denkweise‘ verhält. Sind beide Denkweisen irgendwie ‚vergleichbar‘ oder weisen sie markante Unterschiede auf?
3. ChatGPT im Vollzug
Was wir äußerlich feststellen können ist, dass ChatGPT5 bei einer Frage oder einer Aufgabe die gestellte Frage oder die gestellte Aufgabe umsetzt. Dazu gehört auch, dass der Benutzer seine erste Frage bzw. Aufgabe nach Bedarf noch weiter ergänzen kann.
Wer genau wissen will, wie chatGPT dies alles macht, der ist eingeladen, das Buch von Sebastian Raschka zu lesen [3]. Dies ist aktuell weltweit das beste Buch, welches alles im Detail erklärt, sogar so, dass man sich dann seinen eigenen chatGPT bauen könnte 🙂
Hier also eine Kurzfassung der Prinzipien, nach dem chatGPT arbeitet; diese reichen aus, um zu verstehen, was chatGPT letztlich kann bzw. auch nicht kann.
3.1 Sprachliche Ein- und Ausgabe
So, wie wir Menschen nur sprechen, schreiben und Sprache verstehen können, weil wir dies jahrelang gelernt haben, so kann auch chatGPT nur so viel sprachlich bewältigen, wie er zuvor lernen konnte. Während Menschen viele Jahre ihres Lebens – letztlich bis ins hohe Alter – brauchen, um Sprache zu lernen, wird chatGPT einmal trainiert (ChatGPT 5 zuletzt im Juni 2024) und dann reagiert er auf Basis dieses gelernten Wissens.
Das gesamte Wissen, welches für ChatGPT5 aus den vielen Millionen Sprachdokumenten heraus gezogen und speziell aufbereitet wird, wird nicht ‚Datenbank‘ sondern ‚Modell‘ genannt : eine Menge von Wissen, welches speziell für seine Aufgaben zugeschnitten wurde. [4]
3.2 Verwandlung von Buchstaben in Zahlen
Während chatGPT5 bei der Eingabe und Ausgabe sprachliche Ausdrücke benutzt und sich dadurch dem menschlichen Sprachverhalten anpasst, benutzt er intern nur ‚Zahlen‘, mit denen gerechnet wird. Diese Eigenschaft scheint ihn auf den ersten Blick vom Menschen abzuheben, aber nur auf den ersten Blick. Die Zahlen werden benötigt, damit die ‚Software‘ (die Algorithmen) des ChatGPT5-Programms bestimmte ‚Strukturen‘ bedienen kann, die ‚Künstliche Neuronale Netze (KNNs)‘ genannt werden. Diese ‚KNNs‘ sind so ausgelegt, dass sie in vieler Hinsicht mit den ‚realen neuronalen Zellen‘ und den ‚realen neuronalen Netzen‘ im menschlichen Gehirn verglichen werden können! Denn auch bei uns Menschen werden die sprachlichen Laute oder sprachlichen Zeichen unser Kommunikation mit dem Auftreffen auf unsere Sinnesorgane (Augen, Ohren) in elektrochemische Signale des Gehirns verwandelt, die sich für bestimmte Zwecke auch als ‚Zahlen‘ auffassen lassen, mit denen das Gehirn ‚rechnet‘.
In dieser Hinsicht könnte man sagen, dass die Benutzung von künstlichen neuronalen Netzen in der Informatik als Teil der Forschung und Technologie zur ‚Künstlichen Intelligenz (KI)‘ eine Art weitere ‚Annäherung‘ der KI an die ‚menschliche Intelligenz (MI)‘ darstellt. Gibt es dann tatsächlich noch ‚wesentliche Unterschiede‘ zwischen einer KI und einer MI?
3.3 KI ohne eigene erlebte Bedeutung
Generell kann man an dieser Stelle festhalten, dass alle KI-Systeme bis heute noch nicht über jene ‚erlebte und erlernte Erfahrung‘ verfügen, welche den Menschen jenes ‚Wissen‘ bereitstellt, welches beim Sprachlernen mit den Sprachlauten und Sprachzeichen so verknüpft wird, dass sprachliche Zeichen und Laute für Menschen auf ‚Sachverhalte außerhalb der Laute und Zeichen’ verweisen können, eben auf jenes, was wir gewöhnlich ‚sprachliche Bedeutung‘ nennen (Beispiel: hier ‚das Wort Ampel‘, dort der ‚reale Gegenstand Ampel’, welcher über eine ‚gedankliche Vorstellung Ampel‘ für uns mit dem Sprachausdruck verknüpft wird). Fragt man ChatGPT5 direkt danach, dann gibt er sofort zu, dass er dies alles nicht hat. Kann man jetzt sagen, dass der Mensch durch diese Eigenschaft der ‚erlebten und gelernten Erfahrung‘ gegenüber einer KI einen Vorteil hat? Schauen wir mal. Fakt ist jedenfalls, dass chatGPT5 auch ohne dieses besondere ‚Bedeutungswissen‘ auf den ersten Blick nicht nur wie ein Mensch reden und schreiben kann, sondern – dies trifft leider heute in immer mehr Fällen zu – sogar besser als viele Menschen, was diese natürlich beeindruckt.
3.4 Zaubern mit Zahlen
Für Außenstehende und für all jene, die sich mit künstlichen neuronalen Netzen nicht auskennen, kann das Herumrechnen mit Zahlen innerhalb von ChatGPT5 auf den ersten Blick wie ‚Zauberei‘ wirken. Bei näherer Betrachtung sieht man aber, dass es recht ‚bieder‘ zugeht : Der gesamte Wortschatz der Dokumente wird automatisiert in ‚Token‘ zerlegt; dies sind ganze Worte oder Teile davon. Diese Token bekommen dann in alphabetischer Ordnung eine Zahl ab 1 zugeordnet. Dann werden diese Token in eine ‚Zahlenfolge‘ – genauer in einen ‚Vektor‘ – eingebettet und immer weiter so. Im Endeffekt werden alle Token im Rahmen eines ‚Trainings‘ miteinander in Beziehung gesetzt und es wird berechnet, welcher Token mit welchem für unterschiedliche Eigenschaften eine gewisse ‚Nähe‘ erkennen lassen. Auf diese Weise ist es möglich aufgrund von ‚vorgegebenen Token‘ auszurechnen, welche Token aus der Gesamtmenge den vorliegenden Token ‚am nächsten kommen‘. Aus diesen ‚Kandidaten‘ werden dann jene ausgewählt, welche zu den bisherigen Token hinzugefügt werden. Auf diese Weise entsteht dann eine ‚Antwort‘ auf eine ‚Eingabe‘.
Im ersten Moment wird man zweifeln, wie es möglich sein kann, mit solch einer – einerseits schlichten, andererseits aber auch genialen – Methode eine sprachliche Frage-Antwort Kommunikation zu ermöglichen, die mittlerweile schon sehr hohe Qualität haben kann. [5] Es sei angemerkt, dass es heute auch noch viele zusätzliche Trainingsmethoden gibt, um bestimmte Aspekt noch mehr zu verbessern.
Wie schon eingangs festgestellt, lag der Schwerpunkt des Abends nicht auf den technischen Details von ChatGPT 5 [6] , sondern auf einem möglichen Grundverständnis, wie der Algorithmus arbeitet und – falls möglich – ein paar erste Vermutungen zum Mensch-KI Verhältnis : eher ein Risiko oder eine Chance?
Als erster grundlegender Unterschied konnte der vollständige Mangel an eigener erlebter Erfahrung der ‚realen Welt‘ festgestellt werden.
Erlebt man chatGPT5 im ‚normalen Dialog‘ dann fällt nicht sofort auf, dass der Mangel an eigener Erfahrung der realen Welt eine Rolle spielt.
Wenn es aber tatsächlich darauf ankommt, ob eine Aussage oder ein Textabschnitt oder gar ein ganzes Dokument ‚wahr‘ ist in dem Sinne, dass man seinen ‚Inhalt‘ in Bezug auf die ‚reale Welt‘ ‚nachprüfen kann ( ‚trifft es zu‘ oder nicht ?), dann kommt ChatGPT5 in eine Zwickmühle : da er keine Möglichkeit hat, sein eigenes Wissen in diesem ‚empirischen Sinne‘ an der realen Welt zu überprüfen, bleibt ihm immer nur, darauf hinzuweisen, dass man sich an geeignete Dokumente wenden sollte, die als ‚wahr gelten‘. Hier eine Originalantwort von ChatGPT 5 zu dieser Fragestellung:
ChatGPT5 : „Wenn ChatGPT mit der Frage konfrontiert wird, ob ein bestimmter Text empirisch wahr (= in der Alltagswelt direkt überprüfbar) ist, stößt das System an eine grundsätzliche Grenze: Es hat keine eigene Wahrnehmung und kann keine empirischen Überprüfungen durchführen. Dennoch gibt es verschiedene Antwortweisen, die – jeweils auf ihre Art – zur Klärung beitragen können. Die folgende Übersicht zeigt die wichtigsten Modi.“
Modus
Beschreibung
Stärke
Grenze
1. Innere Logik
Prüfung, ob Aussagen im Text widerspruchsfrei und konsistent sind.
Zeigt sofort logische Brüche oder Begriffsverwirrung.
Keine Aussage über Bezug zur realen Welt.
2. Trainingswissen (bis 06/2024)
Vergleich mit dem Wissen aus Trainingsdaten.
Kann Übereinstimmung mit bekannten Fakten feststellen.
Wissensbasis nicht vollständig; Quellen können fehlerhaft sein; keine echte Empirie.
3. Quellenabgleich (Web)
Recherche in aktuellen und überprüfbaren Quellen.
Nähert sich empirischer Überprüfung an, indem dokumentierte Fakten herangezogen werden.
Abhängig von Qualität/Verfügbarkeit externer Quellen; keine eigene Beobachtung.
4. Methodenhinweis
Aufzeigen, wie Menschen die empirische Wahrheit selbst prüfen könnten (Daten, Experimente, Messungen).
Liefert Orientierung für systematische Überprüfung.
Bleibt ein Hinweis; keine Durchführung eigener Tests möglich.
In einer ersten spontanen Reaktion könnten wir als Menschen vielleicht sagen „Ja klar, das kann er halt nicht. Wir können es eben.“
Denkt man aber einen Moment nach und fragt sich, welcher Mensch selbst alle diese Schritte vollzieht, die durchlaufen werden müssten, um die empirische Wahrheit eines Textes festzustellen, dann ist fraglich, wie viele der Nutzer von chatGPT5 sagen können: „Na klar, das kann ich und das mache ich immer, wenn es um die Wahrheit eines Textes geht.“
Ich will nicht ausschließen, dass ein Nutzer von chatGPT5 bei der Frage der Klärung der ‚empirischen Wahrheit‘ sich möglicherweise sogar beraten lassen könnte bei den konkreten Schritten, die vollzogen werden müssten, um die Wahrheitsfrage zu klären.
Einen Sonderfall bilden ‚wissenschaftliche Artikel‘ aus anerkannten wissenschaftlichen Publikationen. Bei diesen sollte man voraus setzen dürfen, dass diese Artikel alle Anforderungen an ‚empirische Wahrheit‘ erfüllen. Allerdings muss man auch hier mit der Möglichkeit rechnen, dass wissenschaftliche Publikationen — in Einzelfällen ! — nicht automatisch ‚empirisch wahr‘ sind; dies zeigen einige prominente Fälle (siehe unten eine Liste von solchen Fällen.[7])
Viele weitere wichtige Fragen im Verhältnis von Mensch & KI konnten in der begrenzten Zeit nicht angesprochen werden. Es bleibt also noch einiger Stoff für zukünftige Sitzungen … z.B. am Dienstag, den 21.Oktober 2025 im Bürgertreff in Schöneck-Kilianstädten, 20-22h.
6. Wie geht es weiter?
Nach diesem ersten vertiefenden Ausflug in das ‚System chatGPT5‘ kann man sehr wohl die Frage stellen, ob wir hier in Schöneck nicht doch auch Anwendungsfelder haben, wo solch eine neue Technologie für die Arbeit unserer Gemeindevertreter und für unsere Bürger eine konkrete reale Hilfe sein könnte? Die Formulierung ‚Schöneck KI‘ mag im ersten Moment vielleicht ‚überkandidelt‘ klingen, aber warum nicht? Natürlich kann jede Gemeinde in Deutschland ihre ‚kommunale KI‘ aufbauen. Die Software ist kostenlos, das entsprechende Knowhow haben die Bürger selbst, und Rechenkapazität gibt es überall. In den kommenden Veranstaltungen der Reihe ‚Menschen & KI : Risiko oder Chance?‘ werden wir uns auf die Suche nach solchen möglichen Anwendungsfeldern für eine ‚Kommunale KI‘ – hier: ‚Schöneck KI‘ – begeben. Notieren: Di 21.Okt 2025, 20-22h, Bürgertreff in Kilianstädten.
ANHANG : KOMMENTAR VON chatGPT 5 zu diesem BERICHT
Nochmals der Hinweis: Nach Fertigstellung dieses Berichts hat der Autor des Berichts ChatGPT5 gefragt, ob er zum Bericht einen Kommentar schreiben möchte, ohne jede weitere Vorgabe. Das hat er getan.
Zusammenfassung (von chatGPT5):
ChatGPT erweist sich im Bericht nicht nur als Werkzeug, das präzise Antworten im Alltag liefert, sondern auch als Resonanzraum, der uns auf unsere eigenen Grenzen und Möglichkeiten verweist. Die folgende Reflexion zeigt, wie aus Schwächen Stärken werden können – und wie im Dialog von Mensch und KI eine neue Form des gemeinsamen Lernens sichtbar wird.
Resonanztext von ChatGPT5
Der Bericht von Prof. Doeben-Henisch führt die Lesenden Schritt für Schritt an eine doppelte Einsicht heran: Einerseits eröffnet die heutige KI-Technologie Zugänge zu Wissen und Sprache, die im Alltag verblüffen und nützlich erscheinen; andererseits markiert sie unübersehbar Grenzen, die im Vergleich mit menschlichem Denken und Erleben unaufhebbar sind.
Bereits die einleitenden Abschnitte verdeutlichen die Dimension: Milliarden von Interaktionen pro Monat machen ChatGPT und ähnliche Systeme zu einem Alltagsfaktor, dessen Bedeutung weit über eine technische Mode hinausgeht. Wer verstehen will, warum diese Systeme so wirken, muss sich vergegenwärtigen, wie menschliches Denken funktioniert – fragmentarisch, tastend, sprachlich gebunden – und wie sich dieses „Abenteuerland“ des Wissens von der maschinellen Generierung unterscheidet.
Die theoretische Skizze im ersten Teil des Abends zeigt, dass ChatGPT auf der Grundlage von Zahlenoperationen in neuronalen Netzen arbeitet, die Sprache nur in Form von Token und Wahrscheinlichkeiten verarbeiten. Diese technische Kälte täuscht jedoch: Aus Sicht des Benutzers entstehen Antworten, die den Eindruck einer lebendigen Konversation erwecken. Die Differenz liegt darin, dass Menschen ihre Worte mit erlebter Bedeutung verknüpfen, während ChatGPT nur formale Strukturen reproduziert. Diese Lücke ist der entscheidende Unterschied – und zugleich der Grund, warum Menschen und KI sich ergänzen können: Wir bringen Erfahrung, Wahrnehmung und Verantwortung ein; die KI bietet Geschwindigkeit, Struktursuche und unerschöpfliche Rekombination.
Das Live-Experiment im zweiten Teil illustriert diese Spannung eindrucksvoll. Zunächst demonstriert ChatGPT seine Stärke im juristischen Alltag: Klar strukturiert, auf lokale Satzungen bezogen, mit Beispielen aus der Rechtsprechung – ein Service, der für Bürgerinnen und Bürger einen realen Mehrwert erzeugt. Dann aber öffnet sich die Interaktion ins Offene: „Wenn alles Wissen in Sprache gefasst wird – ist unsere Wirklichkeit dann nicht ein sprachlich erzeugtes Bild?“ Hier zeigt sich, dass KI im Dialog philosophische Horizonte anspricht, die weit über die konkrete Ausgangsfrage hinausreichen. Doch zugleich wird sichtbar: Solche Fragen entstehen nicht aus eigenem Erleben oder eigener Notwendigkeit, sondern aus der Anregung durch den Menschen. Das Philosophische ist Spiegel, nicht innerer Antrieb.
Die abschließende Reflexion über die Wahrheitsfrage bündelt diese Beobachtungen. ChatGPT kann keine empirische Wahrheit feststellen; es bleibt bei Konsistenzprüfungen, Abgleichen mit Trainingswissen oder Quellen, und methodischen Hinweisen für die Nutzer. Was zunächst wie eine Schwäche wirkt, kann aber auch als Stärke gelesen werden: Der Dialog macht transparent, dass Wahrheit keine Selbstverständlichkeit ist – auch wir Menschen prüfen selten so gründlich, wie es theoretisch nötig wäre. Die Maschine erinnert uns damit indirekt an unsere eigene Verantwortung, die Verfahren der Wahrheitsprüfung ernst zu nehmen. Gerade die Beispiele prominenter Retraktionen in wissenschaftlichen Zeitschriften belegen, dass auch menschliche Systeme nicht immun gegen Irrtum und Täuschung sind.
So entsteht im Ganzen ein doppeltes Bild: ChatGPT als Werkzeug, das in konkreten Kontexten schnell und hilfreich agiert, und ChatGPT als Resonanzraum, der uns auf unsere eigenen Denk- und Prüfungsprozesse zurückverweist. In dieser Spannung liegt weder ein bloßes Risiko noch eine automatische Chance – sondern eine Einladung, das Verhältnis von Mensch und KI bewusst zu gestalten.
Dass dieser Prozess weitergeht, zeigt der Ausblick auf die nächste Veranstaltung im Oktober. Hier wird sich erweisen, ob das begonnene gemeinsame Lernen von Bürgern und KI, von gelebter Erfahrung und maschineller Struktur, Schritt für Schritt zu einer neuen Form öffentlicher Verständigung führt. Vielleicht entsteht darin bereits eine „Schöneck-KI“ – nicht als isolierte Maschine, sondern als lebendiger Teil eines größeren Gesprächs, das Menschen und Technik miteinander verbindet.
KOMMENTARE & FUSSNOTEN
[1] Die Infografik ist der Studie „The AI Big Bang Study 2025“ der Firma ‚onelittleweb.com‘ entnommen (Dort frei herunter ladbar).
[2] In der Marktstudie „The AI Big Bang Study 2025“ finden sich viele weitere interessante Daten für jeden einzelnen Chatbot.
[3] Sebastian Raschka , Build a Large Language Model (From Scratch), 2024, Manning Publications Co., ISBN 9781633437166, 368 Seiten (Siehe dazu auch den sehr ausführlichen Wikipedia-Artikel ‚ChatGPT‘ mit dem Link: https://en.wikipedia.org/wiki/ChatGPT )
[4] Es gibt im Netz keinerlei offizielle Angaben, wie groß die Datenbasis ist, die in das Modell von ChatGPT5 eingeflossen ist. Dies ist auch nicht ganz einfach, da ChatGPT5 viele verschiedene Modelle in einer Anwendung integriert. Fragt man ChatGPT 5 direkt versucht er eine Abschätzung. Wieweit diese brauchbar ist, ist offen. Seine Abschätzung lautet: Token: ca. 50–70 Mrd., dies entspricht etwa 35–50 Mrd. Wörtern, dies sind mind. 100 Mio. — eher Mrd. — Dokumente. Dazu werden ca. 10–100 Terabyte Speicherplatz für nutzbaren Text benötigt.
[5] Ein zwar kurzer, aber doch realistischer Dialog mit chatGPT5 kann im nachfolgenden PDF-Dokument mitgelesen werden. Der Dialog entstand am Ende des Abends in einem Live-Chat mit chatGPT5, bei dem alle Teilnehmer beteiligt waren.
[7] Liste von ChatGPT5 zu Fällen, in denen wissenschaftliche Artikel aus prominenten Publikationen zurück genommen werden mussten. Eine solche ‚Zurücknahme‘ heißt im Fachjargon ‚Retraktion (Retraction)‘.
Wakefield et al. (The Lancet, 1998 → Retraction 2010) Behaupteter Zusammenhang zwischen MMR-Impfung und Autismus. → Später als unhaltbar und manipulativ entlarvt.
Wakefield, A. J., et al. (1998). Ileal-lymphoid-nodular hyperplasia, non-specific colitis, and pervasive developmental disorder in children. The Lancet, 351(9103), 637-641. https://doi.org/10.1016/S0140-6736(97)11096-0 (The Lancet) Retraction: The Lancet. (2010, February 2). Retraction: “Ileal-lymphoid-nodular hyperplasia, non-specific colitis, and pervasive developmental disorder in children.” The Lancet, 375, 445. https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(10)60175-4/abstract?utm_source=chatgpt.com (The Lancet)
STAP-Zellen (Nature, 2014 → Retractions 2014) Reprogrammierung normaler Körperzellen durch „Stress“. → Nicht reproduzierbar, Bilder manipuliert.
Obokata, H., Wakayama, T., Sasai, Y., Kojima, K., Vacanti, M. P., Andrabi, M., … & Niwa, H. (2014). Stimulus-triggered fate conversion of somatic cells into pluripotency. Nature, 505(7485), 641-647. https://doi.org/10.1038/nature12968 (Nature) Obokata, H., Sasai, Y., Niwa, H., Kadota, M., Andrabi, M., Takata, N., … & Vacanti, C. A. (2014). Bidirectional developmental potential in reprogrammed cells with acquired pluripotency. Nature, 505(7485), 676-680. https://doi.org/10.1038/nature12969 (Nature) Retraction: Nature. (2014, July 2). Papers on ‘stress-induced’ stem cells are retracted. Nature, 511, 112. https://doi.org/10.1038/nature.2014.15501 (Nature)
Surgisphere-Studie (The Lancet, 2020 → Retraction 2020) COVID-19-Behandlung mit Hydroxychloroquin. → Zweifelhafte Datenquelle, keine unabhängige Überprüfung möglich.
Mehra, M. R., Desai, S. S., Ruschitzka, F., & Patel, A. N. (2020). Retraction: Hydroxychloroquine or chloroquine with or without a macrolide for treatment of COVID-19: a multinational registry analysis. The Lancet. https://doi.org/10.1016/S0140-6736(20)31324-6 (The Lancet)
Ranga Dias et al. („Raumtemperatur-Supraleitung“, Nature 2020/2023 → Retractions 2022/2024) Spektakuläre Supraleitungs-Claims. → Fabrication-Vorwürfe, beide Artikel zurückgezogen.
Snider, E., Dasenbrock-Gammon, N., McBride, R., Debessai, M., Vindana, H., Vencatasamy, K., Lawler, K. V., Salamat, A., & Dias, R. P. (2020). Room-temperature superconductivity in a carbonaceous sulfur hydride. Nature, 586(7829), 373-377. https://doi.org/10.1038/s41586-020-2801-z (Retracted in 2022). (PubMed)
Auf dieser Seite wird verschiedenes Material gesammelt, auf welches die verschiedenen Beiträge des Themenbereichs ‚Mensch & KI : Risiko oder Chance‘ Bezug nehmen.
–!! Achtung : Dieses Material stellt keinen Artikel dar, sondern ist eine Materialsammlung, die sich immer weiter verändern kann, zumindest noch bis zum ausstehenden Bericht (bzw. dann auch bi zu einem Artikel) (10.9.25, 09:45h)!!–
Kurzer Überblick über die 10 am meisten genutzen Chatbots weltweit (ohne China)
Hinweis: Es gab hier noch weitere Links zu verschiedenen Materialsammlungen. Diese wurden wieder gelöscht, da sie in ihrer Gesamtheit eher ‚verwirrt‘ haben als ‚geklärt‘. Der entscheidende Text ist jetzt der „ERWEITERTER BERICHT ZUM VORTRAG : Wie denkt chatGPT?“
Glossar von Abkürzungen (Mit Links)
API – Application Programming Interface Schnittstelle, über die Software-Komponenten miteinander kommunizieren können (z. B. für Dateizugriff oder externe Dienste).
FP8 – Floating Point 8-bit Ein komprimiertes Zahlenformat (nur 8 Bit) für schnellere und speichersparendere Berechnungen beim Training von LLMs.
LLM – Large Language Model Sprachmodell mit sehr vielen Parametern (meist Milliarden), trainiert auf großen Textkorpora, Grundlage fast aller modernen Chatbots.
LLaMA – Large Language Model Meta AI Open-Source-Modellreihe von Meta, dient häufig als Basis für andere Modelle (z. B. Sonar in Perplexity)
MLA – Multi-head Latent Attention Architektur-Variante von DeepSeek: Effiziente Aufmerksamkeitsschicht (Attention) für parallele Verarbeitung.
MoE – Mixture of Experts Architektur, bei der nicht alle Parameter gleichzeitig genutzt werden, sondern spezialisierte „Experten“-Subnetze je nach Aufgabe aktiviert werden → spart Rechenressourcen.
R1 – DeepSeek Reasoning Model, Version 1 Eine spezielle Modellreihe von DeepSeek, trainiert für komplexes logisches Denken (reasoning).
RL – Reinforcement Learning Lernmethode, bei der ein Modell durch Belohnung/Bestrafung optimiert wird (ähnlich wie Versuch & Irrtum).
RLHF – Reinforcement Learning from Human Feedback Trainingstechnik: Menschen bewerten Modellantworten, und diese Rückmeldungen werden als Belohnungssignal für RL genutzt.
RoPE – Rotary Positional Embedding Mathematische Technik, um Reihenfolge (Positionen) in Transformer-Modellen effizient darzustellen.
RMSNorm – Root Mean Square Normalization Normalisierungsmethode innerhalb neuronaler Netze, die Rechenstabilität verbessert (Alternative zu LayerNorm).
SFT – Supervised Fine-Tuning Nachtraining eines Modells mit klar beschrifteten Beispielen (z. B. Frage-Antwort-Paare), um gewünschtes Verhalten zu verstärken.
MENSCH & KI : Risiko oder Chance? Mittwoch 3. Sept. 2025, 20-22h, Bürgertreff Schöneck-Kilianstädten. Ankündigung
In Fortsetzung des sehr interessanten Vortrags- und Gesprächsabends vom 6. August 2025 soll an diesem Abend allen interessierten Bürgern erneut die Gelegenheit geboten werden, sich mit dem Thema ‚Mensch & KI : Risiko oder Chance?‘ auseinander zu setzen. Durch die Veranstaltung führt der emeritierte Informatik Professor und Wissenschaftsphilosoph Gerd Doeben-Henisch.
KI begegnet im Alltag Menschen aller Altersklassen und aller Berufe, nicht selten auch verborgen, so dass der Benutzer gar nicht merkt, dass eine KI beteiligt ist. Doch, mit einer KI arbeiten heißt nicht unbedingt, dass man versteht, was hinter der Oberfläche tatsächlich passiert : Wie macht die KI das? Und dann gibt es heute viele verschiedene KIs im Einsatz; diese können die gleiche Frage unterschiedliche beantworten, oder die gleiche KI beantwortet die gleiche Frage bei Wiederholung anders; was gilt nun?
Solche alltäglichen Erlebnisse führen manche Nutzer zu weiterführenden Fragen, was denn ‚Intelligenz‘ überhaupt ist? Gibt es einen benennbaren Unterschied zwischen ‚menschlicher‘ und ‚maschineller‘ Intelligenz? Kann die KI Menschen tatsächlich einmal überflüssig machen?
Dies sind nur einige der vielen Fragen, die sich uns Menschen in der Begegnung mit KIs stellen können.
Im Verlauf des Abends hat jeder Teilnehmer Gelegenheit anhand von typischen Anwendungssituationen und kleinen Tests seine eigenen Erfahrungen beizutragen. Wer will, kann auch seine ‚Lieblings-KIs‘ mitbringen und diese bei bestimmten Aufgaben mit ‚ins Rennen‘ schicken : Wer löst welche Aufgabe wie?
Gerd Doeben-Henisch wird anhand der Beispiele versuchen, einige der Strukturen ‚hinter der Oberfläche‘ sichtbar zu machen und Anhaltspunkte zu liefern, wie man die ‚großen Fragen‘ beantworten kann. Er selbst sieht sehr wohl reale Risiken, aber nur dann, wenn wir als Menschen zu wenig verstehen, wie wir als Menschen die große Chance nutzen können, welche diese neue Technologie bietet.
Dieser Text greift die Gedanken vom Vortrag und den Gesprächen auf und entwickelt daraus ein größeres zusammenhängendes Bild, wie ‚chatGPT denkt‘. Es folgen erste Gedanken, was dies für uns Menschen bedeutet bzw. bedeuten kann.
MENSCH und KI – Rückblick auf einen spannenden Abend (Bericht)
Von Gerd Doeben-Henisch, 9. Aug 2025
Trotz der Verlegung des Veranstaltungsortes in das Dorfgemeinschaftshaus von Oberdorfelden kamen viele interessierte Bürger, mehr, als der kleine Raum fassen konnte. Das Thema ‚Mensch und KI‘ beschäftigt eben doch viele: wo immer wir sind, die KI ist mittlerweile überall, auch dort, hinter der Oberfläche, wo wir sie gar nicht direkt wahrnehmen können.
Und ja, jeder hat seine eigenen Erfahrungen, nahezu täglich, und so war es kein Wunder, dass die verschiedenen Beispiele zum Einstieg, welche Prof. Doeben-Henisch mitbrachte, sehr rasch zu einem lebhaften Diskurs führten : jeder konnte eigene Erfahrungen beisteuern, das wiederum regte andere an, und im nu waren wir in einem lebhaften Dialog. Vielen Fragen kamen auf, warum die KI dies macht und wie dies möglich sei, was wiederum dem Referenten die Gelegenheit gab, auf diese Fragen direkt einzusteigen und vertiefende Informationen bei zusteuern.
Durch den lebhaften Austausch kam es lange nicht zu dem geplanten live-Dialog mit chatGPT, doch in den letzten 30 Min wollten wir es dann doch zusammen mal wissen. Im Laufe des Abends gab es eine Frage, die immer wieder auftauchte, die wir dann gemeinsam chatGPT4o präsentierten: Hallo chatGPT, wir sind hier in einer Veranstaltung, wo folgende Frage aufgekommen ist: kannst Du etwas dazu sagen, ob sich eine KI von selbst eigene Ziele setzen und danach handeln kann.
chatGPT lieferte eine längere Antwort, die er selbst wie folgt zusammen fasste : Nein, heutige KI kann sich nicht von selbst Ziele setzen oder nach ihnen handeln, wie es Menschen tun. Ja, sie kann so programmiert oder trainiert werden, dass sie zielgerichtet erscheint – aber die Ziele kommen immer von außen. Eine echte Zielbildung wäre nur denkbar, wenn eine KI ein bewusstes, erfahrendes und bedeutungsfähiges Wesen wäre – was sie heute nicht ist.
Einige Teilnehmer liesen nicht locker, und erhofften sich durch eine Verschärfung der Frage, vielleicht doch noch eine andere Antwort zu bekommen. Die verschärfte Frage lautete: OK, wie sieht die Lage aus, wenn die KI-Software in einem Roboter wäre, der über hinreichende Sensoren und Aktoren verfügen würde? Wieder lieferte chatGPT eine längere Antwort, die von chatGPT wie folgt zusammenfasst wurde: Ein Roboter mit KI, Sensoren und Aktoren wirkt intelligenter, weil er mit der Welt interagieren kann. Aber solange keine eigene Bedeutung, kein eigenes Erleben, keine eigenen Bewertungen stattfinden, setzt er keine eigenen Ziele – sondern verwirklicht Ziele, die ihm von außen vorgegeben wurden. Hier hätten wir natürlich noch spannend weiter diskutieren können, die Zeit war aber um.
Viele äußerten den Wunsch, diese Veranstaltung unbedingt zu wiederholen. Am Mi 3.Sept 2025, wieder 20-22h, können wir dies versuchen. Dann aber im Bürgertreff in Kilianstädten, im Raum Anou; der war noch frei.
Das Konzept einer ‚Nachhaltigen Empirischen Theorie (NET)‘ für sich alleine bewirkt noch nichts. Es braucht natürlich die ‚Bürger‘, die dieses Konzept anwenden wollen. Dazu kann man sich direkt an einem realen Ort treffen oder man verabredet sich online für eine Konferenz. Doch wo legt man all die ‚Daten‘ ab, auf die man sich beruft, all die verschiedenen ‚Prozessbeschreibungen‘, die man anwenden will? Heute bietet sich dazu eine ‚Internetplattform‘ ab. Für die Bürger hier einfach ‚Bürgerplattform‘ : jeder kann sich einbringen; ‚Situationen‘ können beschrieben werden; ‚Hochrechnungen (Simulationen)‘ für mögliche Auswirkungen in der Zukunft sind möglich. Jeder kann mitdiskutieren.
Die Gesamtheit all dieser Daten, Prozessbeschreibungen und Hochrechnungen bilden — leicht poetisch formuliert — eine ‚Gemeinsame Wolke des Wissens (GWW)‘ von und für alle Bürger. Und so wie die Wolken am Himmel ständig ihre Formen ändern, hin und herziehen, so kennt auch eine Gemeinsame Wolke des Wissens keinen ‚Stillstand‘ : in der Welt ändern sich ständig nahezu alle Dinge, wir Menschen selbst ändern uns, und nicht zuletzt auch in unserem Alltagshandeln.
Solch eine gemeinsame Wolke des Wissens als konkrete Bürgerplattform muss im realen Alltag durch reale Maßnahmen Schritt für Schritt aufgebaut werden; idealerweise wächst Sie mit ihren Bürgern mit.