Archiv der Kategorie: Wissen

OKSIMO.R – DIE INNENSEITE DER AUSSENSEITE – Teil 2

Autor: Gerd Doeben-Henisch (gerd@oksimo.org)

(Letzte Änderung: 31.Januar 2023)

KONTEXT

Dieser Text ist Teil des Buchprojektes „oksimo.R – Editor und Simulator für Theorien“.

Die Innenseite der Außenseite

(Dieser Text ist eine unmittelbare Fortsetzung des Textes ‚Die Innenseite der Außenseite‘, Teil 1, Grundbausteine …)

Teil 2

Einrichtung Erster Strukturen

Auf den ersten Blick liefert der zuvor beschrieben galaktische Zellverband eines menschlichen Körpers keinen natürlichen Anhaltspunkt für ein irgendwie geartetes ‚Zentrum‘. Welche Zelle sollte wichtiger sein als eine andere? Jede ist aktiv, jede macht ihren ‚Job‘. Viele ‚reden‘ mit vielen. Es werden chemische Stoffe ausgetauscht oder mittels chemischem Stoffaustausch werden ‚elektrische Potentiale‘ erzeugt, die ’schneller‘ wandern können und die ‚impulsartige Ereignisse‘ erzeugen können, die dann wiederum chemische Stoffe aktivieren. Würde man dieses ‚Reden mit chemischen Stoffen und elektrischen Potentialen‘ künstlich hörbar machen, hätten wir eine Symphonie von 127 Billionen (127 x 10^12) Einzelstimmen …

Und doch, wenn wir unsere menschlichen Körper im Alltag erleben, dann sehen wir keine riesige Wolke galaktischen Ausmaßes von einzelnen Zellen, dann sehen wir ein ‚abgegrenztes Objekt‘ mit einer Oberfläche, die ’sichtbar‘ ist; ein Objekt, das ‚Geräusche‘ erzeugen kann, das ‚riecht‘, das ‚anfassbar‘ ist, das sich ‚verändern‘ und ‚bewegen‘ kann. Außerdem kann es ‚Dinge in sich hineinstopfen‘, und es kommen auch ‚Gase‘, ‚Flüssigkeiten‘ und ‚festere Bestandteile‘ aus ihm heraus. Ferner ist bei längerer Betrachtung offensichtlich, dass es Bereiche am Körper gibt, die auf ‚Licht‘ (Augen) reagieren, auf ‚Geräusche‘ (Ohren), auf ‚Gerüche‘ (Nase), auf ‚Berührung‘ (Haut), auf ‚Körperstellungen‘ (u.a. Gleichgewichtssinn), auf ‚Temperatur‘ (Haut), auf ‚chemische Zusammensetzungen von Stoffen im Mund‘ (Geschmacksorgane im Mund) und einiges mehr.

Diese alltägliche ‚Erfahrung‘ legt die Annahme nahe, dass sich die Zellen unseres menschlichen Körpers räumlich zu ’speziellen Netzwerken‘ verabredet haben [1], die einen hohen ‚Organisationsgrad‘ aufweisen, so ausgeprägt, dass diese Netzwerke wie ‚eine Einheit‘ erscheinen, wie ein ‚einziges System‘ mit ‚Input‘ und ‚Output‘, und wo zwischen Input und Output komplexe Prozesse ablaufen. Damit eröffnet sich die Möglichkeit, den galaktischen Raum der autonomen Zellen eines menschlichen Körpers als ein ‚Kollektiv von organisierten Systemen‘ zu betrachten, die untereinander in regem Austausch zu stehen scheinen.[2], [5],[6]

Bei modernen technischen Systemen wie z.B. einem Auto, einem Flugzeug, einem Computer gibt es eine ‚Meta-Ebene‘, von er aus das ganze System ‚gesteuert‘ werden kann. Im Auto das Lenkrad, die Bremse, die Gangschaltung usw., ähnlich im Flugzeug das Cockpit mit einer Vielzahl von Instrumenten, oder beim Computer die Eingabe-Geräte (Tastatur, Maus, Zeichenbrett, Mikrophon, …). Allerdings zeichnet sich seit Jahren eine immer weiter gehende ‚Autonomie‘ dieser technischen Geräte ab insoweit viele Steurungsentscheidungen des Menschen in ‚Subsysteme‘ verlagert werden, die dadurch immer mehr klassische Steuerungsleistung des Menschen ‚übernehmen‘.[7]

In einem menschlichen Körper gibt es ‚parallel‘ zu den vorhandenen Körpersysteme u.a. das ‚Nervensystem‘ mit dem ‚Gehirn‘ als zentralem Bereich, in dem viele ‚Signale von den Körpersystemen‘ zusammen laufen und von dem aus wiederum ‚Signale zu den Körpersystemen‘ ausgesendet werden. Das Gehirn mit dem Nervensystem scheint also ein eigenes System zu bilden, das die einlaufenden Signale in verschiedenen ’neuronalen Prozessen‘ verarbeitet und gleichfalls Signale aussendet, die ‚Wirkungen in den Körpersystemen‘ hervorrufen können.[8a],[8b] Aus der Sicht des ‚Funktionierens‘ kann man das Gehirn mit dem Nervensystem von daher als eine Art ‚Meta-System‘ verstehen, in dem sich Eigenschaften aller anderen ‚Körpersysteme‘ ‚abbilden‘, eine ‚prozesshafte Deutung‘ finden, und mit Hilfe dieser Abbildungen und Deutungen bis zu einem gewissen Grad beeinflusst (= ‚gesteuert‘) werden können.

Wie die modernen empirischen Wissenschaften immer mehr durch ihre Untersuchungen und anschließenden ‚Deutungen‘ ansatzweise ’sichtbar machen‘ (z.B. [5],[6]), haben die unterscheidbaren Körpersysteme selbst eine sehr hohe Komplexität mit einer ihnen eigenen ‚Autonomie‘ (Magen, Leber, Niere, Herz, …), die nur bedingt vom Gehirn beeinflussbar sind, die umgekehrt aber auch das Gehirn beeinflussen können. Dazu kommt ein kaum überschaubare Menge an wechselseitigen Beeinflussungen über die ungeheuren ‚Stoffströme‘ im Blutkreislauf und in den Körperflüssigkeiten.

Für den Kontext dieses Buches interessieren hier vor allem jene Strukturen, die wichtig sind für die ‚Koordinierung der verschiedenen Gehirne‘ mittels ‚Sprache‘ und eng damit verknüpft die ‚kognitiven‘ und ‚emotionalen‘ Prozesse im Gehirn, die dafür verantwortlich sind, welche ‚kognitiven Bilder im Kopf‘ entstehen, mit denen ein Gehirn ’sich selbst‘ und ‚alles andere‘ ‚interpretiert‘.

Wie den Menschen beschreiben?

Die Beschreibung der menschlichen Zell-Galaxie in der Art von ‚Subsystemen‘ mit ihrem eigenen ‚Input‘ und ‚Output‘ und dazu gehörigen ‚inneren Prozessen‘ — hier einfach ‚Systemfunktion‘ genannt — kann auf den ersten Blick ‚einfach‘ erscheinen, ’normal‘, oder auch nicht. Wir betreten mit dieser Frage die grundsätzliche Frage, wie wir überhaupt die menschliche Zell-Galaxie — also ‚uns selbst‘! — beschreiben können und darüberhinaus vielleicht beschreiben ’sollten‘: gibt es irgendwelche Kriterien, aufgrund deren wir eine ‚bestimmte Beschreibungsweise‘ bevorzugen sollten?

Wenn wir im Fall der Beschreibung der ‚Natur‘, der ‚realen Welt‘ vielleicht noch unterscheiden können zwischen ‚uns‘ und der ‚Natur‘ (was aber, wie sich später zeigen wird, ein nicht unerheblicher Trugschluss ist)), wird es bei der ‚Beschreibung von uns selbst‘ etwas schwieriger. Wenn man etwas beschreiben will, benötigt man bestimmte Voraussetzungen, um eine Beschreibung vornehmen zu können. Wie ist aber die Lage, wenn wir uns — mit noch zu klärenden Voraussetzungen — selbst beschreiben wollen? Beißt sich da nicht die berühmte ‚Katze in den eigenen Schwanz‘?

Im ’normalen Alltag‘ [9] sind typische Formen, mit denen wir ‚etwas anderes‘ beschreiben neben z.B. ‚Bildern‘, ‚Fotografien‘, ‚Videos‘, ‚Musik‘, ‚Körperbewegungen‘ und anderem, vor allem aber sprachliche Ausdrücke (gesprochen, geschrieben; Alltagssprache, Fachsprache; …).

Bleiben wir für einen Moment bei der ‚Alltagssprache (Deutsch, Englisch, Italienisch, …).

Als Kinder werden wir in eine bestimmte, schon bestehende Welt mit einem jeweiligen ‚Alltag‘ hinein geboren. In der Umgebung wird mindestens eine Sprache gesprochen. Wenn die Eltern zweisprachig sind sogar zwei Sprachen parallel. Wenn die Umgebung sich von der Sprache der Eltern unterscheidet dann vielleicht sogar drei Sprachen. Und heute, wo auch die Umgebung immer ‚inter-kultureller‘ wird, vielleicht sogar noch mehr als drei Sprachen …

Wie viele Sprachen auch immer gleichzeitig für einen Menschen auftreten, jede Sprache hat ihre eigenen ‚Regeln‘, ihr eigene ‚Aussprache‘, ihren eigenen ‚Kontextbezug‘, ihre eigenen ‚Bedeutungen‘. Diese Kontexte können sich ändern; die Sprache selbst kann sich ändern. Und wenn jemand nicht nur mit einer Sprache aufwächst, sondern mit mehr als einer, dann kann es ‚im Menschen‘, im ‚Sprecher-Hörer‘, natürlich zu vielfältigen Wechselwirkungen zwischen den verschiedenen Sprache kommen. Da dies heute an vielen Orten gleichzeitig mit immer mehr Menschen geschieht, gibt es noch kaum ausreichende Forschungsergebnisse, die diese Vielfalt in ihren Besonderheiten ausreichend beschreiben.

Wollen wir also ‚uns selbst‘ als ‚Teil der realen Welt‘ beschreiben, sollten wir zunächst mal akzeptieren und ‚bewusst annehmen‘, dass wir im Moment des Beschreibens nicht bei ‚Punkt Null‘ anfangen, nicht als ‚unbeschriebenes Blatt‘, sondern als ein biologisches System, das einen mehr oder weniger langen ‚Lernprozess‘ hinter sich hat. Dabei ist das Wort ‚Lernprozess‘ als Teil der Sprache, die der Autor benutzt, natürlich keine ’neutrale Buchstabenreihe‘, sondern ebenfalls ein ‚Wort‘ seiner Sprache, die er mit vielen anderen Sprechern des ‚Deutschen‘ teilt, und man muss davon ausgehen, dass jeder ‚Sprecher des Deutschen‘ mit dem Wort ‚Lernprozess‘ seine eigenen ‚individuellen Vorstellungen‘ verbindet. Und auch dieses Wort ‚Vorstellungen‘ ist so ein Wort, das als Teil der gesprochenen (und geschriebenen) Sprache normalerweise nicht ‚Bedeutungsfrei‘ daher kommt. Kurzum, sobald wir sprechen, sobald wir Worte in größeren Einheiten zu Aussagen verknüpfen, aktivieren wir eine Menge von ‚Wissen und Fertigkeiten‘, die ‚in uns‘ irgendwie ‚vorhanden‘ sind, die wir ‚automatisch‘ benutzen, und deren Nutzung im Normalfall weitgehend ‚unbewusst‘ ist.[10]

Wenn ich als Autor dieses Textes jetzt Aussagen in der Deutschen Sprache hinschreibe, lasse ich mich quasi von einer ‚Welle tragen‘, deren genaue Beschaffenheit und Wirksamkeit ich im Moment des Gebrauchs nicht vollständig erfassen kann (und das geht jedem Sprachbenutzer so). Ich kann allerdings, wenn ich mich geäußert habe, das Geäußerte anschauen (anhören), und dann schauen, ob und wie ich das in mir bekannte Kontexte einordnen kann. Da allerdings auch das ‚mir Bekannte‘ weitgehend ‚unbewusst‘ ist und nur bei geeigneten ‚Anregungen‘ vom ‚unbewussten Wissen‘ ins ‚bewusste‘ Wissen übergeht, ist die Aufgabe einer ‚Klärung des Redens‘ und der damit verknüpften ‚Bedeutung‘ immer nur fragmentarisch, partiell möglich. Das ‚bewusste Auge des Wissens‘ ist daher eher vergleichbar einer ‚leuchtenden Wissensblase‘ im schwarzen Meer des ‚unbewussten Wissens‘ oder des ‚Nicht-Wissens‘.

Fortsetzung

Sprache und Strukturen – Die Fiktion eines ‚Seins‘

KOMMENTARE

wkp := Wikipedia

[1] In der Mikrobiologie als Teil der Evolutionsbiologie hat man ansatzweise erkannt, wie die einzelnen Zellen während des ‚Wachstumsprozesses‘ mögliche Kooperationen mit anderen Zellen über chemische Stoffe ‚kommunizieren‘, die von ihrem jeweiligen individuellen ‚genetischen Programm‘ ‚kontrolliert‘ werden. Diese Prozesse kann man sehr wohl als ‚Austausch von Signalen‘ beschreiben, wobei diese ‚Signale‘ nicht isoliert auftreten, sondern durch das genetische Programm ‚in Beziehung gesetzt‘ werden zu anderen chemischen Stoffen und Prozessschritten. Durch dieses ‚In-Beziehung-Setzen‘ werden die an sich isolierten chemischen Signalträger in einen ‚Raum von Bedeutungen‘ eingebettet, aus dem heraus sie eine ‚Zuordnung‘ finden. Dieser Gesamtprozess erfüllt alle Anforderungen an eine ‚Kommunikation‘. Insofern erscheint es gerechtfertigt, von einer ‚Verabredung‘ zwischen den einzelnen Zellen zu reden, einer ‚Verständigung‘ darüber, ob und wie sie miteinander ‚kooperieren‘ wollen.

[2] Bei komplexen Verbindungen zwischen Zellen denkt man möglicherweise zuerst an die Zellen im Gehirn (‚Neuronen‘), von denen bestimmte Typen an die 1000 Dendriten (:= dies sind Fortsätze auf einem ‚Axon‘ und ein Axon ist der ‚Ausgang‘ an einem Neuron) haben können, wobei jeder Dendrit mehrere Synapsen beherbergen kann.[3] Da jede Synapse Endpunkt einer Verbindung zu einer anderen Synapsen sein kann, deutet sich an, dass hier ein komplexes Netzwerk in der Größenordnung von Billionen (10^12) Verbindungen in einem Gehirn existieren kann. Daneben gibt es aber auch das System der Blutgefäße, die den ganzen Körper durchziehen und die die ca. 36 Billionen (10^12) Körperzellen mit unterschiedlichen chemischen Stoffen versorgen.

[3] wkp [EN], Neuron, URL: https://en.wikipedia.org/wiki/Neuron, Abschnitt ‚Connectivity‘, Zitat: „The human brain has some 8.6 x 1010 (eighty six billion (DE: Milliarden)) neurons.[25] Each neuron has on average 7,000 synaptic connections to other neurons. It has been estimated that the brain of a three-year-old child has about 1015 synapses (1 quadrillion (DE: Billiarden)). This number declines with age, stabilizing by adulthood. Estimates vary for an adult, ranging from 1014 to 5 x 1014 synapses (100 to 500 trillion (DE: Billionen)).[26]

[4] wkp [DE], Wissenschaftliche Notation, URL: https://de.wikipedia.org/wiki/Wissenschaftliche_Notation. z.B. ’10^12 = Billion, 10^15 = Billiarde).

[5] Robert F.Schmidt, Gerhard Thews (Hrsg.), 1995, Physiologie des Menschen, 25.Auflage, Springer Verlag

[6] Niels Birbaumer, Robert F.Schmidt, 2006, Biologische Psychologie, 6.Aufl., Springer Verlag

[7] Berühmt das Beispiel des ‚Auto-Piloten‘ im Flugzeug, eine Software, die das gesamte Flugzeug ohne menschliches Zutun ’steuern‘ kann.

[8a] So wird die Stellung der Gelenke kontinuierlich zum Gehirn gesendet und für den Fall einer ‚gezielten Bewegung‘ wird die Menge der aktuellen Gelenkstellungen benutzt, um eine ‚geeignete Bewegung‘ anzustoßen, indem entsprechende Signale ‚vom Gehirn an die Muskeln‘ gesendet werden.

[8b] Wie neuere Forschungen zeigen, ist das Wechselspiel zwischen dem Gehirn un den übrigen Zellen im Körper aber möglicherweise noch dichter und umfassender, als man lange Zeit gedacht hat. Dies entdeckten Forscher, die einem Wechselspiel zwischen Tumorzellen und dem Gehirn auf die Spur gekommen sind: LINA ZELDOVICH, (12.Aug.2022), Cancer’s Got a Lot of Nerve. Tumors recruit the nervous system to help them spread. Scientists are looking for ways to stop it, in: NAUTILUS: SCIENCE CONNECTED, URL: https://nautil.us/cancer-has-got-a-lot-of-nerve-238530/?_sp=bfc8e1c5-77f0-4b75-b806-dd5c2fb84451.1675160065693

[9] Natürlich auch eine gewisse Fiktion, weil jeder letztlich bis zu einem gewissen Grad ’seinen Alltag‘ erlebt, der sich mit dem ‚Alltag eines anderen‘ nur teilweise überschneidet.

[10] Wenn Kinder in der Schule zum ersten Mal mit dem Konzept einer ‚Grammatik‘ konfrontiert werden, mit ‚grammatischen Regeln‘, werden Sie nicht verstehen, was das denn ist. Anhand von konkreten Sprachbeispielen werden sie zwar den einen oder anderen ‚grammatischen Ausdruck‘ mit sprachlichen Phänomenen ‚verknüpfen‘ können, aber wirklich verstehen werden sie das Konzept der Grammatik nicht. Dies liegt daran, dass die gesamten Prozesse, die sich im ‚Innern eines Menschen‘ abspielen, bis heute nur sehr rudimentär erforscht sind. Für die Formulierung einer alltagsnahen Grammatik reicht es auf keinen Fall.

[11] Karl Erich Heidoplh, Walter Flämig, Wolfgang Motsch (Hrdg.),(1980), Grundzüge einer Deutschen Grammatik, Akademie-Verlag, Berlin. Anmerkung: Die wohl bislang am weitesten systematisierte Grammatik des Deutschen, die von einem Deutschen Autorenkollektiv (damals noch DDR) erarbeitet worden ist. Gerade weil der Ansatz sehr systematisch war konnten die Autoren klar erkennen, dass die Grammatik als Beschreibung der ‚regelhaften Formen‘ dort ihre Grenzen erreicht, wo die ‚Bedeutung‘ der Ausdrücke in Spiel kommen. Da ‚Bedeutung‘ einen Sachverhalt umschreibt, der sich im ‚Innern des Menschen‘ abspielt (natürlich in intensiver Wechselwirkung mit Interaktionen des Körpers mit der Umgebung), ist eine umfassende objektive Beschreibung des Faktors Bedeutung in Interaktion mit den Formen immer nur partiell möglich.

REVIEW KONFERENZ: Partizipation und Nachhaltigkeit in der Digitalität, 7.-8.Dezember 2022

(Letzte Änderung: 4.Januar 2023)

Kontext

Dieser Text ist Teil des Review Bereichs von Citizen Science 2.0.

Inhalt

Im folgenden handelt es sich um einen Bericht und einen Kommentar zu einer Konferenz. Dieser Bericht repräsentiert eine Einzelmeinung. Sollten sich weitere Beteiligte explizit äußern, so könnte man den Bericht und den Kommentar entsprechend erweitern.

  1. Die Konferenz
  2. EINLEITUNG
    • Begrifflicher Kontext
    • Konzept Intelligenz
    • Konzept Nachhaltigkeit
    • Kontext Gesellschaft
    • Partizipation
  3. KONFERENZBEITRÄGE (Letzte Änderung: 4.Januar 2023)
    • Teil 1: Verwaltungen und die Herausforderung von Bürger:innenbeteiligung für Sozial- und Umweltverträglichkeit. Moderation: Prof‘in Dr. Birgit Blättel-Mink, Goethe-Universität Frankfurt am Main
    • Dr. Michael Zschiesche, Unabhängiges Institut für Umweltfragen (UFU): Digitalisierung in der Öffentlichkeitsbeteiligung – Stand und Perspektiven
    • Überleitender Kommentar
    • Prof. Dr. Frank Brettschneider, Universität Hohenheim Digitalisierung mit Bürger:innenbeteiligung / Bürger:innenbeteiligung mit digitalen Instrumenten
    • Podiumsdiskussion: Prof‘in Dr. Birgit Blättel-Mink, Goethe-Universität Frankfurt am Main, Prof. Dr. Jörn Lamla, Universität Kassel, Prof. Dr. Christian Schrader, Hochschule Fulda
    • Überleitung zu Teil 2
    • Teil 2: Citizen Science, Sustainability and Digitality
      Moderation: Prof. Dr. Matthias Söllner, Universität Kassel
    • Dr. Katrin Vohland, Naturhistorisches Museum Wien
      Citizen Science and Sustainability – Large expectations and Some Challenges
    • Prof. Dr. Yen-Chia Hsu, University of Amsterdam
      Empowering Local Communities Using Artificial Intelligence
    • Podiumsdiskussion: Prof. Dr. Gerd Döben-Henisch, Frankfurt University of Applied Sciences, Franziska Ohde, Goethe-Universität Frankfurt am Main, Prof. Dr. Matthias Söllner, Universität Kassel
  4. DISKUSSION NACH DER KONFERENZ
  5. AUSBLICK
  6. KOMMENTARE

Die Konferenz

Wie man aus der Programmankündigung ersehen kann, wurde diese Konferenz organisiert von der Projektgruppe „Nachhaltige Intelligenz –
Intelligente Nachhaltigkeit [NI-IN]“
des Zentrums für verantwortungsbewusste Digitalisierung (ZEVEDI). Es war die zweite Konferenz, die von dieser Forschungsgruppe organisiert worden ist. Der Autor dieses Textes ist Mitglied dieser Projektgruppe.

I. EINLEITUNG

Begrifflicher Kontext

Wie man aus dem Projektthema der NI-IN Projektgruppe ersehen kann, Enthält die Aufgabenstellung ein ‚Oberthema‘ mit „Nachhaltiger Intelligenz – Intelligenter Nachhaltigkeit“ und dazu eine Reihe von ‚Teilaspekten‘, die sich diesem Oberthema zuordnen lassen. Das Konferenzthema „Partizipation und Nachhaltigkeit in der
Digitalität“ kommt dabei mit diesem Wortlaut weder im Oberthema der Projektaufgabenstellung explizit vor noch in den aufgezählten Teilaspekten. Dies hat seinen Grund darin, dass während der Forschungsarbeit seit Juli 2021 die nicht ganz einfachen Begriffsfelder schrittweise analysiert worden sind und aufgrund dieser Analyse verschiedene strukturelle Bedeutungsfelder mit wichtigen strukturellen Beziehungen sichtbar geworden sind. Eine grobe Skizze der analysierten Begriffen mit Bedeutungsfeldern könnte man so umschreiben (Sicht des Autors; in den Augen der anderen Projektmitgliedern möglicherweise anders akzentuiert):

BILD: Begriffsfeld ‚Nachhaltigkeit – Intelligenz‘ mit Teilbereich ‚Fokus der Tagung‘

Schon die beiden Leitbegriffe ‚Nachhaltigkeit‘ und ‚Intelligenz‘ lassen sich ‚jeder für sich‘ nicht so ohne weiteres analysieren. Noch gewagter wird es, wenn man das ‚Zusammenspiel‘ betrachten will. Liebhaber der ‚klaren Verhältnisse‘ dürften an dieser Stelle dahin tendieren, die ‚Büchse der Pandora‘ erst gar nicht zu öffnen. Leidenschaftliche Forscher mit eingebauter Neugier und ein gewisser Risikobereitschaft fühlen sich aber vielleicht ‚angelockt‘. Fakt ist, dass die Projektgruppe versucht hat, sich diesem konzeptuellen ‚Dickicht‘ ein wenig zu nähern. Aufgrund der disziplinären Vielfalt der Projektgruppe gab es viele interessante Perspektiven, die zueinander finden mussten. Solch ein ‚zueinander finden‘, das zudem idealerweise in dem heute so modischen Format der ‚Transdisziplinarität‘ stattfinden sollte, braucht allerdings naturgemäß erheblich mehr Zeit, als wenn nur Fachkollegen einen Austausch pflegen. Im heutigen Professorendasein ist angesichts der vielfältigen Verpflichtungen Zeit aber Mangelware. Die Suche war somit von Beginn her endlich dimensioniert.

Konzept Intelligenz

Das Konzept Intelligenz ist bis heute weder im Bereich der biologischen Systeme noch im Bereich der nicht-biologischen Systeme, hier den Maschinen, hinreichend erklärt. Dies ist sehr misslich.

Während die Wissenschaften in den letzten 120 Jahren für biologische Systeme erste Konzepte entwickelt haben, die über alle biologische Systeme hinweg empirische anwendbar sind wie auch begrenzte Vergleiche zwischen biologischen Systeme hinsichtlich von definierten Intelligenzeigenschaften zulassen, kann man dies für die maschinellen Systeme nicht behaupten. Hier gibt es weder einen einheitlichen Intelligenzbegriff noch lassen die verschiedenen Begriffe einen einheitlichen Vergleich über alle Systeme hinweg zu. Die maschinellen Intelligenzbegriffe sind sehr speziell. Ein Vergleich zwischen biologischer und maschineller Intelligenz ist von daher in der Regel nicht einfach möglich.

Erschwerend kommt hinzu, dass nahezu alle Intelligenzbegriffe — für biologische wie auch maschinelle Systeme — Eigenschaften ‚individueller‘ Systeme beschreiben, niemals ‚kollektive Intelligenzleistungen‘! Im Falle von biologischen Systemen, die überwiegend in Populationen bzw. hochspezialisierten ‚Gesellschaften‘ auftreten, nützen diese individuellen Intelligenzbegriffe wenig. Eine irgendwie bizarre Situation: angekommen im ‚Anthropozän‘ in einer sogenannten ‚Wissenschaftsgesellschaft‘ weiß der Mensch bislang nicht so recht, was es mit seiner ‚Kollektiven Intelligenz‘ auf sich hat. Ein interessanter Ausgangspunkt auf dem Weg in eine unbekannte Zukunft.

Andererseits haben führende Forscher der maschinellen Intelligenz mittlerweile erkannt, dass maschinelle Intelligenz in der Zukunft nur dann für die menschliche Population von Nutzen sein kann, wenn besser verstanden wird, was genau diese kollektive menschliche Intelligenz ist, und wie in diesem — bislang noch wenig erforschten — Raum kollektiver Intelligenz maschinelle Intelligenz von Nutzen sein kann, um eine globale nachhaltige Biosphäre mit den Menschen als Teil davon zu ermöglichen. [3]

In diesem Zusammenhang muss man auch nochmals darauf hinweisen, dass das neue Konzept ‚Digitalität‘ in den Gesellschaftswissenschaften sich großer Beliebtheit erfreut, dass es aber in seinem Gehalt schwer bis gar nicht erläutert werden kann. Naheliegend ist, dass man die ‚Bedeutung‘ des Konzepts ‚Digitalität‘ im Interaktionsfeld von menschlicher Gesellschaft und jener ‚Technologie‘ ansiedelt, die oft ‚digitale Technologie‘ genannt wird. Der Begriff der ‚digitalen Technologie‘ ist aber ebenfalls ein ‚Bedeutungsmonster‘, da hier zunächst mal alles drunter fällt, was irgendwie in Beziehung gesetzt werden kann zu einer ‚Hardware‘, in der ‚digitale Baueinheiten‘ benutzt werden. Das reicht dann von einfachsten ‚Chips‘ zu komplexen Chips mit unterschiedlichsten Funktionalitäten, die in mehr oder weniger komplexen größeren Einheiten ‚verbaut‘ sind: diverse Maschinen, Maschinenaggregationen, Computernetzwerke, komplexe Rechenzentren, Fahrzeugen, Schiffen, Flugzeuge, Gebäude, medizinische Geräte, Waffensysteme, Gebrauchsgegenstände und vieles mehr. Jedes dieser technische System beinhaltet unterschiedlich Algorithmen von bis zu vielen Millionen Zeilen Code, die unfassbar viele verschiedene ‚Verhaltensweisen‘ dieser technische Systeme ermöglichen. Ein Versuch, die Vielzahl dieser Systeme — sowohl bzgl. der Hardware wie auch bzgl. der Software und dann auch bzgl. der daraus resultierenden Verhaltensdynamik — in ihrer Gesamtheit zu beschreiben ist schon im Ansatz gnadenlos zum Scheitern verurteilt. Dieses ‚Mega-Bedeutungsmonster‘ mit einem Konzept wie ‚Digitalität‘ ‚einzufangen‘, ihm dadurch seine ‚Ungeheuerlichkeit‘ zu nehmen, ist psychologisch verständlich, gaukelt aber eine Klarheit und Einfachheit vor, die es real schlicht nicht gibt. Tatsächlich haben wir als Gesellschaft ein akutes Problem, das sich durch ’schöne Worte‘ allein nicht befrieden lässt.

Konzept Nachhaltigkeit

Eine Analyse des Bedeutungsraumes des Konzepts ‚Nachhaltigkeit‘ ist — falls man den Vergleich überhaupt wagen will — um Dimensionen schwieriger als der Bedeutungsraum zum Konzept ‚Intelligenz‘.

Eine mögliche Strategie der ‚Begrenzung‘ des Bedeutungsraums ist der Blick auf die Konferenzen und Dokumente der Vereinten Nationen seit ca. den 1980iger Jahren, ein Ansatz, den die Projektgruppe zunächst gewählt hatte.

Am ‚populärsten‘ sind die 17 Entwicklungsziele der Agenda 2030. [1a,b] Wie aber schon mehrfach beobachtet, ist die Bedeutungsfestlegung der einzelnen Entwicklungsziele eher schwierig; ihre Beziehungen untereinander zeigen viele Konflikte; der tatsächliche Bezug zum Konzept ‚Nachhaltigkeit‘ ist nicht ganz klar: welche Art von Nachhaltigkeit ist gemein?

Folgt man der Entwicklung des UN-Konzepts zur ‚Nachhaltigkeit‘ rückwärts zu den ‚Anfängen‘, dann stößt man auf den sogenannten ‚Brundtland Report‘ von 1987. In ihm ringen die Verfasser um die grundlegende Idee, was Nachhaltigkeit bedeuten kann. [2]

Im Brundtland Report steht der Mensch im Zentrum der Überlegungen: letztlich ist es das ‚Verhalten‘ der Menschen, das ‚Auswirkungen‘ auf den Planet Erde wie auch auf die gesamte ‚Biosphäre‘ hat, von der die Menschen einen kleinen Teil bilden. Und beim Menschen wird das Verhalten entscheidend von seinem ‚Wissen‘ im allgemeinsten Sinne geprägt. Wissen kann ein differenziertes Verhalten ermöglichen, ob dies aber tatsächlich geschieht und wie genau, das entscheiden dann die aktuellen Emotionen mit all ihren Facetten.

Für das Konzept des Wissens ist zu beachten, dass es für eine minimale Beschäftigung mit einer möglichen Zukunft unabdingbar ist, dass das verfügbare Wissen sich in einem Zustand befindet, der nachvollziehbare und belastbare ‚Prognosen‘ möglich macht, andernfalls paralysiert sich das Wissen selbst: die Menschen taumeln dann gleichsam ‚in einer Wolke von Möglichkeiten‘ dahin, ohne klare Ziele, ohne brauchbare Abstimmungen.

Das einzige Format in der bisherigen Kulturgeschichte der Menschheit, das über diese Eigenschaft ’nachvollziehbarer und belastbarer Prognosen‘ bietet, ist das Konzept der ‚empirischen Wissenschaften‘.[4]

Kontext Gesellschaft

Die abstrakten Konzepte ‚Intelligenz‘ und ‚Nachhaltigkeit‘ können auf bestimmte ‚Strukturen‘ hindeuten, die ‚Realisierung‘ dieser Strukturen findet aber in konkreten gesellschaftlichen Systemen statt, deren Realitäten letztlich festlegen, was wie wann und wo real stattfinden kann.

Autoritäre Gesellschaftssysteme bieten andere Realisierungsbedingungen als ‚demokratisch verfasste‘ Systeme. ‚Verfassungen‘ präzisieren die ‚Rahmenbedingungen‘ für mögliches ‚legales Handeln‘ weiter, dazu Verfassungsorgane, eine Vielzahl von Verwaltungseinheiten, und vieles mehr . Die entsprechenden Text-Dokumente beschreiben mit mehr oder weniger ‚abstrakten Konzepten‘, was möglicherweise ‚konkret‘ stattfinden kann/ sollte oder auch nicht.

Eigentlich ist die Gesamtheit der Akteure einer Gesellschaft, die Gesamtheit der Bürger, der grundlegende ‚Souverän‘ für all diese ‚Festlegungen‘. Sobald aber dieser primäre Souverän dieses ‚System von Regeln‘ verabschiedet hat, hat er sich quasi ’selbst verpflichtet‘ und ist fortan auf diese Weise ein ‚kontrollierter primärer Souverän‘, dessen ‚Macht‘ — der regelbasierten Intention nach — nur noch innerhalb der vereinbarten Regeln wirksam werden sollte.

Ein fundamentales Charakteristikum einer regelbasierten Machtausübung — zumindest wie sie in Deutschland verstanden und praktiziert wird — besteht darin, dass der Bürger als Entscheider — ausgenommen von politischen Wahlen — praktisch eliminiert ist. Was immer ein Bürger fühlt, denkt, tut, es hat keinen offiziellen Einfluss mehr auf die ‚legalen Entscheider‘ auf allen Ebenen.

Im Idealfall sind die ‚legalen Entscheider‘ (i) offen für die Bedürfnisse der Bürger, für die Notwendigkeiten der Gestaltung von Kommunen, Landkreise usw., sie besitzen (ii) hinreichende Kompetenzen, um die jeweiligen Situationen angemessen beurteilen zu können, und (iii) sie sind fähig, in den vielfältigen Gremien Emotionen beiseite zu lassen und entscheiden nach dem verfügbaren Wissen. Falls diese Forderungen nicht angemessen erfüllt werden, hat die Gesellschaft beliebig viele Probleme.

Ohne Bezugnahme auf viele hier relevante Details kann man mit Sicherheit voraussagen, dass eine Nichterfüllung der Anforderungen (i) – (iii) — nennen wir diese Anforderungsliste das ‚Legalistische Entscheider Profil‘ — sich unmittelbar auf den Zustand einer ‚legal regulierten Gesellschaft‘ auswirken wird. So können z.B. aktuell gegebene Problemstellungen zu wenig erkannt werden, dementsprechend werden sie nicht bearbeitet, und können frühestens im zeitlichen Takt der ‚politischen Wahlen‘ neu angestoßen werden; und dann ist nicht sicher, dass die neu Gewählten die ungelösten Probleme dann aufgreifen werden. Für Problemstellungen mit einer Wirkgeschichte von vielen Jahren erscheint die Lage sogar tendenziell hoffnungslos.

Wer mit der Brille dieser kurzen Bemerkungen auf die aktuelle Situation der Bundesrepublik Deutschland schaut, und die lange Liste ungelöster Probleme der letzten Jahre anschaut, der kann möglicherweise den Eindruck gewinnen, dass …

Partizipation

Mit Blick auf das ‚legalistische Entscheider Profil‘ kann man — unter Berücksichtigung der Erfahrung von ca. 77 Jahren demokratische Gesellschaft in Deutschland — feststellen, dass keine der drei Anforderungen voll erfüllt wird. Eher muss man sagen, dass alle drei Anforderungen vielfach nicht erfüllt werden. Diese Nichterfüllung liegt nicht daran, dass die legalen Entscheider möglicherweise ‚unlautere Absichten‘ verfolgen (was im Einzelfall natürlich nicht ausgeschlossen werden kann und auch schon nachgewiesen wurde), sondern daran, dass die zahlenmäßig verschwindet geringe Menge der legalen Entscheider verglichen mit der ungeheure Menge der Bürger und der unfassbar vielen komplexen Problemstellungen objektiv nicht in der Lage ist, die Anforderungen (i) – (iii) auch nur annähernd zu erfüllen, selbst wenn die legalen Entscheider es ernsthaft wollten.

In dieser Situation bieten sich viele Antworten an. Die Skala reicht von ‚totaler Abschaffung dieses Systems‘ bis hin zu unterschiedlich moderierten Formen der ‚Partizipation‘ der Bürger.

Während die ‚totale Abschaffung‘ kurzfristig ein ‚relatives Übel‘ beseitigen würde (was möglicherweise aber gar nicht so rein ‚Übel‘ ist, wie man es unterstellt), würden wir uns im nächsten Moment im ‚totalen Chaos‘ wiederfinden, in dem eher nichts mehr gehen würde. Komplexität löst man nicht durch grobe Vereinfachungen.

Im Falle der Aktivierung von ‚unterschiedlich moderierten Formen der Partizipation‘ würde das System der ‚legalen Entscheider‘ im Prinzip erhalten bleiben, die einzelnen Anforderungen des ‚legalistischen Entscheider Profils‘ könnten aber deutlich besser als ohne Partizipation erfüllt werden.

An dieser Stelle setzt die Konferenz ein. Siehe dazu Teil 2:

II. KONFERENZBEITRÄGE

III. DISKUSSION NACH DER KONFERENZ

IV. AUSBLICK

KOMMENTARE

[1a] Weltgipfel für nachhaltige Entwicklung 2015: https://de.wikipedia.org/wiki/Weltgipfel_f%C3%BCr_nachhaltige_Entwicklung_2015

[1b] Entwurf des Ergebnisdokuments des Gipfeltreffens der
Vereinten Nationen zur Verabschiedung der Post-2015-
Entwicklungsagenda
: https://www.un.org/depts/german/gv-69/band3/ar69315.pdf

[2] UN. Secretary-General;World Commission on Environment and Development, 1987, Report of the World Commission on Environment and Development : note / by the Secretary-General., https://digitallibrary.un.org/record/139811 (accessed: July 20, 2022) (In einem besser lesbaren Format:  https://sustainabledevelopment.un.org/content/documents/5987our-common-future.pdf) Anmerkung: Gro Harlem Brundtland (ehemalige Ministerpräsidentin von Norwegen) war die Koordinatorin von diesem Report.(Dieser Text enthält die grundlegenden Ideen für alle weiteren UN-Texte)

[3] Michael L. Littman, Ifeoma Ajunwa, Guy Berger, Craig Boutilier, Morgan Currie, Finale Doshi-Velez, Gillian Hadfield, Michael C. Horowitz, Charles Isbell, Hiroaki Kitano, Karen Levy, Terah Lyons, Melanie Mitchell, Julie Shah, Steven Sloman, Shannon Vallor, and Toby Walsh. “Gathering Strength, Gathering Storms: The One Hundred Year Study on Artificial Intelligence (AI100) 2021 Study Panel Report.” Stanford University, Stanford, CA, September 2021. Doc: http://ai100.stanford.edu/2021-report.

[4] Neben der ‚empirischen Wissenschaft‘ selbst, die in Europa grob im 16.Jahrhundert begann, gibt es auch von Anfang an eine philosophische Beschäftigung mit dem Thema, das gegen Ende des 19.Jahrhunderts, Anfang des 20.Jahrhunderts unter der Bezeichnung ‚Wissenschafts-Philosophie‘ bekannt wurde (in Deutschland auch gerne ‚Wissenschaftstheorie‘ genannt).

Noch nicht fertig,

es wird dran gearbeitet 🙂

Besprechung Science and the Citizen von Warren Weaver

Autor: Philipp Westermeier (philipp@oksimo.org)

(Letzte Änderung: 15.12.2022)

Dieser Text ist Teil des Review Bereichs von Citizen Science 2.0.

In Science and the Citizen, einem im Dezember 1957 in „Science“ und „Bulletin of Atomic Science“1 erschienenen Artikel skizziert Warren Weaver sein Verständnis vom Verhältnis von Wissenschaft und Gesellschaft, von Wissenschaftler und Bürger.
Weaver steigt ein mit einem Bild einer sich Mitte des 17. Jahrhunderts in einer londoner Taverne treffenden „Gruppe von Gentlemen“(u.a. Robert Boyle und Benjamin Franklin), die sich bei ihren wöchentlichen Treffen über die neuen Entdeckungen der Wissenschaft austauschen. In dieser Gruppe befanden sich „members of the Parliament, critics, civil servants, and pamphleteers“ die jeden Donnerstag zusammentrafen; „[they] [carried] out experiments, […] [ate] and [drank] together, but primarily they met there to discuss science“ (S. 361). Die Industrielle Revolution war noch weit entfernt, Wissenschaft war damals bloßer „intellectual luxury“, doch begründeten diese Treffen nach Weaver die Royal Society, die fast drei Jahrhunderte lang das Zentrum der westlichen Wissenschaften ausmachte.

Weaver zählt alltägliche Geräte auf, wie den Fernseher, das Auto und die elektrische Decke, um auf die weite Verbreitung von Technologien bzw. Praktiken aufmerksam zu machen, die direkt aus bzw. durch wissenschaftliche Erkenntnisse entstanden sind. Unsere Kleidung kommt bspw. Auch nicht (mehr) von den „backs of sheep, but from test tubes“ (362). Er konstatiert: „[W]hen we entered the nucleus of the atom we opened a Pandora’s box of problems of the most complex and formidable kind“ (ebd.). Daraus folgt für Weaver, dass durch diesen Prozess des ‚Fortschritts‘ Schönheit, Bereicherung und „inescapably scienfitic problems“ zusammenkommen – wie die nukleare Selbstzerstörung und die Möglichkeit des Einflusses der Menschen auf ihr Klima – wobei beides für jeden Bürger einer modernen, ‚freien‘ Demokratie gleichermaßen gelte. Daher muss auch jedem Bürger bewusst sein, dass eine Ignoranz bzw. ein Unwissen bzgl. Wissenschaftlicher Erkenntnisse nicht mehr möglich ist.

Demokratie und Wissenschaft sind wohl ineinander verflochten, ob das auch für Bürger und Wissenschaftler gilt, ist nicht ganz so einfach zu klären. Was sich für die Wissenschaft ergibt ist, für Weaver, das Rekrutieren und Ausbilden von genug ‚Scientists‘ (Im deutschen Hochschulsystem wären das die MINT-Fächer) und gleichzeitig die Sichterstellung des „recruitment and training of enough good philosophers, businessmen, poets, doctors, musicologists, lawyers, theologians, etc.“, was wohl nicht zwangsläufig zusammenfallen muss.
Denn wenn wir unseren Horizont nicht erweitern, Wissenschaft nicht nur um ihrer Möglichkeiten zur Technisierung und Optimierung willens zu betrachten, sondern auch die „deeper aspects“ in den Blick nehmen; „[…] its capacity to release the mind from its ancient restraints, its ability to deepen our appreciation of the orderly beauty of nature, the essential and underlying humbleness of its position, the emphasis it places upon clarity and honesty of thinking, the richness of the partnership which it offers to the arts and to moral philosophy“(363), scheitern wir auch an der Demokratie. Er stellt die Fragen: „Who, in a democracy, really makes the decisions; and how can the decisions, in a modern scientific world, be made wisely and decently unless the public does have some real understanding of science?“(ebd.).
Für ihn ist Wissenschaft das, was Wissenschaftler machen. Wissenschaftler seien auch nur ‚ganz normale’ Menschen, durchschnittlich aber „tend to be pretty bright, and a very few of them are so exceedingly bright that they must be called geniuses“.

Denn worin die Wissenschaft gut ist, ist die Bearbeitung relativ ‚simpler‘ Probleme, physikalisch/chemischer Art. Sobald es aber um die (zu der Zeit neuen) Problemstellungen der Biologie, des Sozialen, Politische oder der Ethik geht, würden diese Beschreibungsmethoden an der erhöhten Komplexität der Phänomene scheitern.
Jedoch macht die Wissenschaft auch aus, dass immer komplexere Probleme mit immer komplexeren Problemlösungsstrategien bewältigt werden, dessen Kern das ist, was unserer Spezies den Namen Sapiens verliehen hat. Das was Wissenschaftsfähig macht, was (wissenschaftlich generierte) Fakten akzeptierbar macht, sei das zum autoritären Wissensumgang gegenläufige, also logische Präzision, persönliche Ehrlichkeit, offene Haltung, Fokus und Liebe zur Wahrheit (vgl. 363-365).
Weil das so ist, müssen Wissenschaftler immer wieder als normal gedacht werden, was laut Weaver nicht gegeben sei. Er attestiert „an uncomfrotable relation to science“, die vor und nach der der Wissenschaft auch immer anhaftenden Technisierung entsteht.
Die große Herausforderung, die Weaver am Ende an seine Leserschaft adressiert, ist der Fakt, dass der Bürger die Wissenschaft fürchtet, wo er sie verstehen sollte und dass die Wissenschaft nicht richtig über ihr tun aufklärt, obwohl das, Sir Edward V. Appleton zitierend zu ihrem gesellschaftlichen Auftrag gehört. Zwar gibt es diese Aufklärungen, Oppenheimer zitierend, über die Unvollständigkeit theoretischer Konstruktionen, jedoch auf der anderen Seite diesen Aberglauben in der Bevölkerung, die Wissenschaft könne alle Probleme lösen.

Struktur, Methode und Akteure der Wissenschaft

Weavers Wissenschaftsverständnis kann als Zwei-Ebenen-Prozessmodell verstanden werden. Die entwicklungsgeschichtliche, langfristige Prozessebene beginnt um den 15. Juli 1662, als der Royal Society Club den damaligen Forschungsstand wöchentlich in einer Taverne bespricht. Die Ebene der wissenschaftlichen Praxis – „analyzing nature“(S. 363) – besteht aus einem kleinteiligen, iterativen Prozess, „of designing experiments to lear the facts, of formulating general rules for describing nature’s uniformities, of dreaming up possible new and even more general rules, and then testing by experiment to see if the rules are valid“(ebd.).
Dialektisch kann beides in der Zusammenschau begriffen werden, „[s]tep by step and accumulatively“ (S. 363), „[o]ne stubborn and complicated problem after another has given way before the evolving techniques of science“ (S. 364).
Die WissenschaftlerInnen, welche diesen Prozess vorantreiben, sind nach Weaver vielleicht etwas „heller“, etwas interessierter an der Welt an sich und an der Lösung von Problemen die durch ihre jeweiligen Beschreibungsapparate, mit denen sie versuchen die Welt zu verstehen, entstehen. Jedoch sei der einzig große Unterschied zwischen ihnen und den „durchschnittlichen BürgerInnen“ der einer „intellectual inheritance, transmitted to them in their education as scientists, from the centuries of tradition about the scientific method and the scientific attitude toward the world“ (ebd.).
Ein Problem zwischen WissenschaftlerIn und BürgerIn besteht eben nur deshalb, weil BürgerIn „tends to fear science; when [s]he should learn about it“ (S. 365), und WissenschaftlerIn nach Sir Edward V. Appleton ihre „Mission“ nicht annehmen würde, dafür bereit zu sein, „to leave his[/her] laboratory to act as a guide“ (vgl. ebd.).

Der wissenschaftliche Prozess hat daher Erfolg, da er es schafft, einen dem Menschen eigenen Prozess der Einsicht so zu professionalisieren, dass extrem einfache Gesetze herausgearbeitet werden können, die in ihrer Zusammensetzung dann ein enormes Erklärungs- und Anwendungspotenzial aufweisen (vgl. 363-364). Diese Gesetze bauen aufeinander auf, das Komplexe baut auf dem Einfachen auf. Die moderne Physik legt den Grundstein der modernen Chemie, diese legt den Grundstein der modernen Biologie, welche wiederum den Grundstein der modernen Psychologie und Ökonomie legt. Jedoch nicht wie eine Pyramide. Es wird bei zunehmender Komplexität der Phänomene auch der Prozess komplizierter und langwieriger. Dort wo der Reduktionismus mehr oder weniger funktioniert, in der Physik oder der Chemie kommt man in der Biologie oder Verhaltensforschung nicht mehr weiter. Es stellen sich neue Herausforderungen wie Beobachtungsverfahren für Phänomene, die aus der Gleichzeitigkeit von Komplexität entstehen.

Reflexion

+++ In Bearbeitung +++

Kommentare

1 Warren Weaver, Science and the Citizens, Bulletion of the Atomic Scientists, 1957, Vol 13, pp. 361-365.

OKSIMO WELTMODELL und Nachhaltiges Wissen

UNIVERSELLE PROZESSPLANUNG
14.Aug 2021 – 14.Aug 2021
URL: oksimo.org
Email: info@oksimo.org

Gerd Doeben-Henisch (gerd@oksimo.org)

KONTEXT

Dieser Text ist Teil des Themas OKSIMO WELTMODELL im oksimo.org Blog.

DAS OKSIMO PARADIGMA, NACHHALTIGES WISSEN und WELTMODELL

Der Kern des oksimo Paradigmas besteht aus Software, die es den Benutzern — vorzugsweise größeren Gruppen — erlaubt, miteinander auf neue Weise zu kommunizieren und und zu denken, und zwar so, dass man die mögliche Nachhaltigkeit dabei — fast spielerisch — ausloten kann.

Das Entscheidende ist hierbei also nicht die Software als solche, sondern es sind diese oksimo spezifischen Handlungsräume und die darin agierenden Anwender (Bürger, Jugendliche, …), die das manifestieren, was mit oksimo Paradigma gemeint ist: ein neues, oksimo spezifisches Miteinander von Menschen. Würde man die einzelnen Komponenten aus diesem oksimo Paradigma isoliert betrachten, dann würde man die Sache selbst gerade nicht sehen; sie wäre unsichtbar. Es ist die Wechselwirkung von allen Komponenten, die das Neue möglich macht.

Es geht also im Kern um menschliche Akteure zusammen mit ihren konkreten Lebensbereichen, es geht um die sprachliche Kommunikation in den Sprachen des Alltags, und es geht um um die verschiedenen Bilder der Welt, die im Medium der Kommunikation aus den Gehirnen aller Beteiligten im gemeinsamen Tun sichtbar gemacht werden können. Die ‚Bilder der Welt‘, die jeder mit sich herumträgt, sind Sinnbilder (Metaphern) für ein vielfältiges, komplexes Wissen, was jeder einzelne durch seine individuellen Lernprozesse in sich ansammeln kann. Welches Wissen das ist, wie es zustande kommt, darüber entscheidet zu einem hohen Grad einerseits die konkrete Umwelt (was gibt es, was darf man, was kann man,…) und die Dynamik des einzelnen selbst (was will man, welche Interessen, welche Lernaktivitäten, …).

Letztendlich ist jedes Verhalten mehr oder weniger vom verfügbaren Wissen — bewusst, aber noch mehr unbewusst — bestimmt. Verhalten kann die Umgebung verändern, kann Reaktionen auslösen, bestimmt mit, was man wo wie erfahren kann. Beobachtbares Verhalten ist somit nur die Außenseite einer inneren Dynamik, die im Kern von verfügbaren Wissensbeständen und Wissensdynamiken getragen wird.

Vor diesem Hintergrund muss man das oksimo Paradigma sehen als eine ganzheitliche Herangehensweise an das Phänomen gemeinsamen Handelns unter expliziter Einbeziehung der ermöglichenden und treibenden Wissensbestände und Motive! Aber mehr noch, es wird nicht nur das verfügbare Wissen über Gestern oder jetzt berücksichtigt, sondern es wird explizit auch danach gefragt, wie sich die Beteiligten mögliche zukünftige Situationen vorstellen können, und mehr noch, welche konkreten Wege sie sich von der Gegenwart in die Zukunft vorstellen können. Es wird also ganz bewusst die gesamte mögliche Bandbreite des Wissens herausgefordert, durch die man gemeinsam mögliche Wege in eine mögliche Zukunft auslotet.

Für die in solch einem oksimo Paradigma beteiligten menschlichen Akteure ist dies das Maximum an Wissen und daran geknüpftes Verhalten, was für die konkret Beteiligten möglich ist. Da aber alle Menschen im Prinzip im Sinne des oksimo Paradigmas kooperieren können, kann so das Wissen aller Menschen im Prinzip sichtbar gemacht werden. Das oksimo Paradigma bietet dazu die einfache Möglichkeit, alle Wissensentwürfe per Knopfdruck zu einem einzigen Entwurf zu vereinigen: damit lässt sich sofort ermitteln, ob und wie die verschiedenen Sichten zusammenwirken: Sind sie unabhängig voneinander? Ergänzen sie sich? Treten direkte Konflikte auf? Weil man dies direkt sehen kann, und zwar jeder, kann man sich den Dingen stellen, kann man solche Dinge zur Sprache bringen und hat damit eine Chance, sie zu klären.

Natürlich kann man ergänzend auch noch beliebig viel künstliche Intelligenz zum Einsatz bringen, um jene Möglichkeitsräume ausloten zu lassen, die für das menschliche Gehirn schlicht zu groß sind.

Heutzutage ist das Wort Nachhaltig sehr prominent, und man hat den Eindruck, seine gesellschaftliche Bedeutung nimmt beständig weiter zu.

Beschränkte sich der ursprüngliche Gebrauch des Wortes ’nachhaltig‘ auf die Verfügbarkeit bestimmter Ressourcen (z.B. Wald) über einen längeren Zeitraum [4], so wird der Begriff mittlerweile immer mehr auf alles angewendet, dessen Bestand in der Zeit von Interesse ist (Wald, Wasser, Rohstoffe, Biodiversität, menschenfreundliche Klimaszenarien, …). [5] Im Katalog der 17 nachhaltigen Entwicklungsziele der Vereinigten Nationen [1] spiegelt sich dies ein wenig wieder: es werden viele Aspekte aufgezählt, die in der erfahrbaren Welt als wichtig angesehen werden, aber es gibt keine wirklich kohärente Ideen, die alles miteinander in eine begreifbare Beziehung setzt. Dies wird insbesondere am Entwicklungsziel 4 (SDG 4,sustainable development goal) deutlich: Es wird nicht die generelle Rolle von Wissen für den Fortbestand einer Gesellschaft und ihrer Lebenswelt betrachtet, sondern nur der Bereich der schulischen Bildung, und dies wiederum nur verpackt in traditionelle didaktische Begriffe, die die eigentliche Rolle und Dynamik von Wissen eher verdecken als fördern.[2], [3]

Tatsächlich ist es aber so, dass alle nachhaltigen Entwicklungsziele entscheidend von dem jeweils verfügbaren Wissen abhängen. Ohne das geeignete Wissen ist ein zielgerichtetes nachhaltiges Handeln nicht möglich.

Teilt man diese Einschätzung, dann stellt sich unmittelbar die Frage, wie es denn zu einem nachhaltigen Wissen in allen Bereichen kommen kann.

Aus Sicht des oksimo Paradigmas lautet die Antwort, dass möglichst viele Menschen im Sinne des oksimo Paradigmas ihr Wissen teilen und gemeinsam weiter entwickeln sollten. Nur so wäre ein Optimum an nachhaltigem Wissen möglich, das alle Ressourcen ausschöpft, die wir heute kennen (einschließlich aller Formen von künstlicher Intelligenz).

An dieser Stelle kann man vom Begriff des nachhaltigen Wissens auch eine direkte Beziehung herstellen zu einem anderen fundamentalen Begriff, der für die Nachhaltigkeit des gesamten biologischen Lebens auf der Erde zentral ist: Diversität, und zwar nicht irgendeine Diversität, sondern eine dynamische Diversität, die ihre Vielfalt in einer sich verändernden Umgebung dadurch erhält, das sie sich selbst beständig erneuert. Maturana und Varela hatten für dieses Phänomen 1972 den Begriff der Autopoiese eingeführt. [7], [8] In diesem Text hier wird der Begriff aber in einem leicht verallgemeinerten Sinne benutzt, dass nicht ein einzelnes System betrachtet wird, sondern die Gesamtheit biologischen Lebensformen — hier abgekürzt BIOM –, die auf einem sich beständig ändernden Planeten befinden (die Erde), und die ihr Überleben nur dadurch bewirken konnten, dass die Lebensformen sowohl einzeln wie auch im Zusammenwirken in der Lage waren, ihre eigenen Strukturen immer wieder zu ändern. Dies wiederum war nur möglich, weil biologische Lebensformen ihre Struktur aufgrund von dynamischen Bauanleitungen immer wieder neu und dabei auch immer wieder ganz anders ausformen konnten. Dabei war es von fundamentaler Bedeutung, dass die individuellen Baupläne untereinander ausgetauscht und vermischt werden konnten. So gesehen gleicht das BIOM einem gigantischen Informationsraum (= Wissensraum), der durch kontinuierlichen Austausch und kontinuierliches Ausprobieren immer gerade so viele neue Varianten von Bauplänen zur Verfügung hatte, wie sie für die sich verändernden Anforderungen des Planeten Erde notwendig waren. Diversität ist in diesem Kontext also eine schiere Überlebensnotwendigkeit, und nicht einfach nur die Diversität zu einem bestimmten Zeitpunkt, sondern eine sich kontinuierlich verändernde Diversität. Geschwindigkeit der Veränderung und Umfang der Vielfalt spielen dabei eine wichtige Rolle.

Handelte es sich bei den biologischen Lebensformen zunächst nur um ein strukturelles Wissen, das nur durch die Reproduktionsprozesse verändert werden konnte, gibt es spätestens seit dem Auftreten des homo sapiens auch ein prozedurales Wissen in den neuronalen Strukturen der Lebewesen, das sich aktuell ereignen und ausformen kann. Zudem verfügt der homo sapiens über die fundamentale Fähigkeit, innere wissensrelevante Gehirnzustände mittels äußerlich wahrnehmbaren Kommunikationsereignissen zu korrelieren, um damit partiell wissensbasierte Kooperationen aufzubauen. Die dynamische Vielfalt der Baupläne kann jetzt ergänzt werden durch die dynamische Vielfalt gehirnbasierter Wissensstrukturen, die um ein Vielfaches schneller und um ein Vielfaches genauer sind als das vorausgehende rein strukturelle Wissen.

Aus systemtheoretischer Sicht hat das BIOM mit diesen neuen Wissensformen einen entscheidenden Sprung tun können, um seine Anpassungsfähigkeit und damit seine potentielle Nachhaltigkeit zu erhöhen. Schaut man sich jedoch die gegenwärtige Situation an, dann kann man nicht nur Beispiele finden, die diese neue Fähigkeit positiv aufscheinen lassen; man kann genauso gut auch Beispiele finden — und diese scheinen sich zu mehren — dass die Population der Menschen an diesen ihren eigenen Möglichkeiten zu scheitern droht, da sie diese unglaubliche Fähigkeit immer weniger gemeinsam nutzt.

Das oksimo Paradigma ist ein neuer Versuch, diese mögliche gemeinsame Nutzung zu verbessern.

ANMERKUNGEN

[1] UN 17 development goals (SDGs): https://sdgs.un.org/goals

[2]UN, SDG4 : https://www.un.org/sustainabledevelopment/education/; UN, QUALITY EDUCATION : WHY IT MATTERS: https://www.un.org/sustainabledevelopment/wp-content/uploads/2017/02/4_Why-It-Matters-2020.pdf

[3] UN, SDG4, Bücher: https://www.un.org/sustainabledevelopment/sdgbookclub-4archive/; https://www.un.org/sustainabledevelopment/sdgbookclub/blog/

[4] Nachhaltigkeit, Wikipedia [DE]: https://de.wikipedia.org/wiki/Nachhaltigkeit

[5] Sustainability, Wikipedia [EN]: https://en.wikipedia.org/wiki/Sustainability

[6] Gerd Doeben-Henisch, 2021, THE OKSIMO PARADIGM
An Introduction (Version 2), https://www.oksimo.org/wp-content/uploads/2021/08/oksimo-v1-part1-v2.pdf

[7] Autopoiesis, Wikipedia [DE]: https://de.wikipedia.org/wiki/Autopoiesis; und in Wikipedia [EN]: https://en.wikipedia.org/wiki/Autopoiesis

[8] Humberto Maturana und Francisco Varela, 1972, Autopoiesis and Cognition: The Realization of the Living: https://en.wikipedia.org/wiki/Autopoiesis_and_Cognition:_The_Realization_of_the_Living

DAS OKSIMO PARADIGMA UND KOMMUNEN – Bürgerbeteiligung und Politische Parteien

UNIVERSELLE PROZESSPLANUNG
13.Juni 2021 – 3. Juli 2021
URL: oksimo.org
Email: info@oksimo.org

Autor: Gerd Doeben-Henisch (gerd@oksimo.org)

KONTEXT

Dieser Text ist Teil des Themenbereichs UNIVERSELLE PROZESSE PLANEN – Aus Sicht der Kommunen im oksimo.org Blog.

BÜRGERBETEILIGUNG und POLITISCHE PARTEIEN

Politische Grundstrukturen

In der deutschen Verfassung ist festgelegt, dass die Bürger in vereinbarten Zeiträumen per Wahl Mitglieder einer anerkannten Partei für ein Vertretungsgremien (in Kommunen, im Landkreis, im Bundesland, im Bund …) wählen können. Es wird angenommen, dass die gewählten politischen Vertreter ‚den Willen des Wählers‘ angemessen in ihrem politischen Handeln vertreten. Die gewählten Vertreter wiederum können in den entsprechenden Handlungsgremien (Gemeindevertretung, Kreistag, Landtag, Bundestag) dann Maßnahmen zur Gestaltung der jeweiligen Gestaltungsbereiche (Kommune, Landkreis, Land, Bund) im Rahmen der geltenden Gesetze beschließen. Zur Unterstützung des politisch motivierten Handelns gibt es auf allen Ebenen Verwaltungseinheiten, die bei der Umsetzung von Maßnahmen unterstützen.

Qualitative Anforderungen und Grenzen

Die politische Grundstruktur soll als Rahmen dienen, damit die Bürger eines Landes auf ein geordnetes Verfahren zurückgreifen können, mit dem sie ihre unterschiedlichen Interessen und ihr unterschiedliches Wissen so organisieren können, dass eine gemeinsame demokratische und nachhaltige Zukunft im Grundsatz möglich ist.

Vom einzelnen Bürger ist bekannt, dass sein individuelles Handeln von seinen inneren Zuständen abhängig ist, die wiederum zwar nicht vollständig, aber zu einem großen Teil, von seiner Lebenswelt beeinflusst werden. Diese Lebenswelt ist ein hybrides System aus objektiv gegebenen gesellschaftlichen Tatbeständen und kulturellen Normen, die in den inneren Zuständen der gesellschaftlichen Akteure verankert sind und wo Inneres und Äußeres grundsätzlich miteinander in Wechselwirkung stehen..

Die verankerten politischen Strukturen müssen also daran gemessen werden, ob, wie und wieweit sie geeignet sind, das Wissen und die Interessen der Bürger so zu unterstützen, dass eine demokratische nachhaltige Zukunft für alle möglich ist.

Die letzten Jahrzehnte zeigen immer mehr, dass die großen Herausforderungen der Gegenwart sich sowohl global wie auch lokal manifestieren (z.B. Klima, Biodiversität, Bevölkerungsentwicklung, Rohstoffe, Trinkwasser, Energieversorgung, Ernährung und Landwirtschaft, Land Grapping (mit Wasser Grapping), Müll (mit Plastik), Migrationsströme, ausgrenzende Weltanschauungen, Technologieentwicklung (insbesondere die Digitalisierung), Pandemien, organisierte Kriminalität, ….) und dass ihre Komplexität alle bestehenden politischen Systeme kontinuierlich überfordert.

Auf der Ebene der Kommunen repräsentieren die gewählten politischen Vertreter einen Anteil von ca. 0.3% (oder, je nach Größe, weit weniger, 0.007%, 0.001% …) aller Bürger. Die einzige Gestaltungsmöglichkeit der Bürger sind laut Verfassung die Wahlen (alle ca. 4-6 Jahre). Die geringe Zahl an gewählten politischen Vertretern ist in keiner Weise kognitiv in der Lage, weder die komplexen Anforderungen einer Kommune angemessen verstehen noch angemessen entscheiden zu können. Die heute üblichen politischen Konkurrenzen zwischen gewählten Parteien engt die Entscheidungskompetenzen weiter ein. Die Kenntnis der eigenen Verwaltung in großen Kommunen scheint bei den gewählten politischen Vertretern weitgehend unzulänglich zu sein. Die Verwaltungen selbst erwecken den Eindruck, dass sie in ihrer Verfasstheit kaum den zu leistenden Aufgaben entsprechen können. Dazu kommt, dass die zeitliche Dimension vieler zu lösenden Aufgaben von 10, 20 und mehr Jahren die in Legislaturperioden agierenden gewählten politischen Vertreter — und damit oft auch den von ihnen abhängigen Verwaltungen — überfordern.

Planfeststellungsverfahren

Zur Frage, ob und wie man Bürger auch zwischen den Wahlen einbeziehen kann oder einbeziehen muss, gibt es ein interessantes Beispiel, das sogenannten Planfeststellungsverfahren [1]. Für den Bereich von raumverändernden Maßnahmen wird festgelegt, auf welche Weise u.a. die Bürger Einsprüche zu einem Maßnahmenentwurf vorbringen können.

Charakteristisch ist hierbei, dass die Bürger erst einbezogen werden, wenn die grundlegenden Überlegungen zuvor schon abgeschlossen sind, ohne dass es eine nennenswerte Zusammenwirkung (Kollaboration) zwischen den handelnden politischen Vertretern und den Bürgern gegeben hat.

Das Verfahren selbst ist meistens extrem langwierig und die Vergangenheit legt den Eindruck nahe, dass diese Verfahren tendenziell eher partikuläre Interessen befördern als begründete Gesamtsichten. Dies verweist auf das grundlegende Problem, dass bei jeder Entscheidung das aktuell verfügbare Wissen und die aktuell gegebene Interessenlage entscheidend ist, dass dieses aktuelle Wissen ohne entsprechendes Training aber gerade nicht über jene prozessuralen [3] Gesamtsichten verfügen kann, die notwendig wären, um real nachhaltige Entscheidungen treffen zu können.

Bürgerentscheid

Seit 2005 gibt es in jedem Bundesland auch das Instrument des Bürgerentscheids [2]. In diesem Verfahren können Bürger mit entsprechender Beteiligung über einen Sachverhalt mit ‚Ja‘ oder ‚Nein‘ abstimmen. Die gewählten politischen Vertreter können einen Gegenvorschlag aufstellen. Wird der Bürgerentscheid positiv entschieden gilt er formal als gleichwertig mit einer Entscheidung von gewählten politischen Vertretern.

Das Verfahren des Bürgerentscheids deutet an, dass den Bürgern als dem eigentlichen Souverän grundsätzlich das Recht zugestanden wird, eine eigene rechtskräftige Entscheidung parallel zu den gewählten politischen Vertretern fällen zu dürfen. Dies ist im Rahmen einer Demokratie und der herrschenden Komplexität in allen Entscheidungsbereichen ein positives Signal.

Dabei sollte man aber nicht übersehen, dass das Verfahren des Bürgerentscheids als solches das grundlegenden Problem einer nachhaltigen Entscheidung nicht automatisch löst. Im Lichte des Wissens um die konkreten Herausforderungen, nachhaltige Entscheidungen unter Berücksichtigung der zeitlichen Horizonte wie auch der starken Wechselwirkungen zwischen vielen Themen zu treffen, scheint das Verfahren des Bürgerentscheids ein weitgehend unbefriedigendes Instrument zu sein. Es kann zwar punktuell im Prinzip mehr Kompetenzen aufrufen als jene, über die die kleine Gruppe der gewählten politischen Vertreter verfügt, aber die kontinuierliche wechselseitige Behandlung von Problemen erscheint hier auch nicht gegeben (abgesehen auch von dem extrem hohen logistischen Aufwand, der den Bürgern in solch einem Verfahren abverlangt wird).

Bürger als Partner?

Angesichts der inhärenten Grenzen im Entscheiden der politischen Vertreter einerseits wie auch der Bürger im Bürgerentscheid andererseits stellt sich die Frage, warum sich nicht die politischen Vertreter auf ihre eigentliche Rolle besinnen, die daraus resultiert, dass die Bürger ihre Auftraggeber sind und als Bürger den primären Kompetenzpool bilden. Statt also die Bürger eher als ‚Feinde‘ zu behandeln, die ihre ‚Arbeit stören oder gar bedrohen‘, würde sich ein kollaboratives, partnerschaftliches Modell empfehlen, in dem die Bürger frei und offen, idealerweise parteiübergreifend, ihre Kompetenzen in nachhaltiger Weise organisieren, und zwar so, dass die gewählten politischen Vertreter darauf kontinuierlich zurückgreifen und sich selbst aktiv an den Orientierungsprozessen beteiligen können, so dass auf nachhaltige Weise damit die verfügbaren Kompetenzen optimal genutzt werden.

Nachhaltiges Wissen

Die sehr gute Kollaboration auf praktischer Ebene alleine garantiert aber auch noch keinen Erfolg, da konkretes Handeln immer abhängig ist von den verfügbaren kognitiven Prozess-Modellen in den Köpfen der Handelnden, und zwar nicht nur in den Köpfen der einzelnen, sondern in den Köpfen aller Beteiligten! Bekanntermaßen kann solch ein gemeinsam geteiltes Prozesswissen nur durch eine kontinuierliche Kommunikation zwischen allen Beteiligten zustande kommen, in der die Prozesse selbst thematisiert werden. Und alles spricht dafür, dass es ferner nicht ausreicht, dass Prozesswissen nur aktuell, punktuell in der jeweiligen Gruppe existiert, sondern es muss auch in einer permanenten Form vorliegen, die speicherbar ist, nachlesbar, hörbar, visuell anschaulich, als simulierter Prozess, als spielbarer Prozess, als interaktiv gestaltbarer Prozess, als evaluierbarer Prozess, und dies alles ausschließlich in der Alltagssprache der Handelnden, um nur die wichtigsten Anforderungen zu benennen.

Oksimo Paradigma

Ein solches multimodales Prozesswissen ist das Ergebnis, wenn Menschen das oksimo Paradigma anwenden. Dies ist möglich, weil das oksimo Paradigma das Ergebnis solcher Reflexionen ist, wie sie im vorausgehenden Text am Beispiel von mehr Bürgerbeteiligung vorgestellt wurden.

DISKUSSION

Hier werden in loser Folge einzelne Beiträge aufgelistet, die sich im Umfeld des Themas ‚Bürgerbeteiligung und politische Parteien‘ bewegen.

  1. Anmerkungen zu Wolfgang Schäuble „Das Prinzip der Repräsentation“, FAZ Nr.149, 1.Juli 2021, S.6 (Letzte Änderung: 3.Juli 2021)

ANMERKUNGEN

[1] Planfeststellungsverfahren, siehe Wikipedia [DE]: https://de.wikipedia.org/wiki/Planfeststellung

[2] Bürgerentscheid, siehe Wikipedia [DE]: https://de.wikipedia.org/wiki/B%C3%BCrgerentscheid

[3] Mit ‚prozessural‘ ist gemeint, dass die Gesamtsicht mit Sachverhalten zu tun hat, die Prozesse darstellen, und dass das Herstellen der Gesamtsicht ebenso an einen Prozess geknüpft ist, weil alle Beteiligten selbst laufende Prozesse darstellen. Es gibt in diesem Zusammenhang keine absolut festen Punkte, sondern nur intermediäre Zustände innerhalb der beteiligten, miteinander verschränkten Prozessen.

UNIVERSELLE PROZESSE PLANEN – Konkret, Abstrakt, Alltagstheorie

UNIVERSELLE PROZESSPLANUNG
15.Mai 2021-15.Mai 2021
URL: oksimo.org
Email: info@oksimo.org

Autor: Gerd Doeben-Henisch, gerd@oksimo.org

KONTEXT

Dieser Text ist Teil des Themas strukturelle Eigenschaften der oksimo Sprache in der Sektion UNIVERSELLE PROZESSE PLANEN – Wie geht das? im oksimo.org Blog.

UNIVERSELLE PROZESSE PLANEN – Abstrakt und Konkret

Oksimo benutzt primär die normale Sprache (Alltagssprache), um beliebige Prozesse zu beschreiben. Die normale Sprache ist die Basis für alle anderen, spezielleren Sprachen, z.B. auch für Fachsprachen, auch für formale Sprachen wie z.B. formale Logik. Während formale Logiksprachen sich vom Ansatz her von jeglicher Form von Bedeutung, von körper-basierter Welterfahrung abgekoppelt haben, sind normale Sprachen als Teil der Gehirnfunktionen grundsätzlich mit vielen Bereichen der körper-basierter Welterfahrung verbindbar.

Eine Kerneigenschaft der Verbindung zu körper-basierter Welterfahrung besteht darin, dass das Gehirn die Konkretheit der Signale aus der Umgebung des Gehirns durch seine Eigenprozesse grundsätzlich verallgemeinert, indem aus den vielen konkreten Signalen abstrakte Strukturen extrahiert werden, Muster, Pattern, Cluster, Kategorien, Stereotype, Prototypen, die den Ausgangspunkt für Alltagssprache bilden. Dies drückt sich z.B. darin aus, dass wir über konkrete Gegenstände unseres Alltags immer nur mit Hilfe solcher Kategorien reden können wie ‚Tasse‘, ‚Tisch‘, ‚Stuhl‘, ‚Blume‘ usw. „Kannst Du mir bitte die Butter reichen„. „Ich sitze gerne auf dem Stuhl„. Mit ‚Butter‘ können viele hundert verschiedene konkrete Dinge gemeint sein, mit ‚Stuhl‘ ebenso; Etwas ‚reichen‘ kann hunderte verschiedene Ausprägungen umfassen, ebenso ’sitzen‘, usw.

An der Wurzel der Sprache gibt es also schon mindestens zwei Ebenen von Wirklichkeit: die konkreten Eigenschaften der Dinge der realen Welt um unseren Körper herum einschließlich Teile unseres eigenen Körpers (und jene konkrete Körperzustände, die dem Gehirn auf vielfältige Weise übermittelt werden), und dann jene abstrakten Muster, die das Gehirn aus der ungeheuren Vielfalt der konkreten Signale auf automatische — für unser Bewusstsein direkt nicht zugängliche (un-bewusste) — Weise herausgerechnet werden und als solche im sogenannten Gedächtnis auf spezielle Weise (‚Erinnern‘, ‚inspiriert‘, ‚deutend‘, ..) zugänglich sind.

Da wir die ursprüngliche Konkretheit der erfahrbaren Wirklichkeit immer nur umschreibend beschreiben können, funktionieren jene Ausdrücke der Sprache, die sich auf diese primär erfahrbare Wirklichkeit beziehen, als beschreibende Ausdrücke, als primäre Sprache über konkret Objekte, obgleich schon diese Sprache nur abstrakte Elemente enthält. Mit Blick auf diese primäre Bedeutungsfunktion der Alltagssprache könnte man die Menge solcher Ausdrücke als Objektsprache bezeichnen. Ihre Grenzen sind — wie fast alle Bestimmungen zur Alltagssprache — fließend (‚fuzzy‘).

Wie jeder anhand seiner eigenen Alltagssprache leicht überprüfen kann, gibt es Ausdrücke der Alltagssprache, die sich nicht primär auf solche Objekte der Erfahrungswelt beziehen, sondern auf andere Ausdrücke: „Diesen Ausdruck… von Dir verstehe ich nicht“, „Dieser Satz ist viel zu lang“, „Das WortHindernis‚ in deiner Bemerkung verstehe ich nicht“, usw. Ausdrücke einer Sprache, die sich explizit auf Eigenschaften von anderen Ausdrücken beziehen, nennt man im Allgemeinen Meta-Ausdrücke oder — bezieht man sich auf alle solche meta-sprachlichen Ausdrücke — als Meta-Sprache. Unsere Alltagssprache verfügt über diese besondere Fähigkeit, nicht nur Ausdrücke zur Beschreibung von primären Objekten zu benutzen, sondern auch, um sich auf andere Ausdrücke beziehen zu können.

Solche formalen meta-sprachlichen Bezugnahmen sind aber nur eine Form von innersprachlichen Bezugnahmen, durch die sich Sprachebenen definieren lassen. Es gibt auch inhaltliche Bezugnahmen über die intendierten Bedeutungen: „Oh, da liegt ein Maikäfer auf seinem Rücken und strampelt“. „Der Maikäfer ist irgendwie ein fliegendes Insekt„. „Insekten können große Schäden anrichten„. „Es gibt aber auch Insekten, die wichtige lebenserhaltende Funktionen ausüben“. Das konkret beobachtbare Objekt ‚Maikäfer‘ wird als Beispiel einer größeren Klasse von Objekten genannt fliegende Insekten angesehen. Letztere sind aber auch nur eine Teilmenge der Insekten. Insekten können Schäden verursachen, andere habe auch eine lebenserhaltende Funktion. usw. Die grundlegende Abstraktionsfähigkeit findet sich also nicht nur im Übergang von der Wahrnehmung der konkreten Signale zu abstrakten Strukturen, sondern auch von gegebenen Bedeutungsstrukturen (‚Maikäfer‘) zu einer anderen Bedeutungsstruktur (‚fliegendes Insekt‘), durch die diese anderen Bedeutungsstrukturen auf einem höheren Abstraktionsniveau repräsentiert werden.

Es gibt also nicht nur formale Metaebenen, sondern auch inhaltliche Bedeutungshierarchien. Aufgrund dieser beiden Fähigkeiten ist unsere Alltagssprache ungeheuer mächtig: sie ist sowohl ihre eigene Meta-Sprache wie auch ihre eigene Bedeutungs-Hierarchie! Wie können diese beiden fundamentalen Eigenschaften der Alltagssprache in oksimo genutzt werden?

ERWEITERUNG EINES BEISPIELS

Betrachten wir ein Beispiel, um die Dimension ‚Konkret‘ und ‚Abstrakt‘ zu illustrieren. Zugleich wird hier eine zusätzliche Perspektive sichtbar: die Dimension von Alltagstheorien!

BILD: Verwendung von abstrakten und konkreten Ausdrücken; zugleich ein einfaches Beispiel von einer Alltagstheorie, die zum Einsatz kommt.

KONKRET, ABSTRAKT, ALLTAGSTHEORIE

In diesem Beispiel ist der Hauptakteur ein ‚Gerd‘ der ‚hungrig‘ ist, und der deswegen zum ‚Griechen um die Ecke‘ geht, dort etwas isst, und dadurch nicht mehr hungrig ist.

Konkret

Diese Beschreibung ist fokussiert auf beobachtbare Situationen die so sind, dass die Teilnehmer an dieser Situation entscheiden können, ob die Aussagen in dieser Situation zutreffen (’sie sind wahr‘) oder nicht (’sie sind nicht wahr‘). Insofern kann man sagen, dass es sich hier um eine Sprache über primäre Objekte handelt, um eine Beobachtungssprache.

Abstrakt

Man kann innerhalb der Alltagssprache jede primäre Beobachtungssprache aber leicht durch abstraktere Beschreibungsebenen ergänzen. Aufgrund des allgemeinen Weltwissens, über das jeder Akteur — wenngleich individuell unterschiedlich — verfügt, gibt es in der Regel zu jeder primären Objektkategorie viele zusätzliche Abstraktionen, von denen man Gebrauch machen kann. So weiß jeder, dass konkrete Akteure wie der ‚Gerd‘ zur allgemeinen Kategorie Mensch gezählt werden. Die Kategorie Mensch hat heutzutage viele Milliarden Mitglieder (‚Instanzen‘, ‚Elemente‘, …). Zu jeder abstrakten Kategorie gibt es meistens auch abstrakte Eigenschaften (statische wie dynamische). So gilt als gesetzt, dass Menschen — aufgrund ihres Energieverbrauchs — innerhalb gewisser Zeitintervalle hungrig werden.

Instanzen Erben

Wenn man also von einem Objekt, einem Akteur, sagt, er sei ein Mensch (= eine Instanz der Klasse Mensch), dann wird normalerweise angenommen, dass sich die abstrakten Eigenschaften der Klasse auch auf alle ihre Instanzen (Mitglieder,…) übertragen. Wenn also alle Menschen nach einer gewissen Zeit hungrig werden, dann kann man daraus folgern, dass ein Exemplar der Klasse Mensch wie der Akteur ‚Gerd‘ auch diese Eigenschaft hat, nach einer gewissen Zeit hungrig zu werden.

Erfahrungswissen speichern

Abstrakte Eigenschaften (Klassen, Kategorien, …) können also dazu genutzt werden, um Erfahrungswissen über viele konkrete Objekte zu speichern, die sich bzgl. einiger Kriterien hinreichend ähnlich sind).

An diesem Punkt enthüllt die Alltagssprache neben ihrer Fähigkeit des Abstrahieren Könnens von Einzelaspekten zu abstrakten Objekten die zusätzliche Fähigkeit, zu gebildeten abstrakten Objekten eine Vielzahl von abstrakten (statische wie dynamische) Eigenschaften anzusammeln, die dann für die Orientierung im Alltag genutzt werden können.

Man kann diese Listen von Eigenschaften verstehen als eine Sammlung von Hypothesen über die Dinge der Alltags-Welt. Diese Hypothesen können jederzeit im Alltag überprüft werden. Sobald man z.B. auf einen Akteur treffen würde, der wie ein Menschen daherkommt, dann würde man annehmen, dass er irgendwann hungrig werden wird. Würde dies nicht geschehen, dann würde man Zweifel bekommen, ob dieser Akteur wirklich ein Mensch ist. Man könnte zwar grundsätzlich nicht ausschließen, dass die Hypothese vielleicht nicht ganz allgemein gilt, weil es vielleicht doch — irgendwie — Menschen gibt, die nicht hungrig werden, aber dies erscheint zunächst höchst unwahrscheinlich und würde sicher genauere Überprüfungen verlangen.

Alltagstheorie

Diese Struktur von allgemeinen abstrakten Objekten verknüpft mit Hypothesen über mögliche Wirkungen und einer Interpretationsfunktion von abstrakten Objekten zu konkreten Instanzen bildet den Kern des modernen empirischen Theoriebegriffs.[1] Es kann schon ein wenig verwundern, warum es so lange gedauert hat — viele tausende von Jahren –, bis diese Struktur bewusst wahrgenommen und genutzt wurde (obgleich Aristoteles einige Ansätze in diese Richtung hatte). Noch mehr kann aber verwundern, dass die moderne Wissenschaftsphilosophie sich ohne größere Bedenken auf den Pfad der rein formalen Beschreibungsmittel begeben hat, die ganz bewusst jeglichen Bezug zur Alltagssprache und dem Alltagswissen abgebrochen hat. Für begrenzte Zwecke ist die formale Logik ein ideales Werkzeug. Für alle Bereiche des Weltwissens und der Alltagserfahrung ist sie weitgehend unbrauchbar. Die modernen Computer als ‚denkerische Abfallprodukte‘ der formalen Logik erben diese Einseitigkeit vollständig. Ihr grundsätzliche Unfähigkeit, Alltagswissen benutzerfreundlich zu erarbeiten macht sich u.a. in der großen Limitiertheit der heutigen sogenannten ‚Künstlichen Intelligenz‘ sichtbar. Das menschliche Gehirn selbst, das letztlich auch nur eine binäre Maschine ist, ist im Vergleich zu einem binären Computer aber grundsätzlich anders organisiert. Sogenannte ‚Künstliche Neuronale Netze‘ sind bislang nur eine stark vereinfachende Karrikatur des Originals genannt ‚Gehirn‘.

KOMMENTARE

[1] Im Abschnitt PHILOSOPHY OF SCIENCE des assoziierten uffmm.org Blogs ist die Frage, ob oksimo selbst eine Theorie sein könnte, am Beispiel des Theoriekonzepts von Popper diskutiert worden. Es gab dann die grundsätzliche Einschätzung, dass man mit der oksimo Sprache grundsätzlich Theorien — auch empirische — umsetzen könne, aber es war dort noch nicht so ganz klar, wie es genau gehen könne. Im obigen Beispiel wird der Ansatzpunkt nun sehr konkret. Es wird weiterer Beispiele bedürfen, um dies noch genauer zu verstehen.

UNIVERSELLE PROZESSE PLANEN – Startkonfiguration

UNIVERSELLE PROZESSPLANUNG
25.April-29.Mai 2021
URL: oksimo.org
Email: info@oksimo.org

Autor: Gerd Doeben-Henisch, gerd@oksimo.org

KONTEXT

Dieser Text ist Teil des Themas UNIVERSELLE PROZESSE PLANEN – Wie geht das? im oksimo.org Blog.

UNIVERSELLE PROZESSE PLANEN – Startkonfiguration

VIDEO: Dies ist ein neueres Video, das aus der Anwendersicht einen Überblick über das Arbeiten mit oksimo gibt. Der unten stehende Text mit dem Bild schildert das oksimo Paradigma aus einer mehr theoretischen Perspektive. Achtung: beim Abspielen des Videos bitte auf die Option ‚Bild-im-Bild‘ achten. Damit können Sie das Video vergrößert anschauen.

Die Grundidee, wie man in eine universelle Prozessplanung einsteigen kann, findet sich in dem nachfolgenden Schaubild.

Bild: Übersicht zum Prozess einer Prozessplanung durch eine Gruppe von Experten, die normale Sprache benutzen und ausgehend von einer gegebenen Situation S in Gedanken eine mögliche Situation SV konzipieren, die als eine erstrebenswerte Zielsituation dienen soll. Um die noch nicht-reale Situation V verwirklichen zu können, müssen die Experten eine Reihe von Ereignissen bzw. Handlungen, Maßnahmen ersinnen und real umsetzen. Solche Maßnahmen kann man generell im Format einer Veränderungsregel X formulieren. Das Herstellen einer Nachfolgesituation S‘ aus einer gegebenen Situation S kann man auch als (logisches) Ableiten verstehen. Mehrfach angewendet im Format einer Simulation können dadurch Folgen von abgeleiteten Situationen entstehen, deren jeweils letztes Element SN mit der angestrebten Zielsituation SV verglichen werden kann. Die Übereinstimmung kann zwischen 0 und 100% liegen.

DIE EXPERTENGRUPPE

Die Idee der universellen Prozessplanung geht davon aus, dass es eine Gruppe von Menschen gibt, die zusammen ein Stück Zukunft planen möchten. Grundsätzlich gilt jedes Mitglied der Gruppe als ein Experte.

MENSCHLICHER EXPERTE

Von jedem menschlichen Experten wird hier als Arbeitshypothese angenommen, dass er über folgende ‚Grundeigenschaften verfügt [1]:

  1. Es gibt ein Gehirn als zentrales Organ der Informationsverarbeitung und der Handlungsermöglichung.
  2. Das Gehirn ermöglicht Entscheidungen zwischen Alternativen
  3. Im Gehirn kann sich Wissen über die Welt aufbauen eng verknüpft mit einer Sprachfähigkeit, so dass Teile dieses Wissens symbolisch repräsentiert werden können.
  4. Im Gehirn gibt es eine Vielzahl von Bedürfnissen, Emotionen und Stimmungen, die mit allen anderen Teilen wechselwirken können; sie können sich u.a. auf den Entscheidungsprozess auswirken.
  5. Im Gehirn können sich auch Präferenzen (Werte) ausbilden, die dazu führen, dass im Entscheidungsfall eine bestimmte Option einer anderen vorgezogen wird.

KOMMUNIKATION UNTER MENSCHEN (EXPERTEN)

Wenn die Gehirne verschiedener Experten ihr Wissen miteinander austauschen und ihr Handeln koordinieren wollen, dann müssen diese Gehirne eine symbolisch vermittelte Kommunikation untereinander realisieren.

minimale Komponenten für eine Planung

Als minimale Elemente einer Planung werden die folgenden Elemente angenommen:

Aktuelle Situation S

Die Experten können einen Text S erstellen, indem sie eine gemeinsam geteilte Situation SEMP beschreiben. Der Text heißt dann einfach aktuelle Situationsbeschreibung S und hat aufgrund des den Experten innewohnenden Sprachverständnisses einen kognitiven Bezug zu der als real (empirisch) angenommenen Situation SEMP . Anders formuliert: die Experten verfügen über die Fähigkeit mittels ihrer Sprachfähigkeit ein kognitiv gegebenes Bild SCOG einer empirischen Situation SEMP in einen Text S abzubilden EXP: SEMP x SCOG —> S, der von allen Beteiligten als zutreffen entschieden werden kann: EXP: SEMP x SCOG x S —> [0,1].

Zukünftige Situation V

Die Experten können auch einen Text V erstellen, in dem eine mögliche Situation SV (eine Vision) beschrieben wird. Mögliche Situation sind gedankliche (kognitive) Konstrukte in den Gehirnen, die in Sprache abgebildet werden. Ob es jemals eine reale Situation SEMP geben wird, deren Beschreibung S mit der Beschreibung SV einer gedachten möglichen Situation übereinstimmt, ist letztlich erst dann entscheidbar, wenn eine solche passende empirische Situation tatsächlich eingetreten ist. Dennoch kann eine Vision V dazu benutzt werden, um eine gegebene Situation S, die in irgendeinem Sinne als unzulänglich aufgefasst wird, in eine bestimmte Richtung hin zu verändern. Tatsache ist, dass wir Menschen ohne eine Vision nicht in der Lage sind, irgendetwas gezielt planen zu können.[2a,b],[6]

Veränderungsregeln X

Wird die Vision einer zukünftigen Situation V als erklärtes Handlungsziel SV benutzt, dann müssen die beteiligten Experten einen Weg finden, wie man von der aktuellen Situation S zur gewünschten Situation SV kommen kann. Dies gelingt nur dadurch, dass man die gegebene aktuelle Situation S so weitgehend abändert, dass die Situation S hinreichend weit mit der gewünschten Situation SV übereinstimmt.

Veränderungen können zustand kommen, weil es Gesetzmäßigkeiten in der erfahrbaren Welt gibt, die von sich aus zu Veränderungen führen [3], oder weil Menschen gezielt Veränderungen herbei führen.[4]

Veränderungen, die von einer gegebenen Situation S zu einer durch Veränderung entstandenen Nachfolgesituation S‘ führen, kann man generell im Format einer Veränderungsregel X formulieren:

  1. Gegeben ist eine aktuelle Situation S
  2. Wenn C Eigenschaften beschreibt, die in der Situation S vorkommen,
  3. Dann soll mit der Wahrscheinlichkeit p folgendes passieren:
  4. Aus der Situation S sollen bestimmte Eigenschaften Eminus entfernt werden und
  5. In zu der Situation S sollen bestimmte Eigenschaften Eplus hinzugefügt werden.
  6. Zusammengefasst: S‘p = S – Eminus + Eplus oder kürzer: X(S) = S‘
Als Ableitung |–X

Man kann auch den Standpunkt des logischen Folgerns einnehmen. Dann lässt sich die Erzeugung einer Nachfolgesituation S‘ aus einer gegebenen Situation S mit Hilfe einer Veränderungsregel X auch als Ableitung verstehen [5]:

S |–X S‘

Simulation(en) |–Σ,X

Ableitungen mit Veränderungsregeln führen generell zu einer neuen Nachfolgesituation S‘. Wenn diese schon die erwünschte Zielsituation SV ist, kann der Prozess beendet werden. Falls nicht, liegt es nahe, die Ableitung zu wiederholen. Es kann also eine n-malig Iteration stattfinden, bis die angezielte Situation SV zu 100% erreicht wird oder wenigstens bis zu einem Wert 100%-θ, wobei θ einen vereinbarten Schwellwert darstellt. Ableitungen mit n-fachen Iterationen werden hier als Simulationen bezeichnet, geschrieben:

S |–Σ,X S‘

Evaluation

Möchte man den Verlauf oder das Ergebnis eines Veränderungsprozesses irgendwie bewerten/ evaluieren, dann gibt es im Rahmen des vorliegenden Paradigmas die Möglichkeit, die angezielte Vision als Bewertungsmaßstab zu benutzen. Dies bedeutet, dass die Experten, alles, was ihnen für die Zukunft wichtig ist, in ihre Vision hineinschreiben müssen: Wenn es, wie im Beispiel ‚Gerd ist hungrig‚ nur darum geht, den Hunger zu stillen, dann reicht es, als Vision zu schreiben, dass gelten soll ‚Gerd ist nicht hungrig.‘ Wenn man mehr will, dann müsste man Sätze hineinschreiben wie z.B. ‚Gerd isst nur vegetarisch‘, ‚Das Essen darf nicht mehr als 15€ kosten‘, usw.

Diese Evaluation findet automatisch bei jedem Simulationszyklus statt. Die Evaluation hat die Struktur:

MATCH: SN x SV—> [0,1]

KOMMENTARE und QUELLEN

(Letzte Änderung: 1.Mai 2021)

[1] Zum Thema Menschenbild gibt es tausende von Artikeln und Büchern. Von einem irgendwie einheitlichen Bild kann keine Rede sein. Will man in einer solchen Situation nicht hilflos hin und her pendeln zwischen reiner ‚Kontextfreiheit‘ und ‚Zitatenbergen‘ bleibt nur, jene Annahmen als Arbeitshypothesen kenntlich zu machen, deren man sich bedient, so dass jeder, der meint, es besser zu wissen, sich direkt auf die zu kritisierende Stelle beziehen kann um so sein alternatives, ergänzendes Wissen zu thematisieren.

[2a] Im Alltag ist die Rolle von Visionen und von Kreativität oft ambivalent: einerseits kann man immer wieder erleben, dass kreatives Verhalten etwas Schönes hervorbringt, etwas sehr Nützliches, oder — im Fall von Firmen — genau das Produkt/ die Dienstleistung ermöglicht, die dann zum großen Umsatzrenner werden. Zu Beginn kann man aber oft nicht wissen, ob die neue Idee, die Vision genau das ermöglichen wird, was man sich erhofft. Dies impliziert Unsicherheiten und vielfach Ängste. Klar ist nur, dass das biologische Leben auf der Erde ohne eine Kreativität auf voller Breite bis heute nicht überlebt hätte. Die Umstände der Erdentwicklung waren mehrmals geeignet, das Leben auszulöschen.

[2 b] Warum Experten eine bestimmte Vision V formulieren, hängt ganz von ihren inneren Zuständen ab. Sie können für eine bestimmte Vision V sein, ohne dass sie möglicherweise klar formulieren können, warum eigentlich (‚Wir wollen das so‘); oder sie nennen explizite Umstände (‚Die Klimaveränderung erfordert diese Maßnahme‘), oder sie berufen sich auf irgendwelche Konventionen (‚Das tut man hier so‘), usw.

[3] Wenn es regnet bekommen die Pflanzen genug Wasser, um weiter wachsen zu können.

[4] Wenn es trocken ist, dann musst du die Pflanzen wässern.

[5] Hierbei ist zu beachten, dass ‚X‘ auch eine Menge von Veränderungsregeln bezeichnen kann und die Ableitung von S‘ das Ergebnis der Anwendung aller Regeln aus X repräsentiert. Liegt tatsächlich mehr als eine Veränderungsregel vor — also |X| > 1 –, dann wird diese Menge von Regeln per Zufall serialisiert und die Regeln werden nacheinander angewendet, d.h. das Ergebnis der ersten Ableitung wird zum Ausgangspunkt für die nachfolgende Ableitung.

[6] Weitere Fallstudien zeigen, dass der Faktor Vision [V] weit komplexer ist, als ursprünglich gedacht. Dies wird aber nur sichtbar, weil die Anwendung von oksimo auf immer mehr Alltagssituationen die innere Dynamik von Abläufen ganz neu sichtbar macht. So kann und muss man an der Grundsituation des Alltags zwischen jenen Faktoren unterscheiden, die eher unveränderlich sind und jenen, die sich eher ändern. Relativ dazu gibt es Visionen/ Ziele, die zusammenhängend sind (wo also alle Aspekte gleichzeitig auftreten), oder verteilt in der Zeit (jemand hat mehrere Ziele, die er erfüllen möchte, jedes Ziel steht für sich, aber sie alle zusammen bilden einen Zielkomplex, der die Person leitet. Ferner gibt es auch bei den Zielen eher kurzfristige Ziele oder eher längerfristige. Ferner ist zu beachten, dass Ziele während eines Prozesses wechseln können: im Versuch, ein Ziel V zu erreichen mit den Teilzielen V1, …, Vn können sich die Verhältnisse oder die Anschauungen dergestalt ändern, dass man u.U. einige Teilziele ändert zu Vi*. Dies alles führt dazu, dass man davon ausgehen muss, dass Visionen/ Ziele innerhalb eines Prozesses sich ändern können wie der objektive Zustand selbst! Dies bedeutet, dass es auch Veränderungsregeln für Visionen/ Ziele geben müsste! Menschliche Akteure sind selbst-reflexive, lernende Systeme.