13 ‚Gefühle‘ und ‚freier Wille‘ für Roboter?

Inhalt: Eine häufige Kritik: ‚Roboter haben keine Gefühle‘, sind ‚zu vernünftig‘ und haben keinen Sinn für ‚Menschliches‘. Da Roboter nicht von Emotionen beeinflusst werden, fühlen sich Menschen oft sogar deren ‚unbestechlicher Logik‘ unterlegen.

Was sind ‚Gefühle‘ und wäre es für die Interaktion mit Menschen und der Akzeptanz durch diese nötig, dass Roboter ‚Gefühle‘ zeigen? Und sogar eigene Entscheidungen treffen können?

„Roboter haben keine Gefühle!“ Kommt darauf an, von welcher Art Roboter die Rede ist. Solche, die Auskunft geben und Dialoge führen können? Oder für mechanische Aufgaben ausgelegt und trainiert sind? Diese Roboter sollen ihre Aufgaben professionell erfüllen, wozu sollten da ‚Gefühle‘ gut sein? Und ein ‚eigener Wille‘ könnte nur stören: Befehl ist Befehl.

Anders die Sicht, wenn ein wirklich menschenähnlicher Roboter wie mein ‚Roby‘ eben nicht fest programmiert ist, sondern aufgrund seines Algorithmus selbständige Entscheidungen treffen sollte, die sich aus der jeweiligen Situation ergeben. Dann kommt der Faktor ‚psychische Energie‘ ins Spiel.

Psychische Energie gleicht einer ‚Währung‘ des menschlichen Organismus, die es dem Algorithmus des Gehirns erlaubt, unterschiedlichste Einflussgrößen wie Bedürfnisse, Belohnungserwartung, eigene Fähigkeiten, aber auch Aufwand und psychische Belastungen und sogar soziale Aspekte mess- und vergleichbar zu machen und zur Motivation für eine Handlung zu verrechnen.

Wie ein Organismus die Stärke eines Bedürfnisses oder die Höhe eines Aufwands in das Maß ‚psychische Energie‘ umsetzt, hat sich wohl ganz praktisch im Laufe der Entwicklungsgeschichte aus den Erfahrungen herausgebildet.

Auch der Berechnung der Motivation durch Roboter ‚Roby‘ liegt ‚psychische Energie‘ als ‚Basiswährung‘ zugrunde.

Wie unterscheidet sich der Mensch von einem Roboter, der eigene Entscheidungen trifft? Etwa durch Gefühle? Mal sehen:

Der Blutzuckerspiegel sinkt und mit ihm der psychische Pegel: Der Algorithmus des Gehirns lässt einen ‚flauen Magen‘ spüren und schließlich Magenknurren hören als Signal für ein dringend zu behebendes Energiedefizit. Stresshormone sorgen für Unruhe und den Drang, etwas Essbares heranzuschaffen.

Fällt die Akkuladung von Roboter ‚Roby‘ unter einen Minimalwert, sendet seine Energiekontrolle intern das Signal ‚Akku schwach‘ und Roby sucht eine Ladestation auf.

Als Roby in der Szenerie ‚Wanderer und Apfel‘ den schönen Apfel erblickt, lässt ihm sein Algorithmus wie einem Menschen in Vorfreude psychische Energie zufließen. Den Zufluss körperlich zum Ausdruck zu bringen, für den laufenden Prozess überflüssig, zumal Robys starre Roboter-Physiognomie eh‘ nicht viel an Mimik hergibt.

Müsste er, um als menschenähnlich akzeptiert zu werden, dennoch Gefühle zeigen, wäre es Roby ein Leichtes, sein inneres Signal ‚Zufluss psychischer Energie‘ z.B. durch die Wortfolge „oh, welch ein schöner Apfel“, kombiniert mit einem verzückten Blick zum Himmel, leuchtenden Augen oder dankbarer Gestik seinem Umfeld mitzuteilen: Seine ‚Gefühle‘, die reine Show.

Sobald er wahrnimmt, wie hoch er klettern müsste, um den Apfel zu pflücken, fällt Robys psychischer Pegel ob des nötigen Aufwands und Risikos heftig ab, was man auch als Angstgefühl deuten und ihm sogar bewusst machen könnte, damit er mit „Ah“ und „Oh“, mit abwehrender Geste oder flackernden Augen diese seine Angst zum Ausdruck brächte.

Einen Menschen beschleicht in gleicher Situation ebenfalls ein Angstgefühl, das den Magen zusammenzieht als Warnung vor Aufwand und Risiko: Da soll ich hinauf? Der Algorithmus von Roby erzeugt in ihm die gleichen Signale, die ein Mensch eben als Gefühle wahrnimmt.

Warum in aller Welt zeigen Menschen ihre Gefühle ihrem Umfeld gegenüber in so starkem Maße? Warum bildet sich in Gesichtszügen, in Stimme und Körperhaltung, in Sprache und anderen Lautäußerungen, in Erscheinung, Bewegung, Präsenz und spätestens im Verhalten für den Zuschauer der psychische Zustand seines Gegenübers mehr oder weniger gut lesbar ab?

Weil sein Habitus einen Eindruck von dessen gegebenenfalls niedrigem Pegel an psychischer Energie vermittelt mit der Erwartung, dass das soziale Umfeld Rücksicht darauf nimmt und Unterstützung anbietet.

Jemandem, der im tiefen Mangel an psychischer Energie weint, wird man nicht aggressiv begegnen, einem Menschen, dem es offensichtlich schlecht geht, nicht noch mehr zumuten wollen.

Soziale Kompetenz und Einfühlungsvermögen bei Menschen sind unabdingbar, um die ‚Fehlprogrammierung‘ seines Algorithmus aufzufangen, nämlich die viel zu starke Abhängigkeit von Leistungsfähigkeit und Lebensgefühl von seinem Pegel an psychischer Energie.

Soziale Eigenschaften des Menschen sind keine Komfortausstattung, sondern lebensnotwendig.

Und die Steuerung? Roboter Roby folgt einem Algorithmus der elektrischen Art, der Mensch mittels Neuronen und Nervenverbindungen einem ‚biologischen Algorithmus‘. Der Unterschied liegt nicht im Prinzip selbst, sondern in der beim Menschen ungeheuren Komplexität in Wahrnehmung, Vernetzung und Signalverarbeitung seines Gehirns: Lichtjahre dazwischen.

Bei stärkerem Defizit an psychischer Energie beim Menschen höchst kritisch das zwangsläufige Ingangsetzen von regressiven Urprogrammen wie Denken in Schubladen, Ideologie, Glaube, ‚Sündenbock‘ oder Aggression und Macht.

Zwar könnte man letztere im Algorithmus von Roby leicht unterdrücken oder gleich ganz fehlen lassen, doch würde man damit auch den ‚freien Willen‘ von Roby einschränken.

Wäre da beim fiktiven Aufstieg auf den Baum ein Ast im Weg und müsste gewaltsam weggebogen werden, käme Roby ohne einen aggressiven Programmteil nicht weiter. Vor lauter Rücksicht würde er scheitern.

Noch eine Einschränkung: Der Apfel gehört ihm nicht, Robys Freiheit endet dort, wo die Freiheit des Baumbesitzers beginnt, über seinen Apfel frei verfügen zu können.

Im humanoiden Modus im noch leichten Mangel an psychischer Energie kein Problem, diese soziale Grenze zu respektieren, doch bei wachsendem Hunger ist irgendwann Schluss mit ‚Sozialem‘:

Lieber klauen als Hunger leiden.

Ein Roboter als Küchenhilfe: Wenn ich das alles einzeln sagen müsste: „Geh‘ zum Kühlschrank“, dann „öffne ihn“, „hole die Milch heraus“, „stelle die Milch auf den Tisch“, „mache den Kühlschrank wieder zu“, usw., beim besten Willen, dann mache ich das lieber selbst.

Ein humanoider Roboter sollte, um effizient arbeiten zu können, seine Teilaufgaben nachvollziehen, selbst optimieren und zu einer zielführenden Aktion kombinieren können. Roby kann vorher nicht wissen, welchen Apfel er auf welchem Baum antreffen wird und auch nicht, wie schwer es sein würde, ihn zu pflücken. Er würde, um überhaupt Aussicht auf Erfolg zu haben, mit eigenen Sensoren und einem gewissen ‚freien Willen‘ der Situation gemäß agieren müssen.

Denn im menschlichen Leben ist nichts gleich und schon gar nichts genormt. Für seinen ‚freien Willen‘ braucht Roby einen Algorithmus mit Spielräumen.

Letztere allerdings müssten klar definiert und streng überwacht werden: Robotergesetze. Trotzdem keinerlei Garantie für Entgleisungen oder Missbrauch. Roboter, welcher Art auch immer, werden immer der verlängerte Arm ihrer Auftraggeber sein, seien dessen Absichten nun gut oder böse.

Spielräume für seine Entscheidungen würden Roby auch dazu befähigen, aus seinen Erfahrungen zu lernen, Fehler zu erkennen und sich weiterzuentwickeln.

Roby profitiert davon, nicht wie ein Mensch psychische Energie verdienen zu müssen: Steckdose jederzeit. Außerdem sind seine Prozessoren für mentale Vollbelastung ausgelegt und stehen stets unbegrenzt zur Verfügung.

Dies würde sich schnell ändern, wenn Roby in Konkurrenz zu anderen Robotern stünde und es eine Rolle spielen würde, wie oft er z.B. beim ‚Fußball-Match der NAO-Roboter‘ (das gibt es tatsächlich) wegen Energiemangels oder Überhitzung seiner Prozessoren einen Boxenstopp einlegen müsste.

Plötzlich wäre Energiesparen angesagt und damit auch, auf unnötige Präzision zu verzichten. Vielleicht könnte man die höheren, energiefressenden Prozessorebenen auf den Chips etwas zurückfahren? Und bei Energiemangel nur mit Basis-Schichten rechnen? Wie es der Mensch tut?

Das menschliche Gehirn wiederum hangelt sich an der Grenze zur Überlastung entlang, da es nicht wie der Chip von Roby endgültig ausentwickelt, sondern mehr als noch in Entwicklung befindlicher ‚Prototyp mit Energieeinschränkung‘ und in seiner Geisteskraft mit viel Luft nach oben betrieben wird.

Auch die Kerntemperatur des Gehirns begrenzt dessen Leistung. Eine neuere Studie aus Cambridge (Brain 10.1093/brain/awab466, 2022, aus „Gehirn und Geist“ 09/22, S. 10) legt nahe, dass die Temperatur in tiefen Hirnregionen über 40 oC ansteigen kann.

Damit stünde das Gehirn bezüglich seiner Auslastung vor ähnlichen Problemen wie ein technisches Rechenzentrum: Sehr hoher Energiebedarf und problematische Kühlung bei hoher Packungsdichte der Neuronen und Synapsen: Gleich zwei Gründe, nur die allernötigsten Gehirnteile in Anspruch zu nehmen.

Während Roboter Roby erlebte Szenarien als Video abspeichern und auch im Original wieder aufrufen kann, verfügt ein Mensch nur über höchst fragmentierte und fragile Erinnerungen, die bei jedem Aufruf aufs Neue rekonstruiert und logisch verknüpft werden müssen. Ungenau, unzuverlässig und leicht manipulierbar.

Ist man down, ruft man eher schlechte Erinnerungen auf, Ideologien oder ein ‚fester Glaube‘ werden die Rekonstruktion sogar in seiner Substanz fälschen.

Julia Shaw, Rechtspsychologin aus London, (https://www.drjuliashaw.de) konnte nachweisen, dass sich allein durch immer wiederkehrende Fragetechnik sogar frei erfundene Straftaten ins Gedächtnis einer Versuchsperson implantieren ließen. Diese Taten hatten zwar nie stattgefunden, doch die Person selbst glaubte fest an ihre extern gefälschte Erinnerung.

Gegen die Dauerberieselung mit einer noch so verlogenen Propaganda hat die Realität keine Chance. Auf Dauer werden selbst offensichtliche Lügen zur Wahrheit. Und die Wahrheit zur angeblichen Lüge.

Unter Konkurrenzdruck, Zeit- und Energiemangel speichert ein Mensch nur die wichtigsten Teile der Realität ab, die z.B. für zukünftige Verhaltensentscheidungen von Belang sein könnten. Unter hohem Stresspegel z.B. bei Prüfungen oder nach Unfällen fällt das Gedächtnis oft ganz aus. Man kann nichts abrufen und sich kaum an etwas erinnern.

Roby hingegen ist immer ausgeglichen und im Vollbesitz seiner mentalen Kräfte, die ihm erlauben, die Realität so wahrzunehmen und zu speichern, wie sie ist und mit diesen realistischen Daten zu jeder Zeit fundierte Entscheidungen zu treffen.

Davon kann ein Mensch nur träumen: Sein Pegel an psychischer Energie ist großen Schwankungen unterworfen, so dass sich sein Empfinden und Verhalten in der Abfolge z.B. eines Gesprächs, innerhalb von Sekundenbruchteilen einmal verstandesbetont, bei kritischen Äußerungen seines Gegenübers aber auch übergangslos tief emotional und von Urprogrammen beherrscht zeigen kann. Diese Abfolge ist unschwer an Mimik oder sogar dem Aufblitzen aggressiven Verhaltens nachzuverfolgen.

Johann und Swen trinken Bier zusammen und schwärmen vom letzten Fußballspiel: Drei zu Null gewonnen! Herrliche Tore! Der psychische Pegel beider in himmlischen Höhen. So weit, so gut, bis Johann beim Zahlen unvermittelt den rosaroten Vorhang zerreißt mit der banalen Frage, wann er, Swen, denn daran denke, ihm den Fuffi (50 Euro) von gestern zurückzugeben.

Swens psychischer Pegel aus Wolke sieben – platsch – direkt auf den Meeresgrund. Seine Urprogramme springen an, den ersten Impuls, Johann eine reinzuhauen, kann er gerade noch unterdrücken. Mit der Ausrede: „Die Bank hatte gestern schon zu…“ hat ihn zumindest sein Urprogramm „Sündenbock“ vorerst gerettet.

Problematisch jedenfalls, dass der Umschwung zu rudimentärem Verhalten schnell und unbewusst erfolgt und bei niedrigem Pegel an psychischer Energie mental fast nicht zu kontrollieren ist.

Und der geistig Heruntergefahrene merkt noch nicht einmal, dass sein Gehirn schwächelt, er hält sich weiterhin für ‚normal‘. Aber der ‚Vernünftige‘ sollte mit seinen Ansichten zum Psychiater…

Welche Unterstützung könnte eine individualisierte KI bieten?

Die KI soll im psychischen Mangel das Gehirn mit Wissen, Verstehen und organisatorisch unterstützen, um bei sinkendem psychischem Pegel die Minderung von Arbeits- und Lebensqualität auszugleichen.

Qualität? Als Erstes beeinträchtigt werden ja Feinheiten und – leider – auch die fluiden oberen Schichten von Intuition, Kreativität und umfassendem, strategischem Denken. Kaum zu ersetzen, vor allem nicht durch eine KI, die sich auf eine Datenbasis aus der Vergangenheit stützt. KI kann vielleicht eine Notversorgung in Basisqualität realisieren. Immer noch besser als unkontrolliert abdriften.

Außerdem ist eine KI nicht unfehlbar, gerade was Inhalte betrifft, die weniger genau der zuvor gelernten Daten-Palette entsprechen. Sollte ich diesem ‚schwarzen Kasten‘, den niemand so recht versteht, glauben und zwar wenige, aber möglicherweise unvorhersehbare schwere Fehler in Kauf nehmen? Unbefriedigend, wenn Verantwortung ins Spiel käme.

Die Wissenschaft entschlüsselt seit Menschengedenken ‚Schwarze Kästen‘. KI oder ML (Machine Learning) erscheinen (noch) zu komplex, um ‚Restfehler‘ systematisch korrigieren zu können. Es bleibt vorerst Skepsis und die Notwendigkeit menschlicher Endkontrolle.

Bei der Objekterkennung kann die KI z.B. Handschriften lesen, Hund von Katze unterscheiden und heute noch sehr viel mehr. Aber es gibt auch Verfahren in der Gesichtserkennung, die Messwerte wie Augenabstand, Form von Mund und Augenbrauen usw. bestimmen und diese Daten mathematisch vergleichen.

In einem weiteren Entwicklungsschritt versucht auch Roboter Roby, mathematisch und parallel zur KI zu realisieren, dass Holme und Sprossen, die miteinander verbunden sind, eine Leiter darstellen, die ihm helfen könnte, den Apfel mit weniger Aufwand und Risiko zu pflücken.

Sicherlich wäre es sinnvoll, eine noch zu wenig transparente KI mit mathematisch nachvollziehbaren Verfahren zu ergänzen, wie es z.B. bei selbstfahrenden Autos mit unabhängiger Sensorik zur Anwendung kommt.

Fazit: Roboter könnten durchaus „Gefühle“ zeigen, falls dies z.B. aus Gründen der Akzeptanz oder Menschlichkeit als sinnvoll erachtet würde.

Humanoide Roboter sollten in ihrem Arbeitsbereich über einen klar definierten und streng überwachten ‚freien Willen‘ zur Optimierung ihrer Funktion verfügen.

Das Gehirn verbraucht so viel Energie, dass es bereits im Normalfall, geschweige denn im Mangel an psychischer Energie, nicht in Gänze arbeiten kann.

Um die biologisch bedingten Unvollkommenheiten des Menschen wenigstens zum Teil zu kompensieren, wäre über Struktur und Schutz einer streng abgeschirmten persönlichen KI nachzudenken.