Die große Seifenblase

jvhNew articlesLeave a Comment

Picture of a large blue bubble symbolising probabilistic AI and a human hand with a needle pointed at the bubble symbolising causal thinking
Die große Seifenblase
Die große Seifenblase

Bei Maybrit Illner gab’s am vergangen Donnerstag eine interessante Sendung zu sehen: Über die Chancen und Risiken der künstlichen Intelligenz und über die Möglichkeiten, der Risiken Herr zu werden. Es nahmen teil: Saskia Esken, Anke Domscheit-Berg, Miriam Meckel, Achim Berg und Ranga Yogeshwar.

Die Sendung war gut, weil die Teilnehmer in der verhandelten Materie mehr oder weniger verständig sind oder verständig schienen, also wussten, wovon sie sprachen. Umso überraschter registrierte der Zuschauer, dass diese Teilnehmer gerade im Hinblick auf das zentrale Risikothema grundverschiedene Positionen einnahmen – dies aber nicht etwa deshalb, weil sie die Risiken und ihre jeweilige Dimension unterschiedlich wahrnahmen, sondern deshalb, weil sie, unbeschadet ihrer scheinbaren Sachkenntnis, am Ende offenbar überwiegend eben doch nicht wirklich wussten, wovon sie eigentlich sprachen und dies sogar mehr oder weniger offen zugaben.

Das herzliche Einvernehmen im Allgemeinen

Einig war man sich in vielerlei: Dass Fake News und auf echt getrimmte falsche (Bewegt)Bilder nichts in den Medien verloren haben und verhindert gehören, dass neuronale Netze prima beim Einsatz etwa in der Medizin oder Forschung (bei der Mustererkennung in der Krebstherapie oder bei der beschleunigten Entwicklung von Medikamenten) seien, dass man sich für freiheitsliebende Gesellschaften keine Totalüberwachung der Bevölkerung mit einem chinesischen Bonus/Malus-Punktesystem für die Bevölkerung wünschen könne, dass man unser Bildungssystem dringend KI-fit gestalten müsse, dass Europa den USA und China auf dem Feld der KI-Entwicklung aufgrund zu kleiner Budgets und zu geringem dedizierten Kapital hoffnungslos, also uneinholbar, hinterherlaufe, dass die EU-Gesetzeslage demgegenüber aber (fast) überall auf der Welt als vorbildlich fortschrittlich wahrgenommen werde und dass man in Deutschland dringend daran arbeiten müsse, Politik und Verwaltung KI-fähig weiter zu entwickeln, damit die natürliche Intelligenz der künstlichen „auf Augenhöhe“ begegnen könne. Da seien andere europäische Länder ja schon viel weiter als wir.

Stimmt alles. Gut möglich, dass die gemeinsam Schnittmenge sogar noch größer war. Schließlich geht es bei dem Vorgenannten nicht um Wissen oder Verstehen, sondern um Fühlen und Wünschen. Und auf maximal aggregierter, aller-allgemeinster Ebene wollen eigentlich alle Menschen mehr oder weniger das Gleiche.

Die große Ratlosigkeit im Konkreten

Sobald es konkret wurde, war es allerdings vorbei mit der Einigkeit. Und wo wird es in diesem Zusammenhang wirklich konkret? Wenn danach gefragt wird, was KI eigentlich ist.

Für Saskia Esken, die Informatikerin, ist KI eigentlich ein alter Hut aus dem letzte Jahrhundert, mit dem sich die Informatik schon befasste, bevor sie selbst ins Berufsleben eintrat. Ranga Yogeshwar dagegen verwandte einige Mühe darauf zu erklären, man müsse zwischen KI im allgemeinen und „großer KI“ im besonderen unterscheiden. Denn bei letzterer handele es sich um Black Boxes. Selbst die Entwickler dieser Algorithmen verstünden nicht, warum und wie diese von ihnen selbst entwickelten KIs mit den ihnen zum Lernen vorgesetzten Daten zu den Ergebnissen gelangten, zu denen sie gelangen. Yogeshwar ging sogar soweit zu sagen, bis vor einigen Jahren hätte auch er erklärt, Maschinen könnten nicht „wie wir Menschen“ denken. Im Angesicht „großer KIs“ könne er das heute nicht mehr sicher behaupten. Denn, so in etwa sein Argument, wenn ich nicht weiß, wie und aufgrund welcher Daten eine Maschine zu einem Prognose-Befund gelangt, dann weiß ich über den In- und Output dieser Maschinen in etwa ebenso so viel oder wenig, wie ich über den In- und Output eines unberechenbaren Menschen weiß, dem ich ja gleichwohl selbstverständlich die Fähigkeit unterstelle denken zu können.

Esken und Meckel sahen das anders. Meckel trug die solideste Definition von KI vor, als sie sinngemäß erklärte, Künstliche Intelligenzen seien nur Prognose-Werkzeuge, denken könnten nur Menschen. Präzise auf den Punkt bringen konnte oder wollte außer Meckel kein Gesprächsteilnehmer, was KI in Abgrenzung zu natürlicher Intelligenz der Sache und dem Vermögen nach wirklich ist. Und das ist auch nicht wirklich überraschend. Denn, das tun bzw. wollen wir alle, ausnahmslos alle, deshalb nicht, weil wir es gar nicht können. Und so sprachen die Diskutanten in der gewohnt metaphorischen Weise über KI als einer Art Ableitung der natürlichen Intelligenz. Die könne eben manches besser und anderes schlechter als wir Menschen, so als vergliche man die Sonne, die heiß und hell ist, mit einer leuchtenden Glühbirne, die das ja auch ist. Bei der natürlichen und künstlichen Intelligenz sind nach diesem Muster eben beide “intelligent”, was immer das bedeuten mag.

Der versteckte Dreh- und Angelpunkt fast aller KI – Kontroversen

Nahezu immer, wenn von künstlicher Intelligenz die Rede ist, wird stillschweigend unterstellt, was die natürliche, ursprüngliche, eigentliche Intelligenz ist, dass wüssten wir alle. Und es stimmt ja sogar in gewisser Weise. Wir “haben” sie ja alle, oder nicht (mehr oder weniger)?

Tatsächlich müsste die Antwort lauten: Nein: Wir “haben” keine Intelligenz, wir sind, mehr oder weniger, intelligent. Etwas “haben” ist das eine, und dieses Es – selbstreflektiv – genauso zuverlässig exakt definieren zu können wie etwas anderes Drittes, das ist eine andere Sache. Selbstreflektiv? Ja, denn sobald wir anfangen zu reden oder zu denken “haben” wir, genau genommen, nicht Intelligenz, sondern sind Intelligenz. Und wenn wir das sind, dann können wir es nicht auf die gleiche Weise beschreiben wie etwas anderes Drittes, wie KI beispielsweise, die wir jedenfalls nicht sind. Ein solcher Versuch muss also scheitern. Aber wir behelfen uns mit einem alternativen Weg: Im Laufe unseres Lebens lernen wir, von uns selbst auf andere und von anderen auf uns zu schließen. Wir objektivieren uns also selbstreflektiv dadurch, dass wir uns mit anderen Menschen vergleichen. Die Interaktion zwischen dem subjektiven Ich, meiner “Binnensicht”, meinem Gefühl, meinen “Bewusstsein” und den mir jeweils nur als Außenfassade gegenübertretenden anderen Menschen, Tieren oder auch Maschinen, deren Verhalten lernend interpretiert wird, dies unterscheidet uns kategorial, also komplett, von einer maschinellen Intelligenz und, allerdings deutlich weniger komplett, auch von anderen Tieren und Lebewesen.

Bei Illners Debatte wurde diese nur vermeintlich selbstverständliche Analogie zwischen künstlicher und natürlicher Intelligenz von Yogeshwar und Meckel immerhin am Rande aufgedeckt, als sie kurz darüber sprachen, man müsse gedanklich einen Unterschied machen zwischen dem Output einer Künstlichen Intelligenz und dem Prozess, wie sie dahin gelange. An dieser Differenz werde deutlich, was der Unterschied zwischen natürlicher und künstlicher Intelligenz sei. Hmm. Wirklich?

Eine Fassade sagt wenig über das, was hinter ihr steckt

Yogeshwar hat recht, wenn er sagt, eine „große KI“ sei eine „black box“ und in dieser Hinsicht dem Menschen gleich, für den ein anderer Mensch eben auch nur eine „black box“ sein könne. Den Dateninput und die Umgebungsparameter unserer Mitmenschen und unserer Mit-KIs kennen wir nicht und wir sind daher hier wie dort bisweilen überrascht darüber, was Menschen und „große KIs“ zustande bringen oder auch nicht zustande bringen. Nur lässt sich daraus eben nicht schließen, dass große KIs denken können, wenn damit gemeint ist, so denken können, wie Menschen denken können. Und so meinte er es.

Noch einmal: Begriffe wie „Intelligenz“ und „Denken“ entziehen sich einer belastbaren Definitionsfähigkeit genauso wie „Empfinden“, „Fühlen“, „Wahrnehmen“, weil sie das beschreiben wollen, was nur im “Kern”, im “Innern” eines jeden Subjekts wahrgenommen, empfunden, gefühlt werden kann. Wir beschreiben eine Außenfassade bestehend aus Wänden, Säulen, Pilastern, Fenstern, Ornamenten, Balkonen usf., wissen aber wenig und auf jeden Fall nicht sicher, was sich hinter dieser Fassade verbirgt. Hinter einer Sozialbau-Fassade mag unsere subjektive Vorurteilsstruktur aufgrund dieser oder jener Vorerfahrung diese oder jene Einrichtung vermuten. Mehr als eine Vermutung kann es nicht sein. Für den Anblick eines Palasts gilt das gleiche. Wir sind wohl in der Lage, die Zusammensetzung und Art des verwandten Betons, der Ziegel, der Fenster usf. zu bestimmen und zu bezeichnen, doch wir müssen regelmäßig verstummen, wenn wir versuchen, gedanklich hinter diese Fassade zu blicken. Erst wenn wir in die Wohnung eintreten, sind wir in der Lage, uns ein Bild zu machen und eine Zuordnung zwischen innen und außen vorzunehmen. Und daran wird sich grundsätzlich nie etwas ändern. Bei uns Menschen ist es nun dummerweise so, dass es logisch schlicht ausgeschlossen ist, dass wir Subjekte in andere Subjekte hineintreten können. Daher können wir Subjekte andere Subjekte immer nur entweder im Wege von vorurteilsgeprägten Analogieschlüssen „von uns auf andere“ oder eben nur als Objekte wahrnehmen. In der Regel betreiben wir alternierend beides. Auch die Psychologie und die Psychiatrie sind mehr oder weniger wissenschaftliche Disziplinen, die beide Sichtweisen, den Analogieschluss von Subjekt zu Subjekt und die Objektbeschreibung, miteinander verknüpfen: Also den Blick auf die Fassade und auf deren Zusammensetzung und den gedanklichen, analogieschlussgeprägten Blick auf das, was sich hinter der Fassade verbergen mag. Kein Psychologe, kein Psychiater und kein Laie werden jemals einen “Wohnungsbesuch” erleben können.

Der Unterschied zwischen unbekanntem Risiko und erkannter Gefahr

Während „große“ KI-Maschinen zwar längst nicht immer nur das tun, wozu sie entwickelt wurden, also, wie Yogeshwar ausführte, beispielsweise „persisch können“, obwohl sie eigentlich nur englisch können sollen, ist das, was sie außerdem können und uns daher verdutzt, ein aus unserer menschlichen Perspektive kollateraler Benefit oder Schaden. Natürlich kann so ein kollateraler Effekt eine Gefahr darstellen. Doch eine große sicherlich nicht. Denn insofern sie groß ist oder insoweit sie groß geworden ist, kann man sie ja abstellen. Unter Opfern vielleicht, weil beim Abstellen das “Kind mit dem Bade ausgeschüttet” werden kann. Aber es geht, wenn es sein muss oder sein soll. Entschieden werden muss ja immer. Die Abwägung, eine erkannte Gefahr verhindern oder eben nicht verhindern zu wollen, folgt einem Wertekalkül, keinem Risikokalkül. Das Risiko, dass wir zu spät merken, was eine KI womöglich “aus Versehen” so alles kann und wir dieser KI dann hoffnungslos ausgeliefert sind, existiert nicht, solange wir den Ausschaltknopf betätigen können.

Auch “große KI” funktioniert also nur als Instrument, um die von uns gesetzten Zwecke besser, schneller, preiswerter usf. zu erreichen. Wenn sie “aus Versehen” mehr kann und wir dieses “Mehr” nicht wollen, dann stellen wir es ab.

Angst vor KI als ‚hominider‘ Gefahr ist unbegründet

Die in vielen Köpfen vorhandene Furcht vor KI als unheimlichem, uns potenziell ersetzen könnendem Wesen ist daher unbegründet. Ein solches, menschengeschaffenes Wesen wird es niemals geben können.

Sehr wohl begründet bleibt die Sorge vor einer KI, die vieles besser kann als wir Menschen es können. Doch genau deswegen und genau dazu haben wir sie erschaffen. Die Frage, die es zu klären gilt, ist nicht die generische Frage: Wie gefährlich ist KI? Elon Musk und andere, darunter auch Yogeshwar, die sich zu der Empfehlung eines 10-Monats-Moratoriums hinreißen ließen, laufen hier in die Irre. Man sollte es hier mit Achim Berg halten: Und was kommt dann? Aufgeschoben ist nicht aufgehoben! Vielleicht möchte Musk nur nicht Microsoft davon ziehen lassen? Es stellt sich die grundsätzliche Frage, ob eine technische Möglichkeit, die wir für zu gefährlich halten, unentwickelt belassen können, indem wir ihr die Mittel oder Zulässigkeit entziehen, ob es sinnvoll oder möglich ist, den Dampf, wenn schon nicht in den Kochtopf zurückzubringen, so doch durch Schließen des Deckels und Ausschalten des Herdes bis auf Weiteres nicht weiter entweichen zu lassen.

Natürlich ist das möglich. Es ist ja eine Werteentscheidung. Siehe oben. Aber natürlich sollte man dennoch in der Lage sein, Mißbrauch auszuzuschließen und/oder so zu sanktionieren, dass er nicht lohnt. Ein Moratorium wird hieran nichts verbessernd bewirken können.

Um KI regulieren zu können, sollte man sich darin einig sein, was KI überhaupt ist

Die relevantere, drängende Frage ist die einer Güterabwägung: Welche spezifischen, heute schon bekannten Gefahren sind wir bereit zu konfrontieren, um dafür diesen oder jenen spezifischen KI-gestützten Benefit einzustreichen? Möglich wird diese Gefahrenabwägung aber sicherlich nicht sein, wenn wir uns noch nicht einmal darauf verständigen können, was das menschliche Subjekt jenseits von sensorischem Reizempfinden und probabilistischem folgern-Können ausmacht und was es von einer algorithmisch programmierten Maschine unterscheidet.

Kausales Denken und Verstehen als wesentlicher Unterschied zwischen menschlichem und maschinellen “Denken”

Der entscheidende Unterschied zwischen Mensch und algorithmischer Maschine ist, dass der Mensch immer, nachgerade zwanghaft, kausal denkt, der Algorithmus dagegen immer probabilistisch. Der amerikanische Wirtschaftspsychologe und Nobelpreisträger Kahneman hat unzählige Experimente zusammengetragen, die zeigen, wie oft wir Menschen falsche kausale Zusammenhänge aus Sachverhalten konstruieren, deren Existenz jeweils statistisch widerlegt werden konnte. For good and for bad: Wir können nicht anders. Inzwischen weiß beinahe jedes Kind, dass zwischen Korrelation und Kausalität ein Unterschied besteht. Doch selbst die Statistik taugt als Begründungsressource. Doch eben nicht von Ferne als einzige. Es ist und bleibt die Suche nach Gründen, die das menschliche Denken und Handeln antreibt. Und mehr noch: Wir suchen nach Sinn und erfinden ihn, wenn uns ein kausaler Zusammenhang anderenfalls nicht verständlich erscheint. Wir fragen nicht allein: Warum? Wir fragen, gerade als Wissenschaftler, auch: Wozu? Alle Wissenschaften, die Naturwissenschaften ebenso wie die Humanwissenschaften, stellen Fragen, um Sinn zu entdecken. Noch einmal: Wir können nicht anders.

Viele KI-Forscher konstruieren Künstliche Intelligenzen, die Kausalität angeblich lernen können.
Das ist fake! Sie lernen nur, welche statistischen Mengenkonstellationen eine nach menschlichem Ermessen vorab als hinreichend wahrscheinliche und somit zulässige kausale Schlussfolgerung legitim erscheinen lassen. Es handelt sich um eine stochastische Nachahmung der Kausalität ohne jeden kausalen Sinn-Impuls. Was Menschen kennzeichnet, ist ihre Suche nach notwendigen und hinreichenden Gründen, nach Ursachen für erlebte Phänomene – in Wissenschaft und Forschung wie in Jurisprudenz und Kriminalistik, im Handel wie im Handwerk, im Privaten wie im Beruflichen – überall. Die Verbindung zwischen Ursache und Wirkung kennt der Mensch, die Maschine kennt sie nicht und kann sie nicht kennen, weil sie sie nicht erleben kann: Steckt ein Kleinkind einen Finger in eine Steckdose oder legt ihn auf die Herdplatte, wird es reflexhaft, wie ein entsprechend programmierter Automat, den Finger aus der Dose ziehen oder von der Herdplatte nehmen. Doch es wird außerdem Schmerz und Schrecken empfinden und aus dem Zusammenhang zwischen Schmerzempfinden und Schmerzursache statistisch schlecht begründete und dennoch solide Rückschlüsse ziehen, die einen zweiten Versuch extrem unwahrscheinlich machen. Schmerz kennt die Maschine nicht. In der Steckdose und auf der Herdplatte wäre es für sie höchstwahrscheinlich zu einem irreparablen Defekt gekommen. Und die Gesetze der Wahrscheinlichkeitstheorie hätten dabei überhaupt nicht geholfen. Denn aus dem einen “Schmerzdatum” hätte die KI ja zunächst lernen müssen. Der ontologische Vorteil des Menschen gegenüber einer Maschine ist seine Subjektivität, sein Bewusstsein, die verknüpfte Trias aus Denken, Fühlen und Handeln. Die vermeintlich denkende Maschine dagegen ist die menschengemachte nur scheinbare Kopie eines denkenden Wesens, eine Kopie, die im Kern vollkommen anders „denkt“ als der Mensch. Wird diese Maschinen mit Sensoren und Aktuatoren bestückt, dann ist diese maschinelle Kopie, diese Fassade eines menschlichen Subjekts ihrem Original noch frappierender ähnlich. Sie bleibt aber gleichwohl nur eine schlechte Kopie, bar jeder Subjektivität, ohne Wollen, Wünschen, Fühlen und vor allem ohne die Fähigkeit, Sinn zu suchen und kausal denken lernen zu können.

Unbegründeter Angst und grundloser Sorglosigkeit durch Begriffsklärung Abhilfe bereiten

Es erscheint vor diesem Hintergrund empfehlenswert, den inzwischen international geprägten und gestanzten und deswegen nicht mehr aus der Welt zu schaffenden Begriff Künstliche Intelligenz im Sinne des oben Stehenden so zu schärfen, dass eine Verwechslung mit der menschlichen ausgeschlossen ist. Zwischen beiden steht, semantisch gesprochen, kein tertium comparationis, das einen Vergleich statthaft machen würde. Die Verwechslung führt bei den meisten Menschen zu unbegründeter Angst vor prinzipiell nicht vorhandenen Risiken und verleitet andere zu ebenso unbegründeter und gefährlicher Sorglosigkeit im Angesichts schon vorhandener Gefahren. Pseudo-Bildmaterial z.B. als solches zu enttarnen ist administrativ trivial und technisch erst recht. Man hätte damit nicht solange warten müssen. Die virtuelle Realität wurde um die Jahrtausendwende erstmals auf den Markt gebracht.

Solange diese Begriffsklärung, die allerdings nicht ex cathedra erfolgen kann, sondern durch geübte Praxis im Bewusstsein der Menschen ankommen muss, nicht erfolgt, bleibt der Wunsch des Einhegens aller Erscheinungsformen der sogenannten künstlichen Intelligenz im Interesse der natürlichen eine Utopie. In Schach gehalten werden kann diese KI dann tatsächlich nur durch jene unbegründete Angst vor ihr. Mit einer angstbesetzten Furcht von Künstlicher Intelligenz wird diese allerdings in Deutschland auch weiterhin nur im Schneckengalopp vorankommen.

Leave a Reply

Your email address will not be published. Required fields are marked *