schließen

Was, wann, wozu eigentlich?

Heilsversprechen und Endzeitdystopien der künstlichen Intelligenz.

Von Martina Mara

Künstliche Neuronale Netze sind vom menschlichen Gehirn inspiriert und ein wichtiger Faktor im Bereich der Artificial Intelligence
Illustration: IStock/IMRSQUID

Ein Plädoyer für die Entmystifizierung eines Terminus Trendicus, für kritische Fragen abseits von Science Fiction und mehr Interdisziplinarität in der Technikforschung.

Hunderte Handykameras strecken sich Sophia entgegen, als sie auf der Bühne der Future-Investment-Konferenz in Riad am 25. Oktober 2017 ihren Mund öffnet. Hunderte Menschen hören ihr zu, als sie zuerst einen schönen Nachmittag wünscht und dann charmant lächelnd über Verheißungen der digitalen Zukunft spricht. Eine hübsche junge Frau, die im Scheinwerferlicht hinter dem Rednerpult ein bisschen an Audrey Hepburn erinnert. Mit Absicht. Der Absicht ihres Erschaffers. Denn David Hanson, Chef des Hongkonger Tech-Unternehmens Hanson Robotics, hat Sophia halb nach dem Ebenbild der berühmten Schauspielerin kreiert. Halb nach dem seiner eigenen Ehefrau.

Sophia, das kann man getrost so sagen, ist der Rockstar unter den Robotern. Die Androidin mit der Silikonhaut und dem transparenten Hinterkopf (nur hier ist ihr technoides Inneres erahnbar) wird von Event zu Event gereicht. Sie zierte das Cover der Elle und war Studiogast in den reichweitenstärksten Late- Night-Shows. Kein Wunder – antwortet sie in Interviews doch stets schnell und pointiert auf unterschiedlichste Fragen. Mitunter scheint sie sogar voll Gefühl zu sein, etwa, wenn sie vom Wunsch nach einer eigenen Familie erzählt. Medialer Höhepunkt ihrer bisherigen World Tour war jedoch der Besuch in Riad, denn dort wurde Sophia immerhin die saudi-arabische Staatsbürgerschaft verliehen. Dass ihr als erstem Roboter der Welt eine derartige Ehre zukäme, freue sie sehr, sagte sie dazu auf der Bühne. Und die Motoren, die unter dem Silikon Sophias Mundwinkel steuern, zogen ihr dabei ein besonders freudiges Lächeln ins Gesicht.

Oh mein Bot! Nun ist sie wohl da, die künstliche Intelligenz, so der Tenor der internationalen Medienöffentlichkeit. Lebhaft und leibhaftig in Manifestation einer Menschmaschine, deren griechischer Name für göttliches Wissen steht. Tatsächlich kann man dem Entwicklerteam hinter Sophia keineswegs technische Raffinesse absprechen. Mit der Androidin ist ein komplexer Apparat gelungen, in dem State- of-the-Art-Techniken der Emotionserkennung und natürlichen Sprachverarbeitung mit einer beeindruckenden Chatbot-Funktionalität und einer Feinmechanik, die 62 Gesichtsausdrücke darstellen kann, kombiniert wurden. Ein bisschen KI ist auch im Spiel, etwa, wenn Sophia selbstständig aus den Reaktionen ihrer Gesprächspartner lernt. Und trotzdem: Von der menschenähnlichen Generalintelligenz, die viele mangels Klarstellung in der Roboterpuppe vermuten, von einem Wesen mit intrinsischen Zielen, Persönlichkeit und der Befähigung, Freude oder Ärger zu erleben, ist Sophia in etwa gleich weit entfernt wie die in Pyeongchang verunfallten Riesenslalom-Roboter von Olympiasieger Marcel Hirscher.

Trotzdem hat sich das uralte und gleichsam aufregende wie angstbesetzte Motiv des detailgetreuen Kunstmenschen in der Öffentlichkeit längst als stereotypes Sinnbild durchgesetzt. Man braucht nur „künstliche Intelligenz“ in die Google-Bildersuche im Internet einzutippen. Reihenweise Darstellungen androider Figuren sind das Resultat. Androide, die an Schreibtischen sitzen, auf der Computertastatur tippen oder einfach nur kontemplativ in die Ferne blicken. Dazwischen das eine oder andere Pressefoto von Sophia. Verständlich, dass sich viele Menschen nicht des Eindrucks erwehren können, im Fokus der internationalen KI-Forschung stünde die technisch perfekte Kopie unserer selbst.

Macht uns künstliche Intelligenz also überflüssig? Ist es das Ziel der Wissenschaft, den Homo Sapiens durch einen Haufen Sophias zu ersetzen? „Genau damit haben wir an der KI und Informatikfront wirklich zu kämpfen. Mit all diesen Fehlvorstellungen, die von Einzelnen sogar noch befeuert werden“, sagt dazu Gerhard Widmer, Leiter des Instituts für Computational Perception an der Johannes Kepler Universität und einer Forschungsgruppe am Österreichischen Forschungsinstitut für Artificial Intelligence. Die Realität, so der Träger des renommierten Wittgenstein-Preises, sieht gänzlich anders aus: „Wenn Sie die Top-Konferenzen in unserem Bereich besuchen, gibt es dort keine menschenähnlichen Maschinen. Was in der Öffentlichkeit als Artificial Intelligence verkauft wird, deckt sich eben kaum mit dem, womit sich die AI-Forschung wirklich beschäftigt.“

 Viel eher als Silikon-Androide wären das etwa algorithmische Grundlagen des Lernens und Wahrnehmens oder – und hier sind wir bei Widmers Spezial- und Lieblingsthema angelangt – die Verbindung von künstlicher Intelligenz und Musik. Seit vielen Jahren arbeitet der Informatiker an Lernalgorithmen, die Musikstücke automatisch entlang klanglicher Ähnlichkeiten klassifizieren. Gut nachvollziehbar wird das am Beispiel eines Programms, das Widmers Team in Wien für den FM4 Soundpark, eine Online-Datenbank für junge österreichische Musik, entwickelt hat: Da der Großteil der Titel, die dort abgerufen werden können, gänzlich unbekannt ist, funktionieren Empfehlungen nach Art des bekannten Amazon-Schemas – wer Song A hört, mag auch Song B – nicht. Stattdessen empfiehlt die Soundpark-Anwendung Titel direkt auf Basis selbsterlernter Musikparameter: der emotionalen Grundstimmung eines Liedes etwa. Die Potenziale dieses Forschungsgebietes erkennen mittlerweile auch große Medienunternehmen: „Sony, Google, Spotify und viele weitere haben eigene Gruppen zu KI und Musik aufgebaut. Alleine Suchalgorithmen für passende Filmmusik sind da ein Riesenmarkt“, sagt Gerhard Widmer, der in seiner Jugend selbst erfolgreicher Pianist war und in seinem Büro im JKU Science Park nach wie vor ein Klavier stehen hat.

Dieses Klavier kommt ihm bei einem weiteren Forschungsschwerpunkt zugute: Der Vermessung menschlicher Musikinterpretation. „Wir analysieren etwa, wie berühmte Pianisten einem Chopin-Stück Ausdruck verleihen, wie sie Passagen durch lautes oder leises, schnelles oder langsames Spiel Leben einhauchen. Künstliche Intelligenz lässt uns hier über einzelne Musiker hinweg Muster erkennen“, erklärt Widmer, dem dafür 2015 ein mit 2,3 Millionen Euro dotierter ERC Advanced Grant des Europäischen Forschungsrates zugesprochen wurde. Daran anschließend forscht der Informatiker derzeit auch an einem KI-Orchester für die Hosentasche: „Unsere Algorithmen sollen es Solisten bald ermöglichen, mit dem Computer als musikalisch ‚einfühlsamem’ Begleiter zusammen zu spielen, vielleicht sogar in Form eines ganzen KI-Symphonieorchesters, das vorhersieht, wie ausdrucksstark ich die kommende Passage angehen werde und das in Echtzeit passend mitspielt.“ Künstliche Intelligenz würde dadurch zu einem exzellenten Übungspartner. Dass der Computer aber irgendwann selbst zum nächsten Chopin avancieren könnte, bezweifelt Gerhard Widmer indes vehement: „KI hat keine Emotionen, keine Vorstellung von Dramatik. Sie kann nur Versatzstücke neu zusammensetzen, auf Basis purer Statistik. Da entsteht keine interessante Musik.“

Pure Statistik? Sie steckt als wichtige Grundlage hinter vielen Methoden der künstlichen Intelligenz. Insbesondere hinter jenen, bei denen Computerprogramme selbstständig aus Daten lernen oder, anders gesagt, allgemeingültige Schlüsse aus der Analyse vieler Einzelfälle ziehen. Neben dieser induktiven Herangehensweise spielen in der künstlichen Intelligenz aber auch deduktive Methoden eine große Rolle. Diese funktionieren genau andersherum – und sind das Spezialgebiet von Armin Biere, Professor am JKU-Institut für formale Modelle und Verifikation: „Beim deduktiven Schließen geht es um präzise allgemeingültige Regeln, die ein Algorithmus dann wiederum auf verschiedenste Einzelfälle anwenden muss“, erklärt der vielfach ausgezeichnete Forscher. Die von Bieres Team entwickelten Techniken der algorithmischen Logik waren Grundlage für die größten Mathematik-Beweise der vergangenen Jahre, seine Erkenntnisse auf dem Gebiet der sogenannten SAT-Beweiser dienen Unternehmen wie Microsoft, Intel oder IBM zur effizienten Fehlersuche (und somit Sicherheitsoptimierung) in Prozessoren oder Betriebssystemen. Der Versuch, Computern Regeln beizubringen, mithilfe derer sie logische Ableitungen und Entscheidungen treffen, ist von Beginn an eng mit der Idee künstlicher Intelligenz verbunden. Erste Wurzeln dieser Idee sind laut Biere sehr viel früher zu finden, als die meisten vermuten würden: „Ein großer Vordenker der künstlichen Intelligenz war der Philosoph und Mathematiker Gottfried Wilhelm Leibniz. Er hat bereits im 17. Jahrhundert von einer Mechanisierung des logischen Denkens geträumt“, erzählt Armin Biere. Das war freilich lange vor der Geburtsstunde der „Artificial Intelligence“ als Begriff und akademische Disziplin, die üblicherweise im Sommer 1956 in New Hampshire verortet wird.

Der Mathematiker, spätere Turing- Preisträger und Science-Fiction- Autor John McCarthy rief damals eine Gruppe früher AI-Interessierter zur legendären Dartmouth Conference zusammen. „Ab den 1950ern waren die ersten Jahrzehnte der KI-Forschung immer noch stark von Leibniz’ Traum der Logik-Maschine geprägt“, so Informatiker Biere, „erst in der jüngeren Vergangenheit sind mit dem maschinellen Lernen neue Ansätze hinzugekommen, die es in Zukunft mit der algorithmischen Logik zu verheiraten gilt.“ Rasante Forschungsfortschritte, neue Methoden und nicht zuletzt die wachsende Praxisrelevanz durch immer leistungsfähigere Computer haben künstliche Intelligenz in den vergangenen Jahren zum Trendthema gemacht. Ein Trendthema allerdings, das für Laien von einem mystischen Dickicht nur selten erläuterter Fachvokabeln umwoben ist. Von schwacher und starker KI ist da häufig die Rede, von Machine Learning, Deep Learning oder neuronalen Netzwerken. Stellt sich die Frage: Was ist das alles eigentlich?

Die sogenannte schwache KI simuliert intelligentes Verhalten in klar abgesteckten Domänen, etwa in der Spracherkennung oder im Schachspiel. Als ihr theoretisches Gegenkonstrukt gilt die starke (oder generelle) KI, die manchmal auch als Superintelligenz bezeichnet wird und gängigen Klischees entspräche: Einer KI also, die dem Menschen nicht nur in sehr spezifischen Bereichen ebenbürtig oder sogar überlegen ist, sondern menschliche Intelligenz an und für sich nachahmt. Ein solches Programm würde – ganz lapidar gesagt – neben Schachspielen wahrscheinlich auch Bauernschnapsen, Mongolisch sprechen und Strickmuster kreieren können und dabei, so die Hypothese mancher, schlussendlich ein eigenes Bewusstsein entwickeln. Nach Jahrzehnten der Forschung sind die Ziele der „Strong AI“ allerdings nach wie vor visionär und umstritten.

Schwache KI ist währenddessen bereits vielerorts auf dem Vormarsch. Insbesondere sind dafür beachtliche Weiterentwicklungen im Bereich des sogenannten Machine Learning verantwortlich, einer induktiven KI-Methode, bei der Algorithmen nach Mustern in großen Datenmengen suchen und daraus Erfahrungswissen generieren. Simples Beispiel: Man füttert ein Programm mit 10.000 Katzenbildern aus dem Internet – Katzen auf der Sommerwiese, im Schnee, hinter Büschen, auf Sofas. Das Programm entdeckt darin selbstständig gemeinsame Nenner. Es erlernt, was die „Katzenhaftigkeit“ der abgebildeten Tiere ausmacht. Nach diesem initialen Training kann der Algorithmus dann auch in einem unbekannten Pool an Fotos Katzen von Hunden oder Stofftieren unterscheiden. Eine potenzierte Form von Machine Learning ist das sogenannte Deep Learning. Um selbst in weitaus komplexeren Gefilden als dem beschriebenen „Cat Content“ Lernerfolge zu generieren, werden dabei Muster-Erkenner in vielen Schichten übereinander als künstliches neuronales Netzwerk angeordnet und mittels massiver Datensätze trainiert. Deep Learning respektive künstliche neuronale Netzwerke stecken gegenwärtig bereits in digitalen Assistenten wie Alexa, Cortana oder Siri, die dadurch natürliche Sprache interpretieren können, in Übersetzungsprogrammen wie dem Google Translator oder – zunehmend relevant – in medizinischen Diagnosesystemen. Auch launige Spielereien wie eine automatische Fortschreibung des Fantasy-Epos „Game of Thrones“ lassen sich damit realisieren, solange die Maschine zuvor mit den existenten fünf Buchbänden gefüttert wird.

Einen wichtigen Eckpfeiler für den Durchbruch künstlicher neuronaler Netzwerke hat Sepp Hochreiter, Professor am Institut für Bioinformatik und Leiter des AI Labs am neu errichteten Linz Institute of Technology der JKU, bereits als Student zu Beginn der 1990er Jahre entwickelt: Long Short- Term Memory. Dabei handelt es sich sozusagen um ein langes Kurzzeitgedächtnis, mit dem sich eine Maschine selektiv jene Informationen merkt, die sie später voraussichtlich wieder gebrauchen kann. Ob Google, Amazon, Facebook oder Apple – keiner der großen Tech-Player kommt mittlerweile mehr ohne das von Hochreiter und seinem ehemaligen Diplombetreuer Jürgen Schmidhuber entworfene LSTM-Verfahren aus. Der Linzer Professor, dem durch seine frühe Erfindung mittlerweile auch international die Reputation eines KI-Pioniers zukommt, forscht derzeit unter anderem zu neuronalen Netzwerken in selbstfahrenden Autos.

Das Konzept autonomer Robotertaxis ruft bei Vielen Ängste vor Kontrollverlust hervor, erst vor kurzem ereignete sich ein tödlicher Unfall mit dem Wagen eines Fahrdienstvermittlers: Eine Fußgängerin wurde erfasst und starb an ihren schweren Verletzungen. Laut Polizei hatte sie die Straße so schnell betreten, dass das Auto nicht mehr rechtzeitig reagieren konnte. Um derartige Ereignisse künftig zu vermeiden, treibt Sepp Hochreiter die Weiterentwicklung der Künstlichen Intelligenz intensiv voran. „Es gilt, noch genauer zu erkennen, wo mögliche Gefahren lauern“, verweist Hochreiter auf einen Aufmerksamkeitsmechanismus, den er und sein Team aktuell in der KI installieren. „Zudem bringen wir dem System bei, statt einzelner Aufnahmen eine ganze Sequenz von Bildern zu analysieren. Damit sinkt das Risiko, dass etwas falsch eingeschätzt oder gar übersehen wird.“

Seit mehreren Jahren kooperiert das wissenschaftliche Team Hochreiters mit der deutschen Fahrzeugindustrie, um selbstfahrenden Autos mithilfe künstlicher Intelligenz zu größtmöglicher Sicherheit zu verhelfen. „Um gute Fahrentscheidungen zu treffen, muss unsere KI die Signale verschiedener Kamera- und Sensorsysteme verknüpfen, Objekte erkennen, vielleicht sogar ein 3D-Modell der Umgebung anfertigen, die Intentionen anderer Verkehrsteilnehmer richtig einschätzen und ihre eigenen Wege planen. Erst wenn das alles einwandfrei funktioniert, kann man ein Auto am Markt anbieten“, so Hochreiter. Die Qualität der Trainingsdaten, aus denen die Maschine lernen kann, ist auch hier entscheidend: „Das System muss natürlich ausreichend unterschiedliche Erfahrungen gesammelt haben. Es muss beispielsweise oft genug in der Stadt und am Land gefahren sein und genügend Kinder und Hunde gesehen haben.“

Einen Bereich, den Hochreiter künftig verstärkt beforschen möchte, nennt er „das Wittgenstein-Prinzip“, basierend auf Ludwig Wittgensteins Überlegungen zu Wortgebrauch und Bedeutung. „Ich stelle mir vor, dass eine KI in Zukunft immer mitkommentieren kann, was sie sieht und tut“, so der Forscher, „dafür braucht sie allerdings bedeutungsvolle Repräsentationen von Objekten, etwa davon, was eine Tasse ist.“ Von Eltern könne man lernen, wie solche Repräsentationen am besten vermittelt werden: Was eine Tasse ist, dass sie einen Henkel zum Halten hat und zerbrechen kann, erkläre man Kindern im Gebrauch. Dieses Schema will auch Hochreiter nutzen: „Wenn eine KI erst einmal solche Konzepte parat hat, wird sie auch ihre darauf bezogenen Wahrnehmungen und Entscheidungen offenlegen können.“

Autonome Technologien, die sich menschlichen Interaktionspartnern gegenüber erklären. Damit thematisiert Hochreiter nicht nur eine Funktionalität, die zu mehr Akzeptanz und nutzerseitigem Vertrauen führen kann, sondern spricht auch einen hypothetischen Lösungsansatz für das sogenannte Blackbox-Problem an. Was in einem komplexen neuronalen Netzwerk nämlich zwischen Ein- und Ausgabe passiert, warum das System dort eine bestimmte Entscheidung trifft, das ist ein bis dato undurchsichtiger Prozess, der meist nic einmal rückwirkend nachvollzogen werden kann. Gleichzeitig gewinnen Computer als Entscheidungsträger in unterschiedlichsten Lebenslagen zunehmend an Bedeutung. Das autonome Fahrzeug, das nach definierten Parametern selbst den idealen Weg wählt, ist ein Beispiel. Algorithmen, die über die Zu- oder Absage eines Darlehens entscheiden, sind ein anderes. „Je mehr Entscheidungs- und Handlungsautonomie bei Maschinen liegt, desto mehr Fragen der Zurechnung und Verantwortung kommen auf, darunter auch solche von moralischer Relevanz“, gibt Michael Fuchs, Ethik-Professor an der Katholischen Privat-Universität Linz, zu bedenken. „Wie sollen autonome Fahrzeuge etwa programmiert werden, wenn Personenschäden unvermeidlich sind und zwischen verschiedenen Unfallszenarien abgewogen werden muss?“, fragt er – und schließt lakonisch an: „Kann ich künftig zwischen verschiedenen Moral-Modellen wählen, einem kantianisch programmierten Volkswagen oder einem utilitaristischen Rover vielleicht?“

Dass künstlich intelligente Entscheidungssysteme in der Praxis immer häufiger zum Einsatz kommen, weiß auch Sandra Wachter, die am Oxford Internet Institute und am Alan Turing Institute in London zu Datenethik forscht: „Es gibt Algorithmen, die auswählen, wer zu einem Vorstellungsgespräch eingeladen wird. Aber selbst in der Strafmaßvergabe wird bereits auf künstliche Intelligenz zurückgegriffen. Ein KI-System entscheidet also potenziell darüber, wie lange jemand ins Gefängnis muss“, so die Juristin. Seit längerem setzt sie sich für die Festschreibung eines Rechts auf Erklärung in der Europäischen Datenschutz-Grundverordnung ein: „Ich verstehe die Blackbox-Problematik neuronaler Netzwerke und verstehe auch, dass die Entwicklung transparenterer KI-Systeme nicht auf Kosten von Geschäftsgeheimnissen oder der Privatsphäre Dritter gehen darf“, so Wachter, „trotzdem müssen Betroffene zumindest nachvollziehen können, auf Basis welcher Informationen ein Algorithmus entschieden hat, wie er eben entschieden hat.“ Im Besonderen gelte dies bei einem Beschluss, der negative Konsequenzen für die betroffene Person mit sich bringe. Oder in Fällen, in denen eine potenzielle Diskriminierung im Raum steht.

So komisch es im ersten Moment auch klingen mag: Künstliche Intelligenz ist oftmals weit anfälliger für Vorurteile und Diskriminierungstendenzen als man meinen möchte. Die britische Informatikerin und Psychologin Joanna Bryson konnte das im vergangenen Jahr gemeinsam mit Kollegen sogar empirisch nachweisen. Eine im Wissenschaftsjournal Science publizierte Studie, in der Bryson als Co-Autorin fungiert, demonstrierte die Reproduktion von Geschlechterstereotypen durch einen Machine-Learning- Algorithmus: Nachdem dieser mit einer Vielzahl an Online-Texten gefüttert worden war, ordnete er männliche Namen ganz automatisch eher dem Begriff „Karriere“ zu, während Frauennamen eher mit „Kunst“ oder „Familie“ assoziiert wurden. Noch drastischer wirkt sich der gleiche Effekt bei ethnischer Diskriminierung aus. So zeigte sich, dass ein in der Praxis des US-Strafvollzugs vielgenutztes Computerprogramm dunkelhäutigen Menschen systematisch höhere Haftstrafen zusprach als hellhäutigen. Simpel, weil es das war, was das System aus Daten der Vergangenheit als „korrekt“ erlernt hatte. „Wenn wir Maschinen mit menschgemachten Daten trainieren, ist es völlig klar, dass verborgene Stereotype reproduziert werden. Diese schlagen sich im schlimmsten Fall in autonomen Entscheidungssystemen nieder, von denen wir eigentlich eine Minimierung diskriminierender Tendenzen erwarten“, sagt Joanna Bryson.

Die großen Fragen nach den Rahmenbedingungen für eine verantwortungsvolle Technologieentwicklung, nach dem sozialen Miteinander in einer digitalisierten Zukunft – sie schreiben uns eine kritische Auseinandersetzung mit künstlicher Intel ligenz schon heute vor. Abseits dystopischer Science-Fiction-Szenarien muss es dabei um interdisziplinäre Forschungszugänge und gemeinsame Betrachtungen von Chancen und Risiken gehen: „Hier liegt sicher ein Schlüsselfaktor der Johannes Kepler Universität“, sagt dazu Gabriele Anderst- Kotsis, Leiterin des Instituts für Telekooperation und der Abteilung für kooperative Informationssysteme an der JKU und ehemalige Vizerektorin für Forschung: „Wir versammeln in Linz Technik und Naturwissenschaften, Sozial- und Wirtschaftswissenschaften, Recht und seit kurzem auch die Medizin. Für einen umfassenden Blick auf das Thema KI sind wir bestens aufgestellt und können hier vorleben, wie eine neue Art des fächerübergreifenden Arbeitens funktioniert.“ Das Linz Institute of Technology (siehe dazu auch der Artikel "Es werde LIT") und das Open Innovation Center, das im Jahr 2019 als neuer transdisziplinärer Forschungsraum am Linzer Campus eröffnet werden soll, nehmen dabei einen wichtigen Stellenwert ein. Forschung nach dem technisch Machbaren soll hier ganz bewusst mit Fragen nach dem sozial Erwünschten kombiniert werden.

Bleibt die Frage: Was wollen wir eigentlich von künstlicher Intelligenz, welche Verbesserungen erhoffen wir uns von diesem so mächtigen neuen Werkzeug? „KI soll uns mehr Zeit für interessante Dinge verschaffen. Im besten Fall unterstützt sie uns sogar beim Lernen oder im kreativen Tun“, sagt Gabriele Anderst-Kotsis. Auch Sandra Wachter wünscht sich, „dass KI hilft, dort, wo wir als Menschen gut sind, noch besser zu werden.“ Große Potenziale der künstlichen Intelligenz sieht sie darüber hinaus „bei Frühdiagnosen im Gesundheitsbereich und in der Medikamentenentwicklung“. Gerhard Widmer betrachtet künstliche Intelligenz „als Hilfsmittel, durch das wir noch mehr über uns selbst, unsere menschlichen Fähigkeiten und Fertigkeiten lernen können“.

Der androide Kunstmensch – er kommt auf Wunschlisten zur digitalen Zukunft hingegen äußerst selten vor. Aus sozialwissenschaftlicher Sicht erklärt sich das leicht, schrieb der Psychologe Ernst Jentsch doch bereits im Jahr 1906 über die Figurenautomaten seiner Zeit: „Unter allen psychischen Unsicherheiten, die zur Entstehungsursache des Gefühls des Unheimlichen werden können, ist es ganz besonders (…) der Zweifel an der Beseelung eines anscheinend lebendigen Wesens und umgekehrt darüber, ob ein lebloser Gegenstand nicht etwa beseelt sei.“ Dieser Gruseleffekt menschenähnlicher Roboter ist in der Psychologie auch heute noch gut bekannt und wird seit einigen Jahren verstärkt empirisch erforscht. Dass selbst technisch Eingeweihte nicht vor ihm gefeit sind, illustriert eine Anekdote von Sepp Hochreiter. Der KI-Experte bekam die Rockstar-Androidin Sophia kürzlich überraschend am Rande einer Tagung zu Gesicht. Der erste Eindruck hätte durchwachsener nicht sein können: „Für einen kurzen Moment konnte ich die Situation überhaupt nicht einschätzen. Mir war nicht klar, ob da ein Mensch sitzt, der auf Roboter macht – oder ein Roboter, der auf Mensch macht.“ Hochreiter schüttelt den Kopf: „Ein totaler Schock!“

Eine Linzer Sophia dürfte es so bald also nicht geben.

NEWS 06.04.2018

Wissen

Erschienen in Ausgabe 1/2018