Ein Roboter im Human-Robot-Interaction-Lab der Tufts University

Politiker müssen die Konsequenzen von Künstlicher Intelligenz verstehen

Ein Kommentar

“Feierabendverkehr. Der Weg nach Hause wird heute etwas länger dauern und ich freue mich. Endlich habe ich Zeit für meine Emails, Wochenendplanung und kann meine Lebensmittel online vorbestellen. Seitdem mich mein Auto überall hinfährt, ist Zeit im Auto für mich etwas Besonderes.“ So stelle ich mir meine Gedanken vor im Jahr 2020, wenn ich in einem selbstfahrenden Auto sitze. Letzten Monat haben Daimler und Google bekanntgeben, dass ihre Autos uns fahren werden bis 2020.

Selbstfahrende Autos sind Künstliche Intelligenz. Diese Kategorie umfasst eine Fülle an Technologien und wenn wir Künstliche Intelligenz hören, denken wir eher an den Terminator oder Lieutenant Commander Data von Star Trek – jedenfalls etwas aus der Zukunft. Dabei ist Künstliche Intelligenz keine Zukunftsmusik. Längst nutzen Firmen Maschinen in ihren Produktionshallen und viele Haushalte besitzen einen Staubsaug-Roboter. Betrachtet man, wie schnell sich die Technik entwickelt, sollte man davon ausgehen, dass uns bald mehr Künstliche Intelligenz umgeben wird.

Das Thema taucht zwar manchmal in Medien wie der New York Times, dem Guardian oder dem Spiegel auf, aber es ist Zeit, dass sich Politiker mit den Konsequenzen von Künstlicher Intelligenz auseinandersetzen, und handeln.

Künstliche Intelligenz wirft Fragen auf, die für unsere Gesellschaft relevant sind. Es gibt zum Beispiel einen Sex-Roboter namens Roxxxy, sie kann mit ihrem Besitzer reden, mit ihm kuscheln und erotisch interagieren. Aber was passiert, wenn Roxxxy ihren Besitzer verletzt oder ein anderer Mensch den Roboter manipuliert?

Wussten Sie, dass es vollautomatische Waffensysteme gibt, die dafür programmiert sind, völlig selbstständig zu entscheiden, ob sie schießen sollten oder nicht. In den Vereinigten Staaten gibt es hierzu eine hitzige Debatte unter Experten, ob diese Systeme verboten werden sollten: Gegner des Bannes argumentieren, dass diese Systeme mitten im Kampf völlig emotionslos überprüfen können, ob ihre Handlung mit den Rules of Engagement, den Einsatzregeln im Kampfeinsatz, übereinstimmt. Befürworter entgegnen, dass vollautomatische Soldaten nicht mit internationalem Menschenrecht vereinbar sind. Die Vereinten Nationen organisieren Expertenrunden zu diesem Thema, aber Fragen zu Verantwortung und Moral müssen auch von Politikern aufgegriffen werden. Und zwar nicht irgendwann. Jetzt!

In Europa gibt es ein Komitee für Künstliche Intelligenz mit jährlichen Konferenzen, aber politische Empfehlungen resultieren daraus nicht. In 2011 entstand ein Papier der Europäischen Union, was die Mitgliedstaaten dazu auffordert wirtschaftliche Anreize für Firmen zu schaffen, damit Europa ein attraktiver Standort für Forschung zur Künstlichen Intelligenz wird. Über die Konsequenzen dieser Forschung und der Technologien steht in dem Papier nichts.

Andere Technologien, wie die Stammzellforschung, wurden sehr früh reguliert in den Vereinigten Staaten und in Europa, warum wird über Künstliche Intelligenz nicht geredet? Regierungen freuen sich über die wirtschaftlichen Vorteile, die Künstliche Intelligenz mit sich bringen wird, aber es gibt auch eine andere Seite dieser Technologie und es ist Pflicht für Politiker, sich damit zu beschäftigen.

Experten gehen davon aus, dass Künstliche Intelligenz wesentlich mehr Jobs übernehmen wird und dass es kaum möglich sein wird, diese Menschen umzuschulen. Dass eventuell Tausende Arbeiter durch Maschinen ersetzt werden, erfordert ein Überdenken von Sozialsystemen, und zwar am besten nicht erst, wenn es zu spät ist. Diese Technologien werden auch unser gesellschaftliches Zusammenleben verändern und das auch in Aspekten, in denen wir es vielleicht gar nicht ändern wollen. Was, wenn wir keine Menschen mehr an Schaltern haben, sondern Roboter, die nicht auf Empathie oder Verständnis programmiert sind?

Und dann bleibt da ja auch noch die Frage, wie Künstliche Intelligenz uns Menschen verändern wird. Was passiert, wenn wir uns in eine Maschine verlieben, die nicht darauf programmiert ist, zu lieben? Dazu gibt es bereits Forschungsergebnisse, aber keine politische Überlegungen. Und dass Menschen sich an Maschinen gewöhnen zeigt der Fall Scooby Doo: Amerikanische Soldaten verloren ihren Roboter, der ihnen mehrfach das Leben gerettet hatte. Sie bettelten die Techniker an, genau dieses Model wiederherzustellen und als sich herausstellte, dass das Gerät zu stark beschädigt war, hielten sie eine Andacht.

Ein möglicher Grund, warum Künstliche Intelligenz nicht Einzug in die politische Debatten hält, liegt an dem Fakt, dass unter dieser Kategorie viele Technologien zusammengefasst werden, die nicht so scheinen, als seien sie verbunden. Trotzdem ist es an der Zeit, dass Politiker die Konsequenzen von Künstlicher Intelligenz verstehen, sich auf eine einheitliche internationale Sprache verständigen und nach Abwägen der Vor- und Nachteile über eine mögliche Regulierung nachdenken.

 

Die Debatte Keine Kommentare