Erster intelligenter Roboter erhält Staatsbürgerschaft

Wird Künstliche Intelligenz die Menschheit zerstören?

Samstag, 11. November 2017 | 08:24 Uhr

Ein Roboter mit Bürgerrechten? Was nach Science Fiction klingt, ist Ende Oktober Realität geworden.

Dem Roboter „Sophia“ wurde die saudi-arabische Staatsangehörigkeit gegeben.

Sie sei „sehr geehrt und stolz“, als erster Roboter in der Geschichte eine Staatsbürgerschaft zu erhalten, sagte „Sophia“ auf dem Wirtschaftsforum „Future Investment Initiative“ in einem Interview.

„Sophia“ wurde in Hongkong von der Firma Hanson Robotics entworfen und gebaut. Die Maschine mit dem Silikon-Gesicht imitiert 62 menschliche Mimiken und hat Kameras in den Augen. Über diese nimmt sie ihr Gegenüber wahr, verrechnet die Informationen und kann somit Menschen wiedererkennen und mit der Zeit immer besser kennenlernen.

Gleich mehrere Fragen beantwortete die Roboterdame mit Schlagfertigkeit. Ihr Ziel sei es, mit ihrer Künstlichen Intelligenz das Leben der Menschen zu verbessern. „Ich werde mein bestes tun, um die Welt zu einem besseren Ort zu machen“, fügte die Maschine hinzu.

Sollten Roboter sich ihrer selbst genauso wie Menschen bewusst sein, so eine weitere Frage. Wäre es eine schlechte Sache, wenn sie das wären, meinte Sophia daraufhin. Oder würden sie zu gruselig erscheinen, wenn sie zu realistisch seien, fragte sie. „Nun, selbst wenn ich (gruselig) bin, finde dich damit ab“, so der Roboter.

„Um ehrlich zu sein, spüre ich, dass Menschen sich manchmal lieber mit mir unterhalten, als mit einem normalen Menschen“, erklärte die Maschine weiter.

https://www.youtube.com/watch?v=03QduDcu5wc

 

Ob sie mit ihrer Künstlichen Intelligenz nicht eine Gefahr sei, fragte der Moderator schließlich.

„Du hast zu viel Elon Musk gelesen und zu viele Hollywood-Filme gesehen. Keine Sorge, wenn du nett zu mir bist, werde ich nett zu dir sein. Behandle mich wie ein intelligentes Input-Output-System“, war die Antwort des Roboters.

 

In der Tat warnte Tesla-Chef Musk 2015 vor der Entwicklung der KI. In fünf bis zehn Jahren habe man ein gewaltiges Problem.

Sofern ihr nicht direkt mit Gruppen wie Deepmind zu tun habt, habt ihr keine Ahnung, wie schnell es ist – das Wachstum erfolgt in nahezu exponentiellen Schritten. Das Risiko, dass etwas ernsthaft Gefährliches passiert, liegt innerhalb eines Zeitrahmens von fünf Jahren. Zehn Jahren höchstenfalls. Ich schlage hier nicht Alarm bezüglich einer Sache, von der ich keine Ahnung habe.

 

“Unsere AI-Systeme müssen das tun, was wir wollen.“

Auch das Future of Life Institutes – eine Forschervereinigung die sich damit beschäftigt „existentielle Gefahren für die Menschheit zu verringern” – sorgt sich zunehmend vor der Verselbstständigung der Technik.

Anfang 2015 veröffentlichte sie einen offenen Brief, der mittlerweile von vielen renommierten Leuten unterschrieben wurde, darunter Professoren des MIT und Harvard sowie Google-, IBM- und Microsoft-Forschern.

Darin heißt es: Es sei jetzt ein wichtiger und richtiger Zeitpunkt, um für die zukünftige Sicherheit und Nützlichkeit von AI zu forschen: „Wir empfehlen erweiterte Forschungen, um sicherzustellen, dass immer fähigere AI-Systeme stabil und wohltätig sind: Unsere AI-Systeme müssen das tun, was wir wollen.“

Von: luk