Hawking, Musk, Wozniak wollen Verbot Künstliche Intelligenz im Militär

Mit einem eindringlichen Appell, die Gefahren, welche von Künstlicher Intelligenz (Artificial Intelligence; kurz: AL) ausgeht, wenden sich nun bekannte Persönlichkeiten an die Weltöffentlichkeit. Bereits im Januar hatten Hunderte AI-Wissenschaftler aber auch auf die großen Chancen der Künstlichen Intelligenz für die Menschheit hingewiesen.

BILD: Screenshot futureoflife.org
Das Institut für Future of Life sieht in der Künstlichen Intelligenz vor allem Chancen für die Menschheit, aber auch enorme Risiken - zum Beispiel im Militär.

In ihrem jetzt aktualisierten Brief fordern zahlreiche Unterzeichner - die genaue Liste konnte netz-trends bislang leider nicht einsehen - strenge Regeln für Künstliche Intelligenz. Schon in wenigen Jahren soll die Künstliche Intelligenz jene der Menschen überschreiten. Das bringt Chancen mit sich, aber eben auch Gefahren für die Menschheit. Denn Intelligenz bedeutet meist auch, dass die mit Intelligenz Gesegneten dazu tendieren, Macht über andere an sich zu reißen.

Heißt: Künstliche Intelligenz könnte unbeherrschbar werden. Das sind auch die wesentlichen Eckpunkte des Öffentlichen Briefes zahlreicher Wissenschafter und bekannter Welt-Persönlichkeiten, die sich nun gegen eine ungezügelte Entwicklung der Künstlichen Intelligenz wenden.

Amerikanische Medien schreiben, wonach es ihnen derzeit vor allem darum gehe, militärisches autonom agierendes Gerät strengen Regeln zu unterwerfen, was auch für Drohnen (Drones) gelte. Die USA haben beispielsweise in den vergangenen acht Jahren nach Schätzungen mehrere Zehntausend Menschen - die meisten darunter waren Zivilisten - mit autonom fliegenden Drohnen umgebracht: In Pakistan, Somalia, dem Jemen, Irak. Die Schaltzentrale für Drohnenkriege der USA für den Bereich Afrika und Mittlerer Osten liegt ausgerechnet in Deutschland.

Zu den Unterzeichnern des zweiten Offen Briefes von AI-Persönlichkeiten sollen wieder prominente Persönlichkeiten gehören, darunter das Genie Stephen Hawking, ebenso Paypal- und Tesla-Co-Gründer Elon Musk oder Apple-Mitbegründer Steve Wozniak. Konkret, schreiben US-Medien, forderten sie ein Verbot für offensive autonomene Waffen. Der Brief sei nun vom Future of Life Institute veröffentlicht worden, wo wir ihn allerdings so bislang nicht vorfinden konnten.

Erst im Januar 2015 soll Musk dem Institut insgesamt 10 Millionen US-Dollar gespendet haben, vor allem um die Forschung an Künstlicher Intelligenz im positiven Sinne zu beflügeln.

Klar ist, dass es das primäre Anliegen des Future of Life Institute ist, die Chancen Künstlicher Intelligenz zu analysieren und zu fördern. So schreibt das Institut in seinem von Hunderten internationalen Wissenschaftlern, Unternehmern und IT-Persönlichkeiten unterschriebenen Öffentlichen Brief im Januar:

"Wir sehen Fähigkeiten in diesen Bereichen… einen positiven Kreislauf.. wobei auch kleine Verbesserungen in der Leistung es wert sind, viel Geld zu investieren… in die Forschung. Es gibt jetzt einen breiten Konsens, dass KI-Forschung stetig voranschreitet, und dass ihre Auswirkungen auf die Gesellschaft wahrscheinlich zunehmen werden. Die potenziellen Vorteile sind enorm, da alles, was die Zivilisation zu bieten hat, ein Produkt der menschlichen Intelligenz ist. Wir können nicht vorhersagen, was wir erreichen werden… aber die Beseitigung von Krankheit und Armut sind keine nicht zu bewältigenden Probleme. Wegen der großen Potenziale der AI ist es wichtig, zu erforschen, wie man seinen Nutzen ziehen kann, aber Fallstricke vermeidet."

Eine ähnliche Stellungnahme hatten Forscher bereits auf der "Conference on Artificial Intelligence" in Buenos Aires zum Ausdruck gebracht.

In dem nun von amerikanischen Medien zitierten neuen öffentlichen Brief rund um Künstliche Intelligenz soll sich sehr kritisch mit dem militärischen AI-Optionen auseinandergesetzt worden sein. So soll es im Brief, welcher uns leider nicht vorliegt, unter anderem heißen: "Wenn eine große militärische Macht die AI Waffenentwicklung forciert, ist ein globales Wettrüsten praktisch unvermeidlich, und der Endpunkt dieser technologischen Flugbahn liegt auf der Hand: autonome Waffen von morgen werden die Kalaschnikows der Zukunft. Im Gegensatz zu Atomwaffen benötigen sie keine teure oder schwer zu beschaffende Rohstoffe, so dass sie überall und billig für alle bedeutenden Militärmächte in Massen zu produzieren sind. Es wird nur eine Frage der Zeit sein, bis sie auf dem Schwarzmarkt und in die Hände von Terroristen gelangen. Diktatoren werden sie einsetzen, um ihre Bevölkerung besser zu kontrollieren, Warlords wollen ethnische Säuberung usw. Autonome Waffen sind ideal für Auftrags-Aufgaben, wie Morde zu begehen, Nationen zu destabilisieren, die Bevölkerung zu unterwerfen und bestimmte ethnische Gruppe selektiven zu töten."

Zu den Unterzeichnern des neuen Öffentlichen Briefes rund um die Gefahren Künstlicher Intelligenz sollen neben Physik-Genie Stephen Hawking (Direktor der Forschung am Institut für Angewandte Mathematik und Theoretische Physik in Cambridge) auch Elon Musk (SpaceX, Tesla Motors Co-Gründer) gehören, Steve Wozniak (Mitbegründer von Apple), Jaan Tallinn (Mitbegründer von Skype), Noam Chomsky (emeritierter Professor für Linguistik am Massachusetts Institute of Technology), Geoffrey Hinton (University of Toronto) oder Microsofts Eric Horvitz (Microsoft Research Director, ex AAAI president).

Die Entwicklung von Künstlicher Intelligenz sieht ebenso Microsoft-Co-Gründer Bill Gates kritisch. Er hatte vor Monaten gesagt, Künstliche Intelligenz bereite ihm Sorgen und mache ihm außerdem Angst. Weitere sagte Gates, er könne den uneingeschränkten Enthusiasmus bei AI nicht teilen.

Unter den Hunderten AI-Unterzeichnern des amerikanischen Instituts Future of Life (futureoflife.org), die im Januar sich überwiegend positiv, teils aber auch kritisch zur Forschung rund um Künstliche Intelligenz geäußert hatten, sind einige Dutzend Deutsche.

Unter ihnen ist zum Beispiel Klaus-Dieter Althoff von der University of Hildesheim, der dort Professor of Artificial Intelligence ist und Mitglied im German Research Center for Artificial Intelligence in Kaiserslautern. Außerdem ist Kalthoff Editor-in-Chief des German Journal on Artificial Intelligence.

Ein weiterer deutscher Unterzeichner des Öffentlichen AI-Briefes des The Future of Life Institute vom Januar ist Christopher Rapson vom Max-Planck-Institut für Plasmaphysik in Garching. Ebenfalls zu den deutschen Unterzeichner gehören Jasper Walden von der Technical University of Berlin (TU Berlin), Jan Germann von der TU-Braunschweig (Student of Computer Science), Peter Müller von der RWTH Aachen University, Stefan Zwierlein von der Freien Universität Berlin, Jan Philipp Bensmann von der University of Jena.

Zudem konnte netz-trends folgende weitere deutsche Unterzeichner für den Öffentlichen AI-Brief im Januar 2015 vom The Future of Life Institute ausfindig machen:

Frederic Eichinger (Student, Independent Developer in München und Augsburg), Philipp Markovics (Sauspiel GmbH), Nicholas H. Kirk (Technical University of Munich), Herman Groenbroek (Student AI at the University of Groningen), Shoaib Khan (Technical University of Munich), Adrian Paschke (Freie Universität Berlin, Professor of Corporate Semantic Web and director of RuleML Inc.), Nicolas Guelzow (Karlsruhe Institute of Technology), Simon Oberthür (University of Paderborn), Sven Behnke (University of Bonn, Autonomous Intelligent Systems), Heiner Gerdes (Fraunhofer Institut), Tommaso Soru (University of Leipzig), Ralph Lichtner (Karlsruhe University of Applied Sciences, Innovation Researcher), Kaushik Gopalan (TU Munich), Fridtjof Graef (IT Professional, Germany), Jochen Goertler (Student - Karlsruhe Institute of Technology), Vincent Michalski (Goethe-University Frankfurt), Kethry Warren (Wittenberg University, student), Visvanathan Ramesh (Goethe University, Frankfurt / Frankfurt Institute for advanced studies), Oliver Baus (T-Systems International GmbH), Ludwig Rongen (RoA RONGEN ARCHITECTS: Wassenberg, Germany and University of applied scienes, Erfurt), Prof. Dr. Anja Baumhoff (Hochschule Hannover, Germany), Galih S.T.A. Bangga (University of Stuttgart) oder Zarneel Munawar (University Konstanz Germany).

Unterzeichner im Januar waren zudem: Muhammad F. Mushtaq (University Konstanz Germany), Stefan Kaindl (Innovationworks BMW researcher), Zhen Cao (Leibniz University Hannover), Marie-Lena Hutfils (University of Bayreuth, student) sowie Valentin Wiedling (Instyle Productions GmbH, Harvard Extension School).

Auch aus Österreich, der Schweiz oder Südtirol waren im Januar 2015 einige AI-Unterzeichner dabei, die AI-Forschung als wichtigen Beitrag für die Entwicklung der Menschheit ansehen. netz-trends konnte die folgenden Unterzeichner auf der Liste finden: Iman Ayatollahi von der Vienna University of Technology, Stefan Gugler (ETH Zurich), Bernat Nacsa (Economics student at University of Vienna), Alexandru Cristian Stan (Computer Science & Engineering, Free University of Bolzano Bozen), Rainhard D. Findling (University of Applied Sciences Upper Austria), Chantal Lutz (Law student, University of Bern), Jonathan McNeal (Vienna International School), Vincenzo Chiochia (University of Zurich), Abraham Bernstein (University of Zurich, Professor of Informatics), Alessandro Prest (LogoGrab, ETH Zurich), Umar Wani (Robotics Graduate, ETH Zurich), Sepp Kollmorgen (ETH Zurich), Nicolas Degen (ETH Zurich), Stefan Gugler (ETH Zurich) sowie Fabio Rinaldi (University of Zurich).

Gefällt mir
0