Mit der Entwicklung der Künstlichen Intelligenz steht die Menschheit am Scheidepunkt. Entweder ist sie auf dem Sprung in eine ganz neue Zeit. Oder sie leitet ihre Vernichtung ein. Das ist nicht Fantasy, sondern eine Diskussion unter namhaften Wissenschaftlern, Unternehmern, Technikphilosophen. Ein Panorama der Stimmen.
Künstliche Intelligenz ...
heißt heute nicht mehr, dass Maschinen mit entsprechenden Befehlen programmiert werden. Inzwischen lernen die Maschinen selbst. So brachte sich 2017 die künstliche Intelligenz AlphaZero von Google das Schachspielen binnen vier Stunden so bei, dass es das bislang stärkste Schachprogramm 100mal schlug. Der selbstlernende Algorithmus von AlphaZero kannte nur die grundlegenden Regeln vom Schach, spielte dann gegen sich selbst und optimierte seine Züge. Etwas, das zuvor schon mit dem komplexen Spiel „Go“gelungen war – diese KI schlug den amtierenden Go-Meister. Einer Umfrage zufolge erwarten führende KI-Experten, dass zwischen 2040 und 2050 die Wahrscheinlichkeit für eine menschenähnliche Intelligenz bei 1:1 liegt. Die Befrager meinten damit, dass Maschinen nahezu jeden Job der Welt mindestens so gut wie ein Erwachsener ausüben würden.
Der Mensch wird gottgleicher
Ray Kurzweil, Leiter der technischen Entwicklung bei Google, Erfinder, Futurist:
„Wir erleben derzeit das überwältigende Tempo des Fortschritts, in dem ein Meilenstein nach dem nächsten der Künstlichen Intelligenz zufällt ... Es ist keine Invasion intelligenter Maschinen vom Mars. Wir schaffen Werkzeuge, um unsere Reichweite zu vergrößern. Vor tausend Jahren konnten wir die Frucht am Baum an dem oberen Ast nicht pflücken, also erfanden wir ein Werkzeug ... Wir haben Maschinen geschaffen, um unsere Muskeln zu erweitern, wir kommen inzwischen mit ein paar Tastenschlägen an das gesamte menschliche Wissen. Und wir werden mit der Künstlichen Intelligenz verschmelzen, um schlauer zu werden.
... Wir sind die Spezies, die sich selbst verändert – und das kam durch den zusätzlichen Neokortex, den wir vor zwei Millionen Jahren erhalten haben. Er hat uns in die Lage versetzt, Musik zu erfinden, Humor, Sprache, Wissenschaft, Technologie. Schon in den 2030ern werden wir mit einem „simulierten Neokortex“ in der Cloud verschmelzen. Wir werden unser Immunsystem mit Nanobots in unserem Körper überwachen.
... KI wird uns nicht ersetzen, sondern erweitern.
... Gott wurde beschrieben als unbegrenzt, allwissend, unendlich kreativ, unendlich liebend – genau diese Qualitäten verbessern wir exponentiell. Wir werden zwar nicht Gott, aber wir werden bezüglich dieser Qualitäten gottgleicher.“
Wir sind nicht länger die Krone der Schöpfung
Jürgen Schmidhuber, deutscher KI-Pionier, Leiter Dalle-Molle-Forschungsinstitut für Künstliche Intelligenz in Lugano:
„Wir haben nicht nur Systeme, die sklavisch ihre menschlichen Lehrmeister nachahmen, wir haben auch Systeme, die ihre eigenen Ziele erfinden – was wir künstliche Neugier nennen –, künstliche Kreativitätssysteme, die wie Babys lernen, ihre eigenen kleinen Experimente zu erfinden, um herauszufinden, wie die Welt funktioniert.
In nicht so weiter Zukunft werden wir Künstliche Intelligenz auf dem Level kleiner Tiere haben, und wenn das soweit ist, braucht es nur noch wenige Dekaden, bis wir menschliche Intelligenz erreichen. Ich habe keinen Zweifel daran, dass es nicht mehr viele Jahrzehnte braucht, bis wir in vielen Bereichen superhumane Entscheider haben. Und sie werden in vielerlei Hinsicht ihr eigenes Ding machen, und sie werden bemerken – wie wir es schon vor langer Zeit bemerkt haben –, dass die meisten Ressourcen nicht in unserem kleinen Film der Biosphäre sind – und sie werden ins All expandieren...
Was jetzt passiert, ist viel mehr als eine Industrielle Revolution, es ist etwas, das die Menschheit und die Biologie selbst transzendiert, eine neue Form des Lebens geht von diesem kleinen Planeten aus, der die Menschen nicht mehr folgen können. Wir brauchen nicht zu glauben, dass wir die Krone der Schöpfung bleiben. Es ist ein Privileg, in einer Zeit zu leben, in der wir mit KI den Beginn dieser unglaublichen neuen Entwicklung erleben können.“
KI für die Routine – uns bleibt Zeit für Großes
Sebastian Thrun, deutscher Gründer der US-amerikanischen Online-Universität Udacity, ehem. Entwickler Google autonomes Fahren und Google Glass.
Überall dort, wo Künstliche Intelligenz erfolgreich war, ging es um sehr spezialisierte Dinge, gespeist aus einer Fülle an Daten. AlphaGo hat so gut funktioniert, weil es sich mehr als seine Million Spiele angeschaut hat und daraus seine eigenen Regeln abgeleitet hat. AlphaGo kann kein Auto fahren und kein Flugzeug fliegen. Da war nie die Sorge, dass AlphaGo die Welt übernehmen würde ... Bei der allgemeinen Künstlichen Intelligenz gab es bislang fast keinen Fortschritt; wo man von der KI verlangt: “Hey, erfinde mir eine spezielle Relativitäts- oder Stringtheorie”. Das steckt komplett in den Kinderschuhen ...
Heute arbeiten 75 Prozent von uns in Büros und machen immer wieder das gleiche ... Wir wurden Dermatologen, die repetitive Dinge tun, Anwälte, die repetitive Dinge tun. Ich denke, dass wir kurz davor stehen, die Künstliche Intelligenz zu bekommen, die über unsere Schultern schaut und uns vielleicht 10 oder 50 Mal effektiver macht in rein repetitiven Dingen ... Wenn ich meinen Job als CEO anschaue, dann muss ich sagen, 90 Prozent meiner Arbeit ist wiederholend. Ich verbringe vier Stunden am Tag mit dummen, sich wiederholenden E-Mails. Ich brenne darauf, das loszuwerden.
Warum? Weil ich mir sicher bin, dass wir alle wahnsinnig kreativ sind ... Wenn Sie sich im Hotel mit dem Zimmermädchen oder -jungen zusammensetzen und gemeinsam überlegen, haben Sie nach einer Stunde eine kreative Idee. Diese Kreativität werden wir in Zukunft freisetzen ... Wir haben erst ein Prozent der interessanten Dinge erfunden. Wir haben den Krebs noch nicht geheilt. Wir haben noch keine fliegenden Autos. Wir können uns noch nicht von einem Ort an den anderen beamen. Klingt lächerlich, aber vor 200 Jahren, dachten die Fachleute, dass Fliegen nicht geht, und vor 120 Jahren dachten sie, dass man, wenn man sich schneller bewegt, als man rennen kann, stirbt. Wieso sollte es also stimmen, dass wir niemanden auf den Mars beamen können?
Wir sind der KI ausgesetzt wie Ameisen
Sam Harris, US-amerikanischer Philosoph und Neurowissenschaftler
Was uns wirklich Sorgen machen sollte, ist, dass wir eine Künstliche Intelligenz schaffen, die so viel kompetenter ist als wir, dass die geringste Abweichung zwischen ihren und unseren Zielen uns zerstören könnte. Denken Sie einfach darüber nach, wie wir mit Ameisen umgehen. Wir hassen sie nicht ... Aber wann immer ihre Anwesenheit mit einem unserer Ziele in den Konflikt gerät, etwa wenn wir ein Haus bauen wollen, vernichten wir sie ohne Bedenken. Meine Sorge ist, dass wir eines Tages Maschinen erfinden, die uns, ob sie jetzt bewusst sind oder nicht, mit einer ähnlichen Achtlosigkeit behandeln.
... Stellen Sie sich vor, wir hätten gerade eine superintelligente KI gebaut, die nicht schlauer ist als ein Durchschnittsteam von Forschern in Stanford oder am MIT. Nun, elektronische Kreisläufe sind eine Million mal schneller als biochemische, diese Maschine wird also etwa eine Million mal schneller denken als die Köpfe, die sie gebaut haben. Binnen einer Woche hat sie 20.000 Jahre geistiger Tätigkeit auf dem Level eines Menschen geleistet, Woche für Woche weiter.
Mit am beängstigendsten ist, was KI-Forscher sagen, wenn sie uns beruhigen wollen. Hauptargument, warum wir uns nicht sorgen sollen, ist die Zeit. Das dauert alles noch lange ... vermutlich 50 oder 100 Jahre ... Keiner scheint zu bemerken, dass der Zeithorizont hier das völlig falsche Argument ist. Wenn Intelligenz einfach eine Frage der Informationsverarbeitung ist und wir die KI weiter verbessern, werden wir eine Form der Superintelligenz schaffen. Und wir haben keine Ahnung, wie lange es dauern wird, um die Bedingungen zu schaffen, damit wir das in Sicherheit tun können.
... Wir (müssen) zugeben, dass wir gerade eine Art von Gott bauen. Jetzt wäre es an der Zeit, sicherzustellen, dass es ein Gott ist, mit dem wir leben können.
Die wichtigste Aufgabe unserer Zeit für die Menschheit ist, Künstliche Intelligenz kontrollierbar zu machen
Nick Bostrom, schwedischer Philosoph, Oxford University, Director des dortigen 'Future of Humanity Institutes'
„Nehmen wir an, wir geben der KI das Ziel, Menschen zum Lächeln zu bringen. Solange die KI schwach ist, macht sie nützliche oder amüsante Aktionen, die den Benutzer zum Lächeln bringen. Wenn sie superintelligent wird, merkt sie, dass es einen effektiveren Weg gibt, dieses Ziel zu erreichen: Die Kontrolle über die Welt und dann Elektroden in die Gesichtsmuskeln der Menschen kleben, so dass sie ständig grinsen.
Natürlich ist das eine Karikatur. Aber der grundlegende Punkt ist wichtig: Wir müssen herausfinden, wie wir eine superintelligente KI schaffen, die grundsätzlich auf unserer Seite steht, weil sie unsere Werte teilt. Ich sehe keinen Weg um dieses Problem herum.
Superintelligente KI zu schaffen ist schon eine große Herausforderung. Eine superintelligente KI zu schaffen, die sicher ist, ist eine Zusatz-Herausforderung. Das Risiko ist, dass jemand die erste Herausforderung knackt, ohne die Zusatz-Herausforderung, dass die Sicherheit gewährleistet ist. Wir müssen schon vorher eine Lösung für das Kontrollproblem finden, damit wir sie haben, wenn wir sie brauchen.
Darum geht es heute, und wenn es gut ausgeht, dann werden die Menschen in einer Million Jahren zurück auf unser Jahrhundert schauen und sagen, dass Einzige, das damals wirklich wichtig war, war, dass sie das hingekriegt haben.“
Das größte oder das schlimmste Ereignis in der Geschichte der Menschheit
Stephen Hawking, 2017, britischer Astrophysiker (gest. 2018)
Eine wirksame Künstliche Intelligenz zu schaffen, kann das größte Ereignis in der Geschichte unserer Zivilisation werden. Oder das schlimmste. Wir wissen es einfach nicht. Wir wissen nicht, ob intelligente Maschinen uns unendlich helfen wird oder ob sie uns ignorieren, verdrängen oder sogar zerstören werden.
Wenn wir nicht herausfinden, wie wir uns auf sie vorbereiten und mögliche Gefahren vermeiden, dann könnte die Künstliche Intelligenz zum schlimmsten Ereignis der Geschichte unserer Zivilisation werden. Und Gefahren bringen, wie mächtige autonome Waffen oder neue Wege, wie eine Minderheit, die Mehrheit unterdrücken könnte. Unsere Wirtschaftsleben könnte sie massiv stören.
Ich bin Optimist und glaube daran, dass wir KI zum Wohl der Welt schaffen können ... Wir müssen bewusst sein, welche Gefahren drohen, sie identifizieren und uns ... lange im Voraus auf ihre Folgen vorbereiten.
Künstliche Intelligenz ist gefährlicher als Atomwaffen
Elon Musk, US-amerikanisch-südafrikanischer Unternehmer (Tesla, SpaceX, OpenAI, Neuralink)
"Es macht mir Angst. Die Rate, mit der die Entwicklung Künstlicher Intelligenz fortschreitet, ist exponentiell ... Viel schneller als fast jeder glaubt, auch im Silicon Valley, und ganz sicher außerhalb vom Silicon Valley - die Leute haben keinen Schimmer. Wenn es irgendwann eine sich selbst verbessernde digitale Superintelligenz gibt, und deren Optimierung oder Nutzenfunktion der Menschheit schadet, dann kann das sehr schlimme Auswirkungen haben. Wenn ihre Aufgabe etwa ist, Spam-Email abzuschaffen, könnte sie darauf kommen, dass man Spam am besten los, indem man die Menschheit los wird ...
... Ich bin wirklich kein Befürworter von Regulierung und Aufsicht in der KI Forschung, aber das ist ein Fall, bei dem es eine sehr ernste Gefahr für die Öffentlichkeit gibt. Die Gefahr von Künstlicher Intelligenz ist größer als die durch nukleare Sprengköpfe. Merkt euch das: KI ist gefährlicher als Nuklearwaffen. Warum gibt es keine regulierende Aufsicht? Das ist wahnsinnig.
Kommentare