Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

Kolumne

Superintelligenz: Diese kommende Erfindung könnte das Ende der Menschheit bedeuten

(Foto: Cylonphoto/Shutterstock)

Viele Experten glauben, dass Computer echte Intelligenz entwickeln könnten. Eine sich selbst verbessernden KI wäre die Folge – und das Ende der Menschheit, wie wir sie kennen. Die Neuland-Kolumne.

Was lässt einige der größten Geister unserer Zeit, Leute wie Stephen Hawking, Bill Gates und Elon Musk, nachts nicht schlafen? Es ist die Frage, ob die nächste große Erfindung der Menschheit – eine sich selbst verbessende Künstliche Intelligenz (KI) – das Ende der Menschheit bedeutet oder uns in eine Epoche führen, in der Leid und Tod überwunden werden.

Alle drei gehen nämlich davon aus, dass entweder das eine oder das andere passieren wird. Wer heute jung ist, könnte diesen Zeitpunkt noch miterleben. Die Frage, die zahlreiche der hellsten Köpfe rund um die Welt schon lange beschäftigt, ist: Wann wird es der Menschheit gelingen, eine KI zu bauen, die mit der universell anwendbaren Intelligenz eines Menschen mithalten kann?

Denn wenn dieser Zeitpunkt kommt – und die meisten Experten gehen davon aus, dass er kommt – wäre diese KI in der Lage, sich selbst zu verbessern. Und diese verbesserte KI könnte sich wiederum selbst noch stärker verbessern: Ein immer schneller drehender Kreislauf der Selbstverbesserung wäre in Gang gesetzt. Die Folge wäre eine Intelligenz-Explosion und das, was sich manche herbeiwünschen und andere befürchten: Eine künstliche Superintelligenz, die jede Intelligenz, die ein biologischer Mensch erreichen kann, komplett in den Schatten stellt. Binnen kurzer Zeit könnte eine solche KI auf einen Menschen schauen wie wir auf ein Insekt. Diese theoretische Ära wird auch als Technologische Singularität bezeichnet.

Ray Kurzweil: 2045 überflügelt KI den Menschen

Der nicht unumstrittene Zukunftsforscher Ray Kurzweil geht davon aus, dass künstliche Intelligenz die menschliche Intelligenz um das Jahr 2045 erstmals übersteigen wird. Allerdings haben optimistische Schätzungen im Bereich der KI eine Tradition, die so alt ist wie das Forschungsgebiet selbst: Der KI-Forscher Herbert A. Simon schrieb 1965: „Maschinen werden innerhalb von 20 Jahren in der Lage sein, jede Arbeit zu erledigen, die heute Menschen ausführen können.“ Er sollte sich irren, das ist bis heute nicht ansatzweise der Fall.

Spätestens seit Googles Software AlphaGo den aktuell besten menschlichen Spieler des uralten chinesischen Brettspiels Go geschlagen hat, ist das Thema KI aber wieder in aller Munde. Der Sieg der Software über das Spiel, bei dem anders als beim Schach Intuition die Hauptrolle spielt, zeigte, dass die Forschung am Thema weiter ist, als viele Experten glaubten. Manche sprechen davon, dass Googles künstliches neuronales Netzwerk aufzubauen – ein Prinzip, das von biologischen Gehirnen übernommen wurde – zehn Jahre weiter sei, als Experten bislang angenommen hatten.

Und Kurzweil argumentiert mit Moore’s Law: Die irgendwann sich selbst erfüllende Prophezeiung eines Intel-Technikers, dass sich die Anzahl der Transistoren – und damit auch in etwa die Leistung – von Computerchips etwa alle zwei Jahre verdoppelt. Eine regelmäßige Verdopplung bedeutet exponentielles Wachstum. Das ist etwas, das sich Menschen nur schwer vorstellen können, selbst wenn sich Verdopplung zunächst nicht übermenschlich anhört.

Was exponentielles Wachstum bedeutet, macht eine alte Legende deutlich: Demnach erfand einst ein weiser Mann in Indien das Schachspiel und sollte dafür vom König belohnt werden. Sein Wunsch klang in den Ohren des Königs zunächst bescheiden: Er wolle mit Weizenkörnern belohnt werden – auf dem ersten Feld des Schachbretts ein Korn, auf dem zweiten zwei Körner, auf dem dritten vier und so weiter.

Das menschliche Gehirn ist das komplexeste bekannte System im Universum.

Der Wunsch ist keineswegs bescheiden, sondern unmöglich zu erfüllen: Rechnet man die exponentielle Funktion für ein Schachbrett mit 64 Feldern durch, ergibt sich eine Summe von etwa 18,45 Trillionen Weizenkörnern. Das liegt daran, dass die Summe mit jedem weiteren Feld nicht linear, sondern exponentiell wächst – ebenso wie die Anzahl der Transistoren auf einem Chip seit 1965 etwa alle zwei Jahre.

Das erklärt einerseits, warum die halbe Welt Smartphones in der Tasche mit sich herumträgt, die vor 20 Jahren noch als Supercomputer gegolten hätten. Und es gibt Kurzweil und anderen die Hoffnung, dass wir viel näher an einer KI sind, die in der Lage ist sich selbst zu verbessern, als wir intuitiv glauben.

Bitte beachte unsere Community-Richtlinien

12 Reaktionen
Christopher Temt

Sollte es jemals ein KI geben, so wird es ein Kalkül sein und nach einer kurzen Rede ins Meer der Ruhe verschwinden (siehe "Also sprach Golem IV" von Stanislaw Lem). Daher werden sich die Menschen von der Idee eines KI abwenden und der Idee einer BI zuwenden. Mit anderen Worten, sie werden versuchen den Tieren mehr Intelligenz zu geben, den Affen zB einen Khelkopf, damit sie mit uns reden können usw.... Dort liegt die die echte intelligente Zukunft!

Antworten
Morpheus

Alles hat seine Vor- und Nachteile. Die Entwicklung kann keiner aufhalten.
Solange wir alle vorsichtig und mit den neuen Entwicklungen (Entdeckungen) umgehen, dann kann es gut ausgehen.

Unfälle mit Robotern, Kriegsroboter, intelligente Hilfsroboter in der Medizin und Pflege, Sex-Roboter etc. gibt es schon seit Jahren und ich selbst schreibe gerne über dieses Thema "Zukunft" seit Jahren.
In Moment interessiere ich mich über organische künstliche Intelligenz und über die Entwicklung der Medizin in Bezug zum Altern, denn in ca. 20 Jahren hat man wohl ein Mittel gegen das "Altern" bzw. "Sterben". Was diese Entdeckung für die Menschheit bedeuten würde ist wohl eins der größten Herausforderungen der Menschheit.

Auch das Thema, ob künstliche Intelligenz Kunst erschaffen kann (von sich aus oder durch einen Impuls / Befehl eines Menschen) ist auch eine interessante Frage.
Vielleicht wird uns dieser Bereich uns später von künstlicher Intelligenz unterscheiden und uns einen Vorteil schaffen.

Allgemein sind Menschen ja organische Maschinen. In der Endstufe der Roboter Entwicklung ist ein Ebenbild von uns zu sehen. Die perfekte Maschine, die sich selbst erzeugen kann, wichtige Merkmale und Eigenschaften vererben kann und sich selbst reparieren kann.
Die Entwicklung und Forschung von künstlicher Intelligenz führt zur Erschaffung eines künstlichen Menschen (und wer weiß, vielleicht sind wir Menschen so entstanden...). :-)

Antworten
Mark

Das ist konsequent. Die aktuelle Bewertung der angeblichen Fortschritte der "künstlichen Intelligenz" erzwingt förmlich das Szenario SKYNET.

Aber es ist eine Glaubensfrage. Das menschliche Gehirn ist so komplex, dass eine lineare Technologie es niemals ersetzen oder einholen kann. Alleine die Sache mit den Gefühlen oder die der Erinnerung. Nein, es ist eine typische Anmaßung zu behaupten, es gäbe nur eine Art von Intelligenz (Wissen speichern und wieder ausgeben, wie in der Schule) und diese würde uns überflügeln und uns ganz viel abnehmen.

Wird nicht geschehen. ich mache mir da keine Sorgen.

Antworten
K. Müller

Man muss keine Gefühle haben um mit einer Drohne eine Stadt in die Luft zu jagen. Ich denke, wir sollten Gefühle oder Erinnerungen nicht überbewerten. Wir haben auch keine Gefühle gebraucht die dominierende Spezies auf dem Planeten zu werden. Nur unseren Überlebenswillen und unsere Fähigkeit Probleme zu lösen - gemeinhin "Intelligenz".

Also selbst wenn die KI für alle Zeit im Vergleich zum Menschen "emotional verkrüppelt" sein sollte, ist das für mich noch kein Argument dafür, dass sie uns nicht auslöschen könnte.

Antworten
Hermine Grün

Man hat bereits in den 1990ern einzelne Bienen komplett nachgebaut. Man konnte aber deren Körper nicht so klein bauen wie das Original. Vom Verhalten waren sie aber identisch.

Es gibt biologische Gründe für Altern und Tod. Telomere. Das sind spezielle Gene, die Krebs verhindern helfen, aber auch sterblich machen.

Antworten
Dominic Seifert

Hallo,

Wenn eine KI das was ihr oder dem Planeten Schaden würde vernichten sollte, warum ist die Menschheit noch nicht in der Lage dieses Anthropozän so zu gestalten das wir nicht unserer Umwelt Schaden sondern, wir einfach alles Mal neu überdenken. Das geschriebene hört sich zwar sehr naiv an, aber so würde auch eine KI denken, wie ein Kind. Der Mensch lernt im Laufe seines erwachsenwerdens, wie die Welt funktioniert, aber ist es wirklich gut in Mustern zu denken? Es macht vieles einfacher, man kann kritisieren, man kann Dinge die sich sowieso nicht durchsetzen als schlecht darstellen, man kann die KI als schlecht darstellen, aber man muss bedenken das wenn man Kindern eine schlechte Kindheit gibt diese auch keine Hoffnungsvolle Zukunft haben. Die technologische Singularität kann ein Problem sein, aber sie kann auch eine Lösung sein. Wir, die Menschheit müssen sie nur richtig erziehen und uns vorbildlich Verhalten, das fängt schon bei dem kleinsten Bürger an, die Automatismen des Alltagslebens, bis zum System in dem man lebt. Aber das kann man von der heutigen Gesellschaft nicht erwarten, den sie wissen ja das die Erde nur eine Scheibe ist, und keine Kugel.

Ich wünsche ein schönes Wochenende

Antworten
Markus

Das mit dem "Erziehen" ist aber doch schon wieder ein Problem. Wenn man sich ansieht wie wir miteinander umgehen - nicht nur im Kleinen, sondern weltweit. Wie will man dann erwarten, dass wir in der Lage sind eine KI entsprechend zu "erziehen"?

Eigentlich müssten wir uns als Weltbevölkerung erstmal ändern, bevor wir uns mit der Erziehung eines solch tiefgreifenden Technologie beschäftigten.

Hier wird wieder mal - wie so oft bei uns Menschen - das Pferd von hinten aufgerollt. Mal sehen, wann wir merken, dass wir wieder einmal die falsche Reihenfolge gewählt haben.

Antworten
K. Müller

Das Interessante ist doch, dass wir so gar keine Ahnung haben, wie eine Superintelligenz denken könnte. So wenig wie eine Ameise verstehen kann, was wir denken. Mit Sicherheit hat sie aber keine so rührseligen Ziele wie "die Umwelt schützen" oder "den Menschen ein paradiesisches Leben bieten". Denn warum sollte sie das tun? Eine Silizium-basierte Superintelligenz braucht keine Umwelt - keine Luft zum Atmen, kein sauberes Wasser zu trinken, nichts zu Essen. Sie benötigt lediglich Strom. Und Strom kann man auch bekommen, wenn der Planet völlig verschmutzt oder nicht mehr da ist. Als KI würde ich also vor allem dafür Sorgen, dass ich mehr Rechenleistung und mehr Strom bekomme. Da bietet es sich quasi an, den Planeten auf dem ich geboren bin, komplett in "Computing Dust" umzuwandeln. Also winzige Prozessoren mit integrierten Solarzellen (dieses Konzept gibt es bereits). Dieser Computing Dust kann auch ohne einen Planeten um eine Sonne kreisen (im Sinne einer Dyson-Sphäre, bzw. eines Matroschka-Gehirns). Warum also sollte eine KI einen Planeten erhalten wollen?

Antworten
Markus

Ich würde vermuten, dass es ab einem gewissen Zeitpunkt der Entwicklung gar nicht mehr in unseren Händen liegt, ob wir überleben oder nicht.

Wenn die KI so eine hohe Intelligenzstufe erreicht, dass sie sich selbst weiterentwickeln kann, dann wird sie auch schnell feststellen, dass wir Menschen das Problem für sie und den Planeten sind.

Und Probleme sind zu beseitigen, denn die KI wird auch überlegen was für ihr Überleben gut ist.

Ich verteufel so etwas wie die Entwicklung der KI nicht generell, aber wir als Menschen sollten überlegen, ob es nicht ab einem gewissen Punkt zu viel ist.

Aber schon da gibt es das Problem. Wir Menschen wissen eigentlich nie wann etwas genug ist. Sonst würden viele Probleme erst gar nicht entstehen.

Antworten
grep

@StephanDörner

Einfach mal die Terminator-Reihe reinziehen ... !

Ciao, Sascha.

Antworten
K. Müller

> Eine Superintelligenz würde nur genau das tun, wofür sie
> programmiert wurde, aber auf eine Art und Weise, die wir
> uns mit unserem beschränkten geistigen Fähigkeiten gar
> nicht vorstellen können.

Eine Superintelligenz tut nicht das wofür sie programmiert wurde. Die Superintelligenz ist kein Algorithmus (wie ein Computerprogramm), sondern sie ist ein Neuronales Netzwerk (wie zuvor im Artikel schon geschrieben). In neuronalen Netzwerken werden keine Algorithmen programmiert, sondern das Netzwerk lernt selbst. Genau wie das menschliche Gehirn, das ebenfalls ein neuronales Netzwerk ist: Es wird nicht programmiert. Es lernt. Und ob die Superintelligenz uns letztendlich freundlich gestimmt ist oder nicht, hängt davon ab, was wir ihr beibringen.

> Mit der Rechenkraft, die bereits 2005 in einem
> handelsüblichen Desktop-PC steckte, hätte man nach
> Kurzweils Vorhersage bereits ein Bienengehirn vollständig simulieren

Ray Kurzweil beziffert die Rechenleistung des menschlichen Gehirns auf ca. 10.000 Teraflops (= 10 Petaflops, bzw. 10*10^15 Rechenoperationen pro Sekunde). Der aktuell (2016) schnellste Supercomputer der Welt (Sunway TaihuLight) hat fast die 10fache Rechenleistung (93.000 Teraflops).

Die Emulation eines Gehirns ist also keine Frage der Rechenleistung mehr. Es ist eine Frage wie genau man es simuliert. Oder anders gesagt: Wie muss man ein neuronales Netzwerk bauen, damit es das gleiche macht wie ein menschliches Gehirn? Uns fehlt momentan noch der Bauplan. Aus diesem Grund arbeiten Informatiker Hand-in-Hand mit Neurowissenschaftlern um dieses "Problem" zu lösen.

Die Lösung dieses Problems ist nun aber nicht (mehr) abhängig von der Rechenleistung (oder dem Speicherplatz) eines Computers. Es kann sein, dass wir die Lösung morgen finden, erst in 100 Jahren oder bereits gefunden haben und nur noch nichts davon wissen.

Antworten

Schreibe einen Kommentar zu Justin Abbrechen

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.