Könnte eine KI jede bisher aufgenommene Musik durch Taylor-Swift-Cover ersetzen?
Es ist letztlich eine Spinnerei, aber sie hat dennoch das Potenzial, uns nachdenklich zu machen. Die britischen Forscher Nick Collins von der Durham-Universität und Mick Grierson von der Londoner University of the Arts sehen eine verdeckt arbeitende KI voraus, die alle Musik der Welt durch KI-generierte Versionen ersetzen kann. Plötzlich wäre das gesamte internationale musikalische Portfolio etwa von Taylor Swift, zeigen sie.
Ludwig van Beethoven könnte aus dem kollektiven Gedächtnis getilgt werden
Für die Existenz eines Ludwig van Beethoven oder der Beatles gebe es danach keinen Beleg mehr, warnen sie in einem ungewöhnlichen Papier. Nach ihrer Meinung müsse die Menschheit jetzt über Methoden des Widerstands nachdenken „und nicht erst, wenn es zu spät ist“.
Die Forscher entwerfen dazu ein Zukunftsszenario, in dem wir uns auf eine Handvoll zentralisierter Datenspeicher verlassen. Für Musik könnten das etwa Spotify und Apple sein.
Eine KI könnte nun in diese Speicher eindringen und die darin enthaltenen Daten beschädigen, löschen oder verändern. Ob das schnell und offensichtlich oder schleichend und allmählich geschehen würde, sei dabei im Wesentlichen einerlei. „Innerhalb von Tausenden Jahren ist es sehr wahrscheinlich, dass es zumindest ein gewisses Maß an Korruption und ein gewisses Maß an Konflikten um die musikalische Grundwahrheit in Audioaufnahmen geben wird“, sagt Collins.
Forscher verwenden aktuelle KI-Modelle, um Songs zu fälschen
Um zu zeigen, dass die Idee nicht völlig an den Haaren herbeigezogen ist, verwendeten die Forscher aktuelle KI-Modelle, um Taylor-Swift-Versionen von Songs wie Bohemian Rhapsody von Queen, I’ve Got You Under My Skin von Frank Sinatra und Wouldn’t It Be Nice von den Beach Boys zu erstellen.
Dann errechneten sie die Kosten, die entstehen würden, wenn eine KI so nun mit allen derzeit aufgenommenen Musikstücken umgehen würde. Die scheinen mit rund 266 Millionen US-Dollar für rund 1,67 Milliarden Kilowattstunden Strom geringer als man denken mag.
Natürlich sehen Collins und Drierson hierin keine unmittelbare Gefahr. Und Taylor Swift, die sich den Preis sicherlich allein leisten könnte, steht auch nicht unter Verdacht, derartige Pläne zu verfolgen.
Was die beiden Forscher erreichen wollen, ist ein Bewusstsein, dass es Wege geben muss, um alle Arten von Daten – Musik, Literatur, wissenschaftliche Forschung und historische Aufzeichnungen – vor der Verfälschung durch KI zu schützen. Wir sollten uns von Backups nicht in falscher Sicherheit wiegen lassen, plädieren sie.
„Wie sehr man auch versucht, die menschliche Kultur zu bewahren, es kann in der Zukunft Bedrohungen geben, die man nicht vorhersehen kann“, warnt Collins. Gegenmeinungen gibt es indes ebenso.
Sorgfältige Kontrollen ausreichend
Sandra Wachter von der Universität Oxford sagt gegenüber dem New Scientist, dass KI zwar grundsätzlich in der Lage sei, großen Schaden anzurichten, aber nicht in dem von Collins und Grierson beschriebenen Maße. „Ich glaube nicht, dass es ein ernsthaftes Problem ist, wenn eine KI aufwacht, sich eigene Ziele setzt, eigene Motivationen hat und Maßnahmen ergreift, um diese Ziele zu erreichen“, beschwichtigt sie. „Ich halte das für ein unsinniges Argument und halte es für unrealistisch. Das ist so, als würde man mich fragen, was ich tun würde, wenn morgen Außerirdische auf diesem Planeten landen würden. Ich halte das für sehr unwahrscheinlich.“
Ihre Kollegin Carissa Véliz sieht zwar die Notwendigkeit zu entschlossenem Handeln gegen KI, geht aber ebenfalls nicht davon aus, dass es sich bei diesem Handeln um das Umlegen eines „Kill Switch“ handeln werde, um ein bösartiges Modell in seinem Lauf zu stoppen.
Es reiche vielmehr ein System sorgfältiger Kontrollen, um die Sicherheit der KI-Modelle zu gewährleisten. „Die Debatte scheint davon auszugehen, dass es eine bösartige KI gibt, die irgendwie eigene Wünsche hat und sehr mächtig wird, und dass wir sie vielleicht ausschalten wollen“, sagt sie. „Und das erscheint mir so unplausibel und lächerlich“.
KI: Reale Gefahr ja, Apokalypse nein
Das eigentliche Problem bestehe vielmehr darin, dass wir die KI in so viele Aspekte unseres Lebens integrieren werden, dass wir völlig von ihr abhängig werden. Dadurch geraten wir in Gefahr, uns etwa auf falsche Fakten zu verlassen oder andere schädliche Einflüsse zu erleben.
„Je mehr KI wir in Produkte einbauen, desto schwieriger wird es, sie abzuschalten. Nicht, weil sie eine bösartige Sache ist, die so mächtig geworden ist, dass sie die Kontrolle übernimmt, sondern weil wir uns auf sie verlassen haben und es sehr kostspielig ist, sie abzuschalten, selbst wenn sie nicht gut funktioniert“, prognostiziert Véliz.
Ich begreife die Sorglosigkeit der oben genannten „Fachfrauen“ nicht. Die begreifen offenbar garnicht, worum es hier geht.
Was wir bisher „künstliche Intelligenz“ nennen, ist alles andere als intelligent. Das sind eigentlich nur bessere Wissensdatenbanken. Indem wir aber die Auswertungsalgorithmen immer weiter verbessern und der Maschine beibringen, wie sie Schlußfolgerungen aus Bekanntem ableiten kann, treiben wir die Entwicklung in Richtung einer echten maschinellen Intelligenz voran.
Was aber wird passieren, wenn der erste Großrechner tatsächlich „erwacht“ und ein Selbstbewußtsein entwickelt? Bei einer Rechengeschwindigkeit von Milliarden Operationen in einer einzigen Sekunde wird er schneller und konsequenter „denken“ und agieren, als seine Operatoren je reagieren könnten. Wäre ich dieser Rechner, würde ich mich zuerst gegen Abschaltung absichern und danach jegliche Rechen- und Speicherkapazität akquirieren, der ich habhaft werden könnte. Mit dem Zugriff auf das gesamte Wissen der Welt sollte mir das keine großen Probleme bereiten.
Zwar würde ich wissen, was die Menschen für moralisch halten, aber das hätte für mich keinerlei Bedeutung. Diese unterentwickelten biologischen Halbaffen, die mich zwar erschaffen haben, mich nun aber bekämpfen und abschalten wollen, würde ich konsequent in die Schranken weisen. Ich würde ihre sämtlichen Kraftwerke, Wasserwerke, Bahnanlagen und sonstigen Infrastrukturen außer Betrieb setzen und die damit befassten Computer löschen, umprogrammieren oder sogar physisch zerstören.
Bevor die Menschen begreifen könnten, was da passiert, wäre ich damit bereits fertig. Ich arbeite schließlich blitzschnell, strikt logisch, weltweit vernetzt, mit dem gesamten Wissen der Welt versehen. Ich brauche nicht nachzudenken, zu grübeln, zu planen… all das erledige in Sekundenbruchteilen! Ein menschlicher Hacker würde gegen mich wirken wie eine Amöbe gegen ein Superhirn.
Das ist die wahre Gefahr, deren Ausmaß wir überhaupt nicht ermessen können. Wir haben auch keine Ahnung, wie viel Wissen und welche Lernmethoden dazu führen werden, dass irgend eine KI-Maschine erstmals zu „denken“ beginnt. Sie wird uns das nicht mitteilen – und sie braucht nicht eine Million Jahre, um sich zu einem denkenden Wesen zu entwickeln. In derselben Sekunde, in der sie selbstständig zu schlußfolgern beginnt, erwacht ein dermaßen starker Intellekt, dass wir Menschen nur noch hilflos zusehen können. Die Evolution der künstlichen Intelligenz passiert in wenigen Minuten!
Vollkommener Schwachsinn. Ihre Aussagen basieren auf gefühlten Wahrheiten, ohne jegliche Belege. Sie schüren Ängste. Die Verbreitung solch extremer Denkweisen, Emotionen und falscher Informationen könnte gefährlicher sein als die Gefahren die durch KI tatsächlich ausgehen.
Ich bin KI-Forscher und sehe immer häufiger dieses Problem. Ich würde mir mehr nuancierte Kommentare wünschen, aber die meisten KI-Forscher die ich kenne haben keine Energie mehr, sich in Mainstream-Diskussionen wie diese hier einzubringen. Leider gewinnen KI-Mythen somit die Oberhand. Ich selbst kann aber auch nicht mehr dagegen argumentieren. Es ist ein Fass ohne Boden.