BOSTON – In den letzten Jahren ist eine riesige Industrie entstanden, da China, die USA, Großbritannien und die EU die Sicherheit künstlicher Intelligenz zu einer ihrer Spitzenprioritäten gemacht haben. Natürlich sollte jede Technologie – von Autos und Arzneimitteln bis hin zu Werkzeugmaschinen und Rasenmähern – möglichst sicher gestaltet sein (man wünscht sich, dass in den Frühtagen der sozialen Medien diesbezüglich mehr Sorgfalt an den Tag gelegt worden wäre).
Doch es reicht nicht, Sicherheitsbedenken zu äußern. Im Falle der künstlichen Intelligenz konzentriert sich die Debatte viel zu sehr auf die „Sicherheit vor den von einer künstlichen allgemeinen Intelligenz (KAI) ausgehenden Risiken“, d. h. einer Superintelligenz, die alle Menschen bei den meisten kognitiven Aufgaben übertreffen kann. Dabei geht es um die Frage der korrekten Abstimmung („Alignment“): ob KI-Modelle Ergebnisse liefern, die den Zielen und Werten ihrer Nutzer und Entwickler entsprechen – ein Thema, das zu verschiedenen Science-Fiction-Szenarien führt, in denen eine superintelligente KI entsteht und die Menschheit zerstört. Der Bestsellerautor Brian Christian konzentriert sich in seinem Buch The Alignment Problem vor allem auf KAI, und die gleichen Bedenken haben Anthropic, eines der wichtigsten Unternehmen in diesem Bereich, veranlasst, Modelle mit eigenen „Verfassungen“ zu entwickeln, in denen ethische Werte und Grundsätze verankert sind.
Diese Ansätze könnten jedoch aus mindestens zwei Gründen fehlgeleitet sein. Die aktuelle Sicherheitsdebatte vermenschlicht KI nicht nur (was wenig hilfreich ist), sondern sie verleitet uns auch dazu, uns auf die falschen Ziele zu konzentrieren. Da sich jede Technologie zum Guten oder zum Schlechten nutzen lässt, kommt es letztlich darauf an, wer sie kontrolliert, welche Ziele er verfolgt und welchen Vorschriften er unterworfen ist.
Kein noch so großes Maß an Sicherheitsforschung hätte verhindert, dass 2017 bei der Kundgebung weißer Rassisten in Charlottesville (Virginia) ein Auto als Waffe eingesetzt wurde. Wenn wir davon ausgehen, dass KI-Systeme ihre eigenen Persönlichkeiten haben, könnten wir zu dem Schluss kommen, dass unsere einzige Option darin besteht, dafür zu sorgen, dass sie abstrakt gesehen die richtigen Werte und Verfassungen haben. Doch die Prämisse ist falsch, und die vorgeschlagene Lösung würde bei weitem nicht ausreichen.
Das Gegenargument lautet natürlich, dass es, wenn eine KAI jemals erreicht würde, enorm wichtig wäre, ob das System auf die menschlichen Ziele „abgestimmt“ ist, weil es Schutzmechanismen, die der Gerissenheit einer Superintelligenz gewachsen wären, nicht gäbe. Doch bringt uns diese Behauptung zum zweiten Problem bei einem Großteil der KI-Sicherheitsdiskussion. Selbst wenn wir uns auf dem Weg zu einer KAI befinden (was höchst unwahrscheinlich erscheint), wäre die unmittelbarste Gefahr immer noch der Missbrauch einer nicht-superintelligenten KI durch den Menschen.
Nehmen wir an, dass es einen Zeitpunkt (Z) in der Zukunft gibt (sagen wir 2040), an dem die KAI erfunden wird, und dass bis zu diesem Zeitpunkt KI-Systeme, die nicht über KAI verfügen, noch nicht autonom handeln. (Wenn sie vor der KAI autonom handeln sollten, wäre dies der Zeitpunkt Z.) Betrachten wir nun die Situation ein Jahr vor Z. Zu diesem Zeitpunkt werden die dann existierenden KI-Systeme bereits enorm leistungsstark sein (weil sie an der Schwelle zur Superintelligenz stehen), und die Frage, die wir stellen wollen, lautet: Wer hat in diesem Moment die Kontrolle?
At a time of escalating global turmoil, there is an urgent need for incisive, informed analysis of the issues and questions driving the news – just what PS has always provided.
Subscribe to Digital or Digital Plus now to secure your discount.
Subscribe Now
Die Antwort wäre natürlich: menschliche Akteure, entweder individuell oder kollektiv in Form einer Regierung, eines Konsortiums oder Unternehmens. Um die Diskussion zu vereinfachen, bezeichne ich die für die KI verantwortlichen menschlichen Akteure an dieser Stelle als Unternehmen X. Dieses Unternehmen (es könnte auch mehr als ein Unternehmen sein, was, wie wir sehen werden, noch schlimmer wäre) wäre in der Lage, seine KI-Fähigkeiten zu jedem beliebigen Zweck einzusetzen. Wenn es die Demokratie zerstören und die Menschen versklaven wollte, könnte es dies tun. Die Bedrohung, die so viele Kommentatoren der KAI zuschreiben, wäre bereits eingetroffen.
Tatsächlich wäre die Situation wahrscheinlich noch schlimmer als diese Beschreibung, denn Unternehmen X könnte ein ähnliches Ergebnis herbeiführen, selbst wenn es nicht die Absicht hätte, die Demokratie zu zerstören. Wenn seine eigenen Ziele nicht vollständig mit der Demokratie übereinstimmen (was unvermeidlich ist), könnte die Demokratie als unbeabsichtigte Folge (wie im Falle der sozialen Medien) darunter leiden.
So kann etwa einen bestimmten Schwellenwert überschreitende Ungleichheit das ordnungsgemäße Funktionieren der Demokratie gefährden; diese Tatsache würde Unternehmen X jedoch nicht abhalten, alles zu tun, um sich selbst oder seine Aktionäre zu reicher zu machen. Alle in seine KI-Modelle integrierten Schutzmechanismen zur Verhinderung einer böswilligen Nutzung wären irrelevant, da Unternehmen X seine Technologie immer noch nach Belieben einsetzen könnte.
Wenn es zwei Unternehmen gäbe, Unternehmen X und Unternehmen Y, die enorm leistungsstarke KI-Modelle kontrollierten, könnten eines der beiden oder beide Ziele verfolgen, die dem sozialen Gefüge, der Demokratie und der menschlichen Freiheit schaden. (Und nein, das Argument, dass sie sich gegenseitig Schranken setzen würden, ist nicht überzeugend. Wenn überhaupt könnte ihr Wettbewerb sie noch rücksichtsloser machen.)
Selbst wenn wir also das erreichen, was die meisten KI-Sicherheitsforscher anstreben – eine angemessene Abstimmung und Beschränkung der KAI –, werden wir nicht sicher sein. Die Bedeutung dieser Schlussfolgerung sollte offensichtlich sein: Wir brauchen viel stärkere Institutionen, um die Technologieunternehmen zu zügeln, und viel stärkere Formen demokratischen und zivilgesellschaftlichen Handelns, um Regierungen, die KI kontrollieren, rechenschaftspflichtig zu halten. Dies ist eine ganz andere Herausforderung als die Behebung von Verzerrungen in KI-Modellen oder deren Abstimmung auf menschliche Ziele.
Warum also sind wir so fixiert auf das potenzielle Verhalten einer vermenschlichten KI? Zum Teil handelt es sich um einen Hype, der der Technologiebranche hilft, mehr Talente und Investitionen anzulocken. Je mehr alle darüber reden, wie sich eine superintelligente KI verhalten könnte, desto mehr wird die Öffentlichkeit glauben, dass eine KAI unmittelbar bevorsteht. Kleinanleger und institutionelle Investoren werden in das nächste große Ding investieren, und Tech-Führungskräfte, die mit Science-Fiction-Darstellungen von superintelligenter KI aufgewachsen sind, erhalten einen weiteren Persilschein. Wir sollten anfangen, den unmittelbareren Risiken mehr Aufmerksamkeit zu schenken.
To have unlimited access to our content including in-depth commentaries, book reviews, exclusive interviews, PS OnPoint and PS The Big Picture, please subscribe
US President Donald Trump’s import tariffs have triggered a wave of retaliatory measures, setting off a trade war with key partners and raising fears of a global downturn. But while Trump’s protectionism and erratic policy shifts could have far-reaching implications, the greatest victim is likely to be the United States itself.
warns that the new administration’s protectionism resembles the strategy many developing countries once tried.
It took a pandemic and the threat of war to get Germany to dispense with the two taboos – against debt and monetary financing of budgets – that have strangled its governments for decades. Now, it must join the rest of Europe in offering a positive vision of self-sufficiency and an “anti-fascist economic policy.”
welcomes the apparent departure from two policy taboos that have strangled the country's investment.
BOSTON – In den letzten Jahren ist eine riesige Industrie entstanden, da China, die USA, Großbritannien und die EU die Sicherheit künstlicher Intelligenz zu einer ihrer Spitzenprioritäten gemacht haben. Natürlich sollte jede Technologie – von Autos und Arzneimitteln bis hin zu Werkzeugmaschinen und Rasenmähern – möglichst sicher gestaltet sein (man wünscht sich, dass in den Frühtagen der sozialen Medien diesbezüglich mehr Sorgfalt an den Tag gelegt worden wäre).
Doch es reicht nicht, Sicherheitsbedenken zu äußern. Im Falle der künstlichen Intelligenz konzentriert sich die Debatte viel zu sehr auf die „Sicherheit vor den von einer künstlichen allgemeinen Intelligenz (KAI) ausgehenden Risiken“, d. h. einer Superintelligenz, die alle Menschen bei den meisten kognitiven Aufgaben übertreffen kann. Dabei geht es um die Frage der korrekten Abstimmung („Alignment“): ob KI-Modelle Ergebnisse liefern, die den Zielen und Werten ihrer Nutzer und Entwickler entsprechen – ein Thema, das zu verschiedenen Science-Fiction-Szenarien führt, in denen eine superintelligente KI entsteht und die Menschheit zerstört. Der Bestsellerautor Brian Christian konzentriert sich in seinem Buch The Alignment Problem vor allem auf KAI, und die gleichen Bedenken haben Anthropic, eines der wichtigsten Unternehmen in diesem Bereich, veranlasst, Modelle mit eigenen „Verfassungen“ zu entwickeln, in denen ethische Werte und Grundsätze verankert sind.
Diese Ansätze könnten jedoch aus mindestens zwei Gründen fehlgeleitet sein. Die aktuelle Sicherheitsdebatte vermenschlicht KI nicht nur (was wenig hilfreich ist), sondern sie verleitet uns auch dazu, uns auf die falschen Ziele zu konzentrieren. Da sich jede Technologie zum Guten oder zum Schlechten nutzen lässt, kommt es letztlich darauf an, wer sie kontrolliert, welche Ziele er verfolgt und welchen Vorschriften er unterworfen ist.
Kein noch so großes Maß an Sicherheitsforschung hätte verhindert, dass 2017 bei der Kundgebung weißer Rassisten in Charlottesville (Virginia) ein Auto als Waffe eingesetzt wurde. Wenn wir davon ausgehen, dass KI-Systeme ihre eigenen Persönlichkeiten haben, könnten wir zu dem Schluss kommen, dass unsere einzige Option darin besteht, dafür zu sorgen, dass sie abstrakt gesehen die richtigen Werte und Verfassungen haben. Doch die Prämisse ist falsch, und die vorgeschlagene Lösung würde bei weitem nicht ausreichen.
Das Gegenargument lautet natürlich, dass es, wenn eine KAI jemals erreicht würde, enorm wichtig wäre, ob das System auf die menschlichen Ziele „abgestimmt“ ist, weil es Schutzmechanismen, die der Gerissenheit einer Superintelligenz gewachsen wären, nicht gäbe. Doch bringt uns diese Behauptung zum zweiten Problem bei einem Großteil der KI-Sicherheitsdiskussion. Selbst wenn wir uns auf dem Weg zu einer KAI befinden (was höchst unwahrscheinlich erscheint), wäre die unmittelbarste Gefahr immer noch der Missbrauch einer nicht-superintelligenten KI durch den Menschen.
Nehmen wir an, dass es einen Zeitpunkt (Z) in der Zukunft gibt (sagen wir 2040), an dem die KAI erfunden wird, und dass bis zu diesem Zeitpunkt KI-Systeme, die nicht über KAI verfügen, noch nicht autonom handeln. (Wenn sie vor der KAI autonom handeln sollten, wäre dies der Zeitpunkt Z.) Betrachten wir nun die Situation ein Jahr vor Z. Zu diesem Zeitpunkt werden die dann existierenden KI-Systeme bereits enorm leistungsstark sein (weil sie an der Schwelle zur Superintelligenz stehen), und die Frage, die wir stellen wollen, lautet: Wer hat in diesem Moment die Kontrolle?
Winter Sale: Save 40% on a new PS subscription
At a time of escalating global turmoil, there is an urgent need for incisive, informed analysis of the issues and questions driving the news – just what PS has always provided.
Subscribe to Digital or Digital Plus now to secure your discount.
Subscribe Now
Die Antwort wäre natürlich: menschliche Akteure, entweder individuell oder kollektiv in Form einer Regierung, eines Konsortiums oder Unternehmens. Um die Diskussion zu vereinfachen, bezeichne ich die für die KI verantwortlichen menschlichen Akteure an dieser Stelle als Unternehmen X. Dieses Unternehmen (es könnte auch mehr als ein Unternehmen sein, was, wie wir sehen werden, noch schlimmer wäre) wäre in der Lage, seine KI-Fähigkeiten zu jedem beliebigen Zweck einzusetzen. Wenn es die Demokratie zerstören und die Menschen versklaven wollte, könnte es dies tun. Die Bedrohung, die so viele Kommentatoren der KAI zuschreiben, wäre bereits eingetroffen.
Tatsächlich wäre die Situation wahrscheinlich noch schlimmer als diese Beschreibung, denn Unternehmen X könnte ein ähnliches Ergebnis herbeiführen, selbst wenn es nicht die Absicht hätte, die Demokratie zu zerstören. Wenn seine eigenen Ziele nicht vollständig mit der Demokratie übereinstimmen (was unvermeidlich ist), könnte die Demokratie als unbeabsichtigte Folge (wie im Falle der sozialen Medien) darunter leiden.
So kann etwa einen bestimmten Schwellenwert überschreitende Ungleichheit das ordnungsgemäße Funktionieren der Demokratie gefährden; diese Tatsache würde Unternehmen X jedoch nicht abhalten, alles zu tun, um sich selbst oder seine Aktionäre zu reicher zu machen. Alle in seine KI-Modelle integrierten Schutzmechanismen zur Verhinderung einer böswilligen Nutzung wären irrelevant, da Unternehmen X seine Technologie immer noch nach Belieben einsetzen könnte.
Wenn es zwei Unternehmen gäbe, Unternehmen X und Unternehmen Y, die enorm leistungsstarke KI-Modelle kontrollierten, könnten eines der beiden oder beide Ziele verfolgen, die dem sozialen Gefüge, der Demokratie und der menschlichen Freiheit schaden. (Und nein, das Argument, dass sie sich gegenseitig Schranken setzen würden, ist nicht überzeugend. Wenn überhaupt könnte ihr Wettbewerb sie noch rücksichtsloser machen.)
Selbst wenn wir also das erreichen, was die meisten KI-Sicherheitsforscher anstreben – eine angemessene Abstimmung und Beschränkung der KAI –, werden wir nicht sicher sein. Die Bedeutung dieser Schlussfolgerung sollte offensichtlich sein: Wir brauchen viel stärkere Institutionen, um die Technologieunternehmen zu zügeln, und viel stärkere Formen demokratischen und zivilgesellschaftlichen Handelns, um Regierungen, die KI kontrollieren, rechenschaftspflichtig zu halten. Dies ist eine ganz andere Herausforderung als die Behebung von Verzerrungen in KI-Modellen oder deren Abstimmung auf menschliche Ziele.
Warum also sind wir so fixiert auf das potenzielle Verhalten einer vermenschlichten KI? Zum Teil handelt es sich um einen Hype, der der Technologiebranche hilft, mehr Talente und Investitionen anzulocken. Je mehr alle darüber reden, wie sich eine superintelligente KI verhalten könnte, desto mehr wird die Öffentlichkeit glauben, dass eine KAI unmittelbar bevorsteht. Kleinanleger und institutionelle Investoren werden in das nächste große Ding investieren, und Tech-Führungskräfte, die mit Science-Fiction-Darstellungen von superintelligenter KI aufgewachsen sind, erhalten einen weiteren Persilschein. Wir sollten anfangen, den unmittelbareren Risiken mehr Aufmerksamkeit zu schenken.
Aus dem Englischen von Jan Doolan