BRÜSSEL – In Posen, 325 Kilometer östlich von Warschau, arbeitet ein Team von Forschern, Ingenieuren und Pädagogen an einer kleinen Revolution. In ihrem gemeinsamen Projekt „Insension“ nutzen sie Gesichtserkennung auf der Basis künstlicher Intelligenz für ein System, das Kindern mit schweren und multiplen geistigen Behinderungen hilft, besser miteinander und mit ihrem Umfeld zu interagieren und mit der Welt in Kontakt zu kommen. Das Projekt zeigt, welche Macht in dieser Technologie steckt, die sich gerade rasant weiterentwickelt.
Tausende Kilometer entfernt in den Straßen von Beijing nutzt die chinesische Regierung KI-gestützte Gesichtserkennung, um jeden Schritt ihrer Bürger zu erfassen und die gesamte Bevölkerung engmaschig zu überwachen. Die gleiche Technologie, aber völlig unterschiedliche Ergebnisse. Diese beiden Beispiele bringen das allgemeine Problem mit KI auf den Punkt: die zugrunde liegende Technologie ist an sich weder gut noch böse, alles hängt davon ab, wie man sie einsetzt.
Weil KI immer zwei Gesichter hat, haben wir uns bei der Gestaltung des Europäischen Gesetzes über künstliche Intelligenz demnach nicht auf die Technologie selbst konzentriert, sondern auf deren Verwendung. Unser Ansatz lautet verkürzt: je riskanter die KI, desto strenger sind die Verpflichtungen derjenigen, die sie entwickeln.
KI ermöglicht bereits unzählige harmlose Funktionen, die wir tagtäglich nutzen – sie entsperrt unser Smartphone und stellt auf der Basis unserer Vorlieben Playlisten für uns zusammen. Wir müssen nicht jede einzelnen dieser Anwendungen regulieren. Allerdings greift KI auch immer häufiger in entscheidenden Momenten in unser Leben ein. Wenn eine Bank uns überprüft, um zu entscheiden, ob wir eine Hypothek aufnehmen dürfen, geht es nicht nur um einen Kredit; es geht darum, ob wir ein Dach über dem Kopf haben und Wohlstand und finanzielle Sicherheit aufbauen können. Das gleiche gilt, wenn Arbeitgeber bei Bewerbungsgesprächen Gefühlserkennungssoftware einsetzen oder Ärzte KI nutzen, um im CT-Bild eines Gehirns Erkrankungen zu erkennen. Im letztgenannten Fall geht es nicht um eine medizinische Routinekontrolle, es geht im wahrsten Sinne des Wortes um Leben und Tod.
Deshalb erlegt die neue Verordnung KI-Entwicklern in solchen Fällen strenge Pflichten auf. Sie müssen Risikobewertungen durchführen, verhindern, dass die Technologie fehleranfällig ist, eine menschliche Kontrollinstanz einführen, die Cybersicherheit gewährleisten und viele weitere Anforderungen erfüllen, bevor sie ihre Systeme auf den Markt bringen. Des Weiteren verbietet das KI-Gesetz jede Verwendung, die eindeutig gegen unsere wichtigsten Grundwerte verstößt. So darf KI beispielsweise nicht für die Berechnung von „Sozialpunkten“ oder für die sublime Manipulation von Kindern und anderen schutzbedürftigen Bevölkerungsgruppen eingesetzt werden.
Kritiker sagen, derart strenge Kontrollen verhindere Innovation. Wir in Europa sehen das anders. Zum einen vermitteln zeitunabhängige Regeln die Sicherheit und das Vertrauen, die technische Innovatoren brauchen, um neue Produkte entwickeln zu können. Aber viel wichtiger: KI wird nie ihr volles Potenzial entfalten, wenn die Endverbraucher ihr nicht vertrauen. In diesem Bereich fungiert Vertrauen stärker als Motor der Innovation als in vielen anderen Bereichen. Gerade indem wir unsere Pflicht tun und für Sicherheit und das Vertrauen der Öffentlichkeit sorgen, schaffen wir als Gesetzgeber die Bedingungen, unter den die Technologie sich entfalten kann.
At a time of escalating global turmoil, there is an urgent need for incisive, informed analysis of the issues and questions driving the news – just what PS has always provided.
Subscribe to Digital or Digital Plus now to secure your discount.
Subscribe Now
Der jüngste Boom von Allzweck-KI-Modellen wie ChatGPT stellt den risikobasierten Ansatz in Europa nicht in Frage, sondern macht ihn nur noch relevanter. Einerseits helfen diese Werkzeuge Betrügern weltweit dabei, beängstigend glaubwürdige Phishing-E-Mails zu erstellen. Andererseits könnten dieselben Modelle auch genutzt werden, um KI-generierte Inhalte zu erkennen. Innerhalb weniger Monate haben multimodale Modelle KI auf eine ganz neue Ebene gebracht. Sie haben völlig neue Möglichkeiten eröffnet, aber auch völlig neue Risiken eingeführt.
Und eines der gewaltigsten Risiken entsteht aus der Tatsache, dass wir künftig womöglich nicht mehr sicher sagen können, was echt ist und was gefälscht. Von KI erzeugte „Deepfakes“ sorgen schon heute für Skandale und Schlagzeiten. Ende Januar wurden gefälschte pornografische Bilder der globalen Pop-Ikone Taylor Swift auf X (ehemals Twitter) 47 Millionen Mal angesehen, bevor die Plattform die Nutzer sperrte, die sie verbreitet hatten.
Man kann sich leicht vorstellen, wie sich solche Inhalte auf die psychische Gesundheit der Betroffenen auswirken. Wenn man sie aber noch großflächiger einsetzt, sagen wir vor Wahlen, könnten sie ganze Länder gefährden. Das KI-Gesetz bietet eine ganz einfache Lösung für dieses Problem. KI-generierte Inhalte müssen als solche gekennzeichnet werden, damit jeder sofort weiß, dass sie nicht echt sind. Das heißt, dass Anbieter ihre Systeme so gestalten müssen, dass künstliche Tonaufnahmen, Videos, Texte oder Bilder in einem maschinenlesbaren Format gekennzeichnet und als von KI erzeugt oder manipuliert erkennbar sind.
Unternehmen bekommen die Möglichkeit, ihre Systeme an die neuen gesetzlichen Anforderungen anzupassen. Tun sie das nicht, werden Geldbußen verhängt. Diese Geldbußen liegen zwischen 35 Millionen Euro oder 7 % des weltweiten Umsatzes (je nachdem, was höher ist) für die Nutzung verbotener KI-Anwendungen, 15 Millionen Euro oder 3 % für sonstige Verstöße und 7,5 Millionen Euro oder 1,5 % für die Verbreitung falscher Informationen. Geldbußen sind jedoch nicht alles. KI-Systeme, die gegen das Gesetz verstoßen, dürfen in der EU nicht in Verkehr gebracht werden.
Europa ist Vorreiter bei der Regulierung von KI, unsere Bemühungen tragen jedoch dazu bei, auch anderswo Reaktionen zu mobilisieren. Viele andere Länder fangen bereits an, ähnliche Rechtsrahmen zu schaffen, einschließlich der USA, die gemeinsam mit Europa an einem „risikozentrierten Ansatz im Bereich KI zur Förderung vertrauenswürdiger und verantwortungsbewusster KI-Technologien“ arbeiten. Auch deshalb sind wir überzeugt, dass unser Ansatz richtig ist. Vor wenigen Monaten hat er die Staats- und Regierungschefs der G7 dazu inspiriert, den ersten Verhaltenskodex für künstliche Intelligenz zu veröffentlichen. Diese Art von internationalen Leitplanken werden uns so lange schützen, bis gesetzliche Regelungen in Kraft treten.
KI ist weder gut noch schlecht. Sie wird jedoch ein neues globales Zeitalter der Komplexität und Zweideutigkeit einläuten. In Europa haben wir ein Gesetz entworfen, das dem Rechnung trägt. Dieses Gesetz erfordert vermutlich wie keine andere europäische Rechtsvorschrift vor ihr eine sorgfältige Abwägung zwischen Macht und Verantwortung, zwischen Innovation und Vertrauen und zwischen Freiheit und Sicherheit.
To have unlimited access to our content including in-depth commentaries, book reviews, exclusive interviews, PS OnPoint and PS The Big Picture, please subscribe
BRÜSSEL – In Posen, 325 Kilometer östlich von Warschau, arbeitet ein Team von Forschern, Ingenieuren und Pädagogen an einer kleinen Revolution. In ihrem gemeinsamen Projekt „Insension“ nutzen sie Gesichtserkennung auf der Basis künstlicher Intelligenz für ein System, das Kindern mit schweren und multiplen geistigen Behinderungen hilft, besser miteinander und mit ihrem Umfeld zu interagieren und mit der Welt in Kontakt zu kommen. Das Projekt zeigt, welche Macht in dieser Technologie steckt, die sich gerade rasant weiterentwickelt.
Tausende Kilometer entfernt in den Straßen von Beijing nutzt die chinesische Regierung KI-gestützte Gesichtserkennung, um jeden Schritt ihrer Bürger zu erfassen und die gesamte Bevölkerung engmaschig zu überwachen. Die gleiche Technologie, aber völlig unterschiedliche Ergebnisse. Diese beiden Beispiele bringen das allgemeine Problem mit KI auf den Punkt: die zugrunde liegende Technologie ist an sich weder gut noch böse, alles hängt davon ab, wie man sie einsetzt.
Weil KI immer zwei Gesichter hat, haben wir uns bei der Gestaltung des Europäischen Gesetzes über künstliche Intelligenz demnach nicht auf die Technologie selbst konzentriert, sondern auf deren Verwendung. Unser Ansatz lautet verkürzt: je riskanter die KI, desto strenger sind die Verpflichtungen derjenigen, die sie entwickeln.
KI ermöglicht bereits unzählige harmlose Funktionen, die wir tagtäglich nutzen – sie entsperrt unser Smartphone und stellt auf der Basis unserer Vorlieben Playlisten für uns zusammen. Wir müssen nicht jede einzelnen dieser Anwendungen regulieren. Allerdings greift KI auch immer häufiger in entscheidenden Momenten in unser Leben ein. Wenn eine Bank uns überprüft, um zu entscheiden, ob wir eine Hypothek aufnehmen dürfen, geht es nicht nur um einen Kredit; es geht darum, ob wir ein Dach über dem Kopf haben und Wohlstand und finanzielle Sicherheit aufbauen können. Das gleiche gilt, wenn Arbeitgeber bei Bewerbungsgesprächen Gefühlserkennungssoftware einsetzen oder Ärzte KI nutzen, um im CT-Bild eines Gehirns Erkrankungen zu erkennen. Im letztgenannten Fall geht es nicht um eine medizinische Routinekontrolle, es geht im wahrsten Sinne des Wortes um Leben und Tod.
Deshalb erlegt die neue Verordnung KI-Entwicklern in solchen Fällen strenge Pflichten auf. Sie müssen Risikobewertungen durchführen, verhindern, dass die Technologie fehleranfällig ist, eine menschliche Kontrollinstanz einführen, die Cybersicherheit gewährleisten und viele weitere Anforderungen erfüllen, bevor sie ihre Systeme auf den Markt bringen. Des Weiteren verbietet das KI-Gesetz jede Verwendung, die eindeutig gegen unsere wichtigsten Grundwerte verstößt. So darf KI beispielsweise nicht für die Berechnung von „Sozialpunkten“ oder für die sublime Manipulation von Kindern und anderen schutzbedürftigen Bevölkerungsgruppen eingesetzt werden.
Kritiker sagen, derart strenge Kontrollen verhindere Innovation. Wir in Europa sehen das anders. Zum einen vermitteln zeitunabhängige Regeln die Sicherheit und das Vertrauen, die technische Innovatoren brauchen, um neue Produkte entwickeln zu können. Aber viel wichtiger: KI wird nie ihr volles Potenzial entfalten, wenn die Endverbraucher ihr nicht vertrauen. In diesem Bereich fungiert Vertrauen stärker als Motor der Innovation als in vielen anderen Bereichen. Gerade indem wir unsere Pflicht tun und für Sicherheit und das Vertrauen der Öffentlichkeit sorgen, schaffen wir als Gesetzgeber die Bedingungen, unter den die Technologie sich entfalten kann.
Winter Sale: Save 40% on a new PS subscription
At a time of escalating global turmoil, there is an urgent need for incisive, informed analysis of the issues and questions driving the news – just what PS has always provided.
Subscribe to Digital or Digital Plus now to secure your discount.
Subscribe Now
Der jüngste Boom von Allzweck-KI-Modellen wie ChatGPT stellt den risikobasierten Ansatz in Europa nicht in Frage, sondern macht ihn nur noch relevanter. Einerseits helfen diese Werkzeuge Betrügern weltweit dabei, beängstigend glaubwürdige Phishing-E-Mails zu erstellen. Andererseits könnten dieselben Modelle auch genutzt werden, um KI-generierte Inhalte zu erkennen. Innerhalb weniger Monate haben multimodale Modelle KI auf eine ganz neue Ebene gebracht. Sie haben völlig neue Möglichkeiten eröffnet, aber auch völlig neue Risiken eingeführt.
Und eines der gewaltigsten Risiken entsteht aus der Tatsache, dass wir künftig womöglich nicht mehr sicher sagen können, was echt ist und was gefälscht. Von KI erzeugte „Deepfakes“ sorgen schon heute für Skandale und Schlagzeiten. Ende Januar wurden gefälschte pornografische Bilder der globalen Pop-Ikone Taylor Swift auf X (ehemals Twitter) 47 Millionen Mal angesehen, bevor die Plattform die Nutzer sperrte, die sie verbreitet hatten.
Man kann sich leicht vorstellen, wie sich solche Inhalte auf die psychische Gesundheit der Betroffenen auswirken. Wenn man sie aber noch großflächiger einsetzt, sagen wir vor Wahlen, könnten sie ganze Länder gefährden. Das KI-Gesetz bietet eine ganz einfache Lösung für dieses Problem. KI-generierte Inhalte müssen als solche gekennzeichnet werden, damit jeder sofort weiß, dass sie nicht echt sind. Das heißt, dass Anbieter ihre Systeme so gestalten müssen, dass künstliche Tonaufnahmen, Videos, Texte oder Bilder in einem maschinenlesbaren Format gekennzeichnet und als von KI erzeugt oder manipuliert erkennbar sind.
Unternehmen bekommen die Möglichkeit, ihre Systeme an die neuen gesetzlichen Anforderungen anzupassen. Tun sie das nicht, werden Geldbußen verhängt. Diese Geldbußen liegen zwischen 35 Millionen Euro oder 7 % des weltweiten Umsatzes (je nachdem, was höher ist) für die Nutzung verbotener KI-Anwendungen, 15 Millionen Euro oder 3 % für sonstige Verstöße und 7,5 Millionen Euro oder 1,5 % für die Verbreitung falscher Informationen. Geldbußen sind jedoch nicht alles. KI-Systeme, die gegen das Gesetz verstoßen, dürfen in der EU nicht in Verkehr gebracht werden.
Europa ist Vorreiter bei der Regulierung von KI, unsere Bemühungen tragen jedoch dazu bei, auch anderswo Reaktionen zu mobilisieren. Viele andere Länder fangen bereits an, ähnliche Rechtsrahmen zu schaffen, einschließlich der USA, die gemeinsam mit Europa an einem „risikozentrierten Ansatz im Bereich KI zur Förderung vertrauenswürdiger und verantwortungsbewusster KI-Technologien“ arbeiten. Auch deshalb sind wir überzeugt, dass unser Ansatz richtig ist. Vor wenigen Monaten hat er die Staats- und Regierungschefs der G7 dazu inspiriert, den ersten Verhaltenskodex für künstliche Intelligenz zu veröffentlichen. Diese Art von internationalen Leitplanken werden uns so lange schützen, bis gesetzliche Regelungen in Kraft treten.
KI ist weder gut noch schlecht. Sie wird jedoch ein neues globales Zeitalter der Komplexität und Zweideutigkeit einläuten. In Europa haben wir ein Gesetz entworfen, das dem Rechnung trägt. Dieses Gesetz erfordert vermutlich wie keine andere europäische Rechtsvorschrift vor ihr eine sorgfältige Abwägung zwischen Macht und Verantwortung, zwischen Innovation und Vertrauen und zwischen Freiheit und Sicherheit.