BOSTON – Meta (Facebook), Alphabet (Google), Microsoft, Twitter und einige andere Tech-Unternehmen bestimmen inzwischen das, was wir im Internet sehen und hören, und prägen die Wahrnehmung der Welt durch Hunderte Millionen Menschen. Um Werbeeinnahmen zu erzielen, sind ihre Algorithmen so programmiert, dass sie uns Inhalte zeigen, die unsere Aufmerksamkeit erregen – darunter extremistische Videos, Desinformationen und Material, das Neid, Unsicherheit und Wut schüren soll. Mit der rasanten Entwicklung von „großen Sprachmodellen“ wie ChatGPT und Bard wird der Einfluss von Big Tech auf leicht beeinflussbare Menschen nur noch stärker werden – mit möglicherweise beängstigenden Folgen.
Aber es sind auch andere Ergebnisse möglich. Unternehmen könnten die jüngste Welle der künstlichen Intelligenz viel verantwortungsvoller einsetzen, und zwei aktuelle Gerichtsverfahren dienen als Warnung für diejenigen, die sozial zerstörerische Geschäftsmodelle verfolgen. Wir brauchen aber auch politische Maßnahmen, um die größten Technologieunternehmen zu zerschlagen und digitale Werbung zu besteuern. Diese politischen Hebel können dazu beitragen, das schädliche Geschäftsmodell von Big Tech zu ändern und damit zu verhindern, dass die Plattformen ihren Nutzern – insbesondere gefährdeten jungen Menschen – so viel emotionalen Schaden zufügen.
Zu den Rechtsfällen gehört der Fall Gonzales gegen Google, der derzeit vor dem Obersten Gerichtshof der USA verhandelt wird. Dabei geht es um das Beharren der Tech-Industrie darauf, dass Abschnitt 230 des Communications Decency Acts von 1996 Plattformunternehmen von jeglicher Haftung für Inhalte Dritter, die sie hosten, ausnimmt. Wenn Plattformen bei der Empfehlung von Videos, Tweets oder Beiträgen eher wie Nachrichtenagenturen und nicht wie bloße Online-Speicher agieren, sollten sie nach demselben Standard wie etablierte Medien behandelt werden, denen es nach den bestehenden Verleumdungsgesetzen nicht gestattet ist, etwas zu veröffentlichen, von dem sie wissen, dass es unwahr ist.
In einer Klage in Höhe von 1,6 Mrd. Dollar gegen den Nachrichtensender Fox News hat das Unternehmen Dominion Voting Systems daher zahlreiche Beweise dafür vorgelegt, dass die Top-Moderatoren und -Führungskräfte von Fox sehr wohl wussten (und sich gegenseitig davon erzählten), dass die Behauptungen des ehemaligen Präsidenten Donald Trump über Wahlbetrug völlig falsch waren. Dominion hat daher einen starken Anspruch auf Schadenersatz, wenn es nachweisen kann, dass Fox bei der Wahl 2020 wissentlich Unwahrheiten über die Wahlmaschinen von Dominion verbreitet hat. Sollten Online-Plattformen, deren Algorithmen dieselben Lügen verbreiteten, nicht mit demselben Standard belegt werden?
Die Beantwortung solcher Fragen ist jetzt noch dringlicher geworden, da Programme wie ChatGPT sich anschicken, das Internet umzugestalten. Diese ausgeklügelten Empfehlungsalgorithmen könnten darauf trainiert werden, keine extremen Inhalte oder absichtliche Lügen zu fördern und keinen extremen Emotionen Vorschub zu leisten. Wenn ein Algorithmus Kinder (oder andere Personen) ausbeutet oder manipuliert, sollte die Verantwortung für diesen Schaden bei den Menschen liegen, die dafür verantwortlich sind. Schließlich arbeiten KI-Programme auf dieser Ebene nicht unabhängig von menschlichen Entscheidungen. Das Gegenteil zu behaupten hieße, ihren Schöpfern rechtliche Immunität zu gewähren.
Technologieunternehmen sollten ihre eigene Unachtsamkeit oder Nachlässigkeit nicht mehr mit dem Argument entschuldigen können, dass es „zu viele Daten“ gibt, die sie überwachen müssen. Diese Fülle an Daten ist die Quelle ihrer Gewinne, und die schiere Fülle an Inhalten auf ihren Plattformen macht ihre KI so mächtig. Zwar sollten sie einen angemessenen Schutz vor der Haftung für das genießen, was jemand anderes auf ihrer Website veröffentlicht, doch sollte dies nur für passive Inhalte gelten, die die Plattformen anderen Nutzern in keiner Weise empfehlen. Aktive Inhalte, die mithilfe eines Algorithmus an Millionen von Menschen weitergegeben werden, um Einnahmen zu generieren, sind eine andere Sache. Das ist in der Tat wie im traditionellen Verlagswesen, nur viel mächtiger.
Access every new PS commentary, our entire On Point suite of subscriber-exclusive content – including Longer Reads, Insider Interviews, Big Picture/Big Question, and Say More – and the full PS archive.
Subscribe Now
Wenn eine Tageszeitung einen Kommentar eines Terroristen veröffentlicht, werden einige Leser ihr Abonnement wahrscheinlich einstellen. Da aber die meisten Menschen ihre bestehenden sozialen Online-Netzwerke nicht aufgeben wollen, brauchen wir eine staatliche Regulierung, um die Verbraucher wieder zu stärken.
Zunächst sollten die größten Plattformunternehmen aufgespalten werden, um den Wettbewerb zwischen den Empfehlungsalgorithmen und ihren Trainern zu intensivieren. Damit dies aber im Interesse der Öffentlichkeit funktioniert, müssen die Plattformen auch dazu verpflichtet werden, die Übertragung des sozialen Netzwerks eines Nutzers auf eine andere Plattform zu ermöglichen. Aus den gleichen Gründen der „Interoperabilität“ kann man seine Handynummer behalten, wenn man den Anbieter wechselt. Die Verbraucher von sozialen Medien und digitalen Inhalten sollten mit den Füßen abstimmen können, wenn ihnen nicht gefällt, was eine Plattform anbietet.
Zweitens, und das ist noch wichtiger, müssen wir eine Anpassung des vorherrschenden Geschäftsmodells von Big Tech erzwingen, das auf dem Sammeln riesiger Mengen von Nutzerdaten und deren Monetarisierung durch den Verkauf digitaler Werbung beruht. Dieses Geschäftsmodell erklärt, warum Desinformation, Empörung und Unsicherheit im Internet so weit verbreitet sind. Durch emotionale Manipulation wird die Nutzerinteraktion maximiert, was eine noch eindringlichere Datenerfassung und höhere Gewinne ermöglicht.
Eine Steuer auf digitale Werbung ist eine der einzigen praktischen Möglichkeiten, dieses außerordentlich destruktive Geschäftsmodell zu ändern. Sie würde die Versuchung der Plattformen verringern, die Nutzerinteraktion durch emotionale Manipulation zu maximieren, und in Verbindung mit einer Begrenzung der Datenerfassung Anreize für die Entwicklung alternativer Ansätze, wie etwa abonnementbasierte Modelle, schaffen.
Ein weiterer Vorteil einer Steuer auf digitale Werbung ist, dass sie für Inhalte, die für Personen unter 21 Jahren beworben werden, noch höher angesetzt werden könnte. Der Verkauf von Zigaretten oder Alkohol an Minderjährige ist eine schwere Straftat. Es ist zwar nicht möglich, jungen Menschen zu verbieten, Inhalte zu sehen, die ihrer geistigen Gesundheit schaden, aber ein hoher Steuersatz auf Werbeeinnahmen, die aus der Förderung solcher Inhalte stammen, ist durchaus angemessen. Die Einnahmen könnten für die Stärkung von Programmen zur Förderung der psychischen Gesundheit verwendet werden, nicht zuletzt für solche, die sich der Suizid-Prävention bei Jugendlichen widmen. Im Zweifelsfall können wir einfach den KI-Empfehlungsalgorithmus fragen, welche Inhalte für junge Menschen schädlich sind.
To have unlimited access to our content including in-depth commentaries, book reviews, exclusive interviews, PS OnPoint and PS The Big Picture, please subscribe
China’s prolonged reliance on fiscal stimulus has distorted economic incentives, fueling a housing glut, a collapse in prices, and spiraling public debt. With further stimulus off the table, the only sustainable path is for the central government to relinquish more economic power to local governments and the private sector.
argues that the country’s problems can be traced back to its response to the 2008 financial crisis.
World order is a matter of degree: it varies over time, depending on technological, political, social, and ideological factors that can affect the global distribution of power and influence norms. It can be radically altered both by broader historical trends and by a single major power's blunders.
examines the role of evolving power dynamics and norms in bringing about stable arrangements among states.
BOSTON – Meta (Facebook), Alphabet (Google), Microsoft, Twitter und einige andere Tech-Unternehmen bestimmen inzwischen das, was wir im Internet sehen und hören, und prägen die Wahrnehmung der Welt durch Hunderte Millionen Menschen. Um Werbeeinnahmen zu erzielen, sind ihre Algorithmen so programmiert, dass sie uns Inhalte zeigen, die unsere Aufmerksamkeit erregen – darunter extremistische Videos, Desinformationen und Material, das Neid, Unsicherheit und Wut schüren soll. Mit der rasanten Entwicklung von „großen Sprachmodellen“ wie ChatGPT und Bard wird der Einfluss von Big Tech auf leicht beeinflussbare Menschen nur noch stärker werden – mit möglicherweise beängstigenden Folgen.
Aber es sind auch andere Ergebnisse möglich. Unternehmen könnten die jüngste Welle der künstlichen Intelligenz viel verantwortungsvoller einsetzen, und zwei aktuelle Gerichtsverfahren dienen als Warnung für diejenigen, die sozial zerstörerische Geschäftsmodelle verfolgen. Wir brauchen aber auch politische Maßnahmen, um die größten Technologieunternehmen zu zerschlagen und digitale Werbung zu besteuern. Diese politischen Hebel können dazu beitragen, das schädliche Geschäftsmodell von Big Tech zu ändern und damit zu verhindern, dass die Plattformen ihren Nutzern – insbesondere gefährdeten jungen Menschen – so viel emotionalen Schaden zufügen.
Zu den Rechtsfällen gehört der Fall Gonzales gegen Google, der derzeit vor dem Obersten Gerichtshof der USA verhandelt wird. Dabei geht es um das Beharren der Tech-Industrie darauf, dass Abschnitt 230 des Communications Decency Acts von 1996 Plattformunternehmen von jeglicher Haftung für Inhalte Dritter, die sie hosten, ausnimmt. Wenn Plattformen bei der Empfehlung von Videos, Tweets oder Beiträgen eher wie Nachrichtenagenturen und nicht wie bloße Online-Speicher agieren, sollten sie nach demselben Standard wie etablierte Medien behandelt werden, denen es nach den bestehenden Verleumdungsgesetzen nicht gestattet ist, etwas zu veröffentlichen, von dem sie wissen, dass es unwahr ist.
In einer Klage in Höhe von 1,6 Mrd. Dollar gegen den Nachrichtensender Fox News hat das Unternehmen Dominion Voting Systems daher zahlreiche Beweise dafür vorgelegt, dass die Top-Moderatoren und -Führungskräfte von Fox sehr wohl wussten (und sich gegenseitig davon erzählten), dass die Behauptungen des ehemaligen Präsidenten Donald Trump über Wahlbetrug völlig falsch waren. Dominion hat daher einen starken Anspruch auf Schadenersatz, wenn es nachweisen kann, dass Fox bei der Wahl 2020 wissentlich Unwahrheiten über die Wahlmaschinen von Dominion verbreitet hat. Sollten Online-Plattformen, deren Algorithmen dieselben Lügen verbreiteten, nicht mit demselben Standard belegt werden?
Die Beantwortung solcher Fragen ist jetzt noch dringlicher geworden, da Programme wie ChatGPT sich anschicken, das Internet umzugestalten. Diese ausgeklügelten Empfehlungsalgorithmen könnten darauf trainiert werden, keine extremen Inhalte oder absichtliche Lügen zu fördern und keinen extremen Emotionen Vorschub zu leisten. Wenn ein Algorithmus Kinder (oder andere Personen) ausbeutet oder manipuliert, sollte die Verantwortung für diesen Schaden bei den Menschen liegen, die dafür verantwortlich sind. Schließlich arbeiten KI-Programme auf dieser Ebene nicht unabhängig von menschlichen Entscheidungen. Das Gegenteil zu behaupten hieße, ihren Schöpfern rechtliche Immunität zu gewähren.
Technologieunternehmen sollten ihre eigene Unachtsamkeit oder Nachlässigkeit nicht mehr mit dem Argument entschuldigen können, dass es „zu viele Daten“ gibt, die sie überwachen müssen. Diese Fülle an Daten ist die Quelle ihrer Gewinne, und die schiere Fülle an Inhalten auf ihren Plattformen macht ihre KI so mächtig. Zwar sollten sie einen angemessenen Schutz vor der Haftung für das genießen, was jemand anderes auf ihrer Website veröffentlicht, doch sollte dies nur für passive Inhalte gelten, die die Plattformen anderen Nutzern in keiner Weise empfehlen. Aktive Inhalte, die mithilfe eines Algorithmus an Millionen von Menschen weitergegeben werden, um Einnahmen zu generieren, sind eine andere Sache. Das ist in der Tat wie im traditionellen Verlagswesen, nur viel mächtiger.
Introductory Offer: Save 30% on PS Digital
Access every new PS commentary, our entire On Point suite of subscriber-exclusive content – including Longer Reads, Insider Interviews, Big Picture/Big Question, and Say More – and the full PS archive.
Subscribe Now
Wenn eine Tageszeitung einen Kommentar eines Terroristen veröffentlicht, werden einige Leser ihr Abonnement wahrscheinlich einstellen. Da aber die meisten Menschen ihre bestehenden sozialen Online-Netzwerke nicht aufgeben wollen, brauchen wir eine staatliche Regulierung, um die Verbraucher wieder zu stärken.
Zunächst sollten die größten Plattformunternehmen aufgespalten werden, um den Wettbewerb zwischen den Empfehlungsalgorithmen und ihren Trainern zu intensivieren. Damit dies aber im Interesse der Öffentlichkeit funktioniert, müssen die Plattformen auch dazu verpflichtet werden, die Übertragung des sozialen Netzwerks eines Nutzers auf eine andere Plattform zu ermöglichen. Aus den gleichen Gründen der „Interoperabilität“ kann man seine Handynummer behalten, wenn man den Anbieter wechselt. Die Verbraucher von sozialen Medien und digitalen Inhalten sollten mit den Füßen abstimmen können, wenn ihnen nicht gefällt, was eine Plattform anbietet.
Zweitens, und das ist noch wichtiger, müssen wir eine Anpassung des vorherrschenden Geschäftsmodells von Big Tech erzwingen, das auf dem Sammeln riesiger Mengen von Nutzerdaten und deren Monetarisierung durch den Verkauf digitaler Werbung beruht. Dieses Geschäftsmodell erklärt, warum Desinformation, Empörung und Unsicherheit im Internet so weit verbreitet sind. Durch emotionale Manipulation wird die Nutzerinteraktion maximiert, was eine noch eindringlichere Datenerfassung und höhere Gewinne ermöglicht.
Eine Steuer auf digitale Werbung ist eine der einzigen praktischen Möglichkeiten, dieses außerordentlich destruktive Geschäftsmodell zu ändern. Sie würde die Versuchung der Plattformen verringern, die Nutzerinteraktion durch emotionale Manipulation zu maximieren, und in Verbindung mit einer Begrenzung der Datenerfassung Anreize für die Entwicklung alternativer Ansätze, wie etwa abonnementbasierte Modelle, schaffen.
Ein weiterer Vorteil einer Steuer auf digitale Werbung ist, dass sie für Inhalte, die für Personen unter 21 Jahren beworben werden, noch höher angesetzt werden könnte. Der Verkauf von Zigaretten oder Alkohol an Minderjährige ist eine schwere Straftat. Es ist zwar nicht möglich, jungen Menschen zu verbieten, Inhalte zu sehen, die ihrer geistigen Gesundheit schaden, aber ein hoher Steuersatz auf Werbeeinnahmen, die aus der Förderung solcher Inhalte stammen, ist durchaus angemessen. Die Einnahmen könnten für die Stärkung von Programmen zur Förderung der psychischen Gesundheit verwendet werden, nicht zuletzt für solche, die sich der Suizid-Prävention bei Jugendlichen widmen. Im Zweifelsfall können wir einfach den KI-Empfehlungsalgorithmus fragen, welche Inhalte für junge Menschen schädlich sind.
Übersetzung: Andreas Hubig