42 beste Sommerkleider für Frauen über 50
Mar 07, 2023Komatsu neckt XT
Mar 09, 2023Laut Bewertungen die besten Sport-BHs ohne herausnehmbare Polsterung
Mar 11, 2023Käufer sagen, dass dieser Matratzenbezug dafür sorgt, dass sich ihre Betten in Sommernächten kühl anfühlen – und er ist im Angebot
Mar 13, 2023Carefree® führt Acti ein
Mar 15, 2023Wie KI Wahlen übernehmen könnte
Eine KI-gesteuerte politische Kampagne könnte für alle Menschen von Bedeutung sein
Der folgende Aufsatz wurde mit Genehmigung von The Conversation, einer Online-Publikation über die neuesten Forschungsergebnisse, abgedruckt. Es wurde von den Autoren für Scientific American geändert und kann vom Original abweichen.
Könnten Organisationen Sprachmodelle mit künstlicher Intelligenz wie ChatGPT nutzen, um Wähler zu bestimmten Verhaltensweisen zu bewegen?
Diese Frage stellte Senator Josh Hawley dem OpenAI-CEO Sam Altman in einer Anhörung im US-Senat zum Thema künstliche Intelligenz am 16. Mai 2023. Altman antwortete, dass er in der Tat besorgt sei, dass manche Menschen Sprachmodelle nutzen könnten, um Wähler zu manipulieren, zu überzeugen und sich auf persönliche Interaktionen mit ihnen einzulassen.
Hier ist das Szenario, das sich Altman möglicherweise vorgestellt hat/im Kopf hatte: Stellen Sie sich vor, dass politische Technologen bald eine Maschine namens Clogger entwickeln – eine politische Kampagne in einer Black Box. Clogger verfolgt unermüdlich nur ein Ziel: die Chancen zu maximieren, dass sein Kandidat – die Kampagne, die die Dienste von Clogger Inc. kauft – sich bei einer Wahl durchsetzt.
Während Plattformen wie Facebook, Twitter und YouTube Formen der KI nutzen, um Benutzer dazu zu bringen, mehr Zeit auf ihren Websites zu verbringen, hätte die KI von Clogger ein anderes Ziel: das Abstimmungsverhalten der Menschen zu ändern.
Als Politikwissenschaftler und Rechtswissenschaftler, die sich mit der Schnittstelle zwischen Technologie und Demokratie befassen, glauben wir, dass etwas wie Clogger die Automatisierung nutzen könnte, um den Umfang und möglicherweise die Wirksamkeit von Verhaltensmanipulations- und Mikrotargeting-Techniken, die seit den frühen 2000er Jahren in politischen Kampagnen eingesetzt werden, dramatisch zu steigern . So wie Werbetreibende jetzt Ihren Browser- und Social-Media-Verlauf nutzen, um individuell kommerzielle und politische Anzeigen auszurichten, würde Clogger Ihnen – und Hunderten Millionen anderen Wählern – individuell Aufmerksamkeit schenken.
Es würde drei Fortschritte gegenüber der aktuellen algorithmischen Verhaltensmanipulation bieten. Erstens würde sein Sprachmodell Nachrichten generieren – Texte, soziale Medien und E-Mails, möglicherweise auch Bilder und Videos –, die auf Sie persönlich zugeschnitten sind. Während Werbetreibende strategisch eine relativ kleine Anzahl von Anzeigen platzieren, können Sprachmodelle wie ChatGPT im Laufe einer Kampagne unzählige einzigartige Nachrichten für Sie persönlich – und Millionen für andere – generieren.
Zweitens würde Clogger eine Technik namens „Reinforcement Learning“ verwenden, um Nachrichten zu generieren, die mit zunehmender Wahrscheinlichkeit Ihre Stimme ändern. Reinforcement Learning ist ein auf maschinellem Lernen basierender Trial-and-Error-Ansatz, bei dem der Computer Maßnahmen ergreift und Feedback darüber erhält, welche besser funktionieren, um zu lernen, wie ein Ziel erreicht werden kann. Maschinen, die Go, Schach und viele Videospiele besser spielen können als jeder Mensch, nutzen Reinforcement Learning. Und schließlich könnten sich die Nachrichten von Clogger im Laufe einer Kampagne weiterentwickeln, um Ihre Antworten auf frühere Sendungen und die Erkenntnisse über Änderungen zu berücksichtigen die Gedanken anderer. Clogger würde im Laufe der Zeit dynamische „Gespräche“ mit Ihnen – und Millionen anderer Menschen – führen. Die Nachrichten von Clogger ähneln Anzeigen, die Ihnen auf verschiedenen Websites und in sozialen Medien folgen.
Drei weitere Features – oder Bugs – sind erwähnenswert.
Erstens können die von Clogger gesendeten Nachrichten politischer Natur sein oder auch nicht. Das einzige Ziel der Maschine besteht darin, den Stimmenanteil zu maximieren, und sie würde wahrscheinlich Strategien zur Erreichung dieses Ziels entwickeln, an die kein menschlicher Wahlkämpfer gedacht hätte.
Eine Möglichkeit besteht darin, wahrscheinlichen Wählergegnern Informationen über unpolitische Leidenschaften zu schicken, die sie im Sport oder in der Unterhaltung haben, um die politischen Botschaften, die sie erhalten, zu unterdrücken. Eine andere Möglichkeit besteht darin, abstoßende Nachrichten – zum Beispiel Inkontinenz-Werbung – zu versenden, die zeitlich auf die Nachrichten der Gegner abgestimmt sind. Und ein anderer besteht darin, die Social-Media-Gruppen der Wähler zu manipulieren, um den Eindruck zu erwecken, dass ihre Familie, Nachbarn und Freunde den Kandidaten unterstützen.
Zweitens hat Clogger keinen Respekt vor der Wahrheit. Tatsächlich hat es keine Möglichkeit zu wissen, was wahr oder falsch ist. Sprachmodell-„Halluzinationen“ stellen für diese Maschine kein Problem dar, da ihr Ziel darin besteht, Ihre Stimme zu ändern, und nicht darin, genaue Informationen bereitzustellen.
Da es sich schließlich um eine Black-Box-Art künstlicher Intelligenz handelt, hätten die Menschen keine Möglichkeit zu wissen, welche Strategien sie verwendet.
Wenn der republikanische Präsidentschaftswahlkampf Clogger im Jahr 2024 einsetzen würde, wäre der demokratische Wahlkampf wahrscheinlich gezwungen, in gleicher Weise zu reagieren, vielleicht mit einer ähnlichen Maschine. Nennen wir es Dogger. Wenn die Wahlkampfmanager glaubten, dass diese Maschinen effektiv seien, könnte der Präsidentschaftswettbewerb durchaus auf Clogger vs. Dogger hinauslaufen, und der Gewinner wäre der Kunde der effektiveren Maschine.
Die Inhalte, die den Sieg davontrugen, kämen von einer KI, die sich ausschließlich auf den Sieg konzentrierte und keine eigenen politischen Ideen hatte, und nicht von Kandidaten oder Parteien. In diesem sehr wichtigen Sinne hätte eher eine Maschine als ein Mensch die Wahl gewonnen. Die Wahl wäre nicht mehr demokratisch, auch wenn alle normalen Aktivitäten der Demokratie – die Reden, die Anzeigen, die Botschaften, die Abstimmung und die Auszählung der Stimmen – stattgefunden hätten.
Der von der KI gewählte Präsident könnte dann einen von zwei Wegen wählen. Er oder sie könnte den Mantel der Wahl nutzen, um die Politik der republikanischen oder demokratischen Partei zu verfolgen. Aber da die Ideen der Partei möglicherweise wenig damit zu tun haben, warum die Menschen so gewählt haben, wie sie es getan haben – Clogger und Dogger interessieren sich nicht für politische Ansichten –, würden die Handlungen des Präsidenten nicht unbedingt den Willen der Wähler widerspiegeln. Die Wähler wären von der KI manipuliert worden, anstatt ihre politischen Führer und Richtlinien frei zu wählen.
Ein anderer Weg besteht darin, dass der Präsident die Botschaften, Verhaltensweisen und Richtlinien verfolgt, von denen die Maschine vorhersagt, dass sie die Chancen auf eine Wiederwahl maximieren. Auf diesem Weg hätte der Präsident über den Machterhalt hinaus keine besondere Plattform oder Agenda. Die von Clogger geleiteten Aktionen des Präsidenten würden eher dazu dienen, die Wähler zu manipulieren, als ihren echten Interessen oder sogar der eigenen Ideologie des Präsidenten zu dienen.
Es wäre möglich, Wahlmanipulationen durch KI zu vermeiden, wenn Kandidaten, Wahlkämpfer und Berater alle auf den Einsatz einer solchen politischen KI verzichten würden. Wir halten das für unwahrscheinlich. Würden politisch wirksame Black Boxes entwickelt, wäre deren Einsatz aufgrund des Wettbewerbsdrucks nahezu unwiderstehlich. In der Tat könnte es für Politikberater durchaus sinnvoll sein, diese Instrumente im Rahmen ihrer beruflichen Verantwortung einzusetzen, um ihren Kandidaten zum Sieg zu verhelfen. Und sobald ein Kandidat solch ein wirksames Instrument einsetzt, kann von den Gegnern kaum erwartet werden, dass sie sich durch eine einseitige Abrüstung wehren.
Ein verbesserter Datenschutz würde helfen. Clogger wäre auf den Zugriff auf große Mengen persönlicher Daten angewiesen, um Einzelpersonen anzusprechen, maßgeschneiderte Nachrichten zu erstellen, um sie zu überzeugen oder zu manipulieren, und sie im Verlauf einer Kampagne zu verfolgen und erneut anzusprechen. Jede Information, die Unternehmen oder politische Entscheidungsträger der Maschine vorenthalten, würde sie weniger effektiv machen.
Eine andere Lösung sind Wahlkommissionen. Sie könnten versuchen, diese Maschinen zu verbieten oder streng zu regulieren. Es gibt eine heftige Debatte darüber, ob solche „replikanten“ Äußerungen, auch wenn sie politischer Natur sind, reguliert werden können. Die extreme Tradition der freien Meinungsäußerung in den USA veranlasst viele führende Wissenschaftler zu der Ansicht, dass dies nicht möglich sei.
Es gibt jedoch keinen Grund, den Schutz des Ersten Verfassungszusatzes automatisch auf das Produkt dieser Maschinen auszudehnen. Die Nation könnte sich durchaus dafür entscheiden, Maschinen Rechte zu geben, aber diese Entscheidung sollte auf den Herausforderungen der heutigen Zeit basieren und nicht auf der fehlgeleiteten Annahme, dass James Madisons Ansichten aus dem Jahr 1789 auf die KI zutreffen sollten.
Die Regulierungsbehörden der Europäischen Union gehen in diese Richtung. Die politischen Entscheidungsträger haben den Entwurf des Europäischen Parlaments zum Gesetz über künstliche Intelligenz dahingehend überarbeitet, dass „KI-Systeme zur Beeinflussung von Wählern im Wahlkampf“ als „hohes Risiko“ eingestuft werden und einer behördlichen Prüfung unterliegen.
Ein verfassungsrechtlich sichererer, wenn auch kleinerer Schritt, der teilweise bereits von europäischen Internetregulierungsbehörden und in Kalifornien übernommen wurde, besteht darin, Bots zu verbieten, sich als Menschen auszugeben. Beispielsweise könnte eine Regulierung vorschreiben, dass Kampagnenbotschaften mit Haftungsausschlüssen versehen sein müssen, wenn der darin enthaltene Inhalt von Maschinen und nicht von Menschen generiert wird.
Dies würde den Haftungsausschlussanforderungen für Werbung ähneln – „Bezahlt vom Sam Jones for Congress Committee“ –, jedoch geändert, um ihren KI-Ursprung widerzuspiegeln: „Diese KI-generierte Anzeige wurde vom Sam Jones for Congress Committee bezahlt.“ Eine stärkere Version könnte erfordern: „Diese KI-generierte Nachricht wird Ihnen vom Sam Jones for Congress Committee gesendet, weil Clogger vorhergesagt hat, dass dadurch Ihre Chancen, für Sam Jones zu stimmen, um 0,0002 % steigen werden.“ Zumindest glauben wir, dass Wähler wissen sollten, wann ein Bot mit ihnen spricht, und sie sollten auch wissen, warum.
Die Möglichkeit eines Systems wie Clogger zeigt, dass der Weg zur kollektiven Entmachtung der Menschheit möglicherweise keiner übermenschlichen künstlichen allgemeinen Intelligenz bedarf. Möglicherweise sind dafür nur übereifrige Aktivisten und Berater erforderlich, die über leistungsstarke neue Tools verfügen, mit denen sie die vielen Knöpfe von Millionen von Menschen wirksam betätigen können.
Dies ist ein Meinungs- und Analyseartikel, und die vom Autor oder den Autoren geäußerten Ansichten stimmen nicht unbedingt mit denen von Scientific American überein.
Dieser Artikel wurde ursprünglich auf The Conversation veröffentlicht. Lesen Sie den Originalartikel.
Archon Fungist Winthrop-Laflin-McCormack-Professor für Staatsbürgerschaft und Demokratie an der Kennedy School of Government der Harvard University.
Lawrence Lessigist Roy L. Furman-Professor für Rechtswissenschaften an der Harvard Law School.
Rina Diane Caballar
Archon Fung, Lawrence Lessig und The Conversation US
Clara Moskowitz
Flora Lichtmann
Lauren J. Young
Luke Taylor und das Nature-Magazin
Archon Fung Lawrence Lessig