sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Technologie und Gesellschaft Medien und Gesellschaft Klima und Wandel
Irgendwas mit Medien seit 1996, Typograph, Grafiker, Blogger. Ask me anything.
Ein vor kurzem veröffentlichter wissenschaftlicher Aufsatz stellte ein neues Framework für eine Ethik für AI-Modelle vor, die Personen immitieren können. In diesem Paper gingen die Wissenschaftler vor allem von den sogenannten mimetischen AI-Modellen als persönliche digitale Assistenten aus, die etwa bei der Jobsuche eingesetzt werden und die Persönlichkeit des Anwenders realistisch abbilden können. In einem Piq vor wenigen Tagen ging ich in diesem Kontext auf den Fall eines jüngst verstorbenen Illustrators und dem möglicherweise ersten "Pirate mimetic AI-Model" ein.
Nun haben Lisa P. Argyle et al in einem neuen Paper nachgewiesen, dass Large Language Models wie GPT3 in der Lage sind, das Verhalten, Vorurteile und Ansichten von ganzen Demographien bezüglich anderer Bevölkerungsgruppen realistisch nachzubilden. So konnten sie das AI-Modell auf die Aussagen von simulierten linksliberalen Demokraten konditionieren und so nicht nur realistische Aussagen über Republikaner generieren, sondern auch ihre realistische statistische Verteilung innerhalb der Gruppe. Dasselbe war selbstverständlich auch mit den Aussagen von konservativen Republikanern und ihren Haltungen gegenüber Demokraten möglich.
Die Wissenschaftler präsentieren diese von ihnen sogenannte "Silicon Sampling"-Methode als eine neue Form des statistischen Modellings für die Sozialforschung und Psychologie (ungeachtet der Tatsache, dass Fehler in statistischem Modelling ein maßgeblicher Grund für die Replikationskrise in den Geisteswissenschaften sind.)
Jack Clark warnt in seinem hervorragenden Newsletter ImportAI nun nicht nur vor neuartigen Replikationsfehlern, sondern auch vor "Full-Spectrum AI-Facilitated Information Warfare". Mir erscheint diese Warnung angebracht, denn erst im größeren Kontext weiterer Trends im AI-Sektor werden die Implikationen dieser neuen Simulationsmöglichkeit ganzer Bevölkerungsgruppen mit realistischen Outputs wirklich klar und die Wissenschaftler erwähnen diese Gefahren in ihrem Paper: Die Simulation von Bevölkerungsgruppen in Large Language Models öffnet die Tore für neuartige Methoden für Desinformationskampagnen, Manipulation und Betrug.
Mit dem Einzug von Open Source AI-Modellen wie Bloom oder Stable Diffusion stehen diese AI-Simulationen ganzer Demographien morgen nicht nur einer handvoll hochversierter Spezialisten in den Universitäten und Hightech-Konzernen zur Verfügung, sondern jedem Coder, Hacker und Troll, die, ausreichende Python-Skills vorausgesetzt, eine Simulation der politischen Äußerungen eines ganzen Landes simulieren können.
Die Desinformations-Forscherin Renee DiResta hat in einem hellsichtigen Text bereits vor zwei Jahren vor unendlich verfügbaren Falschmeldungen gewarnt und während der tatsächliche Impact von Desinformation und Social Bots fraglich bleibt -- siehe die hervorragende Arbeit von Michael Kreill in diesem Paper und in diesem Vortrag beim 34c3 -- so kann dennoch kein Zweifel daran bestehen, dass die Simulation des Verhaltens ganzer Bevölkerungsgruppen bereits heute Statistiken verfälschen und die Illusion von Engagement erzeugen kann, die wiederum Entscheidungen in Wirtschaft und Politik beeinflussen.
Ich sehe keinen Grund, warum nicht schon sehr bald ein technisch versierter Troll auf 4chan mit Hilfe einer Pipeline aus statistischen Datensets, GPT3 und Social Media einen hochviralen Shitstorm inklusive aller Resentiments gegenüber der jeweiligen Outgroup in einem bereits von Krisen erschütterten Land simulieren kann, der wiederum in Real Life Riots und Aufständen resultiert. Das Open Source-Prinzip wird hier im Zusammenspiel mit "misaligned" Artificial Intelligence-Technologien, also künstlichen Intelligenzen, die nicht an den Zielen und Werten der Menschheit ausgerichtet wurde, zum Problem. Das zeigten bereits die zahlreichen ethischen Fragen, die von Bildgeneratoren ausgeworfen wurden, die auf dem Open Source-Model Stable Diffusion basieren.
Die heutigen Sockpuppet-Accounts von orchestrierten Desinformationskampagnen sind die Zerg Rush Attacks dutzender mimetischer AI-Modelle von morgen, trainiert mit Open Source Code auf den Äußerungen hochpolarisierter Bevölkerungsgruppen. Der Impact dieser simulierten Informationskriege auf die tatsächlichen Meinungen und Haltungen der Menschen mag dann immer noch fragwürdig sein, aber es wird ganz sicher ein interessanter Anblick.
Quelle: Lisa P. Argyle et al Bild: Stable Diffusion/... EN arxiv.org
Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.