OpenAI odkryło, że jego technologia wykorzystywana była w rosyjskich i chińskich kampaniach propagandowych

SAN FRANCISCO — OpenAI, twórca ChatGBT, powiedział w czwartek, że oskarżył grupy w Rosji, Chinach, Iranie i Izraelu o próby wpływania na dyskurs polityczny na całym świecie za pomocą jego technologii, podkreślając obawy, że tworzenie sztucznej inteligencji ułatwia ukrytą propagandę aktorów państwowych. Kampanie w obliczu zbliżających się wyborów prezydenckich w 2024 r.

OpenAI usunął konta powiązane ze znaną działalnością propagandową w Rosji, Chinach i Iranie; Izraelska Agencja ds. Kampanii Politycznych; Nieznana wcześniej grupa, która pojawiła się w Rosji, badacze z instytutu nazwali „złą gramatyką”. Zespoły korzystają z technologii OpenAI do pisania postów, tłumaczenia ich na różne języki i tworzenia oprogramowania do automatycznego publikowania postów w mediach społecznościowych.

Żadnej z tych grup nie udało się zyskać większego rozgłosu; Powiązane z nimi konta w mediach społecznościowych dotarły do ​​niektórych użytkowników Kilku naśladowców, powiedział Ben Nimmo, główny analityk w grupie Intelligence and Investigations Group OpenAI. Jednak raport OpenAI pokazuje, że działacze, którzy od lat są aktywni w mediach społecznościowych, wykorzystują technologię AI do wzmocnienia swoich kampanii.

„Widzieliśmy, jak generowali tekst o większej objętości i z mniejszą liczbą błędów niż w przypadku tradycyjnych operacji” – powiedział podczas odprawy z reporterami Nimmo, który wcześniej pracował nad operacjami z udziałem osób wpływających na metaśledzenie. Nimmo powiedział, że inne grupy mogą korzystać z narzędzi OpenAI bez wiedzy firmy.

„To nie czas na samozadowolenie. Historia pokazała, że ​​działania influencerów, które przez lata prowadziły donikąd, mogą nagle eksplodować, jeśli nikt ich nie szuka” – stwierdził.

Rządy, partie polityczne i grupy aktywistów od lat wykorzystują media społecznościowe do wywierania wpływu na politykę. Po obawach dotyczących wpływów Rosji na wybory prezydenckie w 2016 r. platformy mediów społecznościowych zaczęły bliżej przyglądać się sposobom, w jaki ich platformy są wykorzystywane do wpływania na wyborców. Firmy na ogół uniemożliwiają rządom i grupom politycznym ukrywanie wspólnych wysiłków mających na celu wywarcie wpływu na użytkowników i wymagają, aby reklamy polityczne ujawniały, kto za nie zapłacił.

READ  Sprawy o zabójstwo kobiety z Teksasu aresztowanej w związku z aborcją zostały wycofane

Badacze zajmujący się dezinformacją wyrazili obawy, że w miarę upowszechniania się narzędzi sztucznej inteligencji, które mogą generować realistyczny tekst, obrazy i wideo, coraz trudniej będzie wykryć dezinformację lub ukryte działania mające na celu wywieranie wpływu w Internecie i reagować na nie. W tym roku miliony ludzi głosują w wyborach na całym świecie, a deepfake sztucznej inteligencji już się rozprzestrzeniły.

OpenAI, Google i inne firmy zajmujące się sztuczną inteligencją pracują nad technologią identyfikującą głębokie podróbki wykonane za pomocą własnych narzędzi, ale technologia ta nie została jeszcze udowodniona. Niektórzy eksperci AI uważają, że wykrywacze deepfake nie są całkowicie skuteczne.

Na początku tego roku grupa powiązana z Komunistyczną Partią Chin rzekomo poparła dźwięk generowany przez sztuczną inteligencję przedstawiający jednego kandydata startującego w tajwańskich wyborach zamiast innego. Jednak polityk, właściciel Foxconna Terry Coe, nie poparł drugiego polityka.

W styczniu wyborcy w prawyborach w New Hampshire otrzymali automatyczne połączenie telefoniczne, które rzekomo pochodziło od prezydenta Bidena, ale wkrótce zostało zidentyfikowane jako sztuczna inteligencja. W zeszłym tygodniu Demokrata, który twierdził, że obsługiwał automatyczne połączenie telefoniczne, został oskarżony o tłumienie głosów wyborców i podszywanie się pod kandydatów.

Raport OpenAI szczegółowo opisuje, w jaki sposób pięć grup wykorzystało technologię firmy, próbując wpłynąć na jej działalność. Spamouflage, grupa wywodząca się wcześniej z Chin, wykorzystywała technologię OpenAI do analizowania aktywności w mediach społecznościowych i pisania postów w języku chińskim, koreańskim, japońskim i angielskim – podała firma. Irańska grupa o nazwie International Union of Virtual Media również wykorzystała technologię OpenAI do tworzenia artykułów publikowanych na swojej stronie.

Nieznana wcześniej grupa Bad Grammar wykorzystała technologię OpenAI do stworzenia programu, który może automatycznie wysyłać posty do aplikacji do przesyłania wiadomości Telegram. Następnie Bad Grammar wykorzystał technologię OpenAI do wygenerowania postów i Według raportu w języku rosyjskim i angielskim argumentuje się, że Stany Zjednoczone nie powinny wspierać Ukrainy.

READ  Aktualizacja kontuzji Patricka Mahomesa: Chiefs QB rozpoczyna drugą połowę po skręceniu kostki w meczu z Jaguarami

Z raportu wynika, że ​​izraelska firma Stoic zajmująca się prowadzeniem kampanii politycznej wykorzystywała OpenAI do tworzenia proizraelskich postów na temat wojny w Gazie i była skierowana do osób w Kanadzie, Stanach Zjednoczonych i Izraelu – podaje OpenAI. W środę właścicielka Facebooka, Meta, również zachwalała pracę Stoicka, twierdząc, że usunęła 510 kont na Facebooku i 32 konta na Instagramie, z których korzystała grupa. Firma powiedziała reporterom, że niektóre konta zostały zhakowane, a inne były kontami fikcyjnych osób.

Relacje, o których mowa, często komentują strony znanych osób lub mediów, które pokazują proizraelskich amerykańskich studentów, Afroamerykanów i nie tylko. W komentarzach wspierano izraelskie wojsko i ostrzegano Kanadyjczyków, że „radykalny islam” zagraża tamtejszym wartościom liberalnym, stwierdziła Meta.

Sztuczna inteligencja zareagowała na treść niektórych komentarzy, które dla prawdziwych użytkowników Facebooka były dziwne i wyrwane z kontekstu. Firma stwierdziła, że ​​wyniki były słabe i przyciągnęły jedynie około 2600 legalnych obserwujących.

META działa po laboratorium badawczym Digital Forensics Research Lab należącym do Rady Atlantyckiej został odkryty Sieć, realizując podobne działania zidentyfikowane przez innych badaczy i publikacje.

W zeszłym roku badacze dezinformacji zasugerowali, że chatboty AI mogą prowadzić długie, szczegółowe rozmowy w Internecie z konkretnymi osobami, próbując nakłonić je w określonym kierunku. Narzędzia AI mogą przetwarzać duże ilości danych o poszczególnych osobach i wysyłać do nich wiadomości bezpośrednio.

Nimmo powiedział, że OpenAI nie zidentyfikowało żadnych nowatorskich zastosowań sztucznej inteligencji. „To raczej ewolucja niż rewolucja” – stwierdził. „Nie ma mowy o tym, że nie zobaczymy tego w przyszłości”.

Joseph Menn przyczynił się do powstania tego raportu.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *