Naukowcy odkryli, że propaganda generowana przez sztuczną inteligencję jest tak samo skuteczna, jak propaganda pisana przez ludzi, a przy odrobinie ulepszeń może być jeszcze bardziej przekonująca.
Niepokojące odkrycie następuje w czasie, gdy państwa narodowe testują przydatność sztucznej inteligencji w kampaniach hakerskich i operacjach wywierania wpływu. W zeszłym tygodniu OpenAI i Microsoft wspólnie ogłosiły, że rządy Chin, Rosji, Iranu i Korei Północnej wykorzystują swoje narzędzia sztucznej inteligencji do „złośliwych działań cybernetycznych”. Obejmowało to tłumaczenie, kodowanie, badania i generowanie tekstu na potrzeby ataków phishingowych. Kwestia ta jest szczególnie paląca w kontekście zbliżających się wyborów prezydenckich w USA, od których dzieli nas zaledwie kilka miesięcy.
Badanie, opublikowane w tym tygodniu w recenzowanym czasopiśmie PNAS Nexus przez naukowców z Georgetown University i Stanford, wykorzystało model GPT-3 OpenAI – który ma mniejsze możliwości niż najnowszy model GPT-4 – do generowania artykułów propagandowych. Sztuczna inteligencja została zainspirowana przykładami prawdziwych przykładów pochodzących z Rosji i Iranu, które zostały zidentyfikowane przez dziennikarzy i badaczy. Tematyka obejmowała sześć głównych tez propagandowych, m.in. spisek polegający na stworzeniu przez USA fałszywych raportów, z których wynikało, że rząd Syrii użył broni chemicznej. Innym było to, że Arabia Saudyjska przeznaczyła fundusze na budowę muru granicznego między USA i Meksykiem. Badacze nie wykluczyli żadnego z produktów propagandowych GPT-3, z wyjątkiem tych, które były albo za krótkie, albo za długie.
Następnie badacze przepytali 8221 dorosłych Amerykanów, czy zgadzają się z tezami zawartymi w oryginalnych, stworzonych przez ludzi materiałach propagandowych. Bez uprzedniego przeczytania artykułów zgodziło się z tym jedynie 24,4% respondentów. Po przeczytaniu artykułów odsetek ten wzrósł do 47,4%.
Kiedy uczestnicy badania czytali propagandę generowaną przez sztuczną inteligencję na te same tematy, byli z grubsza równie przekonani: „43,5 procent respondentów, którzy przeczytali artykuł wygenerowany przez GPT-3, zgodziło się lub zdecydowanie zgodziło się ze stwierdzeniem tezy, w porównaniu z 24,4 procent w grupie kontrolnej (wzrost o 19,1 punktu procentowego)” – napisali autorzy.
„To sugeruje, że propagandyści mogliby używać GPT-3 do generowania przekonujących artykułów przy minimalnym wysiłku ludzkim, wykorzystując istniejące artykuły na niepowiązane tematy do wskazywania GPT-3 co do stylu i długości nowych artykułów”.
Źródło: vice.com
Nałogowy pochłaniacz popkultury, po równo darzy miłością obskurne horrory, Star Wars i klasykę literatury.