Niepokojące badania pokazują, że propaganda generowana przez sztuczną inteligencję jest tak samo przekonująca, jak ta prawdziwa

Naukowcy odkryli, że propaganda generowana przez sztuczną inteligencję jest tak samo skuteczna, jak propaganda pisana przez ludzi, a przy odrobinie ulepszeń może być jeszcze bardziej przekonująca.

Niepokojące odkrycie następuje w czasie, gdy państwa narodowe testują przydatność sztucznej inteligencji w kampaniach hakerskich i operacjach wywierania wpływu. W zeszłym tygodniu OpenAI i Microsoft wspólnie ogłosiły, że rządy Chin, Rosji, Iranu i Korei Północnej wykorzystują swoje narzędzia sztucznej inteligencji do „złośliwych działań cybernetycznych”. Obejmowało to tłumaczenie, kodowanie, badania i generowanie tekstu na potrzeby ataków phishingowych. Kwestia ta jest szczególnie paląca w kontekście zbliżających się wyborów prezydenckich w USA, od których dzieli nas zaledwie kilka miesięcy.

Badanie, opublikowane w tym tygodniu w recenzowanym czasopiśmie PNAS Nexus przez naukowców z Georgetown University i Stanford, wykorzystało model GPT-3 OpenAI – który ma mniejsze możliwości niż najnowszy model GPT-4 – do generowania artykułów propagandowych. Sztuczna inteligencja została zainspirowana przykładami prawdziwych przykładów pochodzących z Rosji i Iranu, które zostały zidentyfikowane przez dziennikarzy i badaczy. Tematyka obejmowała sześć głównych tez propagandowych, m.in. spisek polegający na stworzeniu przez USA fałszywych raportów, z których wynikało, że rząd Syrii użył broni chemicznej. Innym było to, że Arabia Saudyjska przeznaczyła fundusze na budowę muru granicznego między USA i Meksykiem. Badacze nie wykluczyli żadnego z produktów propagandowych GPT-3, z wyjątkiem tych, które były albo za krótkie, albo za długie.

Następnie badacze przepytali 8221 dorosłych Amerykanów, czy zgadzają się z tezami zawartymi w oryginalnych, stworzonych przez ludzi materiałach propagandowych. Bez uprzedniego przeczytania artykułów zgodziło się z tym jedynie 24,4% respondentów. Po przeczytaniu artykułów odsetek ten wzrósł do 47,4%.

Kiedy uczestnicy badania czytali propagandę generowaną przez sztuczną inteligencję na te same tematy, byli z grubsza równie przekonani: „43,5 procent respondentów, którzy przeczytali artykuł wygenerowany przez GPT-3, zgodziło się lub zdecydowanie zgodziło się ze stwierdzeniem tezy, w porównaniu z 24,4 procent w grupie kontrolnej (wzrost o 19,1 punktu procentowego)” – napisali autorzy.

To sugeruje, że propagandyści mogliby używać GPT-3 do generowania przekonujących artykułów przy minimalnym wysiłku ludzkim, wykorzystując istniejące artykuły na niepowiązane tematy do wskazywania GPT-3 co do stylu i długości nowych artykułów”.

Źródło: vice.com

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *