OpenAI ujawnia chińską operację wpływu prowadzoną przez ChatGPT. „Cyfrowy dziennik” zdradził skalę działań

Zespół ds. threat intelligence OpenAI wykrył konto wykorzystywane do dokumentowania „operacji specjalnych” przeciwko dysydentom i zagranicznym politykom. Sprawa pokazuje, jak AI może zostać wpięta w przemysłową machinę represji online.

Według raportu OpenAI jedno z kont w ChatGPT, dziś już zablokowane, służyło jako operacyjny notatnik. Użytkownik zapisywał cele, taktyki i postępy działań wymierzonych w krytyków władz w Pekinie. Te logi powiązano z realną aktywnością tysięcy fałszywych kont w mediach społecznościowych.

Operacja obejmowała setki operatorów i tysiące nieautentycznych profili publikujących w różnych językach. Stosowano masowe zgłoszenia do moderacji, fałszywe dokumenty rzekomo pochodzące z amerykańskich instytucji, a nawet spreparowane nekrologi. Jedną z ofiar był Jie Lijian, wobec którego rozpowszechniano informacje o rzekomej śmierci.

Próba uderzenia w japońską premier

To samo konto próbowało wygenerować plan dyskredytacji premier Sanae Takaichi po jej krytyce Pekinu. ChatGPT odmówił stworzenia strategii dezinformacyjnej. Z późniejszych wpisów wynika jednak, że działania kontynuowano z użyciem innych narzędzi, w tym modeli takich jak DeepSeek.

Powiązane hashtagi zaczęły pojawiać się na X, Pixiv i Blogger, ale nie zdobyły większego zasięgu. Japońscy analitycy wskazywali jednocześnie na szerszą operację dezinformacyjną w trakcie kampanii wyborczej.

AI w operacjach wpływu

To przykład transnarodowej represji w wersji cyfrowej. AI obniża koszt takich działań, pozwala skalować nękanie i prowadzić równoległe kampanie wobec wielu celów.

Z perspektywy cyberbezpieczeństwa widać, że modele językowe stają się elementem infrastruktury państwowej. Nie tylko do obrony i moderacji, ale też do operacji wpływu i presji informacyjnej.


Źródło:
OpenAI