OpenAI ujawnia, jak hakerzy z Rosji, Korei Północnej i Chin wykorzystywali ChatGPT w cyberatakach

OpenAI pokazuje, że ChatGPT był wykorzystywany przez hakerów z Rosji, Korei Północnej i Chin do rozwoju narzędzi cyberataków i phishingu

OpenAI ujawniło, że zablokowało konta powiązane z grupami z Rosji, Korei Północnej i Chin, które próbowały wykorzystać ChatGPT do rozwoju złośliwego oprogramowania i kampanii phishingowych.

Według raportu firma wykryła trzy główne „klastry aktywności”:
1. Rosyjski aktor używał ChatGPT do tworzenia i ulepszania trojana zdalnego dostępu (RAT) oraz narzędzi do kradzieży danych uwierzytelniających. Zamiast prosić model o tworzenie gotowego malware, generował fragmenty kodu – np. do obfuskacji, monitorowania schowka czy przesyłania danych przez Telegrama – które później łączył w całość.

2. Grupa z Korei Północnej korzystała z ChatGPT w kampanii powiązanej z Xeno RAT, opisanej wcześniej przez Trellix. AI pomagało im pisać maile phishingowe, konfigurować serwery C2 i tworzyć rozszerzenia dla macOS czy przeglądarek

3. Chińska grupa UNK_DropPitch (UTA0388) wykorzystywała ChatGPT do generowania treści phishingowych w kilku językach oraz automatyzacji zadań, takich jak zdalne wykonywanie poleceń czy ochrona ruchu HTTPS. Ich celem były m.in. firmy z branży półprzewodników w Tajwanie.

OpenAI podkreśla, że modele nie pisały bezpośrednio złośliwego kodu, ale mogły przyspieszyć prace nad narzędziami używanymi w atakach.

Konta do oszustw i operacji wpływu zablokowane

Firma zablokowała też konta wykorzystywane do oszustw inwestycyjnych i operacji wpływu – m.in. z Kambodży, Mjanmy, Nigerii i Chin. Te ostatnie miały używać AI do analizowania danych z mediów społecznościowych i tworzenia materiałów propagandowych.

Eksperci zwracają uwagę, że działania OpenAI można postrzegać jako odpowiedź na konkurencję ze strony firmy Anthropic, która niedawno zaprezentowała Petri – open-source’owe narzędzie do audytu modeli AI. Petri umożliwia analizę zachowań systemów w różnych scenariuszach, w tym w przypadkach oszustw, manipulacji czy współpracy z użytkownikiem w szkodliwych kontekstach.


Źródła:
OpenAI
The Hacker News