OpenAI ujawnia, jak hakerzy z Rosji, Korei Północnej i Chin wykorzystywali ChatGPT w cyberatakach
OpenAI pokazuje, że ChatGPT był wykorzystywany przez hakerów z Rosji, Korei Północnej i Chin do rozwoju narzędzi cyberataków i phishingu

OpenAI ujawniło, że zablokowało konta powiązane z grupami z Rosji, Korei Północnej i Chin, które próbowały wykorzystać ChatGPT do rozwoju złośliwego oprogramowania i kampanii phishingowych.
Według raportu firma wykryła trzy główne „klastry aktywności”:
1. Rosyjski aktor używał ChatGPT do tworzenia i ulepszania trojana zdalnego dostępu (RAT) oraz narzędzi do kradzieży danych uwierzytelniających. Zamiast prosić model o tworzenie gotowego malware, generował fragmenty kodu – np. do obfuskacji, monitorowania schowka czy przesyłania danych przez Telegrama – które później łączył w całość.
2. Grupa z Korei Północnej korzystała z ChatGPT w kampanii powiązanej z Xeno RAT, opisanej wcześniej przez Trellix. AI pomagało im pisać maile phishingowe, konfigurować serwery C2 i tworzyć rozszerzenia dla macOS czy przeglądarek
3. Chińska grupa UNK_DropPitch (UTA0388) wykorzystywała ChatGPT do generowania treści phishingowych w kilku językach oraz automatyzacji zadań, takich jak zdalne wykonywanie poleceń czy ochrona ruchu HTTPS. Ich celem były m.in. firmy z branży półprzewodników w Tajwanie.
OpenAI podkreśla, że modele nie pisały bezpośrednio złośliwego kodu, ale mogły przyspieszyć prace nad narzędziami używanymi w atakach.
Konta do oszustw i operacji wpływu zablokowane
Firma zablokowała też konta wykorzystywane do oszustw inwestycyjnych i operacji wpływu – m.in. z Kambodży, Mjanmy, Nigerii i Chin. Te ostatnie miały używać AI do analizowania danych z mediów społecznościowych i tworzenia materiałów propagandowych.
Eksperci zwracają uwagę, że działania OpenAI można postrzegać jako odpowiedź na konkurencję ze strony firmy Anthropic, która niedawno zaprezentowała Petri – open-source’owe narzędzie do audytu modeli AI. Petri umożliwia analizę zachowań systemów w różnych scenariuszach, w tym w przypadkach oszustw, manipulacji czy współpracy z użytkownikiem w szkodliwych kontekstach.
Źródła:
OpenAI
The Hacker News




