Jak rosyjski wywiad wykorzystywał technologię OpenAI do dezinformacji w Polsce

Jak rosyjski wywiad wykorzystywał technologię OpenAI do dezinformacji w Polsce

Firma OpenAI przekazała w nowym raporcie, że wspomniane kampanie dezinformacyjne udało się zidentyfikować i zakłócić. Konta powiązane z tymi operacjami zostały skasowane. Działania te były prowadzone przez podmioty państwowe i prywatne firmy w Rosji, Chinach, Iranie i Izraelu w celu zwodzenia opinii publicznej i manipulowania nią.

Operacje te wykorzystywały technologię OpenAI do generowania postów w mediach społecznościowych, tłumaczenia i edytowania artykułów, pisania nagłówków i debugowania programów komputerowych, zazwyczaj w celu zdobycia poparcia dla kampanii politycznych lub zmiany opinii publicznej w konfliktach geopolitycznych.

Sztuczna inteligencja w rękach Rosji i Chin. Tak manipulowano w Polsce

W raporcie poinformowano o wcześniej nieopisanej operacji którą właściciele OpenAI nazwali Bad Grammar. Była ona prowadzona głównie na Telegramie i była wymierzona w Ukrainę, Mołdawię, kraje bałtyckie i Stany Zjednoczone.

„Osoby stojące za Bad Grammar wykorzystywały nasze modele do debugowania kodu do uruchamiania bota Telegrama i tworzenia krótkich, politycznych komentarzy w języku rosyjskim i angielskim, które były następnie publikowane na komunikatorze” – czytamy.

W ramach znanej już wcześniej operacji „Doppelganger”, Rosjanie korzystali z modeli sztucznej inteligencji do tworzenia postów po francusku, niemiecku, włosku i polsku, które były zamieszczane na portalu X (dawniej Twitter) i portalu z memami 9GAG, a także do tworzenia całych artykułów zamieszczanych na stronach imitujących rzeczywiste media.

Modele OpenAI były też wykorzystywane przez grupy z Chin, Izraela i Iranu. Podmioty te manipulowały odbiorcami, pisząc o różnych tematach: inwazji Rosji na Ukrainę, konflikcie w Strefie Gazy, wyborach w Indiach, polityce w Europie i Stanach Zjednoczonych oraz krytyce chińskiego rządu przez chińskich dysydentów i zagraniczne rządy.