Під час операцій “Двійник” і “Погана граматика” росіяни намагалися позбавити Україну партнерської підтримки, створюючи контент за допомогою нейронних мереж.
Суб’єкти, пов’язані з Росією, Китаєм, Іраном та Ізраїлем, використовують інструменти штучного інтелекту від OpenAI для створення та поширення дезінформації, в тому числі про війну в Україні, пише Financial Times.
У звіті OpenAI йдеться про те, що їхні моделі штучного інтелекту були використані в п’яти операціях прихованого впливу. Контент стосувався війни в Україні, конфлікту в секторі Газа, виборів в Індії, а також політики в Європі, США та Китаї. ШІ також використовувався для підвищення продуктивності, зокрема для налагодження коду та дослідження активності в соціальних мережах.
Російська операція “Доппельгангер” була спрямована на підрив підтримки України, а операція “Погана граматика” використовувала моделі OpenAI для налагодження коду для запуску бота Telegram та створення коротких коментарів на політичні теми для поширення в Telegram.
Китайська мережа Spamflag використовувала інструменти OpenAI для створення текстів і коментарів у соціальній мережі X, просуваючи інтереси Пекіна за кордоном. Ізраїльська компанія STOIC використовувала АІ для створення статей і коментарів в Instagram, Facebook і X.
Політика OpenAI забороняє використовувати свої моделі для обману або введення в оману. У компанії заявили, що працюють над виявленням дезінформаційних кампаній і створенням інструментів для боротьби з ними. Представники OpenAI зазначили, що вони вже ускладнили роботу зловмисникам і їхні моделі неодноразово відмовлялися генерувати запитуваний контент.
Головний дослідник відділу розвідки й розслідувань OpenAI Бен Німмо наголосив, що використання моделей OpenAI у дезінформаційних кампаніях “незначно” зросло, але історія показує, що операції впливу можуть раптово активізуватися, якщо їх ніхто не шукає.
Джерело: sundries.com.ua