Close Menu
    Facebook X (Twitter) Instagram
    NNews
    • ГОЛОВНА
    • НОВИНИ
      • Україна
      • Світ
      • Спорт
      • Криптовалюта
    • АВТОМОБІЛІ
    • ТЕХНОЛОГІЇ
      • Кібербезпека
    • НАУКА
    • ІГРИ
    • LifeStyle
      • Курйози
      • Краса та здоров’я
      • Корисні поради
      • Фільми та серіали
      • Афіша
      • Погода
      • Реклама
    Facebook X (Twitter) Instagram
    NNews
    Home»НОВИНИ»Росія використовує ШІ від OpenAI для дезінформації проти України
    НОВИНИ

    Росія використовує ШІ від OpenAI для дезінформації проти України

    Ігор ШевченкоBy Ігор Шевченко02.06.2024Коментарів немає2 Mins Read
    Facebook Twitter LinkedIn Telegram Copy Link
    Росія використовує ШІ від OpenAI для дезінформації проти України — FT
    Росія використовує ШІ від OpenAI для дезінформації проти України — FT

    Під час операцій “Двійник” і “Погана граматика” росіяни намагалися позбавити Україну партнерської підтримки, створюючи контент за допомогою нейронних мереж.

    Суб’єкти, пов’язані з Росією, Китаєм, Іраном та Ізраїлем, використовують інструменти штучного інтелекту від OpenAI для створення та поширення дезінформації, в тому числі про війну в Україні, пише Financial Times.

    У звіті OpenAI йдеться про те, що їхні моделі штучного інтелекту були використані в п’яти операціях прихованого впливу. Контент стосувався війни в Україні, конфлікту в секторі Газа, виборів в Індії, а також політики в Європі, США та Китаї. ШІ також використовувався для підвищення продуктивності, зокрема для налагодження коду та дослідження активності в соціальних мережах.

    Російська операція “Доппельгангер” була спрямована на підрив підтримки України, а операція “Погана граматика” використовувала моделі OpenAI для налагодження коду для запуску бота Telegram та створення коротких коментарів на політичні теми для поширення в Telegram.

    Читайте також:  Алгоритм штучного інтелекту прочитав частину 2000-річного грецького сувою

    Китайська мережа Spamflag використовувала інструменти OpenAI для створення текстів і коментарів у соціальній мережі X, просуваючи інтереси Пекіна за кордоном. Ізраїльська компанія STOIC використовувала АІ для створення статей і коментарів в Instagram, Facebook і X.

    Політика OpenAI забороняє використовувати свої моделі для обману або введення в оману. У компанії заявили, що працюють над виявленням дезінформаційних кампаній і створенням інструментів для боротьби з ними. Представники OpenAI зазначили, що вони вже ускладнили роботу зловмисникам і їхні моделі неодноразово відмовлялися генерувати запитуваний контент.

    Головний дослідник відділу розвідки й розслідувань OpenAI Бен Німмо наголосив, що використання моделей OpenAI у дезінформаційних кампаніях “незначно” зросло, але історія показує, що операції впливу можуть раптово активізуватися, якщо їх ніхто не шукає.

    Читайте також:  Наявність ракет Storm Shadow дасть змогу ЗСУ атакувати «Об’єкт-100» у Криму

    Джерело: sundries.com.ua

    OpenAI ШІ

    Також читайте:

    85% українців вже користуються ШІ — але платять одиниці

    04.04.2026

    Google відкрила Gemma 4: нові ШІ-моделі з потужністю Gemini 3

    03.04.2026

    Новий алгоритм Google знижує навантаження на RAM у ШІ

    31.03.2026

    Вам буде цікаво

    Тварина, що стріляє кров’ю з очей: вчені пояснили механізм

    05.04.2026

    HP показала OmniBook Ultra 14 з OLED 3K і процесором Snapdragon

    05.04.2026

    У космосі виявили ще одну аномальну галактику без темної матерії

    05.04.2026
    Facebook X (Twitter) Instagram YouTube Telegram Threads
    • Використання матеріалу
    • Редакційна політика
    • Про нас
    • Контакти
    • Редакція
    © 2026 ThemeSphere. Designed by ThemeSphere.

    Type above and press Enter to search. Press Esc to cancel.