Google попередив про нову хвилю AI-кібератак

Google заявив про першу AI-розроблену zero-day атаку: хакери вже тестують “автономне” шкідливе ПЗ.

Google повідомив про випадок, який може стати першим підтвердженим прикладом використання штучного інтелекту для створення zero-day експлойту. За даними компанії, хакери намагалися використати невідому раніше вразливість для обходу двофакторної автентифікації у популярному веб-інструменті адміністрування.

Про це повідомляє NNews із посиланням на Google та звіт Google Threat Intelligence Group (GTIG).

За словами дослідників, атаку вдалося зупинити ще до початку масового використання. Але сам факт появи AI-згенерованого експлойту вже називають новим етапом розвитку кіберзагроз.

AI допоміг знайти “логічну” помилку, а не класичний баг

У Google пояснили, що цього разу йшлося не про типову помилку на кшталт переповнення пам’яті чи неправильної перевірки даних. Хакери атакували так звану “semantic logic flaw” — складну логічну вразливість у роботі системи.

Читайте також:  Google тестує електронний підпис у «Документах» та «Диску»

Саме тут сучасні мовні моделі можуть виявитися особливо небезпечними. Вони здатні аналізувати взаємозв’язки всередині програмної логіки та помічати слабкі місця, які люди роками не бачать.

У GTIG заявили, що код експлойту мав кілька ознак AI-генерації:

  • “навчальні” docstrings;
  • вигаданий CVSS-рейтинг;
  • надто “підручниковий” стиль Python-коду.

Фахівці вважають, що зловмисники, ймовірно, використовували LLM-модель для пошуку та підготовки атаки.

Хакери вже обходять захист AI-систем

У звіті також згадуються групи, пов’язані з Китаєм, Росією та Північною Кореєю. Дослідники помітили, що вони активно експериментують із AI для:

  • аналізу прошивок;
  • пошуку RCE-вразливостей;
  • автоматизації фішингових кампаній;
  • створення шкідливого ПЗ.

Один із методів — “рольова інженерія”. Хакери змушують AI “повірити”, що він працює як експерт із кібербезпеки або дослідник мережевого обладнання, щоб обійти обмеження безпеки моделей.

Читайте також:  Motorola Razr 40 Ultra: понад 10 000 одиниць продано під час першого продажу

Google попереджає про появу “автономного” malware

Окрему увагу компанія приділила Android-шкіднику PROMPTSPY. За даними Google, бекдор використовував API Google Gemini для аналізу інтерфейсу смартфона та імітації дій користувача.

Фактично malware міг:

  • розпізнавати елементи екрана;
  • натискати кнопки;
  • виконувати свайпи;
  • відтворювати PIN-жести.

Це вже наближає шкідливе ПЗ до автономної поведінки без постійного контролю людини.

Чому це важливо

AI суттєво знижує поріг входу для кіберзлочинців. Якщо раніше створення складного експлойту вимагало команди досвідчених фахівців, тепер частину роботи можуть виконувати генеративні моделі.

При цьому загроза полягає не лише у швидкості атак. AI також допомагає:

  • маскувати malware під легітимний код;
  • автоматизувати зломи;
  • масштабувати фішингові кампанії;
  • шукати нові вразливості значно швидше.

Google вже відповідає власними AI-інструментами захисту — Big Sleep та CodeMender, які автоматично шукають і виправляють потенційні вразливості.

Читайте також:  Raytheon розробила унікальний підводний дрон Barracuda для боротьби з морськими мінами

Цікавий факт

У GTIG заявили, що деякі шкідливі програми вже містять спеціально згенерований AI “сміттєвий код”. Його додають не для роботи malware, а щоб заплутати антивіруси та системи аналізу.