Шахраї клонують голоси через ШІ: як захиститися вже зараз

Кіберполіція попереджає про нову хвилю шахрайства — зловмисники почали використовувати штучний інтелект для клонування голосу. Достатньо короткого аудіо, щоб створити переконливу підробку, яка звучить як реальна людина.

Про це повідомляє NNews із посиланням на Кіберполіцію України.

Як працює нова схема

Поштовхом до ризиків стали нові інструменти на кшталт функції Custom Voices від xAI, яка дозволяє відтворювати голос людини за коротким записом.

Шахраї можуть брати аудіо з відкритих джерел — відео, сторіз або записів у соцмережах — і «навчати» нейромережу. У результаті створюється голос, який практично неможливо відрізнити від справжнього.

Найпоширеніший сценарій

Зловмисник телефонує або надсилає голосове повідомлення, представляючись родичем чи знайомим. Далі — класичний тиск:

  • «Мені терміново потрібні гроші»
  • «Я в лікарні / поліції»
  • «Не маю часу пояснювати»
Читайте також:  Постачальник дисплеїв для Samsung та LG припиняє розробку матеріалів для РК-дисплеїв

Головна ставка — на емоції та паніку. Людина діє швидко і не перевіряє інформацію.

Як захиститися: прості, але ефективні правила

Кіберполіція радить базові дії, які реально працюють:

1. Домовтеся про “секретне слово”
Це пароль, який знають лише близькі. Якщо його не можуть назвати — це сигнал тривоги.

2. Ставте контрольні питання
Наприклад, те, що не можна знайти в соцмережах.

3. Перевіряйте через інший канал
Завжди передзвонюйте самостійно на звичайний номер.

4. Не поспішайте
Саме поспіх — головний інструмент шахраїв.

Чому це стає проблемою зараз

Технології клонування голосу різко спростилися. Якщо раніше для цього потрібні були години записів і складне обладнання, сьогодні достатньо кількох секунд чистого аудіо.

Це означає, що майже кожен активний користувач соцмереж потенційно вразливий.

Читайте також:  Україна запускає супутниковий зв’язок Starlink Direct to Cell — навіть без мобільного покриття

Що це означає для користувачів

  • Відео з відкритим голосом — це вже не лише контент, а й потенційний ризик
  • Телефонний дзвінок більше не гарантує, що ви говорите з реальною людиною
  • Довіра до голосу більше не є безумовною

Цікавий факт

Сучасні моделі ШІ здатні не лише копіювати голос, а й відтворювати інтонацію, емоції та манеру мовлення — саме це робить підробку особливо переконливою.

Чому це важливо

Клонування голосу — це новий етап шахрайства, де психологія поєднується з технологіями. Простих правил безпеки вже недостатньо — потрібна цифрова пильність і нові звички перевірки інформації.