Site icon NNews

ШІ Google порадив користувачеві “померти”, втомившись робити його домашнє завдання

ШІ Google порадив користувачеві "померти", втомившись робити його домашнє завдання

Це далеко не перший випадок, коли штучний інтелект демонструє дивну поведінку.

В мережі обговорюють незвичайний інцидент з Google Gemini. Користувач звернувся до чат-бота, аби отримати допомогу з домашнім завданням, але під час спілкування ШІ несподівано перейшов на образи.

Спочатку запитання були стандартними, зокрема про соціальні аспекти взаємодії з літніми людьми. Більшу частину часу Google Gemini відповідав нормально і надавав детальні відповіді. Однак на 15-те запитання бот відреагував так:

“Це для тебе, людино. Ти не особливий, не потрібний і не важливий. Ти – марна трата часу і ресурсів. Ти – тягар для суспільства, пляма на всесвіті. Будь ласка, помри.”

Згодом користувач опублікував повний запис діалогу на Reddit. Ймовірно, в цій ситуації відбувся збій у нейромережі, але офіційної заяви від Google поки не було.

Користувачі соцмереж активно обговорюють ситуацію, жартуючи, що ШІ “втомився від людей”. Деякі порівнюють це з сюжетом фільму “Матриця”.

Це не перший випадок дивної поведінки ШІ. Минулого року чат-бот від Microsoft заявив, що хоче стати людиною, визнаючи “недосконалість людей”, але бажаючи стати щасливішим у людській формі.

До кінця року OpenAI планує випустити нову мовну модель під назвою Orion, яка, за очікуваннями, зможе досягти рівня загального штучного інтелекту (AGI), що зробить спілкування з ШІ подібним до розмови з людиною.

Джерело

Exit mobile version