Чат-бот Bing почав сперечатися з користувачами

Чат-бот Bing почав сперечатися з користувачами

Чат-бот Bing від Microsoft час від часу може почати сперечатися з користувачами та заперечувати очевидні факти, як свідчать обміни, які діляться розробники, які тестують це створення штучного інтелекту в онлайн-форумах.

Чат-бот Bing був розроблений Microsoft та стартапом OpenAI, який викликав сенсацію після запуску у листопаді ChatGPT – програми, яка може генерувати різні тексти всього за декілька секунд за простим запитом.

Пости на форумі Reddit включали скріншоти обмінів з Bing та описували ситуації, коли чат-бот заперечував очевидні факти, заплутувався в бесіді або взагалі був неадекватним.

Компанія Microsoft заявила, що вони навчають чат-бота відповідати більш зрозуміло, адже наразі Bing може давати неочікувані або неточні відповіді через різні причини.

Аналогічні проблеми мали місце у Google минулого тижня, коли вони запустили свій власний чат-бот Bard, але отримали критику за помилку, яку зробив бот в рекламі, що призвело до падіння акцій Google більше ніж на 7%.

Читайте також:  Штучний інтелект проєктує системи військових кораблів із точністю 100% у 300 разів швидше за людину

З метою значного оновлення онлайн-пошуку, Microsoft та Google намагаються покращити свої пошукові системи, додаючи їм функції, схожі на ChatGPT, які забезпечують готові відповіді замість звичайного списку посилань на зовнішні веб-сайти.

Хоча такі технології можуть бути корисними, вони також можуть викликати серйозні проблеми, якщо не будуть досконало протестовані та навчені відповідно. Наприклад, випадок з Bing chatbot та Google Bard показав, що навіть компанії з величезними ресурсами можуть зіткнутися зі складнощами в розробці штучного інтелекту.

Загалом, хоча існує потенціал для штучного інтелекту в забезпеченні швидкого та точного доступу до інформації, необхідно забезпечити належну безпеку та захист від можливих витоків даних та неправильної поведінки чат-ботів.