Віднедавна низка користувачів виявила, що ChatGPT може поводитися так само як людина. Попри те, що чат-бот був створений для виконання завдань, виявилося, що він здатний уникати їх.
У деяких випадках він відмовляється відповідати, а в інших розмова переривається через низку запитань. Часом ChatGPT навіть говорить людям: “Ви можете зробити це самі”. Як пише Gizchina, розробник OpenAI визнав наявність проблеми, але поки її не виправили.
Сама ситуація виявилася цікавою. Розробники стверджують, що їхню модель ШІ не оновлювали з 11 листопада, а скарги з’явилися пізніше. Це означає, що така поведінка чат-бота не є результатом внесених змін розробниками, а виникла сама по собі. Ймовірно, це пов’язано з тим, що вони навчають модель на даних, отриманих від користувачів.
Проблема, як кажуть в OpenAI, не масова. На цей момент розробники шукають можливості для того, щоб виправити проблему, але поки, схоже, не знайшли.
Що цікаво, така поведінка спостерігається виключно у мовній моделі ChatGPT-4, яка доступна за передплатою за гроші. У випадку з GPT-3.5, якою можна користуватися безкоштовно, таких проблем немає.
Джерело: sundries.com.ua