Microsoft прямо попереджає користувачів: Copilot — це «розважальний інструмент», який може помилятися. Не варто покладатися на нього для важливих рішень, попри маркетинг як бізнес-асистента.
У оновлених умовах використання Copilot, які востаннє змінювали 24 жовтня 2025 року, Microsoft зазначає: «Copilot — для розваг. Він може робити помилки та не завжди працювати належним чином. Не покладайтеся на нього для важливих порад. Використовуйте на власний ризик».
Представник компанії повідомив PCMag, що це «легасі-повідомлення», яке не відповідає нинішньому використанню Copilot, і буде оновлено найближчим часом.
Подібні попередження використовують і інші AI-компанії. OpenAI радить не розглядати свої моделі як «єдине джерело істини», а xAI попереджає, що результати не завжди правдиві.
Чому це важливо
Попередження Microsoft підкреслює, що навіть великі корпорації не гарантують точності AI. Бізнес і користувачі повинні оцінювати ризики перед використанням моделей для серйозних рішень.
Цікаво
Попри такі попередження, Microsoft активно просуває Copilot серед корпоративних клієнтів, позиціонуючи його як помічника для бізнес-процесів. Це створює напруження між маркетингом і реальністю.
