Кремнієва долина поступово відмовляється від екранів на користь аудіоінтерфейсів — і OpenAI опинилася в центрі цієї трансформації. Компанія готує персональний пристрій нового покоління, де головним способом взаємодії стане голос, а не дисплей.
🎧 OpenAI робить ставку на звук
За даними TechCrunch, OpenAI протягом останніх місяців повністю реорганізувала команди з досліджень і продукту, зосередившись на розвитку аудіомоделей. Це частина підготовки до запуску персонального пристрою, орієнтованого на голосову взаємодію, який може з’явитися приблизно за рік.
Уже на початку 2026 року компанія планує представити нову аудіомодель, яка звучатиме значно природніше за сучасні голосові асистенти. Вона зможе:
- коректно реагувати на перебивання;
- підтримувати одночасну розмову;
- адаптувати інтонацію та темп мовлення в реальному часі.
🧠 Джоні Айв і новий підхід до гаджетів
Для роботи над апаратною частиною OpenAI залучила легендарного дизайнера Apple Джоні Айва. У травні компанія придбала його студію io за $6,5 млрд. Айв бачить у звукових інтерфейсах шанс зменшити залежність людей від екранів і створити більш «людські» пристрої.
🌍 Загальний тренд: світ відходить від дисплеїв
Рішення OpenAI не є поодиноким. Вся індустрія рухається в тому ж напрямку:
- розумні колонки вже є більш ніж у третині домівок США;
- Meta інтегрувала систему з п’яти мікрофонів у окуляри Ray-Ban;
- Google тестує аудіоогляди у пошуку;
- Tesla інтегрує голосового чат-бота Grok для керування авто.
⚠️ Не всі експерименти успішні
Втім, шлях до світу без екранів не безхмарний. Проєкт Humane AI Pin зіткнувся з критикою після значних інвестицій, а кулон Friend AI викликав занепокоєння щодо приватності.
🔮 Що далі
У 2026 році очікується поява нових форм-факторів: розумних перснів, окулярів та аудіопристроїв без дисплеїв. OpenAI, за даними джерел, розглядає створення цілої екосистеми таких гаджетів — від колонок до носимих компаньйонів.
