Site icon NNews

OpenAI випустила GPT-4 — наступне покоління мовної моделі ШІ

OpenAI випустила GPT-4 — наступне покоління мовної моделі ШІ

OpenAI випустила GPT-4 — наступне покоління мовної моделі ШІ

Світ вже кілька місяців активно використовує ChatGPT, заснований на попередній версії мовної моделі OpenAI — оновлення зможе усунути недоліки в роботі чатбота, сподіваємось і ті, що стосувалися надання оманливих чи помилкових відповідей.

Компанія стверджує, що GPT-4 — «креативніша» і може розв’язувати складні завдання із більшою точністю завдяки розширеним загальним знанням. Мовна модель може аналізувати навіть зображення, однак відповідатиме лише за допомогою тексту.

OpenAI вже співпрацює з низкою компаній, які планують інтегрувати GPT-4 у власні продукти — це електронна платформа вивчення мов Duolingo; компанія Stripe, що розробляє рішення для електронних платежів; освітня організація Khan Academy. Нова модель доступна для широкого загалу через ChatGPT Plus — передплату на ChatGPT від $20 на місяць, а її API згодом опублікують для розробників (тут можна записатись у список очікування).

Генеральний директор OpenAI Сем Альтман написав у Twitter, що GPT-4 «все ще має недоліки та все ще обмежений».

Однак покращення, кажуть в компанії, можна побачити за результатами тестів, включно з LSAT (вступний тест для майбутніх юристів), SAT Math (тест з математики) й SAT Evidence-Based Reading & Writing (іспити з читання та письма). У згаданих тестах GPT-4 набрав 88% і вище, повний список іспитів і бали системи можна переглянути тут.

Протягом останнього року було багато спекуляцій щодо GPT-4 та його можливостей, багато хто припускав, що це буде величезний прогрес у порівнянні з попередніми системами. Однак, судячи з оголошення OpenAI, покращення не надто значні.

«Люди хочуть розчарування і вони його отримають», — сказав Альтман в інтерв’ю про GPT-4 у січні.

Чутки ще більше пожвавилися після того, як керівник Microsoft обмовився, що система буде запущена цього тижня. Він припустив, що система буде мультимодальною, тобто здатною генерувати не лише текст, а й аудіо чи відео.

GPT-4 справді мультимодальна, але це відображається у функції сприйняття, а не відтворення. Компанія каже, що здатність моделі аналізувати текст і зображення одночасно дозволяє їй інтерпретувати складніші вхідні дані.

Нова версія також може приймати та створювати довші записи — до 25 000 слів.

Очікувано, легкий доступ до ШІ-технологій не обійшовся без проблем — система освіти намагається адаптуватися до програмного забезпечення, яке пиши тексти, схожі на людські; онлайн-сайти, такі як Stack Overflow і науково-фантастичний журнал Clarkesworld, були змушені закрити подання матеріалів через наплив контенту, створеного ШІ; і раннє використання інструментів ШІ в журналістиці також було не дуже простим.

Джерело: sundries.com.ua

Exit mobile version