Google представила нове покоління відкритих моделей штучного інтелекту — Gemma 4, створених на базі Gemini 3. Вони підтримують відео, аудіо та код і можуть працювати навіть без інтернету. Це один із найгучніших кроків компанії у напрямку доступного AI.
📊 Що відомо про Gemma 4
🔹 Чотири моделі для різних задач
Лінійка включає одразу чотири варіанти:
- 2 млрд параметрів — для мобільних пристроїв
- 4 млрд — компактні системи
- 26 млрд (Mixture-of-Experts) — для складних задач
- 31 млрд (Dense) — максимальна продуктивність
Такий підхід дозволяє використовувати ШІ як на смартфонах, так і на потужних серверах.
🔹 Розширене контекстне вікно
- Базові моделі: до 128 тисяч токенів
- Старші версії: до 256 тисяч
Це означає кращу роботу з великими документами, кодом і діалогами.
🔹 Мультимодальність і офлайн-режим
Gemma 4 підтримує:
- обробку зображень і відео
- розпізнавання тексту (OCR)
- аудіо та мовлення (у легших версіях)
- генерацію коду без підключення до інтернету
Моделі навчалися більш ніж на 140 мовах, що розширює їх глобальне застосування.
🔹 Ефективність проти «гігантів»
За даними тестів Arena AI:
- модель на 31 млрд параметрів — 3 місце
- модель на 26 млрд — 5 місце
Вони випереджають деякі системи, які мають у десятки разів більше параметрів.
🔹 Відкрита ліцензія Apache 2.0
Gemma 4 доступна за ліцензією Apache 2.0, що означає:
- повну свободу модифікації
- контроль над даними
- можливість локального запуску
- інтеграцію у власні продукти
🔹 Де доступні моделі
Gemma 4 вже можна завантажити через:
- Hugging Face
- Kaggle
- Ollama
📌 Висновок
Gemma 4 — це спроба Google зробити потужний штучний інтелект доступним не лише корпораціям, а й розробникам і малим командам. Ключова перевага — поєднання відкритості, ефективності та можливості працювати локально.
