Nvidia рекламує продуктивність відкритих AI-моделей DeepSeek на своїх щойно випущених GPU серії RTX 50, заявляючи, що вони “працюють швидше, ніж будь-що на ринку ПК”. Однак це оголошення Nvidia може дещо втрачати суть.
Цього тижня ринкова капіталізація Nvidia зазнала найбільшого одноденного падіння в історії США, і багато хто пов’язує це з DeepSeek. Китайська компанія заявила, що її нова модель R1 не потребує потужного обладнання Nvidia для досягнення продуктивності, порівнянної з моделлю OpenAI o1, що дозволило DeepSeek значно скоротити витрати на тренування. Це досягнення свідчить про те, що найкращі чіпи Nvidia можуть бути не обов’язковими для значного прогресу в AI, що може вплинути на майбутнє компанії.
Однак варто зазначити, що DeepSeek все ж використовувала GPU Nvidia для тренування своїх моделей, але менш потужні (H800), які уряд США дозволяє експортувати до Китаю. Сьогоднішній блог Nvidia підкреслює, що нові RTX 50 підходять для виконання R1-інференсу – або генерації AI-вихідних даних – зазначаючи, що ці GPU створені на “тій же архітектурі NVIDIA Blackwell, яка забезпечує провідні AI-інновації в дата-центрах”.
Тим часом інші технологічні компанії також намагаються скористатися хвилею популярності DeepSeek. Модель R1 тепер доступна на AWS, а Microsoft додала її у свою платформу Azure AI Foundry та GitHub. Однак, за даними Bloomberg, Microsoft та OpenAI розслідують можливість використання DeepSeek даних OpenAI без дозволу.