Из ТГ канала

🙂 Пока DeepSeek роняет акции NVIDIA, расширяет штат сотрудников и смущает умы, побеждая o1 в тестах то тут, то там, мы попросили нашего DS-разработчика Михаила оценить личный опыт использования R1.
🔣 И вот, что он ответил:
На примерах AIME и MATH DeepSeek-R1 показывает одинаковые результаты с o1, т.е. хорошо решает текстовые и математические задачи. Однако, в тестах, где играют в крестики-нолики, обе модели делают ошибки.
По мощности с o1 и R1 можно еще сравнить модели Qwen QvQ-72B и QwQ-32B, но по бенчмаркам они достаточно сильно отстают.
Модели уровня DeepSeek-R1 и OpenAI o1 требуют значительных вычислительных ресурсов для обучения и развертывания. Для их эффективной работы необходимы мощные серверы с высокопроизводительными графическими процессорами.
Компании, разрабатывающие такие модели, часто инвестируют значительные средства в серверные кластеры. Пользователям полномасштабных версий R1 также потребуются мощные серверы с графическими процессорами.
*️⃣(Хорошо, что сейчас их можно легко арендовать).
По мере роста популярности и использования крупных языковых моделей спрос на вычислительные мощности будет только расти.
🙂 Artificial Intelion
Новости AI
#IntelionCloud
#AI
#DeepSeek
#R1
Рекомендуем прочесть:
- Как посчитать VRAM для LLM: подробный гайд по расчету видеопамяти для моделей машинного обучения
- Tesla A100 40GB vs A100 80GB: Как выбрать GPU для ИИ, LLM и Data Science
- Что такое GPU сервер и как его арендовать?
- Tesla A10 vs RTX 3090 — оптимальный выбор GPU для ваших нейросетей
- Зачем вам нужна Tesla A100 80 ГБ — и почему в «Интелион Облако» она раскрывается на максимум