Из ТГ канала

🙂 В ближайшее время DeepSeek явно не собирается покидать информационное пространство, так что придется следить за этими новыми звездами. DeepSeek – «сигма-бой» этой недели, если вы понимаете, о чем мы 😎 И пока все продолжают удивляться возможностям R1, у них уже готов новый анонс.
🔣 Компания выпустила набор моделей Janus Pro – LLM с 1B параметров, мультимодальностью и сверхспособностями.
*️⃣ Обещают, что будет работать в браузере (правда, пока только в Хроме), и не просто работать, а выполняться на 100% локально, благодаря Transformers.js и Runtime Web, без отправки данных на сервер.
*️⃣ Janus Pro умеет анализировать загруженные изображения, конвертировать их в код, формулы, мемы или другие изображения. В наборе есть модели разной мощности, чем выше число параметров – тем круче результат. Ограничение по разрешению для изображений на входе - 384 x 384, на выходе выше.
*️⃣ Разумеется, модель круче многих существующих – даже таких серьезных как Stable Diffusion XL и DALL-E 3, не говоря уже о моделях поменьше.
*️⃣ Отдельный повод для гордости – LLM обучена на базе оригинальных моделей DeepSeek-LLM-1.5b-base и DeepSeek-LLM-7b-base, так что, как говорится, все свое.
Код и параметры на Hugging Face.
🙂 Artificial Intelion
Новости AI
#AI
#DeepSeek
#JanusPro
Рекомендуем прочесть:
- Как посчитать VRAM для LLM: подробный гайд по расчету видеопамяти для моделей машинного обучения
- Tesla A100 40GB vs A100 80GB: Как выбрать GPU для ИИ, LLM и Data Science
- Что такое GPU сервер и как его арендовать?
- Tesla A10 vs RTX 3090 — оптимальный выбор GPU для ваших нейросетей
- Зачем вам нужна Tesla A100 80 ГБ — и почему в «Интелион Облако» она раскрывается на максимум