NVIDIA vs AMD для LLM: ROCm против CUDA в 2026 году
Подробное сравнение двух GPU-экосистем для запуска больших языковых моделей: поддержка фреймворков, производительность, цена и подводные камни
8 марта
ZLUDA: что это, как устроена и когда имеет смысл
ZLUDA — «drop‑in» замена драйвера CUDA: позволяет запускать неизменённые CUDA‑приложения на GPU от AMD (и других).
27 августа
Как посчитать VRAM для LLM: подробный гайд по расчету видеопамяти для моделей машинного обучения
Модели машинного обучения стали неотъемлемой частью современной разработки. Давайте разберемся как выбрать видеокарту для своей LLM.
6 августа
Tesla A100 40GB vs A100 80GB: Как выбрать GPU для ИИ, LLM и Data Science
Когда речь заходит о работе с большими моделями искусственного интеллекта, такими как GPT-4, LLaMA, Falcon и другими LLM, выбор правильной видеокарты становится ключевым решением, влияющим на производительность и эффективность ваших задач.
29 июля
Читайте в Telegram
В нашем канале мы анализируем и тестируем LLMs, следим за трендами и рассказываем, как AI меняет мир.