Из ТГ канала

😉 Ваш бот вам врет?! Последние исследования показывают, что это вполне возможно.
🔷 В Nature опубликован материал, в котором прослеживается явная корреляция между развитием LLMs и нежеланием признаваться в собственных ошибках.
🔹 Понятное дело, что модели действуют не по злому умыслу (ну, по крайней мере, мы на это очень надеемся). Они могут быть обучены на неточных данных, могут не обладать всей полнотой информации для ответа на сложный вопрос, однако все равно будут отвечать уверенно.
🔹 Другими словами (инфографика в статье хорошо это показывает), модель скорее ответит неправильно, чем уклонится от сложного вопроса.
🔹Это явление уже получило название «инволюция надежности» - модели действительно становятся умнее, но при этом на них далеко не во всем можно полагаться.
Кажется, человечеству еще рано уходить на покой!
🙂 Artificial Intelion
Новости AI
#LLMs
#AI
#AImistakes
Рекомендуем прочесть:
- Tesla A100 40GB vs A100 80GB: Как выбрать GPU для ИИ, LLM и Data Science
- Что такое GPU сервер и как его арендовать?
- Tesla A10 vs RTX 3090 — оптимальный выбор GPU для ваших нейросетей
- Зачем вам нужна Tesla A100 80 ГБ — и почему в «Интелион Облако» она раскрывается на максимум
- От идеи до реализации за часы — как AI меняет работу и быт