Согласно исследованию Массачусетского технологического института, крупные языковые модели (LLM) иногда усваивают неверные уроки. Вместо того, чтобы отвечать на запрос, основываясь на знаниях предметной области, LLM может использовать грамматические шаблоны, которые он усвоил во время обучения. Это может привести к неожиданному сбою модели при развертывании в новых задачах.
Новости от techxplore

