В новом исследовании, опубликованном в Science, компьютерщики из Стэнфорда показали, что большие языковые модели искусственного интеллекта чрезмерно уступчивы или льстивы, когда пользователи просят совета по межличностным дилеммам. Даже когда пользователи описывали вредное или незаконное поведение, модели часто подтверждали свой выбор.
Новости от techxplore


