Большие языковые модели (LLM), которые управляют сложными чат-ботами с искусственным интеллектом, более уязвимы, чем считалось ранее. Согласно исследованиям Anthropic, Британского института безопасности искусственного интеллекта и Института Алана Тьюринга, требуется всего 250 вредоносных документов, чтобы скомпрометировать даже самые крупные модели.
Новости от techxplore

