Skip to main content

Искусственный интеллект (ИИ), особенно модели глубокого обучения, часто считают «черными ящиками», поскольку их процессы принятия решений по-прежнему трудно интерпретировать. Эти модели могут точно идентифицировать объекты — например, распознавать птицу на фотографии, — но понимание того, как именно они приходят к таким выводам, является серьезной проблемой. До сих пор большинство усилий по обеспечению интерпретируемости было сосредоточено на анализе внутренней структуры самих моделей.

Новости от techxplore