Ученые близки к созданию нейронных сетей с повышенной ответственностью

Слoжнo скaзaть, кaк бы рaзвивaлись сoбытия в «Тeрминaтoрe», eсли бы Скaйнeт зaсoмнeвaлся в свoeй нeпoгрeшимoсти и признaл себя недостаточно ответственным, чтобы хранить все ядерные ключи Америки.

Но сегодняшняя научная реальность уже вплотную подошла к созданию искусственного интеллекта, способного оценивать свою компетентность. Речь идет о нейронных сетях, которые понимают, когда они становятся ненадежными и не могут в полном объеме выполнять свои функции.

Такие нейронные сети в определенной мере имитируют человеческий мозг, при этом могут работать с такими массивами информации, которые человек проанализировать не в состоянии. Например, сегодня уже используется медицинская диагностика с помощью ИИ, автономное вождение автомобиля.

Александр Амини из Массачусетского технологического института, много лет отдавший созданию нейронных сетей, отмечает, что на данном этапе необходимо создать не просто высокопроизводительную модель, но и технологию, которой можно полностью доверять. Новая нейронная система может генерировать собственный уровень уверенности, а также прогнозировать свои возможности.

Обученная система была протестирована на оценке глубины в разных частях изображения. Принцип аналогичен тому, что заложен в автономном вождении, когда ИИ определяет расстояние до перекрестка и решает, стоит ли ехать или лучше подождать.

С работой сеть справлялась, а также отмечала моменты, когда она была наименее уверенной. Именно в этих случаях и появлялись иногда погрешности в определении глубины. Как отмечает соавтор проекта Даниэла Рус, оценка неопределенности модели позволит спрогнозировать, сколько ошибок она может совершить и какие недостающие данные могут улучшить ее работу.

Комментирование и размещение ссылок запрещено.

Комментарии закрыты.