Меню

«У искусственного интеллекта нет «здравомыслящего знания», но нам все равно страшно»

Иллюстрация: pixabay.com

«Некоторые люди обеспокоены «сверхразумным» ИИ, но самая большая его опасность в том, что мы будем слишком доверять ему и предоставлять слишком большую автономию, забудем о его недостатках». МНЕНИЕ.

Какой фундаментальный барьер мешает и будет еще долго мешать развитию искусственного интеллекта? Профессор компьютерных наук Портлендского государственного университета Мелани Митчелл объясняет, почему искусственный интеллект не способен сравняться с человеческим мозгом. Причина всего одна, но она фундаментальна, пишет «Идеономика».

 Вы, наверное, слышали, что мы находимся в разгаре революции искусственного интеллекта. Говорят, что ИИ развивается с поразительной скоростью благодаря алгоритмам «глубокого обучения», которые используют огромные объемы данных для обучения сложных программ, известных как «нейронные сети».

Обещают, что вот-вот получат широкое распространение автономные автомобили, автоматизированные способы диагностики рака, роботы-уборщики и даже автоматизированные научные открытия.

Основатель Facebook Марк Цукерберг недавно заявил, что в течение следующих пяти-десяти лет компания будет развивать свой ИИ, который будет «лучше, чем человек, во всех первичных человеческих чувствах: зрение, слух, язык, общее познание». Шейн Легг, главный ученый группы DeepMind в Google, предсказывает, что «ИИ достигнет человеческого уровня в середине 2020-х годов».

Как человек, который работал в сфере ИИ на протяжении нескольких десятилетий, я была свидетелем провала подобных прогнозов на ближайшее будущее ИИ, и уверена, что эти последние прогнозы тоже не оправдаются. Сегодняшним системам ИИ не хватает сущности человеческого интеллекта: понимания ситуаций, которые мы переживаем, способности понять их смысл. Математик и философ Джан-Карло Рота задал знаменитый вопрос: «Интересно, сможет ли ИИ когда-нибудь преодолеть барьер понимания?» Для меня это по-прежнему самый важный вопрос.

Отсутствие человеческого понимания у машин подчеркивается трещинами, появившимися недавно в фундаменте современного искусственного интеллекта. Несмотря на то, что сегодняшние программы намного более впечатляющи, чем системы, существовавшие 20 или 30 лет назад, серия исследований показала, что системы глубокого обучения могут быть ненадежными совершенно не по-человечески.

Программы, которые «читают» документы и отвечают на вопросы о них, легко могут выдать неправильные ответы, если к документу добавить короткие, несущественные фрагменты текста. Точно так же программы, которые распознают лица и объекты – представляемые как главный триумф глубокого обучения, — могут провалиться, когда вводные данные слегка изменяются с помощью определенных типов освещения, фильтрации изображений и других способов, которые ни капельки не влияют на способности распознавания этих объектов человеком.

Еще одно исследование, с юмором названное «Слон в комнате», показало, что появление небольшого изображения, не соответствующего картинке в целом, например, слона в углу гостиной, необъяснимым образом заставляет зрительные программы неправильно классифицировать другие объекты на этой картинке.

Это лишь несколько примеров, демонстрирующих, что лучшие программы ИИ могут быть ненадежными, когда сталкиваются с ситуациями, в той или иной степени отличающимися от того, чему их обучали. Ошибки, совершаемые такими системами, варьируются от безвредных и смешных до потенциально катастрофических: представьте, например, систему безопасности в аэропорту, которая не позволяет вам сесть на рейс, потому что перепутала ваше лицо с лицом преступника, или беспилотный автомобиль, который из-за необычных условий освещения не замечает, что вы собираетесь перейти улицу.

Еще более тревожны недавние демонстрации уязвимости систем ИИ к так называемым негативным примерам. Используя их, злостный хакер может внести особые изменения в изображения, звуковые волны или текстовые документы, которые, будучи незаметными или незначительными для людей, заставят программу совершать потенциально катастрофические ошибки.

Возможность таких атак была продемонстрирована почти во всех областях применения ИИ, включая компьютерное видение, обработку медицинских изображений, распознавание и обработку речи.

Что же необходимо, чтобы преодолеть этот барьер и дать машинам возможность более глубоко понимать ситуации, с которыми они сталкиваются, а не полагаться на мелкие черты? Чтобы найти ответ, нам нужно взглянуть на изучение человеческого познания.

Наше собственное понимание ситуаций, с которыми мы сталкиваемся, основано на широком, интуитивном «здравомыслящем знании» о том, как все устроено в мире, о целях, мотивах и вероятном поведении других живых существ, особенно других людей. Кроме того, наше понимание мира основано на наших врожденных способностях обобщать знания, формировать абстрактные понятия и проводить аналогии — словом, гибко адаптировать наши концепции к новым ситуациям.

Некоторые люди обеспокоены «сверхразумным» ИИ, но самая большая его опасность заключается в том, что мы будем слишком доверять ему и предоставлять слишком большую автономию, не будучи полностью осведомленными о его недостатках.

Чтобы справиться с барьером понимания, ИИ, вероятно, потребуется сделать шаг назад — отойти от все более крупных сетей и наборов данных и вернуться к истокам этой области как междисциплинарной науки, изучающей самую сложную научную проблему: природу интеллекта.

Теги: исследование, качество жизни