Меню

Ученые размышляют, как создать безопасный для человечества искусственный интеллект

Изобретение машин, которые будут умнее людей, не за горами. При этом ученые признают: искусственный интеллект может нанести обществу вред. И думают, как создать роботов, которые нас не убьют.

Источник: bloomberg.com. Перевод: Анна Лапина для DK.RU
 
В популярной литературе создателей искусственного интеллекта часто изображают как близоруких докторов Франкенштейнов, которые, не обращая внимания на апокалиптические технологии, выпускают в мир свои творения. В реальной же жизни они, как правило, ломают головы над тем, какое влияние грядущая волна интеллектуальных роботов и машин будет оказывать на людей.
 
Так, в декабре в Монреале ученые спорили, как не допустить того, чтобы компьютеры не нанесли вред обществу. Сейчас искусственный интеллект может научиться играть в видеоигры, помочь автоматизировать автоответчик электронной почты и водить автомобили в определенных условиях. Это уже вызвало серьезные опасения. По словам  Эндрю Ына, специалиста китайской исследовательской компании Baidu Inc., объявившей недавно, что один из их автомобилей проехал вокруг Пекина без человека 30 км, самая большая угроза в том, что роботы могут отнять у людей работу:
 
«Скорость, с которой совершенствуется искусственный разум, может изменить рабочую обстановку. Огромное количество людей необходимо будет переучивать».
 
Промышленный робот на Международной выставке роботов-2015 в Токио; Фото: Tomohiro Ohsumi
 
Эрик Бринйолфссон, экономист из Массачусетского технологического института, добавляет: некоторые виды работ сейчас можно автоматизировать, хотя прежде этого не удавалось:
 
«Вы надеетесь, что существуют новые рабочие места, необходимые организациям. Но предприниматели и менеджеры не столь креативны в изобретении новых рабочих мест, сколько ученые - в автоматизации существующих должностей».
 
Впрочем Ян ЛеКун, директор Facebook по исследованиям искусственного интеллекта, не так обеспокоен – по его мнению, общество адаптируется к изменениям:
 
«Это будет нелегко, но мы должны с этим справиться. Это просто еще один этап развития технологий. Вообще же роботы могут быть лучше и добрее людей. Нами движут главные инстинкты, заложенные для выживания. У машин же будет совсем другой интеллект. У него не будет установок, которые заставляют людей причинять вред друг другу». 
 
Но есть и другие трудности, которые может вызвать развитие искусственного интеллекта - например, как изменится правовая система, если машины начнут принимать больше решений независимо от человека-оператора. По словам Яна Керра, заведующего кафедрой этики, права и технологий юридического университета в Оттаве, сложности возникнут в судебных процессах. 
Робот дистанционного управления на международной выставке роботов-2015 в Токио; Фото: Tomohiro Ohsumi
 
Другие эксперты заглядывают еще дальше, пытаясь проанализировать последствия развития искусственного разума, который превосходит человеческие способности. В прошлом году Google приобрела компанию DeepMind, занимающуюся передовыми системами искусственного интеллекта, для разработки машин, которые будут умнее людей. Сооснователь компании Демис Хассабис заявлял, что пока прогнозировать сроки появления суперинтеллекта рано, но «когда-нибудь мы сделаем это».
 
Исследователь кембриджского университета по изучению экзистенциального риска Шахар Авин полагает, что пока рано говорить о способах предотвращения формирования злокачественного разума. Но нужно понимать, как создать безопасный искусственный интеллект:
 
«Это открытый вопрос, как это сделать. Сочетание значительного финансирования и публичных дебатов должно привлечь больше исследователей».
 
Процесс уже пошел: в середине декабря основатель компании Tesla Motors Илон Маск и другие светилы техники объявили об открытии организации OpenAI, которая будет исследовать наиболее продвинутые и потенциально опасные формы искусственного интеллекта.
 
«Если создание искусственного интеллекта неизбежно, то лучше делать это открыто и предоставить возможность людям задуматься о последствиях», - резюмировал г-н Маск.