Подписаться
Курс ЦБ на 18.04
94,32
100,27

Три угрозы от роботов: чем людям грозит развитие искусственного интеллекта. ИССЛЕДОВАНИЕ

Три угрозы от роботов: чем людям грозит развитие искусственного интеллекта. ИССЛЕДОВАНИЕ
Иллюстрация: pxhere.com

«Сегодня информационные атаки ИИ может выполнять успешнее, нежели любой человек. Роботы уже могут создавать изображения, неотличимые от реальных фото и полностью копировать стиль общения человека».

В новом докладе World Economic Forum говорится о трех способах, которыми искусственный интеллект может угрожать человечеству. В отчете «Злоупотребление использованием искусственного интеллекта», составленном экспертами из ряда учреждений, включая Кембриджский университет и исследовательскую фирму OpenAI, говорится, что в неправильных руках ИИ может эксплуатироваться изгоями, террористами и преступниками. Речь идет о трех типах вреда: физическом, цифровом и политическом.

Три угрозы от роботов: чем людям грозит развитие искусственного интеллекта. ИССЛЕДОВАНИЕ 1

Фото: government.ru

1. Автокатастрофы с дистанционным управлением

Самая большая проблема заключается в том, что ИИ можно использовать для физических нападений на людей, например, для взлома автомобилей-беспилотников, что может приводить к серьезным авариям.

Если несколько роботов контролируются одной системой, запущенной на централизованном сервере, или если несколько роботов контролируются идентичными системами и представлены одинаковыми стимулами, то одна атака может приводить к одновременным сбоям в огромном масштабе, — говорится в докладе.

Профессор техасского университета Остин Питер Стоун, входящий в команду,  разработавшую новый алгоритм для улучшения взаимодействия роботов и людей, считает, что предупреждения доклада должны восприниматься всерьез, но ситуация не является новой или уникальной по отношению к автономным транспортным средствам.

Если кто-то сегодня сможет изменить работу светофоров в городе, наступит катастрофа, — говорит д-р Стоун. — Сам факт, что наша электрическая сеть достаточно централизована, делает нас уязвимыми для крупномасштабных отключений.

По словам эксперта, надлежащим ответом будут усиленные меры безопасности, а также предоставление резервных мощностей и некоторая децентрализация беспилотников.

2. Получение всех данных о человеке

Три угрозы от роботов: чем людям грозит развитие искусственного интеллекта. ИССЛЕДОВАНИЕ 2

Фото: pixabay.com

В будущем попытки получить доступ к конфиденциальной и личной информации от человека могут быть без проблем осуществлены ИИ.

Эти атаки ИИ сможет выполнять успешнее, нежели любой человек, — говорится в докладе. Эксперты подчеркивают, что мошенничество или кража личных данных могут стать более совершенными и эффективными по мере развития ИИ.

Если большинство запросов и генерация сообщений, типичных для фишингового мошенничества, могут быть обработаны ИИ, куда больше людей станет жертвами. Искусственный интеллект может олицетворять реальных людей, используя даже стиль письма.

Профессор робототехники в Университете Карнеги-Меллона Иллах Нурбахш говорит, что, поскольку ИИ быстро развивается, человечеству нужна срочная защита, чтобы справиться с рисками.

Подобно тому, как люди-мошенники находят все более изощренные и тонкие способы обмануть людей, используя онлайн-мошенничество, злодеи, использующие ИИ, будут постоянно находить новые дыры в защите наших данных, — говорит Нурбахш.

3. Управление общественным мнением

Три угрозы от роботов: чем людям грозит развитие искусственного интеллекта. ИССЛЕДОВАНИЕ 3

Фото: pixabay.com

Поддельные новости и поддельные видеоролики, создаваемые ботами и искусственным интеллектом, могут оказать большое влияние на общественное мнение, волнуя все слои общества, от политиков до СМИ.

Отчеты утверждают, что хорошо обученные боты могут создать стратегическое преимущество для политических партий и работать как интеллектуальные пропагандистские машины. Но речь идет о большем, нежели просто о распространении поддельного текстового контента.

Системы ИИ теперь могут создавать изображения, которые почти неотличимы от реальных фотографий, тогда как еще несколько лет назад изображения, которые они производили, были грубыми и нереалистичными, — говорится в докладе.

Венделл Валлах, председатель Всемирного экономического форума и автор книги «Опасный учитель: как удержать технологию от проскальзывания вне нашего контроля», говорит, что социальные медиа уже сейчас объединяют знания о психологии человека и о том, как манипулировать мнениями, и в ближайшие годы в этом они станут более изощренным.

Эти инструменты будут использоваться не только в качестве политической пропаганды, чтобы смущать и дестабилизировать конкурирующие силы, но и как новые методы, используемые лидерами и партиями для отслеживания, манипулирования и управления гражданами внутри страны.

Теги: исследование

Самое читаемое
  • Авиаперевозчик Red Wings уходит. Компания проведет ребрендинг и сменит названиеАвиаперевозчик Red Wings уходит. Компания проведет ребрендинг и сменит название
  • Крупная сеть бытовой техники закрывает магазины в России и ликвидирует бизнесКрупная сеть бытовой техники закрывает магазины в России и ликвидирует бизнес
  • Строительство развязки у концерна «Калина» может встать из-за долговСтроительство развязки у концерна «Калина» может встать из-за долгов
  • Крупнейший бизнес выплатит в мае–июле дивидендов на 2,2 трлн руб. Кому повезет?Крупнейший бизнес выплатит в мае–июле дивидендов на 2,2 трлн руб. Кому повезет?
Наверх
Чтобы пользоваться всеми сервисами сайта, необходимо авторизоваться или пройти регистрацию.
  • вспомнить пароль
Вы можете войти через форму авторизации зарегистрироваться
Извините, мы не можем обрабатывать Ваши персональные данные без Вашего согласия.
  • Укажите ваше имя
  • Укажите вашу фамилию
  • Укажите E-mail, мы вышлем запрос подтверждения
  • Не менее 8 символов
Если вы не хотите вводить пароль, система автоматически сгенерирует его и вышлет на указанный e-mail.
Я принимаю условия Пользовательского соглашения и даю согласие на обработку моих персональных данных в соответствии с Политикой конфиденциальности.Извините, мы не можем обрабатывать Ваши персональные данные без Вашего согласия.
Вы можете войти через форму авторизации
Самое важное о бизнесе.