Подписаться
Курс ЦБ на 05.12
76,97
89,90

Три угрозы от роботов: чем людям грозит развитие искусственного интеллекта. ИССЛЕДОВАНИЕ

«Сегодня информационные атаки ИИ может выполнять успешнее, нежели любой человек. Роботы уже могут создавать изображения, неотличимые от реальных фото и полностью копировать стиль общения человека».

В новом докладе World Economic Forum говорится о трех способах, которыми искусственный интеллект может угрожать человечеству. В отчете «Злоупотребление использованием искусственного интеллекта», составленном экспертами из ряда учреждений, включая Кембриджский университет и исследовательскую фирму OpenAI, говорится, что в неправильных руках ИИ может эксплуатироваться изгоями, террористами и преступниками. Речь идет о трех типах вреда: физическом, цифровом и политическом.

Три угрозы от роботов: чем людям грозит развитие искусственного интеллекта. ИССЛЕДОВАНИЕ 1

Фото: government.ru

1. Автокатастрофы с дистанционным управлением

Самая большая проблема заключается в том, что ИИ можно использовать для физических нападений на людей, например, для взлома автомобилей-беспилотников, что может приводить к серьезным авариям.

Если несколько роботов контролируются одной системой, запущенной на централизованном сервере, или если несколько роботов контролируются идентичными системами и представлены одинаковыми стимулами, то одна атака может приводить к одновременным сбоям в огромном масштабе, — говорится в докладе.

Профессор техасского университета Остин Питер Стоун, входящий в команду,  разработавшую новый алгоритм для улучшения взаимодействия роботов и людей, считает, что предупреждения доклада должны восприниматься всерьез, но ситуация не является новой или уникальной по отношению к автономным транспортным средствам.

Если кто-то сегодня сможет изменить работу светофоров в городе, наступит катастрофа, — говорит д-р Стоун. — Сам факт, что наша электрическая сеть достаточно централизована, делает нас уязвимыми для крупномасштабных отключений.

По словам эксперта, надлежащим ответом будут усиленные меры безопасности, а также предоставление резервных мощностей и некоторая децентрализация беспилотников.

2. Получение всех данных о человеке

Три угрозы от роботов: чем людям грозит развитие искусственного интеллекта. ИССЛЕДОВАНИЕ 2

Фото: pixabay.com

В будущем попытки получить доступ к конфиденциальной и личной информации от человека могут быть без проблем осуществлены ИИ.

Эти атаки ИИ сможет выполнять успешнее, нежели любой человек, — говорится в докладе. Эксперты подчеркивают, что мошенничество или кража личных данных могут стать более совершенными и эффективными по мере развития ИИ.

Если большинство запросов и генерация сообщений, типичных для фишингового мошенничества, могут быть обработаны ИИ, куда больше людей станет жертвами. Искусственный интеллект может олицетворять реальных людей, используя даже стиль письма.

Профессор робототехники в Университете Карнеги-Меллона Иллах Нурбахш говорит, что, поскольку ИИ быстро развивается, человечеству нужна срочная защита, чтобы справиться с рисками.

Подобно тому, как люди-мошенники находят все более изощренные и тонкие способы обмануть людей, используя онлайн-мошенничество, злодеи, использующие ИИ, будут постоянно находить новые дыры в защите наших данных, — говорит Нурбахш.

3. Управление общественным мнением

Три угрозы от роботов: чем людям грозит развитие искусственного интеллекта. ИССЛЕДОВАНИЕ 3

Фото: pixabay.com

Поддельные новости и поддельные видеоролики, создаваемые ботами и искусственным интеллектом, могут оказать большое влияние на общественное мнение, волнуя все слои общества, от политиков до СМИ.

Отчеты утверждают, что хорошо обученные боты могут создать стратегическое преимущество для политических партий и работать как интеллектуальные пропагандистские машины. Но речь идет о большем, нежели просто о распространении поддельного текстового контента.

Системы ИИ теперь могут создавать изображения, которые почти неотличимы от реальных фотографий, тогда как еще несколько лет назад изображения, которые они производили, были грубыми и нереалистичными, — говорится в докладе.

Венделл Валлах, председатель Всемирного экономического форума и автор книги «Опасный учитель: как удержать технологию от проскальзывания вне нашего контроля», говорит, что социальные медиа уже сейчас объединяют знания о психологии человека и о том, как манипулировать мнениями, и в ближайшие годы в этом они станут более изощренным.

Эти инструменты будут использоваться не только в качестве политической пропаганды, чтобы смущать и дестабилизировать конкурирующие силы, но и как новые методы, используемые лидерами и партиями для отслеживания, манипулирования и управления гражданами внутри страны.

Теги: исследование

Самое читаемое
  • Александр Аузан: «Внутри России две страны. Им нужно договориться и переписать правила»Александр Аузан: «Внутри России две страны. Им нужно договориться и переписать правила»
  • Никогда не брали кредитов и не были в убытке: история семейной компании «НАПОР»Никогда не брали кредитов и не были в убытке: история семейной компании «НАПОР»
  • Лариса Долина поможет депутатам ГД выработать механизмы продажи квартир на вторичкеЛариса Долина поможет депутатам ГД выработать механизмы продажи квартир на вторичке
  • Новый глава азербайджанской диаспоры останется под арестом до следующего годаНовый глава азербайджанской диаспоры останется под арестом до следующего года
Наверх
Чтобы пользоваться всеми сервисами сайта, необходимо авторизоваться или пройти регистрацию.
Вы можете войти через форму авторизации зарегистрироваться
Извините, мы не можем обрабатывать Ваши персональные данные без Вашего согласия.
  • Укажите ваше имя
  • Укажите вашу фамилию
  • Укажите E-mail, мы вышлем запрос подтверждения
  • Не менее 8 символов
Если вы не хотите вводить пароль, система автоматически сгенерирует его и вышлет на указанный e-mail.
Я принимаю условия Пользовательского соглашения и даю согласие на обработку моих персональных данных в соответствии с Политикой конфиденциальности.Извините, мы не можем обрабатывать Ваши персональные данные без Вашего согласия.
Вы можете войти через форму авторизации
Самое важное о бизнесе.