Global Look Press

Сфера искусственного интеллекта (ИИ) давно вызывает опасения у некоторых обывателей, писателей-фантастов, а также специалистов, но, как правило, главной угрозой, которую несет создание ИИ, называют его выход из-под контроля человека. Хотя подобный сценарий не учитывает, что возможности ИИ могут быть намеренно использованы в преступных целях.

Этому аспекту проблемы ИИ посвящен объемный отчет под названием "Злонамеренное использование искусственного интеллекта: прогнозирование, предотвращение и смягчение последствий", подготовленный группой из 26 экспертов, представляющих различные университеты и организации, пишет The Verge.

Авторы отчета перечисляют несколько потенциальных угроз, которые несет в себе использование ИИ-систем в преступных целях. Так, в ближайшие пять лет разработки в этой области могут значительно снизить затраты злоумышленников на организацию кибератак за счет автоматизации задач, которые сейчас требуют участия человека. В частности, речь идет о массовых рассылках фальшивых электронных писем - их генерацией в будущем может заняться ИИ. Также подобные алгоритмы могут использоваться и для создания фальшивых видеороликов и аудиозаписей: примеры подобного применения нейросетей существуют уже сегодня, а в скором времени появятся еще более продвинутые алгоритмы.

Еще один сценарий использования ИИ во зло предполагает возможность слежки за определенными людьми или группами при помощи систем распознавания лиц и движений. Примером тому уже может служить Китай, где активно внедряются системы слежения с машинным обучением.

Наконец, в отчете описываются более фантастические сценарии, включая использование террористами робота-уборщика в государственном учреждении в качестве контейнера для взрывного устройства. По мнению эксперта, таким образом можно уничтожить конкретного человека, когда автономный робот будет проезжать мимо него.

Чтобы минимизировать риски, авторы отчета дают разработчикам и политикам несколько рекомендаций. Так, представителям власти следует консультироваться с экспертами, чтобы иметь представление о потенциальных угрозах, а разработчикам ИИ необходимо заняться защитой своих алгоритмов от взлома при помощи специалистов по кибербезопасности. Помимо этого, в отчете предлагается описать этические рамки применения ИИ и следовать им, а также привлечь к обсуждению проблем искусственного интеллекта представителей бизнеса и общества.

Напомним, что одним из самых известных противников неограниченного развития систем ИИ является основатель компаний SpaceX и Tesla Илон Маск. Так, в августе прошлого года он вошел в число 116 экспертов, подписавших письмо в ООН с призывом ввести международный запрет на автономные системы летального оружия, также известные как "роботы-убийцы".