Page ID: 44164
Is Industry:
Is Category:
Query IDs:
Цифровой анализ

Кодекс этики ИИ: принять, чтобы минимизировать риски

В России приняли первый в истории документ, регулирующий этическую сторону работы технологий, основанных на искусственном интеллекте. Его цель — создать, с одной стороны, доверительное отношение общества к внедрению умных алгоритмов, а с другой — обсудить механизмы контроля следования принципам этики, и принципы, в основе которых лежит человеко-центричный и гуманистический подход.

Общество всё чаще сталкивается с проявлениями работы искусственного интеллекта (ИИ). При этом, приветствуя результаты его работы в некоторых сферах (например, в фотофильтрах смартфонов, голосовых помощниках, маршрутах на карте и так далее), люди с осторожностью относятся к ИИ-технологиям в чувствительных областях — диагностике, поиску преступников, вождению транспорта.

Это приводит к росту опасений, что развитие ИИ усилит неравенство и дискриминацию, а также приведет к новым социальным и политическим проблемам. Поэтому вопросы доверия и способов регулирования стал одним из ключевых в развитии технологий искусственного интеллекта.

«Права и свободы граждан гарантированы Конституцией. Наша обязанность — реализовать механизмы по их защите, независимо от среды, в которой находится человек. Соблюдение этических норм при работе с ИИ позволит предотвратить их нарушение», — с этих слов вице-премьера Дмитрий Чернышенко, курирующего в правительстве вопросы цифровизации, 26 октября был открыт форум, в рамках которого был подписан национальный Кодекс этики в сфере искусственного интеллекта.

Соблюдение этических норм при работе с ИИ позволит предотвратить их нарушение.

Дмитрий Чернышенко, Заместитель председателя правительства Российской Федерации по вопросам цифровой экономики и инновациям, связи, СМИ

Разрабатывать кодекс в 2021 году начал Аналитический центр при правительстве РФ, Минэкономразвития России и Альянс в сфере искусственного интеллекта (AI-Russia Alliance), в который входят Сбербанк, «Газпром нефть», «Яндекс», Mail.ru Group (ныне VK), МТС и Российский фонд прямых инвестиций.

Разработка прошла в рекордно короткие сроки. 20 августа прошло первое обсуждение проекта кодекса с экспертами. с 31 августа по 15 сентября кодекс обсуждали и дорабатывали на рабочей группе по искусственному интеллекту АНО «Цифровая экономика». С 10 по 20 сентября прошло предварительное обсуждение кодекса в Общественной палате, Госдуме и Совете Федерации.

Форум "Этика искусственного интеллекта: начало доверия", 26 октября 2021 г.

Кодекс содержит 33 пункта, сгруппированных в четыре раздела: общие положения, общие этические принципы/ценности поведения акторов ИИ, этические стандарты поведения акторов в сфере ИИ и механизмы реализации кодекса.

В основу Кодекса положено пять базовых принципов: человеко-центричность, гуманизм, риск-ориентированный подход, принцип предосторожности и принцип ответственного отношения.

В документе сделана попытка задать рамки стандартов поведения создателей систем ИИ, такие как «действовать ответственно и добросовестно», «соблюдать интересы общества и граждан», «проявлять профессионализм и компетентность», «содействовать доверию общества к технологиям ИИ в интересах устойчивого развития».

Среди механизмов реализации кодекса предлагается создание института уполномоченного и различных комиссий по этике ИИ, свода наилучших практик и реестра добросовестных разработчиков, а также регулярный пересмотр положений кодекса.

Кодекс этики искусственного интеллекта - это еще и инструмент для разработчиков, позволяющий сообщить обществу, чем мы руководствуемся...

Александр Крайнов, Директор по развитию технологий искусственного интеллекта компании «Яндекс»

Один из основателей российского кодекса этики ИИ, Директор по развитию технологий искусственного интеллекта компании «Яндекс» Александр Крайнов отметил, что с помощью этого документа можно будет добиться сокращения дискриминирующих решений, ведь даже небольшая ошибка может привести к серьезным последствиям.

«Технологии, которые появляются, невероятно полезны и значительно улучшают нашу жизнь. Но серьезный сдерживающий фактор в этом направлении — осторожное отношение общества к ИИ-технологиям, которое, безусловно, нельзя не учитывать, — сказал Крайнов. — И поэтому кодекс этики искусственного интеллекта — это еще и инструмент для разработчиков, позволяющий сообщить обществу, чем мы руководствуемся, разрабатывая эти системы, подтвердить наши намерения».

Вопросы этической стороны поведения искусственного интеллекта возникли задолго до его появления. В 1920 году чешский писатель Карел Чапек придумал понятие «робот». Он выпустил пьесу «Россумские универсальные роботы» (R.U.R.) про «искусственных людей», которые внешне похожи на человека, но состоят из искусственных материалов — такой приквел «Мира Дикого Запада». Главный вопрос, который писатель ставит перед читателями — можно ли эксплуатировать искусственных людей и к каким последствиям это может привести.

В частности, в пьесе Чапека (внимание, спойлер!) роботы восстают против «манипуляторов», человечество гибнет, а у бездушных, на первый взгляд, машин обнаруживается любовь друг к другу. После перевода на английский язык, термин «робот» вошел в жизнь и стал применяться ко всему, что может самостоятельно двигаться и выполнять какие-то операции, вплоть до манипуляторов и роботизированных коробок передач.

Сцена восстания роботов из пьесы "R.U.R.""

Следующий шаг по осмыслению поведения машины сделал Айзек Азимов, который сформулировал три закона робототехники.

Три закона робототехники Айзека Азимова:

  1. робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред;
  2. робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому закону;
  3. робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму законам.

Несмотря на то, что это были, в целом, юмористические законы, они подняли на поверхность проблему самой возможности действий роботов против людей. Впоследствии эта тема активно развивалась в мировой литературе и кинематографе. В результате к моменту появления реально работающих систем на базе искусственного интеллекта в обществе уже сложилось настороженное отношение к этому феномену.

И вот здесь возникает множество вопросов, которые разработчикам нужно держать во внимании. Например, должен ли алгоритм учитывать национальность клиента при принятии решения на одобрение кредита? Нужно ли ребенку предлагать в рекомендациях классическую музыку или другой полезный контент?

Создать условия для того, чтобы на этапе разработки ИИ-решений не возникли ошибки, и призваны всевозможные самоограничивающие документы, связанные с ИИ, которых сейчас в мире разработано и используется больше 100. Их главная задача — убедить общество, потребителей и инвесторов в безопасности ИИ-технологий для человека и человечества.

Первой «ласточкой» регулирования ИИ стала «Хартия умных роботов», разработанная в Южной Корее в 2008 году. Она, в частности, описывала «умного робота» как «механическое устройство, которое способно воспринимать окружающую среду, распознавать обстоятельства, в которых оно функционирует, и целенаправленно передвигаться самостоятельно». А саму себя она описывала как «кодекс этики для лиц, принимающих участие в процессах разработки, производства и использования умных роботов», с целью предотвращения «различного рода негативных последствий (например, нарушение общественного порядка), которые могут явиться следствием разработки функций и интеллекта умных роботов, а также для того, чтобы гарантировать, что умные роботы будут содействовать повышению качества жизни людей».

После этого аналогичные документы стали разрабатывать и внедрять другие страны мира. Сейчас подобные кодексы, законы и хартии существуют более чем в 20 странах мира, причем, только в США таких документов больше 20, еще 19 в странах ЕС, 14 — в Великобритании. Свои кодексы этики ИИ есть в Японии (4), Канаде, Исландии, Норвегии, Объединенных Арабских Эмиратах, Индии, Сингапуре, Южной Корее и Австралии.

Параллельно развивались корпоративные кодексы этики ИИ — сначала свои правила создания ИИ разработал Microsoft, затем Google, потом Sony, Deutsche Telekom и многие другие компании (всего больше 30). В России свои правила и кодексы для разработчиков ИИ-решений есть у Сбера, Яндекса и ABBYY.

Регулирующими документами в области ИИ озаботились и межгосударственные объединения. Свои кодексы разрабатывают Совет Европы, ООН, Организация экономического сотрудничества и развития. В ноябре ожидается принятие рекомендаций по этике ИИ ЮНЕСКО. Это будет первый глобальный документ по искусственному интеллекту в мире.

В России работа над созданием кодекса по этике ИИ началась с принятия национальной стратегии развития ИИ до 2030 года, которая заложила основание для этого документа. Затем правительство РФ утвердило концепцию регулирования отношений в сфере технологий ИИ и робототехники до 2024 года (19 августа 2020 года).

Президент России Владимир Путин выступает на онлайн-конференции по искусственному интеллекту AI Journey. // Kremlin.ru

А в декабре 2020 года президент России Владимир Путин, выступая на онлайн-конференции по искусственному интеллекту AI Journey вместе с главой Сбербанка Германом Грефом, также коснулся этой темы, отметив, что во многих средах морально-нравственные кодексы применяются и действуют даже более эффективно, чем написанное право.

«Подписанный сегодня кодекс по этике искусственного интеллекта дает дополнительное конкурентное преимущество: ИТ-разработки должны строиться на доверии пользователя, выбор и доверие к сервису — лучшее тому доказательство. Умножая это доверие, досконально работая с каждой ошибкой, мы построим технологию, долгосрочное развитие которой станет важнее сиюминутных интересов отдельных компаний. И я очень рад, что в основу кодекса по этике ИИ легли принципы взаимодействия нашего ИТ-сообщества, основанные на взаимном уважении и открытом диалоге». — прокомментировал Александр Крайнов, директор по развитию технологий искусственного интеллекта Яндекса.