Page ID: 45398
Is Industry:
Is Category:
Query IDs:
Цифровой анализ

Этика ИИ: доверие, преимущество, непредвзятость

В Москве в рамках первого в России форума «Этика искусственного интеллекта. Начало доверия», прошла сессия «Этика искусственного интеллекта в отраслях цифровой экономики», организованная АНО «Цифровая экономика».

Модератор сессии, директор по направлению «Искусственный интеллект»   организации «Цифровая экономика» Алексей Сидорюк, открывая дискуссию, отметил, что ИИ-технологии сегодня пронизывают все сферы деятельности человека, в том числе и чувствительные сферы.  ИИ применяется в здравоохранении как помощник врачу, как робот-хирург, применяется в транспорте, в беспилотном такси, в интеллектуальных транспортных системах, ИИ уже практически незаменим для обеспечения промышленной безопасности.

«На мой взгляд, все мы свидетели ключевой вехи в развитии ИИ, не только в России, но и во всем мире, — сказал А.Сидорюк. —  Сегодня в рамках форума были подписаны соглашения — кодекс этики искусственного интеллекта — с высокотехнологичными организациями и ВУЗами,  и это действительно мировой  тренд. В рамках недавно открытого в России Центра четвертой промышленной революции вопросы этики ИИ также  будут обсуждаться  со многими заинтересованными сторонами.

Мы надеемся, что этот тренд будет подхвачен другими компаниями и рынками, не только крупными —  разработчиками, заказчиками, вендорами. Безусловно, это должно повлиять на уровень доверия населения и уровень доверия международного сообщества к решениям, созданным на базе ИИ в России».

Алексей Сидорюк предложил участникам сессии обсудить три отрасли экономики, достигшие высокого уровня цифровой зрелости и активно внедряющие решения на базе ИИ — информационные технологии, телекоммуникации и финтех.

В дискуссии приняли участие:

  • Владимир Авербах, старший управляющий директор, начальник управления национального развития искусственного интеллекта ПАО «Сбер»
  • Александр Крайнов, директор по развитию технологий ИИ компании «Яндекс»
  • Александр Ханин, генеральный директор МТС AI
  • Ева-Мария Мюллер-Штулер, директор по работе с данными, технический директор IBM по искусственному интеллекту
  • Эрик Фаро, цифровой евангелист Orange

Всем участникам сессии были заданы три вопроса:

  1. с какими этическими проблемами реально сталкиваются разработчики ИИ при внедрении решений?
  2. примеры  самых актуальных этических проблем?
  3. как будет исполняться кодекс и контролироваться следование его принципам на уровне вашей компании?

Первым отвечал на вопросы модератора  Владимир Авербах, старший управляющий директор, начальник управления национального развития искусственного интеллекта ПАО «Сбер». Сбер — первая компания на отечественном рынке, которая самостоятельно, в проактивном режиме разработала положения этики искусственного интеллекта и внедрила их на уровне компании.

Владимир Авербах, старший управляющий директор, начальник управления национального развития искусственного интеллекта ПАО «Сбер»

Владимир Авербах отметил, что это одна из ключевых проблем  — как повысить доверие между разработчиками и теми, кто пользуется системами с ИИ.

«Мне кажется, что кодекс, который сейчас принят, это большой шаг к тому, чтобы эта проблема была снята», — подчеркнул Авербах.

Он напомнил, что, согласно опросам, только  половина россиян поддерживает развитие ИИ, и в этом — существенный  вызов для разработчиков.

Первым шагом на пути к решению проблемы стал  внутренний кодекс Сбера, который был принят год назад.

«Это принципы этики Сбера, в которые входят пять идей: безопасный ИИ, интерпретируемый ИИ, надежный ИИ, ответственный ИИ и непредвзятый и справедливый ИИ».

Авербах добавил, что одна из проблем, которая широко обсуждалась при создании кодекса —  должен ли ИИ сообщать пользователю, что он ИИ, а не человек, и если пользователя не устраивает решение ИИ, может ли он отменить его и передать вопрос сотруднику компании.

По словам Авербаха, в российском кодексе этики ИИ эта ситуация описана достаточно мягко: возможность отката решений ИИ и перевод на сотрудника предусмотрена «там, где это целесообразно». Для сравнения, в проекте принципов ЮНЕСКО, которые должны быть приняты в ноябре 2021 года, прописано прямое требование к разработчиком предусмотреть возможность задействовать человека, если пользователю не понравилось решение ИИ.

«Это такая больная проблема, потому что ИИ в конце концов будет во всех системах, которые нас окружают. И если мы во всех системах, в том числе в мобильном телефоне, будем требовать того, чтобы появился человек, и именно человек принял какое-то решение, либо откатил его, это  сильно замедлит развитие ИИ», — отметил Авербах.

«Мне кажется, что формулировка, которая прописана в российском кодексе, универсальна и на данный момент времени  удовлетворяет интересам большого круга и разработчиков, и пользователей, которые сталкиваются с системами ИИ», — заключил Авербах.

Следующий спикер —  Александр Крайнов, директор по развитию технологий ИИ компании «Яндекс». Яндекс на сегодняшний день также, как и Сбер, является одним из лидеров по разработке и внедрению ИИ:  он присутствует в умных колонках, в поисковых, аудиовизуальных сервисах и даже в беспилотном транспорте, который уже используется для доставки еды и посылок в Москве, Израиле и США.

Александр Крайнов, директор по развитию технологий ИИ компании «Яндекс»

«Фактически все, что было внесено в кодекс, довольно близко соответствует тем  правилам, которые у нас в Яндексе уже были внедрены и  опубликованы, — сказал Александр Крайнов. —  Реальная проблема, которая сейчас стоит перед нами в связи с использованием технологии ИИ —  это проблема дискриминации.

Мы загружаем в модель, когда она обучается — на рекомендации ли, на вынесение каких-то решений, на предоставление скидок — максимальное количество «сырых» данных. И в этих данных могут найтись такие корреляции, которые приведут к дискриминации каких-то групп людей или какого-то отдельного человека.

И это то, чего нельзя допустить. Даже разработчик, который делает эту систему, не имеет никаких данных про национальность (ну, например), но он взял и почему-то подал в модель имя человека. А из имени «вылезла» национальность. Или откуда-то в модель «пролез», скажем, номер телефона. А дальше выясняется, что по префиксу можно понять, из какой страны человек.

Я  сейчас провожу очень примитивные примеры, но когда анализируются действительно большие объемы сложных данных, может произойти ситуация, когда какая-то группа людей окажется дискриминирована.

И вот здесь большой вызов для всех разработчиков: построить системы, которые, даже если не предупреждают появления таких ситуаций, то анализируют получившиеся вердикты и смотрят, не произошло ли какой-либо дискриминации.

Еще очень важная вещь: когда мы обучаем наши модели, у нас есть некий математический таргет. И, если в целом мы большинству людей сделали лучше, вынося правильный вердикт, кажется — ну и хорошо, давайте внедрять.

Но если есть ошибка хотя бы на одном человеке  — это должно быть проблемой.

Здесь не может быть закона больших чисел. Каждая отдельная ошибка должна быть такой же серьезной проблемой, как и ошибка на тысячи человек.

В нашем комьюнити —  людей, которые занимаются машинным обучением и технологиями ИИ —  сложились прекрасные отношения  вне зависимости от того, в каких компаниях мы работаем.

В нашем комьюнити считает правилом хорошего тона рассказывать, на каких дата-сетах училась модель. Считается нормальным делиться моделями, делиться исходным кодом. И это очень здорово,  и это нашло отражение в кодексе этики, который прямо регламентируют, что интересы долгосрочного развития технологий выше, чем сиюминутные интересы конкуренции».

Александр Крайнов отметил, что в Яндексе есть комитет и есть специальный человек, офицер по этике, который ответственнен за то, чтобы с данными обращались правильно и аккуратно. По мнению Крайнова, некое количество таких комитетов — это не бюрократическая история, это способ избежать каких-то серьезных ошибок. Думаю, что такие структуры будут только расти и крепнуть».

Далее к дискуссии подключилась Ева-Мария Мюллер-Штулер, директор по работе с данными, технический директор IBM по искусственному интеллекту:

—  ИИ используется в наши дни для маленьких решений —  как нам принимать эти решения быстрее, дешевле и проще.  В какой университет пойти учиться, как получить  ту или иную работу.  А  от маленьких решений мы сможем перейти к решениям более высокого уровня. И эти решения имеют много рисков.

В прошлом мы думали, что ИИ будет править миром,  заберет рабочий места. Сейчас мы обеспокоены другим – как мы будем строить мир, в котором мы живем. И тут на первый план выходит вопрос предвзятости данных, соблюдения ИИ-решениями принципов diversity. Например,  использование неправильных  данных по чернокожим гражданам в здравоохранении в Америке создало большие проблемы.  Есть предвзятость в ИИ-решениях в некоторых государственных процессах, например, при распределении детей по школам. Было очень большое волнение среди учащихся: почему я должен учиться именно здесь, получать именно это образование?

Важно, чтобы решения ИИ всегда подходили человеку — например, температура в офисе, распознавание голоса, понимание, кто будет успешен на этом конкретном  рабочем месте. Вы должны быть уверены, что автомобиль, которым управляет ИИ,  верно распознает и соблюдает  скоростной режим. Важно,  чтобы ИИ не устаревал, принимал  правильные решения, использовал  корректные демографические данные.

Поэтому у нас в IBM есть этический кодекс, и мы хотим быть уверены, что наши проекты будут соблюдать все этические принципы по отношению к человеку. ИИ  должен быть прозрачным, справедливым, объясняемым и защищенным по данным.

Кроме того, ИИ должен постоянно обучаться, чтобы пользователи  были уверены, что ИИ принимает правильные решения.

Например, в банке ИИ должен объяснить, почему вы не можете получить кредит. И менеджер должен знать об этих решениях и понимать, что ответ был неправильным, если он был таковым. Тема объясняемости модели ИИ — одна из сложных. 

Вопрос предвзятости данных очень многогранный. Например, предвзятость может возникнуть по финансовым критериям, а может по демографическим и национальным. В результате решения будут неправильными. Особенно это опасно в судебных решениях и в здравоохранении.

Ева-Мария Мюллер-Штулер обратила внимание на безопасность датасетов, которые используются для обучения ИИ. По ее словам, нельзя просто копировать базы данных, нужно сначала убедиться, что данные в них безопасны и исключают формирование того или иного вида предвзятости.

Модератор Алексей Сидорюк предоставил слово слово Александру Ханину, генеральному директору МТС AI, отметив, что МТС является одним из лидеров, разрабатывающим и внедряющим собственные технологии ИИ в области чат-ботов, голосовых помощников, компьютерного зрения. Кроме того, МТС активно инвестирует в создание сетей нового поколения 5G и технологии edge computing.

Александр Ханин, генеральный директор МТС AI

Александр Ханин отметил, что одна из задач, которую ставит перед разработчиками МТС — это создавать такие ИИ-продукты, которыми бы они пользовались сами.

«Это сразу отсекает много неэтичных вещей. Вы не будете создавать такой продукт, который может принести вам вред. И это один из ключевых принципов нашей ДНК — мы делаем продукты, которые несут блага, несут безопасность — как нашим людям, так и нашим клиентам», — пояснил Ханин.

Еще одна проблема, с которой сталкиваются разработчики, — это беспокойство, что ИИ отберет у людей  рабочие места.

«Большое количество сотрудников колл-центров переживают, что ИИ со временем их заменит, — отметил Ханин.  —  Есть простая статистика, которая говорит, что уже в 2022 году, несмотря на все опасения, количество рабочих мест и объем экономики, которую создаст ИИ, примерно в два раза превысит то количество рабочих мест, которые трансформируются в более технологические.

И мы работаем над правильным информационным фоном,  над просвещением своих сотрудников, партнеров, клиентов в этой сфере».

Еще одна проблема, по словам Ханина, универсальная — где ограничиться системой поддержки, а где действительно отдать принятие решений системе: «Грань достаточно тонкая, и иногда мы объективно понимаем, что машина примет решение лучше. Но в ряде случаев нет законодательства и нормативного регулирования для того, чтобы машина принимала решение, либо это ведет к  каким-то этическим вопросам. Мы активно работаем над решением этой проблемы. Подход пока видится только индивидуальный».

На вопрос модератора о том, как МТС работает с клиентами, которые против общения с ИИ, Ханин заверил, что компания всегда предлагает клиенту возможность выбора — общаться ему с ИИ или переключиться на сотрудника.

«Нельзя заставить человека пользоваться только, допустим, чат-ботом. Нужно оставлять опцию пообщаться и с оператором. И на практике надо показывать преимущества. Как только преимуществ становится больше, чем минусов, люди постепенно начинают переходить на использование ИИ, сервисов, которые упрощают им жизнь»,

По словам Ханина, когда в Европе начали внедрять биометрические паспорта, для которых сделали отдельные пункты пропуска, почти никто из пассажиров ими не пользовался, предпочитая стоять в очередях. Однако  через некоторое время пассажиры обратили внимание, что люди с биометрическими паспортами проходят паспортный контроль значительно быстрее, и тоже стали получать их.

«Поэтому мы, давая выбор, понимаем, что наши клиенты, условно,  не хотят стоять в очереди, они хотят быть современными людьми и постепенно уходят в сторону удобства» , — резюмировал  А.Ханин.

Предоставляя слово Эрику Фаро, цифровому евангелисту Orange,

Алексей Сидорюк напомнил, что компания Orange является крупной технологической международной группой, в том числе, предоставляющей телекоммуникационные услуги. А в стратегии развития компании до 2025 года важное место отводится технологиям ИИ и большим данным.

Эрик Фаро отметил, что главная задача для технологических компаний — повысить уровень образования своих сотрудников и клиентов.

«Многие компании работают по принципу agile. Но для этого все члены команды должны быть одного уровня подготовки, хорошо друг друга понимать, знать обо всех последствиях, которые вызовут их действия», — отметил Фаро.

Он добавил, что то же самое касается и пользователей — люди с низким уровнем образования относятся к ИИ с недоверием и предрассудками, которые мешают им пользоваться сервисами.

По словам Фаро, дети, которые увлекаются компьютерными играми, лучше взрослых понимают особенности поведения ИИ, и чем оно отличается от действий реального человека.

«Именно эти дети будут в ближайшем будущем создавать ИИ-системы. Поэтому им уже сейчас нужно давать правильное образование, чтобы они стали в будущем инженерами в наших компаниях, — подчеркнул Фаро. —  Наша главная задача заключается в том, чтобы взять сервис — и обеспечить безопасность людей, использующих этот сервис. И нужно, конечно, вооружить их знаниями — это главное».

В формате блиц-опроса участники сессии обсудили — не окажутся ли компании, подписавшие кодекс, в ситуации  неконкурентного преимущества?

Александр Крайнов отметил, что те ограничения, которые есть в кодексе этики, никак компаниям не вредят: «Они, скорее, им помогают, потому что быть этичным — это довольно выгодно с коммерческой точки зрения. Для бизнесов, которые работают всерьез и вдолгую, быть этичными — это правильно.

Самое ценное, что есть у любой компании — это доверие пользователей. Кодекс этики — это способ это доверие поднять, подписать кодекс этики — это способ получить себе конкурентное преимущество, а не наоборот».

«То, что мы наши  принципы, которые давно существуют внутри компаний, основа нашего HR-бренда, вместе с подписанием кодекса этики  делаем публичными,  дает нам дополнительные преимущества», — считает Александр Ханин. .

Ева Мария Мюллер Штулер отметила, что «если клиенты доверяют компании, если они уверены, что могут безопасно использовать ИИ, — это и есть самое главное. Преимущество у тех компаний, которые могут утверждать, что их искусственный интеллект этичен, надежен, что он проверен и следует всем указаниям и нормам».

Алексей Сидорюк поинтересовался у участников сессии, стоит ли подобную инициативу — подписание кодекса этики — развивать не только на уровне компаний, но и на уровне стран, и по какой модели должно развиваться международное сотрудничество в этой части.

Александр Крайнов  подчеркнул, что технологии ИИ не принадлежат какой-то компании или стране: «И то же самое в вопросах этики ИИ. Я надеюсь, что у нас в нашем цифровом мире не будет государственных границ, а значит, у принципов этики тоже будет территориальных ограничений. Все продукты, которые мы разрабатываем, мы должны создавать с учетом интересов людей по всему миру, а не только наших соотечественников».

Александр Ханин напомнил, что во многих странах подобные кодексы уже подписаны и уже применяются: «Даже участвуя  в зарубежных тендерных процедурах, мы видим, что  прописанные  в кодексе нормы  присутствует в виде квалификационных требований. У  искусственного интеллекта нет ни границ, ни национальности, и хотелось бы, чтобы так и было».

Ева-Мария Мюллер-Штулер добавила,  что правительства  стран иногда стараются ограничить ИИ-технологии. Это касается определенных данных, которые связаны с  национальными интересами и национальной безопасностью. И тогда эти данные, конечно же, должны оставаться в стране:

«Поэтому наша компания старается использовать те стандарты, которые позволяют и странам, и правительствам, и компаниям понимать, в чем состоит риск. Необходимо защищать приватную информацию людей в нашей стране. И мы понимаем, что решения, которые, например, анализируют поведение людей в России, могут быть неприменимы к поведению людей где-нибудь в странах ЕС.

Самое главное, чтобы личные данные не покидали территорию стран. Это очень важный аспект. Поэтому искусственный интеллект должен быть сертифицирован, особенно, если он использует огромные объемы данных.»

В конце встречи Алексей Сидорюк поблагодарил участников за интересную дискуссию: «Мне кажется, у нас получилась оценка темы  этики ИИ на  360 градусов. Мы видим, что тема эта  достаточно сложная и противоречивая.  Но сегодня сделан большой шаг вперед, и мы надеемся, в том числе, на международное сотрудничество по этому вопросу».