Александр Ханин отметил, что одна из задач, которую ставит перед разработчиками МТС — это создавать такие ИИ-продукты, которыми бы они пользовались сами.
«Это сразу отсекает много неэтичных вещей. Вы не будете создавать такой продукт, который может принести вам вред. И это один из ключевых принципов нашей ДНК — мы делаем продукты, которые несут блага, несут безопасность — как нашим людям, так и нашим клиентам», — пояснил Ханин.
Еще одна проблема, с которой сталкиваются разработчики, — это беспокойство, что ИИ отберет у людей рабочие места.
«Большое количество сотрудников колл-центров переживают, что ИИ со временем их заменит, — отметил Ханин. — Есть простая статистика, которая говорит, что уже в 2022 году, несмотря на все опасения, количество рабочих мест и объем экономики, которую создаст ИИ, примерно в два раза превысит то количество рабочих мест, которые трансформируются в более технологические.
И мы работаем над правильным информационным фоном, над просвещением своих сотрудников, партнеров, клиентов в этой сфере».
Еще одна проблема, по словам Ханина, универсальная — где ограничиться системой поддержки, а где действительно отдать принятие решений системе: «Грань достаточно тонкая, и иногда мы объективно понимаем, что машина примет решение лучше. Но в ряде случаев нет законодательства и нормативного регулирования для того, чтобы машина принимала решение, либо это ведет к каким-то этическим вопросам. Мы активно работаем над решением этой проблемы. Подход пока видится только индивидуальный».
На вопрос модератора о том, как МТС работает с клиентами, которые против общения с ИИ, Ханин заверил, что компания всегда предлагает клиенту возможность выбора — общаться ему с ИИ или переключиться на сотрудника.
«Нельзя заставить человека пользоваться только, допустим, чат-ботом. Нужно оставлять опцию пообщаться и с оператором. И на практике надо показывать преимущества. Как только преимуществ становится больше, чем минусов, люди постепенно начинают переходить на использование ИИ, сервисов, которые упрощают им жизнь»,
По словам Ханина, когда в Европе начали внедрять биометрические паспорта, для которых сделали отдельные пункты пропуска, почти никто из пассажиров ими не пользовался, предпочитая стоять в очередях. Однако через некоторое время пассажиры обратили внимание, что люди с биометрическими паспортами проходят паспортный контроль значительно быстрее, и тоже стали получать их.
«Поэтому мы, давая выбор, понимаем, что наши клиенты, условно, не хотят стоять в очереди, они хотят быть современными людьми и постепенно уходят в сторону удобства» , — резюмировал А.Ханин.
Предоставляя слово Эрику Фаро, цифровому евангелисту Orange,
Алексей Сидорюк напомнил, что компания Orange является крупной технологической международной группой, в том числе, предоставляющей телекоммуникационные услуги. А в стратегии развития компании до 2025 года важное место отводится технологиям ИИ и большим данным.
Эрик Фаро отметил, что главная задача для технологических компаний — повысить уровень образования своих сотрудников и клиентов.
«Многие компании работают по принципу agile. Но для этого все члены команды должны быть одного уровня подготовки, хорошо друг друга понимать, знать обо всех последствиях, которые вызовут их действия», — отметил Фаро.
Он добавил, что то же самое касается и пользователей — люди с низким уровнем образования относятся к ИИ с недоверием и предрассудками, которые мешают им пользоваться сервисами.
По словам Фаро, дети, которые увлекаются компьютерными играми, лучше взрослых понимают особенности поведения ИИ, и чем оно отличается от действий реального человека.
«Именно эти дети будут в ближайшем будущем создавать ИИ-системы. Поэтому им уже сейчас нужно давать правильное образование, чтобы они стали в будущем инженерами в наших компаниях, — подчеркнул Фаро. — Наша главная задача заключается в том, чтобы взять сервис — и обеспечить безопасность людей, использующих этот сервис. И нужно, конечно, вооружить их знаниями — это главное».
В формате блиц-опроса участники сессии обсудили — не окажутся ли компании, подписавшие кодекс, в ситуации неконкурентного преимущества?
Александр Крайнов отметил, что те ограничения, которые есть в кодексе этики, никак компаниям не вредят: «Они, скорее, им помогают, потому что быть этичным — это довольно выгодно с коммерческой точки зрения. Для бизнесов, которые работают всерьез и вдолгую, быть этичными — это правильно.
Самое ценное, что есть у любой компании — это доверие пользователей. Кодекс этики — это способ это доверие поднять, подписать кодекс этики — это способ получить себе конкурентное преимущество, а не наоборот».
«То, что мы наши принципы, которые давно существуют внутри компаний, основа нашего HR-бренда, вместе с подписанием кодекса этики делаем публичными, дает нам дополнительные преимущества», — считает Александр Ханин. .
Ева Мария Мюллер Штулер отметила, что «если клиенты доверяют компании, если они уверены, что могут безопасно использовать ИИ, — это и есть самое главное. Преимущество у тех компаний, которые могут утверждать, что их искусственный интеллект этичен, надежен, что он проверен и следует всем указаниям и нормам».
Алексей Сидорюк поинтересовался у участников сессии, стоит ли подобную инициативу — подписание кодекса этики — развивать не только на уровне компаний, но и на уровне стран, и по какой модели должно развиваться международное сотрудничество в этой части.
Александр Крайнов подчеркнул, что технологии ИИ не принадлежат какой-то компании или стране: «И то же самое в вопросах этики ИИ. Я надеюсь, что у нас в нашем цифровом мире не будет государственных границ, а значит, у принципов этики тоже будет территориальных ограничений. Все продукты, которые мы разрабатываем, мы должны создавать с учетом интересов людей по всему миру, а не только наших соотечественников».
Александр Ханин напомнил, что во многих странах подобные кодексы уже подписаны и уже применяются: «Даже участвуя в зарубежных тендерных процедурах, мы видим, что прописанные в кодексе нормы присутствует в виде квалификационных требований. У искусственного интеллекта нет ни границ, ни национальности, и хотелось бы, чтобы так и было».
Ева-Мария Мюллер-Штулер добавила, что правительства стран иногда стараются ограничить ИИ-технологии. Это касается определенных данных, которые связаны с национальными интересами и национальной безопасностью. И тогда эти данные, конечно же, должны оставаться в стране:
«Поэтому наша компания старается использовать те стандарты, которые позволяют и странам, и правительствам, и компаниям понимать, в чем состоит риск. Необходимо защищать приватную информацию людей в нашей стране. И мы понимаем, что решения, которые, например, анализируют поведение людей в России, могут быть неприменимы к поведению людей где-нибудь в странах ЕС.
Самое главное, чтобы личные данные не покидали территорию стран. Это очень важный аспект. Поэтому искусственный интеллект должен быть сертифицирован, особенно, если он использует огромные объемы данных.»
В конце встречи Алексей Сидорюк поблагодарил участников за интересную дискуссию: «Мне кажется, у нас получилась оценка темы этики ИИ на 360 градусов. Мы видим, что тема эта достаточно сложная и противоречивая. Но сегодня сделан большой шаг вперед, и мы надеемся, в том числе, на международное сотрудничество по этому вопросу».