Page ID: 1008
Is Industry:
Is Category:
Query IDs:
Вид сверху

Этические вопросы технологий Искусственного Интеллекта – как избежать судьбы Вавилонской башни

Технологии Искусственного Интеллекта (ИИ) в современном мире являются полем активной рыночной конкуренции и нарастающего геополитического соперничества.  В связи с этим вопросы возможных этических пределов «цифровизации» и «ИИ-зации» общества сейчас стоят особенно остро. 

Однако, одним из основных препятствий для создания общепринятых этических норм разработки и использования искусственного интеллекта является тот факт, что ИИ – область, отличающаяся высокой онтологической неопределенностью. Сегодня одновременно существует более 100 определений «искусственного интеллекта», причем некоторые из них противоречат друг другу. Причин для этого много – назовем только несколько из них. 

Во-первых, сам англоязычный термин «artificial intelligence» можно толковать по-разному — и как «искусственный разум», и как «искусственные системы сбора и обработки данных», что, кстати, гораздо ближе по смыслу к изначальному значению термина, в том виде, как он был предложен на знаменитой Дартмутской конференции в 1956 году.

Вторая причина в том, что в последнее время в сферу ИИ пришло много людей с гуманитарным образованием, не привыкших оперировать предельно выверенными и безупречными с технической точки зрения формулировками. 

В-третьих, это результат попыток ряда интересантов (прежде всего, из числа крупных транснациональных корпораций) «переписать» устоявшуюся регуляторную базу информационно-коммуникационных технологий (ИКТ) под предлогом введения «новых старых» определений. В частности, под некоторые из предлагаемых определений искусственного интеллекта сейчас можно подогнать практически любую ИКТ. По этой причине процесс формирования регуляторной базы ИИ и, особенно, выработки общих норм этики разработки и использования ИИ сейчас подвержен значительной «турбулентности». Действительно, с точки зрения технического специалиста, сложно регулировать «то, не знаю что». Таким образом, на наш взгляд, сейчас ситуация в нормативном поле ИИ напоминает строительство Вавилонской башни на его позднем этапе…

В качестве показательного примера, стоит отметить тот факт, что в тексте проекта Рекомендации по этике ИИ, разработанной ЮНЕСКО, отсутствует четкое определение искусственного интеллекта под предлогом того, что «определение ИИ будет меняться с течением времени» (см п. I.2 Рекомендации).

В ООН и в других международных организациях, например, в Совете Европы, сейчас ведется активная работа по созданию международной нормативной базы по этике ИИ, однако, доминирующее мнение пока не сформировалось. На практике же крупные международные IТ-компании лоббируют сохранение текущего status quo или принятие международными организациями минимально возможных ограничений. Их цель проста: не допустить демонополизации рынка и роста конкуренции, а также появления легальных барьеров, позволяющих ограничить пока еще относительно свободный доступ на национальные цифровые и ИИ-рынки. 

С другой стороны, некоторые инициативы ООН (в том числе ЮНЕСКО) по международному регулированию соблюдения этических норм в сфере ИИ порой явно опережают события и не учитывают должным образом разный технологический потенциал стран. Так, в тексте вышеупомянутого проекта Рекомендации по этике ИИ прямым текстом содержатся указания на создание некой общемировой цифровой платформы по мониторингу этического использования и разработки ИИ-технологий с обязательным предоставлением данных от всех государств-членов ЮНЕСКО.

Как представляется, вопросы ИИ в ряде международных организаций стремительно политизируются, опережая при этом развитие технологической базы многих стран мира, что с точки зрения технических специалистов выглядит довольно странно. Действительно, по своей сути, современные технологии ИИ не представляют из себя ничего сверхъестественного.  В упрощенном виде современный искусственный интеллект (часто называемый «слабый ИИ»)  можно охарактеризовать как область ИКТ, которая является стеком технологий сбора, хранения и обработки больших массивов данных, к которым добавляются специальные вычислительные архитектуры, алгоритмы машинного обучения и поддерживающие технологии (например, интернет вещей). Таким образом, с технической точки зрения, бóльшая часть устоявшейся нормативной базы ИКТ вполне применима для регулирования ИИ, в том числе и большинства связанных с ним этических аспектов. 

Безусловно, появился ряд новых важных вопросов, связанных с глобальностью охвата, быстрой скоростью обработки данных, фейковыми новостями, активным использованием чатботов и пр., но они могут быть успешно решены шаг за шагом и без лишней спешки. 

Остается еще так называемый «сильный ИИ» (эквивалент «искусственного разума»), но он пока обитает только в научно-фантастических произведениях, так что регулировать тут на сегодняшний день нечего. Здесь уместно разве что сослаться на классиков научной фантастики, таких как Станислав Лем и Айзек Азимов, которые еще в прошлом веке подробно разобрали в своих произведениях многие этические вопросы связанные как с «сильным», так и со «слабым» ИИ.

На этом фоне вызывают определенные опасения такие тренды, как например, навязывание рядом международных организаций определенных шаблонов и методик по задействованию возможностей ИИ-систем в образовании, искусстве и культуре. В качестве иллюстрации достаточно упомянуть настойчивые призывы международных чиновников привлекать технологии ИИ к созданию творческого контента или внедрять их в процесс обучения работников сферы образования.

К сожалению, мало кто на международном уровне акцентирует внимание на необходимости соблюдения человекоцентричного подхода к регулированию ИИ. Казалось бы, чего уж проще – зафиксировать во всевозможных документах тезис о том, что человек имеет право на любом этапе разработки, внедрения или применения ИИ отменять или запрещать любые действия или решения, принимаемые ИИ. При этом за государством остается приоритет в обеспечении своих граждан таким правом. 

Кроме того, нетрудно отметить в соответствующих документах и важность баланса между развитием новейших технологий и защитой общечеловеческих ценностей и в целом понятия «человечность» (в которое входят конфиденциальность, эмоции, спонтанность, интуиция, духовность и т.д.). Однако в комплексном виде этого не происходит, поскольку в угоду политической конъюнктуре и новомодным веяниям «выдергиваются» лишь отдельные права, не посягать на которые ИИ будет обязан (та же пресловутая гендерная проблематика, хотя с технической точки зрения ИИ не имеет половой принадлежности и сама постановка вопроса лишена смысла). 

Помимо прав человека, весьма острые дискуссии ведутся по вопросам создания новой или модернизации существующей международной платформы (например, Форум ООН по управлению интернетом) по выработке общемировой ИИ-регуляторики. Активно обсуждается вопрос о создании некоего международного «супервайзера» по искусственному интеллекту, аккумулирующего и анализирующего информацию, поступающую от стран-членов ООН/ЮНЕСКО, а также осуществляющего надзорные функции в сфере соблюдения «режима применения ИИ» в мире (своего рода аналог ОЗХО или МАГАТЭ). 

Многие государства, включая Россию, придерживаются незыблемости фундаментального права выбора, сохраняющего за ними возможность «идти своим путем». Особенно это актуально для развивающихся стран, не готовых в настоящее время поддерживать в своей среде высокие технологические стандарты и требования к ИИ-системам. При этом вполне допускается выход на некие глобальные договоренности, не посягающие на цифровой суверенитет стран. 

Насколько актуальным является для России следование новомодным мировым тенденциям по обособлению тематики ИИ в самостоятельное направление с созданием соответствующей регулятивной базы, в том числе и по этике ИИ? 

Вопрос, несомненно, актуальный, и не зря руководство России уделяет ему большое внимание. Свое отражение эта тема нашла как в национальной стратегии ИИ, так и в федеральном проекте по искусственному интеллекту национальной программы «Цифровая экономика». Стоит также отметить, что в 2020 году в России создан Национальный Комитет по этике искусственного интеллекта при Комиссии Российской Федерации по делам ЮНЕСКО. 

Сейчас главное для России в этой области – сформировать и предложить мировому сообществу методически грамотный, консолидированный междисциплинарный подход к регулированию интеллектуальных систем на основе искусственного интеллекта. У России есть уникальный культурный, исторический, философский, методологическиий и научный задел в этом направлении, который можно развивать высокими темпами благодаря поддержке со стороны ФП по ИИ. Кроме того, Россия сейчас, по сути, единственная страна, которая систематически подчеркивает на всех уровнях необходимость научного подхода к выработке международной и национальной регуляторики ИИ. Однако эту задачу возможно решить только за счет скоординированных усилий представителей государства, инженеров-технологов, юристов, ученых в области математики, физики, информатики, философии, социальной психологии, медицины, других специалистов на стыке наук, включая исследователей в области природоподобных и НБИК*-технологий.

* НБИК технологии — синергетический комплекс нано-, био-, информационных и когнитивных технологий.

Максим Федоров

Вице-президент в области искусственного интеллекта и математического моделирования, Сколковский институт науки и технологий

Юрий Цветков

Эксперт по вопросам международного регулирования искусственного интеллекта и сквозных технологий