3.5 Стандарты на этичный искусственный интеллект

Авторы раздела
Готовцев П. М.
Ройзензон Г. В.

Время чтения — 6 минут
В разработке комплекта стандартов этичного ИИ участвует российская рабочая группа, члены которой стали авторами данного раздела. Стандарты IEEE устанавливают не жесткие ограничения, а минимально допустимый уровень надежности ИИ систем. Впоследствии они могут стать стандартами по умолчанию для всех устройств с ИИ, производимых и эксплуатируемых в большинстве стран мира.
Этика И И предполагает, что с этической и правовой точек зрения функционирование технической ИАС будет обеспечено не хуже, чем если бы такой системой управлял человек. Общественные интересы требуют, чтобы решение этих вопросов не оставалось на усмотрение производителей. Предстоит создать этическую систему координат для соответствующей техники, но крайне важно не допустить чрезмерного регулирования: жесткие этические стандарты для всех систем ИИ затормозят развитие отрасли, если не сведут его на нет. Подходы к созданию такой системы могут быть различными, и общие рекомендации по этим подходам закреплены в ряде международных, государственных и отраслевых документов (см. раздел 3.8). Одна из наиболее примечательных инициатив этой области связана с созданием целого ряда стандартов, регулирующих этически обусловленное проектирование интеллектуальных и автономных систем.
Стандарты разрабатываются крупной международной организацией ― Институтом инженеров в области электротехники и электроники (Institute of Electrical and Electronics Engineers, IEEE), который объединяет не только классических специалистов-электротехников и электронщиков, но и представителей смежных областей — специалистов по компьютерной технике, программированию, ИИ и др.
Технический стандарт — это основные технические требования, которым должны соответствовать все устройства, разрабатываемые и используемые в стране, ратифицировавшей данный стандарт. Обычно при стандартизации стремятся уменьшить отрицательные эффекты технологий на человека и максимизировать положительные.
Исторически сложилось, что IEEE — одна из крупнейших международных организаций, которая среди многих своих задач ставит разработку технических стандартов. Как правило, стандарты IEEE ратифицируются в большинстве стран, в том числе в России. Вся электроника, которая нас окружает, соответствует этим стандартам.
Инициатива по стандартизации в области ИИ и данных зародилась благодаря стремлению многих специалистов из разных областей науки определить позицию по поводу этики при работе с системами ИИ. Первый установочный документ Ethically Aligned Design описывает в целом существующие в этой сфере вопросы, затрагиваемые области науки и рекомендует дополнительные источники по теме. В создании документа участвовало более 700 экспертов со всего мира: не только программисты и специалисты по ИИ, но и философы, культурологи, психологи, нейроученые и др., представившие взгляды на проблему с разных сторон. Свой вклад вносит Российская междисциплинарная рабочая группа по этике ИИ, в частности, она участвует в разработке стандартов P7011 и P7013.
Российская рабочая группа IEEE по тематике «Этика и искусственный интеллект» (руководитель — П. М. Готовцев, Москва).
Стандарты IEEE не ограничивают и не запрещают разработку ИИ, программ, математических методов, появление новых идей из гуманитарных областей, но задают им направление (карточки). В большинстве областей не используются жесткие запреты, за исключением атомной энергетики и некоторых других. Стандарты IEEE не противоречат тем стандартам, которые сейчас обсуждают в ООН (см. раздел 3.8). Проекты стандартов IEEE — это не попытка перекрыть или сузить бурный «поток прогресса», а сознательные усилия, направленные на то, чтобы отвести этот поток от близлежащей деревни, которую он может затопить.
Кроме того, с большой вероятностью в течение ближайших лет этичность систем ИИ станет конкурентным преимуществом даже в ситуации, когда стандарты на этичные системы еще не будут приняты. Уже сейчас отдельные производители позиционируют свое ПО как более «независимое», безопасное в плане слежки за пользователями и «этичное». «Этичность», «ответственность» и «независимость» ПО и ИС — это тренд следующих лет, если не десятилетия.
Наиболее яркий пример такого позиционирования ПО пока не из области ИИ, это браузер Mozilla Firefox, его слоган: «Мы делаем Интернет безопаснее, здоровее, быстрее и ответственнее. Мы создаем продукты и поддерживаем политику, что Интернет создан для людей, а не для прибыли».

Принятие стандартов охраны окружающей среды стимулировало колоссальный технический прогресс в сфере энергетики. В генерации энергии ископаемые виды топлива заменил газ, появились мощные газовые турбины, работающие уже на бинарных циклах с более высоким коэффициентом полезного действия, новые системы рекуперации энергии, новые виды аккумуляторов и полимерных материалов. Стала развиваться возобновляемая энергетика.

Наиболее примечательные проекты этических стандартов IEEE

P7001. Transparency of Autonomous Systems (Прозрачность автономных систем)
Стандарт представляет собой руководство для оценки прозрачности в процессе разработки ИИ и предлагает механизмы для повышения прозрачности (например, обязательное защищенное хранение данных датчиков и данных о внутреннем состоянии аналогично регистратору данных полета или «черному ящику»)
P7002. Data Privacy Process (Обеспечение конфиденциальности данных)
Стандарт ориентирован на защиту приватности граждан и в основном касается использования персональных данных граждан рекламными сетями при помощи ИАС. Для стандартизации пока выделены несколько групп: участники взаимоотношений «работник — работодатель», дети (несовершеннолетние), студенты
P7003. Algorithmic Bias Considerations (Учет необъективности алгоритма)
Стандарт вполне может стать одним из первых, принятых в качестве базовых. Он обязывает разработчиков, в первую очередь систем машинного обучения, как самого популярного сейчас направления, ответственно подходить к данным, используемым для обучения, к их разметке, к тестированию и валидации систем
P7004. Standard for Child and Student Data Governance (Управление данными детей и студентов)
Стандарт должен будет регулировать работу алгоритмов с данными детей и учащихся. Защита прав детей и детства — одна из важнейших задач социальной политики любого государства. С развитием ИИ технологий увеличивается риск того, что машины в результате общения друг с другом будут принимать решения на основе входных данных, непрозрачных для людей, по принципу «черного ящика»