• техническая документация;

• надзор человека за работой ИИ;

• транспарентность и доступность информации для пользователей;

• кибербезопасность;

• аудит кибербезопасности;

• регистрация в одной из стран ЕС;



Оценка комплаенса основных моделей ИИ с проектом закона ЕС об искусственном интеллекте


• контроль отдаленных последствий.

Нарушения правил повлечет штрафы до €30 млн или 6 % глобальной выручки.

Ученые из Стэнфордского центра Hai (Human-Centered AI) проанализировали действующие модели ИИ с точки зрения их соответствия новым правилам ЕС. Почти половина из них не дотянула и до 24 баллов по 48-балльной шкале[27].

Исследовательская компания Gartner выделила в отдельный тренд 2023 года системы управления рисками в сфере ИИ (AI Trust, Risk and Security Management – AI TRiSM). В качестве примера этического контроля ИИ Gartner приводит Датское управление бизнеса (DBA), которое выработало специальные методы. DBA устанавливает системы мониторинга, а также конкретными действиями проверяет справедливость аналитики ИИ. С помощью этого подхода уже контролируется 16 моделей ИИ, которые применяются в финтехе с совокупным объемом транзакций в миллиарды долларов[28].

В России законодательства в сфере ИИ не существует. По мнению руководителя практики по авторскому праву компании DRC Владимира Ожерельева, в нашей стране регулирование ИИ, скорее всего, пойдет по пути централизации управления нейросетями в руках государства и крупных корпораций. «Мы наблюдаем это как минимум в последних изменениях норм об обработке биометрических данных. Примеры злоупотреблений в сфере распознавания лиц уже заметны», – говорит он[29].

В 2021 году в России был принят Кодекс этики в сфере искусственного интеллекта[30], который, правда, не является обязательным. Ряд компаний, например «Сбер», имеют собственные этические нормы для систем ИИ (см. врез ниже)[31].



7 августа 2023 Конгресс США принял законопроект об ИИ, который обяжет компании бигтеха делиться датасетами с научными коллективами и стартапами, занимающимися созданием интеллектуальных систем. Законопроект исходит из того, что сейчас финансовые ресурсы, необходимые для сбора, хранения и управления массивами из петабайтов информации, есть только у ИТ-гигантов. Если доступ к этим массивам будет и у научного и предпринимательского сообщества, ИИ-разработки ускорятся[32].

В мае 2023 года HBR опубликовал подборку статей ведущих профессоров разных дисциплин – от истории до сomputer science – на тему этичности систем ИИ. Их выводы пессимистичны: ИИ-приложения разрабатывают и используют без оглядки на такие моральные ценности, как справедливость и достоинство человека, достоверность информации, личная безопасность и неприкосновенность частной жизни.

«Разработчики в Кремниевой долине десятилетиями действовали по принципу “двигайся быстрее, сметая все на своем пути”, – пишет Маргарет O’Мара, руководитель кафедры истории Университета Вашингтона. – Видеоигры в 1980-х, онлайн-платформы шопинга в нулевые, затем социальные сети, а теперь вот разговорный ИИ». И пока не известно, сколько и чего наломают разработчики в сфере ИИ, если не поставить их в четкие рамки закона[33], заключает автор. В другой статье HBR Цедал Нили[34] напоминает, что непрозрачность является оборотной стороной использования этих мощных систем. И поэтому лидеры бизнеса должны особенно ответственно подходить к инструменту ИИ, всякий раз оценивая его риски и документируя, в каких задачах и с какой целью он был задействован.

Евгения Чернозатонская –