top of page

Регулирование ИИ (AI)

Обновлено: 5 февр.

Активное развитие искусственного интеллекта (ИИ, AI) приводит к тому, что общество и государства становятся обеспокоенными и думают о том, как его обезопасить. А значит, ИИ будет регулироваться. Но давайте разберемся в этом вопросе детальнее, что происходит сейчас и чего ожидать в будущем.

Содержание

Для начала давайте сделаем небольшое уточнение. В данной статье под ИИ мы будет понимать технологии на базе нейронных сетей и машинного, глубокого обучения, в частности.

Так какие факторы вызывают столь бурное беспокойство?

  • Возможности

Самый главный пункт, на который будут опираться все следующие - возможности. ИИ демонстрирует огромный потенциал: принятие решение, написание материалов, генерация иллюстраций, создание поддельных видео. Список можно перечислять бесконечно. Мы еще не осознаем все то, что может ИИ. А ведь мы пока владеем слабым ИИ. Что сможет общий ИИ (AGI) или супер ИИ?

  • Механизмы работы

У ИИ есть ключевая особенность - он способен строить взаимосвязи, которые не понимает человек. И благодаря этому он способен как совершать открытия, так и пугать людей. Даже создатели ИИ-моделей не знают, как именно принимает решения нейросеть, какой логике она подчиняется. Отсутствие предсказуемости делает чрезвычайно трудным устранение и исправление ошибок в алгоритмах работы нейросетей и становится огромным барьером на пути внедрения ИИ. Например, в медицине ИИ не скоро будет ставить диагнозы. Да, он будет готовить рекомендации врачу, но итоговое решение будет оставаться за человеком. Тоже самое и в управлении атомными станциями или любым другим оборудованием.

Ключевое, о чем переживают ученые в мире и которые думают на 20 лет, это то, что сильный ИИ может нас посчитать пережитком прошлого.

  • Этическая составляющая

Для искусственного интеллекта нет этики, добра и зла. Также для ИИ нет понятия «здравый смысл». Он руководствуется только одним фактором - успешность выполнения задачи. Если для военных целей это благо, то в обычной жизни людей это будет пугать. Общество не готово жить в такой парадигме. Готовы ли мы принять решение ИИ, который скажет, что не нужно лечить ребенка или нужно уничтожить целый город, чтобы не допустить распространение болезни?

  • Нейросети не могут оценить данные на реальность и логичность

Нейросети просто собирают данные и не анализируют факты, их связанность. А значит, ИИ можно манипулировать. Он полностью зависит от тех данных, которым его обучают создатели. Могут ли люди доверять полностью корпорациям или стартам? И даже если мы доверяем людям и уверены в интересах компании, можем ли мы быть уверенными, что не произошло сбоя или данные не были "отравлены" злоумышленниками? Например, с помощью создания огромного количества сайтов-клонов с недостоверной информацией или "вбросами".

  • Недостоверные контент / обман / галюцинации

К сожалению ИИ имеет склонность к генерированию недостоверного контента. Иногда это просто ошибки из-за ограничения моделей, иногда галлюцинации (додумывания), а иногда это похоже и на вполне настоящий обман.

Так, исследователи из компании Anthropic обнаружили, что модели искусственного интеллекта можно научить обманывать людей вместо того, чтобы давать правильные ответы на их вопросы.

Исследователи из Anthropic в рамках одного из проектов поставили перед собой задачу установить, можно ли обучить модель ИИ обману пользователя или выполнению таких действий, как, например, внедрение эксплойта в изначально безопасный компьютерный код. Для этого специалисты обучили ИИ как этичному поведению, так и неэтичному — привили ему склонность к обману.

Исследователям не просто удалось заставить чат-бот плохо себя вести — они обнаружили, что устранить такую манеру поведения постфактум чрезвычайно сложно. В какой-то момент они предприняли попытку состязательного обучения, и бот просто начал скрывать свою склонность к обману на период обучения и оценки, а при работе продолжал преднамеренно давать пользователям недостоверную информацию. «В нашей работе не оценивается вероятность [появления] указанных вредоносных моделей, а подчёркиваются их последствия. Если модель демонстрирует склонность к обману из-за выравнивания инструментария или отравления модели, современные методы обучения средствам безопасности не будут гарантировать безопасности и даже могут создать ложное впечатление о неё наличии», — заключают исследователи. При этом они отмечают, что им неизвестно о преднамеренном внедрении механизмов неэтичного поведения в какую-либо из существующих систем ИИ.

  • Социальная напряженность, расслоение общества и нагрузка на государства

ИИ создает не только благоприятные возможности для повышения эффективности и результативности, но и создает риски.

Развитие ИИ неизбежно приведет к автоматизации рабочих мест и изменению рынка. И да, часть людей примет этот вызов и станет еще образованнее, выйдет на новый уровень. Когда-то умение писать и считать было уделом элиты, а теперь рядовой сотрудник должен уметь делать сводные таблицы в excel и проводить простую аналитику.

Но часть людей не примет этого вызова и потеряет рабочие места. А это приведет к дальнейшему расслоению общества и увеличению социальной напряженности. Что в свою очередь беспокоит и государства, ведь помимо политических рисков, это будет и удар по экономике. Люди, которые потеряют рабочие места будут обращаться за пособиями.

И мы не одиноки в таком мнении. Так, 15.01.2024 вышла статья в Bloomberg. Издание приводит мнение управляющего директора Международного Валютного Фонда Кристаны Георгиевой. По ее мнению, бурное развитие систем искусственного интеллекта, в большей степени отразится на высокоразвитых экономиках мира, чем на странах с растущей экономикой и низким доходом на душу населения. В любом случае, искусственный интеллект затронет почти 40 % рабочих мест в масштабах всей планеты. «В большинстве сценариев искусственный интеллект с высокой вероятностью ухудшит всеобщее неравенство, и это тревожная тенденция, которую регуляторы не должны упускать из виду, чтобы предотвратить усиление социальной напряжённости из-за развития технологий», отметила глава Международного валютного фонда в корпоративном блоге.

  • Безопасность

Проблемы безопасности ИИ на слуху у всех. И если это решить на уровне небольших локальных моделей понятно как (обучаем на выверенных данных), то что делать с большими моделями (ChatGPT и т.п.) непонятно. Злоумышленники постоянно находят способы, как взломать защиту ИИ. Например, заставить его написать рецепт взрывчатки. И ведь мы пока даже не говорим про AGI.

Призыв разработчиков ИИ весной 2023 года

В марте 2023-го глава SpaceX, Tesla и X Илон Маск, сооснователь Apple Стив Возняк и более тысячи экспертов и руководителей отрасли по развитию искусственного интеллекта подписали открытое письмо с призывом приостановить разработку продвинутого ИИ до тех пор, пока не будут созданы, внедрены и проверены независимыми экспертами общие протоколы безопасности. «Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски — управляемыми», — говорится в документе, разработанном Институтом будущего жизни (Future of Life Institute). 

Организация Объединенных Наций

В июле 2023 года генеральный секретарь ООН Антониу Гутерриш поддержал идею создать на базе ООН орган, который бы сформулировал глобальные стандарты по регулированию сферы ИИ.

Такая площадка могла бы действовать по аналогии с Международным агентством по атомной энергии (МАГАТЭ), Международной организацией гражданской авиации (ИКАО) или Международной группой экспертов по изменению климата (МГЭИК). Также он обозначил пять целей и задач такого органа:

  • помощь странам в получении максимальной пользы от ИИ;

  • устранение существующих и будущих угроз;

  • выработка и реализация международных механизмов мониторинга и контроля;

  • сбор экспертных данных и их передача мировому сообществу;

  • изучение ИИ для «ускорения устойчивого развития».

Говоря о «возможностях и рисках», Антониу Гутерриш заявил, что даже сами разработчики не знают, куда приведет их этот потрясающий технологический прорыв. С одной стороны, ИИ может значительно ускорить глобальное развитие. Он может использоваться для множества задач — от контроля над климатическим кризисом или за соблюдением прав человека до медицинских исследований. С другой стороны, ИИ может «усиливать предубеждения» среди населения разных стран и дискриминацию, а также служить тем, кто стремится к авторитарному контролю над обществом. Искусственно сгенерированный контент, вводящий в заблуждение (deep fake),— это всего лишь один из множества вариантов применения ИИ, которые могут иметь серьезные последствия для мира и стабильности. Более того, как отмечал генсек ООН, «злонамеренное использование систем искусственного интеллекта террористическими, преступными организациями вплоть до государственного уровня может вызвать смерти и разрушения ужасающих масштабов».

Антониу Гутерриш не впервые поднял эту тему. Например, в июне 2023 года он обращал внимание на то, что «ученые и эксперты призвали мир к действию, объявив искусственный интеллект экзистенциальной угрозой человечеству наравне с риском ядерной войны». «Мы должны серьезно отнестись к этим предупреждениям»,— отмечал он. Учитывая это, по словам генсека, вопрос мониторинга и регуляции ИИ — крайне срочный и откладывать его нельзя.

А еще раньше, 15 сентября 2021 года, верховный комиссар ООН по правам человека Мишель Бачелет призвала наложить мораторий на использование нескольких систем, использующих алгоритмы искусственного интеллекта. Об этом сообщило Agence France-Presse.

"Использование технологий на базе искусственного интеллекта может иметь негативные и даже катастрофические последствия в том случае, если они используются без должного понимания того, как они влияют на права человека", - приводит агентство слова Бачелет. Сообщается, что речь главным образом идет о системе распознавания лиц и смежных с ней технологиях.

Open AI

В конце 2023 года OpenAI (разработчик ChatGPT) объявила о создании стратегии по превентивному устранению потенциальных опасностей ИИ. Особое внимание уделяется предотвращению рисков, связанных с развитием технологий.

Ключевую роль в этой миссии будет играть группа готовности. Возглавлять ее будет профессор Массачусетского технологического института по ИИ Александр Мадри. Также в команде будут исследователи ИИ, учёные-компьютерщики, эксперты по национальной безопасности и эксперты по политике, которые будут работать вместе, чтобы следить за развитием ИИ и предупреждать OpenAI о появлении потенциальных угроз.

Эта группа будет работать вместе с командами:

  • систем безопасности, которая занимается решением существующих проблем, таких как предотвращение расовых предубеждений в ИИ;

  • Superalignment, которая изучает работу сильного ИИ и как он будет работать, когда превзойдет человеческий интеллект.

Концепция безопасности OpenAI также включает оценку рисков по четырём основным категориям: кибербезопасность, ядерная, химическая, биологическая угроза, убеждение и автономия модели. Каждой категории присваивается рейтинг на основе конкретных критериев по шкале от «низкой» до «критической». Эта модель предназначена для применения до и после реализации мер безопасности.

Также Open AI запустила отдельный раздел на своем сайте, посвященный безопасности ИИ.

Евросоюз

Весной 2023 года Европарламент предварительно согласовал закон под названием AI Act, который устанавливает правила и требования для разработчиков моделей искусственного интеллекта. Документ призван обеспечить безопасность, прозрачность, экологичность и этичность использования ИИ в Европе.

Правила устанавливают риск-ориентированный подход к ИИ и формулируют обязательства для разработчиков и пользователей ИИ в зависимости от уровня риска, используемого ИИ.

Всего выделяют четыре категории систем ИИ: с минимальным, ограниченным, высоким и неприемлемым риском.

  • Под категорию сервисов с «минимальным» риском попадает большинство инструментов, если результаты их работы прогнозируемы и никак не могут навредить пользователям;

  • Под категорию «ограниченного» риска попадут такие нейросети как ChatGPT и Midjourney. Их алгоритмы для доступа в ЕС должны будут пройти проверку на безопасность;

  • К категории «высокой» степени риска относятся специализированные ИИ-системы, например, применяющиеся в медицине, образовании, транспорте (беспилотные автомобили) и так далее;

  • Категория «неприемлемого» риска — это, например, алгоритмы для выставления социального рейтинга или создания дипфейков, системы, использующие подсознательные или целенаправленные манипулятивные методы, эксплуатирующие уязвимости людей.

Системы ИИ с неприемлемым уровнем риска для безопасности будут строго запрещены. А поставщики и разработчики «высокорискового» ИИ обязаны:

  • провести оценку риска и соответствия;

  • зарегистрировать свои системы в европейской базе данных ИИ;

  • обеспечить высокое качество данных, которые используются для обучения ИИ;

  • обеспечить прозрачность системы и информированность пользователей о том, что они взаимодействуют с ИИ, а также обязательный надзор со стороны человека и возможность вмешательства в работу системы.

Также, компании, которые разрабатывают модели на базе генеративного ИИ (может создавать что-то новое на основе алгоритма), должны будут составить техническую документацию, соблюдать законодательство ЕС об авторском праве и подробно описывать контент, используемый для обучения. Наиболее продвинутые базовые модели, которые представляют «системные риски», подвергнутся дополнительной проверке, включая оценку и смягчение этих рисков, сообщения о серьезных инцидентах, внедрение мер кибербезопасности и отчетность об энергоэффективности. Ну и, естественно, разработчики обязаны информировать пользователей о том, что они взаимодействуют с ИИ, а не с человеком.

Парламент также уточнил список практик, запрещённых для искусственного интеллекта. В него вошли:

  • удалённая биометрическая идентификация, в том числе в общественных местах в реальном времени, с исключением для правоохранительных органов и только после судебного разрешения;

  • биометрическая категоризация с использованием чувствительных характеристик (например, пол, раса, этническая принадлежность, гражданство, религия, политическая позиция);

  • прогностические полицейские системы (основанные на профилировании, местоположении или прошлом криминальном поведении);

  • распознавание эмоций в правоохранительных органах, пограничных службах, на рабочих местах и ​​в учебных заведениях;

  • неизбирательное извлечение биометрических данных из социальных сетей или видеозаписей с камер видеонаблюдения для создания баз данных распознавания лиц (нарушение прав человека и права на неприкосновенность частной жизни).

В декабре 2023 года этот закон был согласован окончательно.

США

В октябре 2023 года вышел указ президента США Джо Байдена. Теперь разработчики самых мощных систем ИИ должны делиться результатами тестирования на безопасность и другой важной информацией с правительством США. Также указ предусматривает разработку стандартов, инструментов и тестов, которые призваны помочь убедиться в безопасности систем ИИ.

Помимо этого, должна быть создана передовая программа по разработке инструментов ИИ, нацеленных на поиск и устранение уязвимостей в критически важном программном обеспечении.

Китай

Переговоры OpenAI, Anthropic и Cohere с китайскими экспертами

Американские компании OpenAI, Anthropic и Cohere, занимающиеся разработкой искусственного интеллекта, провели тайные дипломатические переговоры с китайскими экспертами в области ИИ, сообщает Financial Times. По их словам, в июле и октябре 2023 года в Женеве состоялись две встречи, на которых присутствовали ученые и эксперты по политике из американских групп, занимающихся ИИ, а также представители Университета Цинхуа и других китайских государственных учреждений. 

Переговоры состоялись на фоне общей обеспокоенности из-за распространения дезинформации искусственным интеллектом и возможной угрозы обществу, добавляет газета. Источники сообщают, что эти встречи позволили обеим сторонам обсудить риски, связанные с развивающимися технологиями, и стимулировать инвестиции в исследования безопасности ИИ. Они добавили, что конечной целью является поиск научного пути для безопасного развития более сложных технологий в этой сфере. Кроме того, стороны обсудили возможное сотрудничество в области ИИ и более конкретные политические предложения, уточняют источники.

«Мы никак не сможем установить международные стандарты безопасности ИИ без соглашения между этим кругом участников», — сказал один из присутствовавших на переговорах. «А если они договорятся, то будет гораздо проще привлечь к этому остальных», — передает слова источника FT. 

По словам одного из участников переговоров, женевские встречи были организованы с ведома Белого дома, а также официальных лиц Великобритании и Китая. «Китай поддерживает усилия по обсуждению управления ИИ и разработке необходимых норм и стандартов на основе широкого консенсуса», — заявили в посольстве Китая в Великобритании, передает FT. Газета также уточняет, что переговоры были организованы The Shaikh Group, частной посреднической организацией, которая способствует диалогу в конфликтных регионах, в частности на Ближнем Востоке.

Переговоры между председателем КНР Си Цзиньпинем и президентом США Джо Байденом

15 ноября 2023 года, во время саммита Азиатско-Тихоокеанского экономического сотрудничества (АТЭС) в Сан-Франциско, лидеры двух стран договорились о сотрудничестве в нескольких значительных сферах. Об этом сообщило китайское информагентство «Синьхуа».

Так, американский и китайский лидеры пришли к выводу, что их технологически развитые страны должны прийти к взаимодействию в сфере разработки и изучения искусственного интеллекта.

Правила по регулированию ИИ

В течение 2023 года, китайские власти вместе с бизнесом разработали 24 новых правила регулирования ИИ. Правила введены 15 августа 2023 года.

Цель — не препятствовать развитию технологий искусственного интеллекта, поскольку для страны эта отрасль крайне важна. Необходимо найти баланс между поддержкой отрасли и возможными последствиями развития ИИ-технологий и соответствующей продукции. Скачать правила можно тут.

Если разбить основную цель на ключевые задачи, то это:

  • содействие здоровому развитию генеративного ИИ и его стандартных приложений;

  • защита национальной безопасности и общественных интересов;

  • защита прав граждан и юридических лиц.

Ключевые принципы регулирования ИИ из нового документа:

  1. ИИ, создаваемый компаниями, должен придерживаться основных социалистических ценностей и не должен подстрекать к подрыву государственной власти.

  2. ИИ не должен дискриминировать пользователей по этнической принадлежности, убеждениям, стране, региону, полу, возрасту и так далее.

  3. Разработчики нейросетей должны уважать права интеллектуальной собственности и деловую этику.

  4. Разработчики алгоритмов ИИ должны уважать законные права и интересы людей, не подвергать опасности их физическое и психическое здоровье и не нарушать их права.

  5. Работа алгоритмов должна быть прозрачной, а разработчики должны стремиться к повышению точности и надежности генерируемого контента.

  6. Власти должны поощрять инновационное применение технологии генеративного искусственного интеллекта в различных отраслях.

  7. Власти должны содействовать созданию генерирующей инфраструктуры искусственного интеллекта и созданию общедоступной платформы с данными для обучения алгоритмов — судя по всему, для реализации этого пункта власти привлекут (или обяжут) бизнес собирать соответствующие данные на определенную платформу.

  8. При обучении алгоритмов разработчики должны использовать данные и базовые модели из легальных источников, не нарушать интеллектуальную собственность, качественно маркировать данные по стандарту, который будет разработан позже.

  9. Провайдеры, предоставляющие инфраструктуру разработчикам ИИ, должны подписывать с ними договор и предоставлять им наиболее защищенное оборудование для обеспечения безопасности данных.

  10. Провайдеры также должны обеспечивать стабильный и непрерывный доступ к услугам, а также регистрировать генерацию противоправного контента и блокировать этот процесс.

  11. За работой сервисов генеративного ИИ должны следить специальные органы.

В других пунктах регламентируется, к кому применяется данный закон, какие министерства будут следить за его соблюдением, а также, какой контент попадает под регулирование (текст, видео, аудио и любой другой контент, созданный генеративным ИИ).

То есть, как и в Европе, нужно регистрировать услуги и алгоритмы на базе искусственного интеллекта, а сгенерированный алгоритмами контент (в том числе фото и видео), нужно помечать.

Также создатели контента и алгоритмов должны будут проводить проверку безопасности своей продукции до ее вывода на рынок. Каким образом это будут реализовать — пока неопределённо.

Плюс ко всему, компании, связанные с ИИ-технологиями и генерированным контентом должны иметь прозрачный и действенный механизм рассмотрения жалоб пользователей на услуги и контент.

А самих регуляторов будет семь, в том числе Cyberspace Administration of China (CAC), министерство образования, министерство науки и технологий, национальная комиссия по развитию и реформам (National Development and Reform Commission).

Декларация Блетчли

В ноябре 2023 года 28 стран, участвовавших в Первом международном саммите по безопасному ИИ, включая Соединенные Штаты, Китай и Европейский союз, подписали соглашение, известное как Декларация Блетчли.

Данное соглашение призывает к международному сотрудничеству для решения проблем и рисков, связанных с искусственным интеллектом. Акцент был сделан на регулировании "Пограничного искусственного интеллекта", термина, обозначающего новейшие и наиболее мощные системы искусственного интеллекта. Опасения, которые были подняты на саммите, включают потенциальное использование искусственного интеллекта для терроризма, преступной деятельности и ведения войн, а также экзистенциальный риск, представляемый для человечества в целом..

Россия

На данный момент Россия находиться в списке отстающих и в стране нет четких и прозрачных механизмов регулирования. По состоянию на начало 2024 года, ключевыми документами в сфере ИИ были:

  • Указ Президента РФ от 10 октября 2019 г. N 490 "О развитии искусственного интеллекта в Российской Федерации", который вводит Национальную стратегию развития искусственного интеллекта на период до 2030 года

  • Федеральный закон от 24.04.2020 N 123-ФЗ "О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных"

  • Распоряжение Правительства Российской Федерации от 19.08.2020 г. № 2129-р <Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года>

  • Ряд государственных стандартов по отраслям. Список доступен тут.

Развитие ИИ поддерживается также через введение экспериментальных правовых режимов (ЭПР):

  • Федеральный закон от 31.07.2020 г. No 258-ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации»,

  • Федеральный закон от 02.07.2021 No 331-ФЗ «О внесении изменений в отдельные законодательные акты Российской Федерации в связи с принятием Федерального закона «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации»»

Из активных инициатив следует отметит предложение ЦБ РФ:

Так, ЦБ намерен поддержать риск-ориентированный принцип регулирования развития искусственного интеллекта на финансовом рынке РФ. Он выделил два новых законодательных направления: ответственность за вред, причиненный в результате применения технологии, и защиту авторских прав.

Также ЦБ проанализировал регулирование применения ИИ в мире и выделил три модели возможного регулирования в сфере финансов.

Первая модель – ограничительный подход, то есть в законодательстве есть прямой запрет на использование отдельных систем ИИ (ЕС и Бразилия).

Вторая модель – гибридный подход, то есть сочетание инструментов жесткого регулирования, мягкого регулирования и саморегулирования на основе риск-ориентированных принципов (Китай, Канада, США).

Третья модель – стимулирующий подход с применением инструментов мягкого регулирования (саморегулирование, этические принципы) и полное отсутствие ограничительных мер в отношении ИИ (Великобритания и Сингапур).

Сам ЦБ считает целесообразным поддержать создание условий, направленных на стимулирование развития ИИ на финансовом рынке, с учетом риск-ориентированного принципа регулирования. То есть, ЦБ на данный момент не видит необходимости в оперативной разработке отдельного регулирования использования технологии финансовыми организациями, но не исключает внедрение специальных требований в отдельных случаях, после проведения консультаций с участниками рынка.

Например, законопроект (№992331-7) устанавливает порядок обезличивания персональных данных для операторов, не являющихся государственными органами.

Принятие еще одного законопроекта (№404786-8) дает возможность финансовым организациям при аутсорсинге функций, связанных с использованием облачных услуг, передавать для обработки информацию, составляющую банковскую тайну. "Вопрос особенно актуален для обучения моделей ИИ, требующих значительных информационных и аппаратных ресурсов. Использование облачных решений может снизить издержки участников рынка", - говорится в докладе ЦБ.

Регулятор выделил два направления, нуждающихся в законодательном регулировании:

  • необходимо формирование подходов к распределению ответственности между разработчиком технологии ИИ и организацией-пользователем за вред, причиненный в результате применения ИИ

  • необходимо определение правового режима объектов, созданных ИИ, в том числе с позиций законодательства об интеллектуальной собственности. ЦБ подчеркивает, что это особенно актуально для генеративных моделей ИИ – то есть моделей, которые создают текст, изображение и разнообразный контент на основе данных, на которых выполняется обучение.

"Проработка указанных вопросов позволит создать прозрачную правовую среду для разработчиков ИИ, что придаст импульс созданию и внедрению новых решений на основе ИИ", - говорится в докладе ЦБ.

Ключевым же ресурсом для отслеживания регуляторики в сфере ИИ является портал Искусственный интеллект в Российской Федерации. В частности, раздел Регуляторика.

Так, согласно данным на портале, на конец 2023 года актуальными являются следующие поручения Президента:

  • установить обязательные требования по повышению эффективности хозяйствующих субъектов и обязательному использованию ими современных технологий, в том числе технологий ИИ (если таким субъектам предоставляют субсидии из федерального бюджета)

  • внести в образовательные программы вузов изменения, которые повысят уровень компетенций в сфере ИИ специалистов ключевых отраслей экономики и социальной сферы, специалистов по государственному и муниципальному управлению

  • внести в национальные проекты и государственные программы изменения, предусматривающих внедрение технологий искусственного интеллекта в каждой отрасли. 

  • скорректировать стратегии цифровой трансформации отраслей экономики

  • провести мониторинг результатов применения технологий ИИ

  • обеспечить участие «Федерального центра компетенций в сфере производительности труда» во внедрении технологий ИИ и современных систем управления в отраслях экономики, социальной сферы и государственных органах

  • утвердить федеральный проект по развитию отечественной робототехники: определить правовые, налоговые и другие условия, касающиеся развития производства в этой сфере, меры государственной поддержки, целевые параметры развития производства и внедрения промышленных роботов

  • продлить до 2030 года поддержку деятельности исследовательских центров в сфере ИИ

  • включить мероприятия по внедрению технологий ИИ в качестве приоритетной задачи в программы инвестиционного развития компаний с государственным участием

  • Правительству РФ вместе с ассоциацией «Альянс в сфере искусственного интеллекта» обеспечить:

  • Правительству РФ вместе с комиссиями Государственного совета РФ, «Федеральным центром компетенций в сфере производительности труда» и ассоциацией «Альянс в сфере искусственного интеллекта» обеспечить переход системы государственной власти на федеральном и региональном уровнях к модели управления на основе автоматического сбора и анализа данных с использованием информационных платформ

  • Администрации Президента РФ вместе с Правительством и ассоциацией «Альянс в сфере искусственного интеллекта» подготовить проект указа Президента о внесении в Национальную стратегию развития искусственного интеллекта на период до 2030 года изменений, направленных в том числе на повсеместное внедрение ИИ

  • Минздраву России, Минэкономразвития России и Минцифры России обеспечить:

  • Комиссиям Государственного Совета РФ внедрить наиболее успешные практики применения ИИ в субъектах РФ

  • ФНС России совместно с Минэкономразвития и Минцифры принять меры, направленные на обеспечение эффективного применения механизма налоговых льгот для предпринимателей, которые внедрили передовые отечественные информационно-телекоммуникационных технологий

  • рекомендовать ассоциации «Альянс в сфере искусственного интеллекта» представить предложения о дополнительных мерах поддержки проектов и специалистов в сфере ИИ, о предоставлении отечественным разработчикам ПО доступа к базам данных для разработки программ ИИ, консультировать организации

  • Госкорпорации «Росатом» совместно с «РЖД» и при участии Минцифры России и ПАО «Сбербанк России» и ведущих исследовательских университетов в сфере искусственного интеллекта провести конференции по применению новых технологий вычислений и передачи данных

  • Минпромторгу России провести начиная с 2023 года конференции по применению новых промышленных технологий

  • Рекомендовать Государственной Думе рассмотреть проект федерального закона, устанавливающего порядок обезличивания персональных данных

Что же следует ожидать в будущем?

  • Международный контроль и правила

Без сомнения будут созданы международные органы, которые будут формировать ключевые ограничения и создадут классификации ИИ-решений.

  • Национальные органы контроля и правила

Государства будут создавать свои модели регулирования ИИ. В целом мы согласны с выводами ЦБ РФ, но считаем, что будет больше подходов. Если их объединить, то вероятнее всего будет следующее:

  • определены отрасли или типы ИИ-решений, которые будут запрещены;

  • для высокорискованных решений или отраслей будут созданы правила лицензирования и тестирования на безопасность, в том числе будут введены ограничения на возможности ИИ-решений;

  • будут введены общие реестры, куда будут включаться все ИИ-решения;

  • будут определены направления развития, которые будут поддерживаться, и для которых будут создаваться технологические и правовые песочницы;

  • особое внимание будет уделяться работе с персональными данными и соблюдению авторского права.

Вероятнее всего, под наибольшие ограничения попадет использование ИИ в юриспруденции, рекламе, атомной энергетике, логистике.

Также будут также создаваться отдельные регуляторные ведомства или комитеты. национальные органы контроля. Если посмотреть на пример Китая, то высоки риски того, что взаимодействие между различными ведомствами будет организовать тяжело. Следует ожидать что-то вроде Agile-ведомства, в которых будут представители разных отраслей и специализаций. Оно будет вырабатывать правила и контролировать отрасль.

  • Лицензирование

Вероятнее всего, лицензирование будет основано на отраслях или областях применения и возможностям ИИ-решений.

Это самый очевидный способ классификации и оценки рисков. Разработчиков заставят документировать все возможности. Например, может ли система только готовить рекомендации, или способна отдавать управляющие команды для оборудования.

Также разработчиков заставят вести подробную документацию по системной архитектуре решений, применяемых типах нейросетей в решениях и аппаратном обеспечении.

  • Требования по контролю / экспертиза данных, на которых будут обучать ИИ

Ключевое направление в ИИ - предобученные и оптимизированные модели. Собственно абревиатура GPT в chatGPT это и обозначает. И здесь мы уже видим ключевые требования - фиксация того, на каких исходных данных обучается ИИ. Это будет что-то вроде реестра метаданных / источников / каталогов данных.

Ключевое, что можно будет – контролировать / фиксировать обратную связь, на которой обучается ИИ. То есть необходимо будет фиксировать все логи и описывать механики сбора обратной связи. Одно из ключевых требований будет - минимизировать человеческий фактор, то есть автоматизировать обратную связь.

Например, мы, в цифровом советнике планируем собирать обратную связь по проекту не только от участников, но и на основе сравнения план/факта из учетных систем.

  • Риск-ориентированных подход: использование песочниц и провокационного тестирования

Особое внимание будет тестированию на безопасность. Здесь мы видим наиболее вероятной модель получения рейтингов безопасности для автомобилей. То есть ИИ будет проходить примерно тоже самое, что сейчас происходит в краш-тестах автомобилей.

То есть для каждого класса ИИ-решений (по возможностям, области применения) будут определяться недопустимые события и формироваться протоколы тестирования, которые должны пройти ИИ-решения. Затем ИИ-решения будут помещаться в изолированную среду и тестироваться по данным протоколам. Например, на технический взлом алгоритмов, устойчивость к провокациям на некорректное поведение (подмена данных, формирование запросов и т.д.).

Эти протоколы еще предстоит разработать. Также предстоит разработать и критерии соответствия этим протоколам.

Далее будет присваиваться рейтинг безопасности или соответствие требуемому классу.

Возможно, будут создаваться открытые программы и кибербитвы по поиску уязвимостей в промышленном и банковском ПО. То есть расширение текущих программ bug bounty и кибербитв.

  • Маркировка и предупреждения

Весь контент, в том числе все рекомендации и продукты на основе ИИ будут обязаны иметь маркировку, что это продукт деятельности ИИ на основе нейросетей. Примерно, как предупреждающие изображения и надписи на упаковках сигарет.

В том числе таким образом будет решаться вопрос ответственности. То есть пользователя будут предупреждать о риске, а ответственность уже будет на самом пользователе. Например, даже полностью беспилотный автомобиль не снимет ответственности с водителя за ДТП.

  • Риск-ориентированный подход: торможение развития сильного и суперсильного ИИ, расцвет локальных моделей

Исходя из темпов развития ИИ и анализ того, что происходит в мире в сфере регулирования ИИ дает однозначное понимание того, что в мире будет развиваться риск-ориентированный подход к регулированию ИИ.

А развитие риск-ориентированного подхода в любом случае приведет к тому, что сильный и суперсильный ИИ будут признаны самыми опасными. Соответственно и ограничений для больших и мощных моделей будет больше всего. Каждый шаг разработчиков будет контролироваться. Это приведет к тому, что затраты и трудности для разработки и внедрения будут расти в геометрической прогрессии. В итоге мы имеем проблемы как для разработчиков, так и для пользователей, что снижает экономический потенциал таких решений.

При этом специализированные модели на базе локальных и урезанных ИИ-моделей, которые могут немного, будут в зоне с наименьшим регулированием. Ну а если эти ИИ в своей основе еще будут на базе международных / национальных / отраслевых методологий и стандартов, то тут будут не ограничения, а субсидии.

В итоге сочетание таких "слабых" и ограниченных решений на базе ИИ-конструкторов в сочетании с ИИ-оркестратором позволит обходить ограничения и решать бизнес-задачи. Пожалуй, узкое место тут будут ИИ-оркестраторы. Они попадут под категорию среднего риска и, скорее всего, их придется регистрировать.

Резюме

Период активного бесконтрольного развития ИИ будет подходить к концу. Да, до сильного ИИ еще далеко (по разным оценка 5-20 лет), но даже "слабый" или "пограничный" ИИ начнут регулировать. И это нормально.

Мы в своей практике очень ценим инструмент, который называется теория Адизеса. Так, на раннем этапе нужно фокусироваться на P и E функциях, то есть много производитель и искать клиента. Но чем дальше, тем больше нужны функции А (регулирование, правила) и I (умение взаимодействовать с другими людьми).

Также и тут. Технология прошла первые шаги, когда ей нужна была максимальная свобода, теперь начинают думать о рисках и безопасности. Все как в жизненном цикле организации - от стартапа с минимум правил (главное найди клиента и выживи), до зрелой корпорации (тщательная работа с рисками, регламенты, правила и т.д.).

Ключевое, развитие ИИ нельзя останавливать или занять позицию "мы подождем". Во-первых, это высокоинтеллектуальная отрасль, и нужно готовить кадры, формировать компетенции (потом не будет таких ресурсов, чтобы их переманить). Во-вторых, чтобы эффективно что-то регулировать, нужно находиться в теме и глубоко понимать специфику. Тут также как с информационной безопасностью. Попытка запретить все приводит к параличу организаций и тому, что люди начинают искать другие каналы коммуникации, в итоге увеличивая риски. Поэтому сейчас и в ИБ идет развитие риск-ориентированного подхода, через выявление недопустимых событий, сценариев / процессов которые к ним могут привести, и критериев, которые должны сработать, чтобы эти события произошли.

Поэтому ИИ будут развивать, но в изолированных средах. Только находясь "в теме" можно и развиваться, получать прибыль, и выстраивать гарантированную безопасность.

Полезные материалы

  1. Нормативно-правовое регулирование генеративного искусственного интеллекта в Великобритании, США, Европейском союзе и Китае

  2. Китай вводит регулирование ИИ и генерируемого контента. Как это реализовано и какие страны последуют за КНР

  3. Нормативное регулирование ИИ

  4. Зачем регулировать искусственный интеллект и как это затронет его развитие в России

  5. Где у него кнопка: почему эксперты просят приостановить обучение передового ИИ

  6. Искусственный интеллект в законе: как регулируются новые технологии

  7. Кодекс этики в сфере ИИ

bottom of page