Минэкономразвития предложило механизм, который позволит урегулировать случаи причинения вреда технологиями искусственного интеллекта. Как компании в «цифровых песочницах» будут страховать такие риски, узнал РБК
Минэкономразвития разработало механизм, который обеспечит компенсацию вреда, причиненного в результате применения технологий искусственного интеллекта (ИИ) в рамках экспериментальных правовых режимов. Соответствующие поправки (есть у РБК) предложены в закон «Об экспериментальных правовых режимах в сфере цифровых инноваций». Законопроект о внесении изменений в данный закон был одобрен на заседании комиссии правительства по законопроектной деятельности 4 декабря, сообщил РБК источник в комиссии и подтвердил второй собеседник, знакомый с повесткой комиссии.
Предполагается, что участников экспериментальных правовых режимов (ЭПР) в сфере цифровых инноваций (так называемых цифровых песочниц) обяжут страховать ответственность за негативные последствия их применения. А если такие последствия наступили, анализировать ситуацию будет специальная комиссия с участием регуляторов.
В пресс-службе Минэкономразвития пояснили РБК, что использование ЭПР направлено на то, чтобы «апробация даже такого сложного инструмента, как ИИ, была безопасной и последовательной, чтобы можно было зафиксировать, в каких отраслях, в каких бизнес-процессах его можно применять эффективно и какие при этом правовые механизмы могут это обеспечить». РБК направил запрос в аппарат правительства.
Законопроект о регуляторных «песочницах» в сфере цифровых инноваций вступил в силу в начале 2021 года: он позволяет инициатору (компании или индивидуальному предпринимателю) «защитить» программу экспериментального правового режима перед органами власти и начать тестировать новейшие технологии (ИИ, блокчейн, большие данные, нейротехнологии и т.д.), соблюдая существующее законодательство с рядом особенностей в течение определенного времени. В настоящее время в реестре ЭПР, который ведет Минэкономразвития, числится 12 действующих режимов, и в четырех из них официально заявлено применение технологий ИИ — в том числе у ООО «Яндекс.Испытания» и ООО «Сбер Автомотив Технологии». На данный момент каких-либо инцидентов не зафиксировано, сообщили РБК в пресс-службе Минэкономразвития.
В конце ноября 2023 года президент России Владимир Путин, выступая на конференции по искусственному интеллекту и машинному обучению Artificial Intelligence Journey 2023, сообщил, что правительство по его поручению подготовило изменения в закон об ЭПР в сфере цифровых инноваций, которые в том числе устанавливают «ответственность за причинение вреда здоровью, жизни или имуществу в результате тестирования использования прорывных технологий». Он попросил правительство в сжатые сроки внести проект в Госдуму, чтобы решения вступили в силу в 2024 году.
Страхование ущерба от ИИ
Законопроект Минэкономразвития направлен в том числе на предупреждение и минимизацию возникновения негативных последствий использования технологий ИИ, говорится в пояснительной записке. Для этого предлагаются следующие нововведения.
Субъекты экспериментального правового режима (в основном это юрлица, но также могут быть и госорганы, в том числе региональные) будут обязаны вести реестр лиц, вступивших с ним в правоотношения, и в этом реестре должна будет содержаться информация об ответственных за использование решений, основанных на ИИ. Кроме того, законопроектом предлагается обязать компании вести реестр результатов интеллектуальной деятельности, созданных с применением ИИ, с указанием их правообладателя.
В реестре будет отображаться информация о лицах, непосредственно работающих с технологиями ИИ, которые «в случае возникновения нештатных ситуаций будут нести ответственность за неправильную эксплуатацию таких технологий», отмечается в сопроводительных материалах к поправкам.
Предполагается, что участникам «цифровых песочниц» будет предписано страховать гражданскую ответственность за причинение вреда жизни, здоровью или имуществу других лиц в результате использования ИИ. Программа экспериментального режима (акт спецрегулирования с условиями режима) должна будет содержать требования к условиям такого страхования — в том числе к минимальному размеру страховой суммы, перечню рисков и страховых случаев.
Поправки к закону об ЭПР в цифровой сфере были размещены Минэкономразвития для антикоррупционной экспертизы весной 2023 года, и в той версии не содержалось положения об обязательном страховании ответственности за вред, причиненный технологиями ИИ.
Как такового специального режима ответственности в связи с использованием ИИ в российском праве нет, комментирует адвокат адвокатского бюро «Шварц и партнеры» Иван Купцов. «В общем использование ИИ может быть как орудием (например, при воздействии на компьютерную информацию, например, или при распространении компьютерной информации), так и средством (например, при передаче заведомо ложной информации) любого правонарушения: гражданско-правового деликта, административного правонарушения, преступления. Однако в таких случаях по общему правилу ответственность возможна лишь при наличии вины», — указывает он.
Можно говорить, что общемировой тренд сейчас — это расширение ответственности в связи с использованием ИИ, поскольку алгоритмы ИИ все больше и больше позволяют получать неправомерный доступ к компьютерной информации, неправомерно воздействовать на информационную инфраструктуру, получать несанкционированный доступ к той или иной тайне, добавляет Купцов. «Видится совершенно правильным и своевременным установление правил о страховании ответственности за использование ИИ», — заключает он.
Один из важных юридических вопросов, связанных с внедрением систем искусственного интеллекта: кто будет нести ответственность в случае причинения вреда роботами — например, если беспилотный автомобиль создаст ДТП, говорит председатель правления Ассоциации юристов России Владимир Груздев.
Реакция страховых компаний на новый продукт
В целом страхование ответственности перед третьими лицами означает, что если в результате каких-либо неумышленных, случайных, непреднамеренных действий наносится ущерб третьей стороне, включая вред здоровью или материальный ущерб, то страховщик выплачивает возмещение за лицо, ответственность которого застрахована, объясняет генеральный директор «Национальной страховой информационной системы» (НСИС) Николай Галушин. Но в части ИИ «все новое, беспрецедентное», и предстоит определить границы применения ИИ, в том числе этического характера. «По страхованию одни вопросы… Чью ответственность страховать? Того, кто запустил проект, или самого ИИ, вышедшего из-под контроля? И этот самый ИИ — это кто? Как его идентифицировать?» — размышляет он.
По данным Минэкономразвития, в рамках ЭПР в настоящее время распространена практика страхования их субъектами гражданской ответственности за причинение вреда при реализации режима, а «предлагаемые изменения позволят рассмотреть вопрос рисков с разных сторон».
Одним из примеров может быть риск гражданской ответственности причинения вреда беспилотным автомобилем (на данный момент законопроект о страховании этой ответственности находится в стадии разработки), говорит президент Всероссийского союза страховщиков (ВСС) Евгений Уфимцев. «Само по себе страхование ответственности за причинение вреда в результате использования ИИ ставит ряд новых для юридической и страховой практики вопросов. Например, кто несет ответственность в случае ДТП с беспилотным автомобилем: пассажир, производитель автомобиля, разработчик ПО?» — перечисляет Уфимцев. Убытки от взлома/ошибок ИИ будут, скорее всего, более редкими, но и гораздо более масштабными, нежели от обычных страховых событий, предупреждает он.
Рынок страхования ИИ будет развиваться, но драйвером этого развития должна стать определенная законом ответственность разработчиков ИИ, считает начальник управления страхования ответственности «Ингосстраха» Дмитрий Шишкин. «Как только государство начнет активнее регулировать отрасль разработки и применения ИИ, спрос на страхование вырастет», — уверен он. Исполнительный директор СОГАЗ Анар Бахшалиев на сегодня не видит «широкого спроса конкретно на страхование рисков, связанных с ИИ». Но, по его словам, можно ожидать, что вместе с расширением использования технологий ИИ будет возникать и спрос на включение данных рисков в страховое покрытие.
Руководитель департамента андеррайтинга СК «МАКС» Алексей Фомичев говорит, что у них в компании еще нет страхования ответственности подобного рода, но он согласен, что направление станет рано или поздно востребованным. «Совкомбанк Страхование» пока также не имеет в портфеле таких продуктов. «Так как сама технология еще новая и ее применение только-только входит и в нашу жизнь, и в бизнес, набор рисков и страховых событий будет расширяться, конструкция продукта будет меняться по мере развития как рынка, так и технологии ИИ», — указали там.
Руководитель отдела страхования корпоративной ответственности и финансовых линий «Абсолют Страхования» Алексей Алькин рассказал, что их компания предлагает клиентам комплексное страхование профессиональной ответственности IT-компаний (professional indemnity for IT professionals), где в том числе предусмотрено покрытие ответственности страхователя перед третьими лицами (включая заказчиков услуг), возникшей в результате ошибок, упущений страхователя в программировании (оказании IT-услуг). «С развитием технологий ИИ и отражением этого развития в законодательстве (речь про регулирование в сфере ИИ, правовые аспекты распределения ответственности между пользователем ИИ и его разработчиком), несомненно, возникнет необходимость модернизировать страховые продукты, настроив покрытие и тарифы под новые специфические риски, возникающие при работе ИИ», — полагает он.
Специальная комиссия
В случае, если причинение ущерба по вине ИИ произошло, в течение 30 дней после этого события предполагается формировать специальную комиссию «для установления причин и определения лиц, ответственных за вред». В ее состав войдут представители регулирующих органов, а также при необходимости «иные заинтересованные лица» — участники экспериментального режима, представители предпринимательского сообщества, эксперты, граждане, следует из законопроекта Минэкономразвития.
В связи с этим министерство намерено в свое время выпустить приказ, который утвердит порядок формирования и работы такой комиссии, говорится в сопроводительных материалах.
По итогам работы комиссия будет готовить заключение о причинах произошедшего, обстоятельствах, указывающих на виновность лиц, а также о необходимых мерах по возмещению вреда. При этом она будет иметь право запрашивать у участников эксперимента документы и информацию, в том числе данные реестров участников и результатов интеллектуальной деятельности (эти сведения организации обязаны будут предоставлять по запросу в течение двух рабочих дней). Такое заключение комиссия будет обязана опубликовать в интернете.
Сложности регулирования ИИ
В октябре 2021 года в России был подписан Кодекс этики в сфере искусственного интеллекта (среди авторов — Минэкономразвития). В нем говорится, что за все последствия работы систем всегда должен отвечать человек (физическое или юридическое лицо). Кодекс носит рекомендательный характер. Различные организации указывали на риски использования ИИ. Так, ВОЗ призвала с осторожностью использовать искусственный интеллект в медицине, отметив, что чат-боты могут предоставлять неверную информацию о здоровье и делиться чувствительными данными о болезнях пользователей.
В отдельных областях применения искусственного интеллекта редко возникает риск нанесения вреда в больших масштабах, считает лидер направления «искусственный интеллект» Softline Digital Максим Милков. «Однако, если речь идет о технологиях беспилотного транспорта, использующих алгоритмы искусственного интеллекта, риски возможны. Тем не менее они могут быть застрахованы аналогично страхованию запуска спутников в космос», — высказался Милков.
Отдельный вопрос, по его словам, касается ответственности за последствия, вызванные сбоями в работе искусственного интеллекта. Например, сбой в распознавании лица может привести к допуску постороннего, потенциально опасного человека в защищенный периметр. Вопрос о том, несет ли ответственность разработчик данного сервиса, остается неоднозначным, считает Милков. Системы оперируют вероятностями, и, несмотря на минимальную степень, риск ошибки в любом случае допустим, поэтому при проектировании подобных сервисов следует учитывать этот факт и использовать дополнительные слои защиты.
Когда говорят о вреде, причиненном искусственным интеллектом, нужно понимать, что речь идет о широком спектре потенциальных проблем, считает директор центра разработки Artezio (входит в группу «Ланит») Дмитрий Паршин. В их числе он назвал нарушение конфиденциальности данных или физический ущерб от автономных систем, таких как беспилотные автомобили. По его словам, вопрос ответственности за использование технологий ИИ поднимался в России еще во время обсуждения проекта запуска автомобильного автопилота. И главной темой для дискуссии экспертов было определение стороны ответственности: кто виноват в ДТП — искусственный интеллект автомобиля или его разработчик. «Четкого понимания нет до сих пор, так как разработчики сами не до конца понимают, как работает искусственный интеллект. Поэтому если сейчас решить, что ответственность за работу решения несут разработчики, то можно получить не совсем справедливую модель наказания», — указал Паршин.
Уже известны ошибки в системах распознавания лиц и аварии с участием автономных транспортных средств, добавил эксперт. Это показывает, что проблемы реальны. «Конечно, существуют программы, позволяющие застраховать риски, связанные с искусственным интеллектом. Это может быть страхование от ошибок и упущений для разработчиков или страхование гражданской ответственности для пользователей. Но если риски будут серьезными, такие страховые программы будут очень дорогими и недоступными для стартапов», — предупреждает он.
Технический директор лаборатории Neuraldeep.tech by red_mad_robot Артем Лысенко отмечает, что современный ИИ способен выдавать результаты, выходящие за пределы данных, на которых он обучался, адаптироваться под запросы пользователя. Это влечет большое количество ситуаций, когда люди по ошибке или непониманию основ работы таких технологий принимают их за рекомендации профессионала, что может причинить вред здоровью и имуществу, подчеркнул он. «Также от генеративного искусственного интеллекта можно получить запрещенную информацию и материалы. Это может подвергаться фильтрации и цензуре аналогично любой другой публичной информации, но ввиду особенностей технологии полностью все предусмотреть невозможно. Вопрос, на ком должна лежать ответственность в этих случаях, остается открытым», — считает Лысенко.