×

На ПМЮФ рассмотрели возможность и необходимость правового регулирования ИИ

Эксперты обсудили варианты законодательного регулирования, учитывающего специфику применения технологий искусственного интеллекта
В частности, участники дискуссии подняли вопросы авторства созданных изображений, маркировки предметов, созданных с помощью дипфейков, автоматизации рутинных задач в суде, прозрачности алгоритмов и ответственности за вред, причиненный ИИ.

В рамках XI Петербургского международного юридического форума прошла сессия «Правовое регулирование искусственного интеллекта: от возможности к необходимости». Модератором мероприятия выступил управляющий директор, начальник центра регулирования AI ПАО «Сбербанк» Андрей Незнамов. Он затронул тему прав на результаты интеллектуальной деятельности, поскольку появляются генеративные нейросети, однако концепция регулирования сложилась давно и является консервативной. Модератор спросил, как будет меняться законодательство с учетом развития технологий, в частности искусственного интеллекта.

Начальник управления организации предоставления государственных услуг Роспатента Дмитрий Травников заметил, что система интеллектуальной собственности сформировалась еще в конце XIX в. По мнению спикера, ИИ может охраняться в качестве изобретения, однако изобретение – всегда техническое решение, а ИИ не имеет технических признаков, в связи с чем стоит подумать о расширении перечня объектов, которые могут охраняться в качестве изобретения.

Дмитрий Травников указал, что объект интеллектуальной собственности – это объект, который всегда создан результатом творческого труда, и в нем нет творчества в традиционном понимании, а потому сложно относиться к ИИ как к автору – тогда он наделялся бы правосубъектностью. Один из подходов подразумевает, что ИИ может охраняться как объект смежных прав, другой подход подразумевает, что продукт, созданный ИИ, может являться объектом косвенной охраны, то есть признается, что операции с продуктом будут фактически использованием ИИ, и права и охрана созданных им продуктов приравниваются к правовой охране самого ИИ. Однако предложенные подходы не лишены недостатков. Кроме того, заметил Дмитрий Травников, интеллектуальная собственность в большей части основана на международных соглашениях. Спикер указал также, что охрана объектов интеллектуальной собственности имеет территориальный характер – объект, как правило, охраняется в той стране, органом которой выдан патент.

Андрей Незнамов задал ему вопрос, стоит ли ожидать в ближайшие год-полтора соответствующие поправки в ГК, на что Дмитрий Травников ответил, что сферу необходимо регулировать, так как в противном случае кто-то просто прекратит разработки ИИ из-за отсутствия их охраны, а кто-то предпочтет оградить их коммерческой тайной.

Андрей Незнамов заметил, что последние лет 10 в мире развивается «регуляторная песочница», которую придумали, чтобы не вносить сходу изменения в кодексы, а в тестовом режиме ввести регулирование и посмотреть на практику. Модератор спросил у директора правового департамента Министерства экономического развития Льва Гершанка, какой сейчас статус у «песочниц». Тот ответил, что Минэкономразвития ответственно за формирование нормативной базы. В данный момент ИИ видится как объект инвестиций – можно вкладываться и развивать. Иной вариант – остаться «на обочине» развития различных технологий, а это уже вызов национальному суверенитету. В Минэкономразвития нацелены на развитие технологий, однако встает вопрос об оборачиваемости данных. ИИ не живет без базы данных и обучения, доступа к информационным системам. Законодательно Big Data нельзя использовать для обучения ИИ, а потому необходима корректировка закона. Лев Гершанок рассказал, что сейчас Минцифры совместно с Госдумой прорабатываются поправки в законы об информации и персданных, уже есть поручения президента. Направление движения – в сторону создания оборота обезличенных данных.

При этом Лев Гершанок задался вопросом: кто несет ответственность за вред, нанесенный искусственным интеллектом, если эта система сама обучается? «Но ее обучает и тот, кто обладает технологией. Этот вопрос в проработке», – заметил он. Спикер добавил, что не знает, как технология отразится на правоприменении: это либо эксперимент в праве, либо право на эксперимент. Он полагает, что законодательство не дает развиваться технологиям, но и сама технология еще не апробирована.

Переходя к следующей теме, Андрей Незнамов заметил, что в некоторых странах, в частности в Китае, законодательно закреплено, что сделанное с помощью ИИ изображение, копирующее реальных людей, должно быть маркировано. Вопрос о том, назрели ли такие законодательные изменения в России, он адресовал начальнику отдела развития технологий искусственного интеллекта Минцифры Веронике Строголевой.

Вероника Строголева заметила, что маркировка должна быть для того, чтобы люди понимали, что что-то сделано не реальным человеком. В то же время, когда оказывается госуслуга с использованием ИИ или принимается какое-то решение, то ответственным остается орган госвласти. ИИ не наделяется правосубъектностью, поэтому в рамках оказания государственных услуг такая маркировка не нужна. В то же время технология развивается, и вопрос взаимодействия с человеком этический. Возможно, стоит повысить доверие к технологии через кодекс этики, в котором указать, что человек имеет главенствующую роль при взаимодействии с технологией.

Далее заместитель председателя Благовещенского городского суда Амурской области Игорь Емшанов рассказал об экспериментах с ИИ, которые были проведены в регионе. Спикер отметил, что правосудие требует применения современных технологий, в том числе ИИ, и имеется три пути их внедрения. «Во-первых, это автоматизация рутинных задач, во-вторых, вопрос доступности правосудия, когда гражданин получает информацию о ходе рассмотрения дела, а в-третьих, прогностическое правосудие, когда оцениваются риски обращения в суд либо в виде концепции второго мнения судьи. Мы несколько лет реализуем программу технологического развития мировой юстиции Амурской области. Часть задач уже удалось реализовать, например автоматизировать приказное производство, где с помощью компьютерного зрения выявляются юридические сущности, чтобы в последующем их правильно использовать, в том числе в концепции второго мнения», – рассказал Игорь Емшанов, добавив, что это не совсем ИИ, но система работает.

Директор по научным проектам НИУ «Высшая школа экономики», председатель технического комитета № 164 «Искусственный интеллект» Росстандарта Сергей Гарбук задался вопросом, заслуживает ли ИИ того, чтобы его выделяли среди других систем обработки данных. Для ответа, по его мнению, нужно определиться с понятиями. К особенностям данной сферы относится слабая интерпретируемость. Сейчас у ИИ машинное обучение, и человеку сложно понять, почему в процессе обучения получилось то, что получилось. Это приводит к слабопредсказуемому реальному поведению при эксплуатации. К тому же во время эксплуатации ИИ доучивается. Другая особенность – работа с конфиденциальностью данных при обработке и накоплении. Кроме того, необходимо объективное сравнение функциональных возможностей ИИ с возможностями человека, потому что зачастую система ИИ используется вместо человека, и нужно быть уверенным, что качество не пострадает, а потребитель не будет ущемлен.

Андрей Незнамов отметил, что социальная приемлемость – одна из проблем любой новейшей технологии. Модератор спросил у директора по развитию технологий искусственного интеллекта ООО «Яндекс» Александра Крайнова о том, насколько реально обеспечить прозрачность алгоритмов.

Отвечая, Александр Крайнов заметил, что понять, почему формула приняла то или иное решение, – невозможно. Если начать ее упрощать, то она перестанет быть хорошей. Однако прозрачность может присутствовать. Самая удобная часть с точки зрения обеспечения прозрачности – объяснение цели, с которой обучалась эта формула. «Нейронная сеть, которая красиво пишет текст, на самом деле учится предсказывать следующее слово. Если посмотреть дата-сет, то можно понять, откуда такие ответы у ИИ и какие могут быть. Тогда становится понятно, как это работает с точностью до того, какую задачу решает ИИ», – пояснил он.

Андрей Незнамов спросил, что является конкурентным преимуществом России в рамках развития ИИ. На это Александр Крайнов ответил, что мы находимся во втором эшелоне и видим ошибки других: «Это позволяет быть более смелыми с точки зрения регуляторики, и наша задача – поддержать технологию».

Модератор заметил, что сейчас во всем мире появляются законодательные инициативы по регулированию ИИ. Он спросил у управляющего партнера Nextons, профессора кафедры информационного права и цифровых технологий Московского государственного юридического университета имени О.Е. Кутафина Виктора Наумова, какие тренды в ИИ появились, а какие нельзя было предсказать.

Виктор Наумов высказал предположение, что применение технологии ИИ приведет к деградации творческой мысли у большинства населения. Исходя из этого будут выстраиваться экономика и правовое регулирование. По мнению спикера, со временем будет введен запрет в сфере образования и науки на использование ИИ студентами и преподавателями. Однако понять, как сейчас право должно реагировать, сложно. «Логически – все права должны принадлежать пользователям технологии. Иной вариант – права на то, что делает ИИ, должны принадлежать разработчикам. Предусматривается и иной вариант – никаких исключительных прав не возникает, есть общественное достояние», – пояснил он, добавив, что, по его мнению, созданный с помощью ИИ продукт – это потребительский информационный объект.

Рассказать:
Яндекс.Метрика