Спорная разведка

За год количество судебных решений по спорам вокруг использования искусственного интеллекта выросло на 60%. Основными категориями споров стали использование технологий для взыскания долгов, гранты и соглашения на разработку ИТ-продуктов. Юристы утверждают, что полноценного правового регулирования данного направления в РФ пока нет, как и устойчивых подходов в прецедентном праве. Поэтому судьям практически не на что опираться при принятии решений. Но в то же время разбирательство может «подготовить основу для изменений в нормативной среде».

С марта 2023 года по март 2024 года российские суды вынесли 406 решений по спорам, связанным с использованием искусственного интеллекта, что на 60% больше, чем годом ранее, согласно исследованию РТМ Групп. Авторы отмечают, что за анализируемый период из 165 судебных исков исковые требования были удовлетворены полностью или частично в 53% случаев, а в 34% им было отказано. Год назад ситуация была фактически противоположной – 31% и 55,5% соответственно.

– Снижение количества удовлетворенных претензий стало следствием роста количества претензий, и говорить о тенденции в настоящее время нельзя. Устойчивые подходы в юриспруденции пока не выработаны, а потому у судей нет возможности обосновывать свои решения подобными примерами”, – поясняет руководитель дирекции юридической фирмы “Вегас Лекс” Кирилл Никитин.

В исследовании также названы основные категории споров. Это присуждение грантов на разработку IT-продуктов с использованием ИИ; споры по лицензионным соглашениям или договорам на разработку программного обеспечения с использованием ИИ; административные правонарушения вызовов или отправок с использованием искусственного интеллекта. Авторы исследования подчеркивают, что за этот период наиболее распространенной стала последняя категория: “Наиболее серьезные правонарушения встречаются в деятельности банков и коллекторских компаний”.

«Около 50% случаев — это административные правонарушения. Штраф для них обычно составляет около 100 тысяч рублей. Далее идут гражданские споры – около 40%. По грантам средняя сумма спора составляет около 12 млн руб., а по контрактам — 240 тыс. руб., говорит глава «РТМ-Групп» Евгений Царев. Он добавляет, что споры об авторских правах наименее вероятны – всего около 5%. «Внимание к теме ИИ растет, и в течение года мы ожидаем рост судебных разбирательств как минимум на 80%», — считает Царев.

XBNFNM   Приложение «Госуслуги.дом» планируется запустить по всей России в III квартале

МТС, Яндекс, Axenix, Just AI, ВК от комментариев отказались. Сбер, Visionlabs и Альянс внутри ИИ (Сбер, Газпром нефть, Яндекс, МТС, ВК и др.) не ответили.

Разработчик биометрических решений с использованием ИИ компания RekFaceys уточнила “Ъ”, что их клиенты получают неисключительные права на развертывание продукта на собственной инфраструктуре: “Пользователи нашего ПО на базе ИИ защищены законом о биометрии, где роли прозрачный. распределены и обозначены зоны ответственности участников. В сфере коммерческой биометрии мы не ожидаем значительного увеличения количества судебных разбирательств».

“До появления полноценного правового регулирования любой отрасли правила устанавливаются, в том числе и на уровне судебной практики”, – отмечает Кирилл Никитин. Управляющий партнер Semenov & Pevzner Роман Лукьянов считает маловероятным, что новая практика негативно повлияет на разработчиков ИИ. Скорее речь идет о “подготовке базы для изменения нормативных актов”, считает он: “Например, коллекторским организациям было предоставлено право звонить должникам через автоматизированного интеллектуального агента только с 1 февраля 2024 года. До этого момента активное внедрение технологий ИИ противоречило законодательству об использовании таких технологий, действовавшему на момент подготовки исследования.

«В соглашениях компаний-разработчиков ИИ уже есть положения об ответственности разработчика и непосредственного пользователя», — объясняет Дарья Носова, партнер юридической компании O2 Consulting. «Как правило, распределение ответственности напрямую зависит от того, кто осуществляет обучение и последующую настройку системы искусственного интеллекта. В этом случае разработчик снимает с себя ответственность и перекладывает ее и риск, связанный с использованием ИИ, на пользователя, который обучает систему самостоятельно».

Алексей Жабин, Анна Занина

Source