Image default
Нейросети

Как законопроект о регулировании ИИ повлияет на Россию: ответ экспертов

Hi-Tech Mail узнал у ИТ-специалистов мнение о законопроекте, который закрепляет правила разработки и использования искусственного интеллекта в стране.Авторы и экспертыАндрей БритенковРедактор Hi-Tech MailЕкатерина ЯсаковаАвтор Hi-Tech MailДмитрий ДемидовРуководитель лаборатории инноваций «Норбит»Дмитрий ВасильевПродакт-менеджер ИИ-направления «Онланты»Дмитрий МарковГенеральный директор VisionLabsКирилл ДьяковСтарший юрист MWS AI

Законопроект о регулировании технологий искусственного интеллекта в России определяет развитие индустрии на годы вперед, однако власти должны сохранять открытый диалог со всеми заинтересованными сторонами. Такое мнение в разговоре с Hi-Tech Mail высказали эксперты из ИТ-индустрии, комментируя разработанный Министерством цифрового развития документ.

Минцифры представило проект закона о регулировании ИИ 18 марта. Его авторы отметили, что любые технологии должны применяться только с соблюдением прав и интересов граждан. Подробнее об инициативе можно прочитать в материале Hi-Tech Mail.

Старший юрист MWS AI (входит в МТС Web Services) Кирилл Дьяков в беседе с Hi-Tech Mail отметил, что законопроект впервые в России и одним из первых в мировой практике стремится учесть и сбалансировать интересы всех ключевых участников рынка ИИ. Отдельно он подчеркнул важность вынесения документа на публичное обсуждение, назвав такой подход безусловно позитивной и необходимой практикой.

Дьяков также отметил, что сегодня ни одна ИИ-технология не существует полностью вне open source экосистемы, а выбор в пользу максимально «отечественного» решения в промышленности, культуре, образовании и госсервисах не должен снижать эффективность. По словам юриста, практика MWS AI показывает, что более 95% крупнейших российских компаний внедряют ИИ на собственной инфраструктуре в закрытом контуре, обеспечивая необходимый уровень безопасности. При этом, как подчеркнул Дьяков, любые обязательные требования к подтверждению соответствия моделей критериям «русского народного» ИИ, должны вводиться поэтапно и сопровождаться четкими процедурами, критериями и сроками, чтобы не допустить остановки действующих сервисов и потерь для экономики.

Генеральный директор VisionLabs Дмитрий Марков в разговоре с Hi-Tech Mail подчеркнул, что в компании считают риск-ориентированный подход лучшим на данный момент. Это означает, что регулирование не только различается для разных отраслей, но и зависит от уровня риска внутри отдельного направления. «Например, последствия неправильной работы ИИ при использовании технологии оплаты по лицу в метро немного другие, нежели, допустим, при его применении на атомной станции», — отметил Марков.

Он также назвал «точно неуместными» повсеместные запреты и жесткое регулирование индустрии. Например, страны, которые прибегали к такому подходу, начали смягчать законодательство.

Сейчас рынок на начальном этапе развития, и слишком жесткое регулирование приведет к тому, что он перестанет развиваться и российские разработчики станут менее конкурентоспособны как на внутреннем рынке, так и на международном. Это приведет к оттоку ведущих разработчиков из страны.Дмитрий МарковГенеральный директор VisionLabs

Отдельно Марков заявил, что разработка полностью отечественного ИИ требует очень высоких инвестиций, которые сложно окупить. Как правило, внутри любой сложной системы используются компоненты зарубежного ПО, которые могут быть как опенсорсными, так и платными, сказал эксперт. Также глава VisionLabs отметил, что отследить использование оберток или API к зарубежным моделям будет крайне сложно, но тем не менее возможно.

Дмитрий Васильев, продакт-менеджер ИИ-направления компании «Онланта» (входит в группу компаний «Ланит») в комментарии для Hi-Tech Mail назвал разработанный законопроект «долгожданной и амбициозной попыткой создать для России целостный кодекс об ИИ». Он отметил, что пока это рамочный документ, который при этом четко очерчивает контуры будущего цифрового суверенитета и задает вектор развития рынку на годы вперед.

Впервые на законодательном уровне четко разделяются понятия разработчика, оператора, владельца сервиса и пользователя. Это критически важно для правоприменения. Раньше, если нейросеть «ошибалась», было непонятно, кто за это ответственен: тот, кто написал код, тот, кто обучил модель на своих данных, или тот, кто выдал конечный результат. Теперь мы видим попытку выстроить «цепочечную» ответственность, что приближает регуляторику ИИ к стандартам безопасности в промышленности или на транспорте.Дмитрий ВасильевПродакт-менеджер ИИ-направления «Онланты»

Васильев назвал интересным разделение на «суверенные/национальные» и «доверенные» ИИ-модели. По его словам, если бизнес захочет получить льготы и поддержку, то ему нужно строить цепочку создания стоимости внутри страны, от кода до данных. «Это мощный стимул для локализации, но и вызов для бизнеса, который привык брать open source решения из-за рубежа и дообучать их», — подчеркнул эксперт.

Читать далее:
Adobe представила ИИ-помощника для Photoshop

Доверенные модели, в свою очередь, стали вопросом национальной безопасности. Как считает Васильев, это означает, что для критической инфраструктуры появится ГОСТ на нейросети, и модели будут пускать в госорганы только после фильтрации через ФСБ и Федеральную службу по техническому и экспортному контролю. Эксперт обратил внимание и на формулировку об ответственности при использовании ИИ «соразмерно степени вины». Разработчик и владелец сервиса будут отвечать, если «должны были знать» о возможности вреда. Однако вопрос в том, что считать исчерпывающими мерами предотвращения вреда, поэтому законопроект пока оставляет пространство для судебных толкований.

Васильев также считает обязанность маркировать ИИ-контент и удалять сгенерированные материалы без такой пометки «прямым продолжением логики закона о фейках и борьбы с дипфейками».

С технической точки зрения, это трудновыполнимая задача: современные генеративные модели позволяют создавать контент, который детекторы ИИ не отличают от человеческого. На практике это приведет либо к развитию мощных систем мониторинга (надзора) за сетью, либо к тому, что платформы будут перестраховываться и удалять все подряд, что может задеть добросовестных пользователей.Дмитрий Васильевпродакт-менеджер ИИ-направления «Онланты»

Руководитель лаборатории инноваций «Норбит» Дмитрий Демидов, комментируя законопроект в разговоре с Hi-Tech Mail, подчеркнул, что документ будет проработан в процессе публичного обсуждения с учетом мнений и возможностей всех сторон, связанных с ИИ.

Часть инициатив выглядит вполне разумно, например категоризация, хотя критерии еще нужно внимательно проанализировать. Меры, которые обязывают разработчиков ИИ-решений вводить механизмы цензурирования, выглядят понятными, когда их просто читаешь, но с точки зрения реализации рискуют оказаться либо невыполнимыми, либо запредельно трудоемкими и дорогими. В этом месте баланс между возможностями для развития ИИ и регуляторной нагрузкой может оказаться в таком положении, что темпы развития ИИ упадут.Дмитрий Демидовруководитель лаборатории инноваций «Норбит»

Демидов добавил, что в целом поддерживает инициативу регулирования, однако считает, что для развития ИИ ограничения должны накладываться «только на совсем уж злонамеренное использование технологий, чтобы не тормозить развитие отрасли».

Похожие записи

Глава OpenAI поблагодарил программистов и заявил, что их время вышло

admin

Появился феномен «зажаренных из-за ИИ мозгов»: что происходит

admin

Google добавила в почту новые умные функции: что поменялось

admin