Новые законы о дипфейках поддержал кабмин и Верховный суд 

Новые законы о дипфейках поддержал кабмин и Верховный суд 

Российский парламент активно работает над законодательным регулированием использования технологий искусственного интеллекта (ИИ), особенно в контексте растущей угрозы мошенничества с применением дипфейков.  Поддержка проекта поправок в Уголовный кодекс (УК) со стороны кабинета министров и Верховного Суда сигнализирует о серьёзном подходе к проблеме.  Эти поправки, по мнению сенатора Алексея Пушкова и многих экспертов, должны быть максимально комплексными, охватывая не только существующие, но и потенциальные мошеннические схемы, которые непрерывно эволюционируют вместе с развитием ИИ.  Законодательство должно быть достаточно гибким, чтобы адаптироваться к быстро меняющемуся технологическому ландшафту, в котором новые способы злоупотребления ИИ появляются практически ежедневно.

Дискуссия о необходимости регулирования ИИ разворачивается не только в России, но и на глобальном уровне.  Еще несколько лет назад ряд ведущих специалистов в области ИИ выступили с инициативой временной приостановки некоторых направлений исследований, ссылаясь на потенциальные риски, связанные с неконтролируемым развитием этой технологии.  Опасения эти вполне обоснованы.  ИИ обладает огромным потенциалом как для созидания, так и для разрушения.  Возможность автоматизации многих процессов, улучшение медицинской диагностики, создание новых материалов - лишь малая часть позитивных аспектов. Однако, теневая сторона медали - это создание мощных инструментов для манипуляции, дезинформации и совершения преступлений.

Дипфейки,  термин, образованный от слов "deep learning" (глубинное обучение) и "fake" (подделка), являются ярким примером такого негативного потенциала.  Эта технология позволяет создавать реалистичные видео- и аудиозаписи, на которых изображен или слышен любой человек, даже если он никогда не произносил соответствующие слова или не участвовал в изображаемом событии.  Изначально дипфейки использовались для создания забавных видеороликов или пародий, однако быстро трансформировались в мощное оружие в руках мошенников и злоумышленников.  Они используются для распространения фейковых новостей, компрометации репутации, вымогательства и даже организации финансовых преступлений.  Например, дипфейк может имитировать голос руководителя компании, чтобы убедить сотрудника перевести деньги на подконтрольный злоумышленникам счёт.

Предложенные поправки в УК предусматривают введение использования дипфейк-технологий в качестве квалифицирующего признака в нескольких статьях, что позволит судам назначать более строгие наказания.  Речь идет о штрафах до 1,5 миллионов рублей и тюремном заключении до шести лет.  Однако, несмотря на концептуальную поддержку со стороны Верховного Суда и правительства,  в отзывах на законопроект поднимаются вопросы относительно формулировок и их точности.  Важно обеспечить баланс между защитой граждан от преступлений с использованием ИИ и предотвращением чрезмерных ограничений для развития самой технологии.  Законодательство должно быть достаточно конкретным, чтобы не препятствовать законному использованию ИИ в научных исследованиях, образовании, медицине и других областях.

Ключевым аспектом является определение критериев, по которым можно отличить законное использование дипфейк-технологий (например, в киноиндустрии или для создания обучающих материалов) от незаконного.  Необходимо разработать механизмы идентификации и верификации цифрового контента, позволяющие достоверно установить подлинность видео- и аудиозаписей.  Это может включать в себя разработку новых стандартов для маркировки цифрового контента, использование цифровых водяных знаков и создание специализированных программных инструментов для детектирования дипфейков.  Также важным направлением является повышение цифровой грамотности населения, обучение граждан распознаванию признаков дипфейков и методам защиты от мошеннических схем.

Дипфейки легко распространяются через интернет, и борьба с ними требует международного сотрудничества.  Обмен опытом между странами, разработка общих стандартов и создание международных механизмов для расследования преступлений, связанных с ИИ, являются необходимыми шагами.  В идеале, международные соглашения могли бы помочь установить общие правила этического использования ИИ,  установив "красные линии", за которые не должны выходить разработчики и пользователи этой технологии.

  • © Источник: Российская Газета
Юридический портал «Ваше Право»

Сетевое издание «Ваше право» зарегистрировано Роскомнадзором 09 июля 2024 г. (свидетельство Эл № ФС77-87728), доменное имя сайта – reiting-juristov.ru

Воспроизведение материалов полностью или частично без разрешения редакции запрещено. При воспроизведении материалов необходима ссылка на источник публикации – Юридический портал «Ваше право». Мнение редакции может не совпадать с точкой зрения авторов. Присланные материалы не рецензируются и не возвращаются.

Редакция Юридического портала «Ваше право» не предоставляет юридические консультации, контакты адвокатов и материалы дел.

18 +
Отдельные публикации могут содержать информацию, не предназначенную для пользователей до 18 лет.