Российский парламент активно работает над законодательным регулированием использования технологий искусственного интеллекта (ИИ), особенно в контексте растущей угрозы мошенничества с применением дипфейков. Поддержка проекта поправок в Уголовный кодекс (УК) со стороны кабинета министров и Верховного Суда сигнализирует о серьёзном подходе к проблеме. Эти поправки, по мнению сенатора Алексея Пушкова и многих экспертов, должны быть максимально комплексными, охватывая не только существующие, но и потенциальные мошеннические схемы, которые непрерывно эволюционируют вместе с развитием ИИ. Законодательство должно быть достаточно гибким, чтобы адаптироваться к быстро меняющемуся технологическому ландшафту, в котором новые способы злоупотребления ИИ появляются практически ежедневно.
Дискуссия о необходимости регулирования ИИ разворачивается не только в России, но и на глобальном уровне. Еще несколько лет назад ряд ведущих специалистов в области ИИ выступили с инициативой временной приостановки некоторых направлений исследований, ссылаясь на потенциальные риски, связанные с неконтролируемым развитием этой технологии. Опасения эти вполне обоснованы. ИИ обладает огромным потенциалом как для созидания, так и для разрушения. Возможность автоматизации многих процессов, улучшение медицинской диагностики, создание новых материалов - лишь малая часть позитивных аспектов. Однако, теневая сторона медали - это создание мощных инструментов для манипуляции, дезинформации и совершения преступлений.
Дипфейки, термин, образованный от слов "deep learning" (глубинное обучение) и "fake" (подделка), являются ярким примером такого негативного потенциала. Эта технология позволяет создавать реалистичные видео- и аудиозаписи, на которых изображен или слышен любой человек, даже если он никогда не произносил соответствующие слова или не участвовал в изображаемом событии. Изначально дипфейки использовались для создания забавных видеороликов или пародий, однако быстро трансформировались в мощное оружие в руках мошенников и злоумышленников. Они используются для распространения фейковых новостей, компрометации репутации, вымогательства и даже организации финансовых преступлений. Например, дипфейк может имитировать голос руководителя компании, чтобы убедить сотрудника перевести деньги на подконтрольный злоумышленникам счёт.
Предложенные поправки в УК предусматривают введение использования дипфейк-технологий в качестве квалифицирующего признака в нескольких статьях, что позволит судам назначать более строгие наказания. Речь идет о штрафах до 1,5 миллионов рублей и тюремном заключении до шести лет. Однако, несмотря на концептуальную поддержку со стороны Верховного Суда и правительства, в отзывах на законопроект поднимаются вопросы относительно формулировок и их точности. Важно обеспечить баланс между защитой граждан от преступлений с использованием ИИ и предотвращением чрезмерных ограничений для развития самой технологии. Законодательство должно быть достаточно конкретным, чтобы не препятствовать законному использованию ИИ в научных исследованиях, образовании, медицине и других областях.
Ключевым аспектом является определение критериев, по которым можно отличить законное использование дипфейк-технологий (например, в киноиндустрии или для создания обучающих материалов) от незаконного. Необходимо разработать механизмы идентификации и верификации цифрового контента, позволяющие достоверно установить подлинность видео- и аудиозаписей. Это может включать в себя разработку новых стандартов для маркировки цифрового контента, использование цифровых водяных знаков и создание специализированных программных инструментов для детектирования дипфейков. Также важным направлением является повышение цифровой грамотности населения, обучение граждан распознаванию признаков дипфейков и методам защиты от мошеннических схем.
Дипфейки легко распространяются через интернет, и борьба с ними требует международного сотрудничества. Обмен опытом между странами, разработка общих стандартов и создание международных механизмов для расследования преступлений, связанных с ИИ, являются необходимыми шагами. В идеале, международные соглашения могли бы помочь установить общие правила этического использования ИИ, установив "красные линии", за которые не должны выходить разработчики и пользователи этой технологии.
- © Источник: Российская Газета