2024/12/02 16:13:38

Голос становится объектом права. Как его защитить в эпоху дипфейков и искусственного интеллекта

Мир меняется — в России обсуждается законопроект о защите голоса как объекта права, а в ЕС уже действует Закон об искусственном интеллекте (AI Act), который впервые ввёл строгие правила работы использования технологий искусственного интеллекта. Почему голос стал таким ценным активом, и как его защитить?


Ответ прост: технологии. Они сделали голос не просто частью нас, но и объектом, который можно украсть, изменить или использовать без нашего ведома. И хотя новые разработки открывают удивительные возможности, они же несут в себе пугающие риски. Какие именно, объясняет в статье, написанной для TAdviser, Полина Варфоломеева, CEO & Founder Ation Law.

Содержание

Голос как объект права: новая реальность

В современном мире голос утратил свою "простоту". Теперь это не только инструмент общения, но и средство коммерциализации. Его можно использовать для рекламы, дубляжа, создания контента или работы голосовых ассистентов. Для многих профессионалов голос — это инструмент заработка. Актеры дубляжа, дикторы, стримеры, медийные личности зарабатывают, используя его в своей работе. Потеря контроля над этим инструментом может означать не только ущерб репутации, но и прямые финансовые потери.

Возникает вопрос: кто контролирует голос? Сегодня в российском законодательстве голос лишь частично охраняется через авторское право (в творческих контекстах) или законы о персональных данных (как биометрический идентификатор). Но этого явно недостаточно, чтобы защитить его от современных угроз.

Новые технологии — новые риски

Современные разработки, такие как синтез голоса и дипфейки, открыли множество возможностей, но одновременно создали и правовые риски. Голос человека теперь можно воссоздать с точностью, которая позволяет обмануть даже близких. Среди основных угроз:

  • неавторизованное использование: ваш голос может быть использован в рекламных материалах или других проектах без вашего согласия.
  • фейковые аудио- и видеоматериалы: синтезированный голос может стать инструментом для создания дискредитирующих роликов.
  • мошеннические действия: использование поддельного голоса для взлома систем биометрической идентификации или получения доступа к конфиденциальным данным.

Правовой вакуум в России: где голос остаётся без защиты

Несмотря на то, что технологии шагнули далеко вперёд, юридическая защита голоса в России всё ещё остаётся на зачаточном уровне. В РФ голос не признается самостоятельным объектом права, и это создает опасный правовой вакуум. Важно отметить, что, хотя право на изображение закреплено в ГК РФ (ст. 152.1), аналогичной нормы для голоса там пока нет. Защита голоса осуществляется лишь фрагментарно:

  • смежные права: они защищают исполнителей (например, актёров дубляжа или дикторов), но только в рамках использования их записей в конкретных проектах.
  • законы о персональных данных: голос считается биометрическим идентификатором, поэтому его использование регулируется в рамках идентификации личности, например, в банках или системах доступа. Однако эти законы не охватывают случаи, когда голос используется для синтеза, рекламы или других коммерческих целей.

В результате любой человек может столкнуться с ситуацией, когда его голос используется без разрешения. Особенно уязвимы профессионалы, для которых голос — ключевой инструмент заработка.

История Алёны Андроновой: как голос стал товаром

В 2023 году актриса дубляжа Алёна Андронова оказалась в центре скандала, связанного с использованием её голоса. Её записи, созданные для банка «Тинькофф», были переданы третьим лицам, включая ООО «ТЦР», и использованы для синтеза речи. В итоге синтезированный голос актрисы оказался в сомнительных проектах, таких как порнографические чаты и игровые трансляции. Причиной стало то, что по договору Андронова передала банку исключительные права на свои записи, включая переработку и передачу третьим лицам.

12 августа 2024 года суд отклонил иск Андроновой, указав, что банк действовал в рамках условий договора. Переданные права позволяли перерабатывать записи и использовать их анонимно. Суд также счел, что создание синтезированного голоса было допустимо, так как это логически следовало из переданных прав, а нарушений со стороны банка или ООО «ТЦР» установлено не было. На данный момент подана апелляционная жалоба.Чекап для искусственного интеллекта: зачем и как тестировать ИИ-решения?

Этот случай вызвал резонанс и показал недостатки законодательства, которое не регулирует использование цифровых копий голоса. Отсутствие правовых механизмов оставило актрису дубляжа без защиты и контроля над её голосом.

Законопроект 2024 года: первый шаг к защите

В 2024 году в Госдуму внесли законопроект, который предлагает впервые закрепить голос как объект личных неимущественных прав. Эта инициатива направлена на защиту граждан от недобросовестного использования их голоса в эпоху технологий ИИ. Среди ключевых положений — признание голоса неотчуждаемым личным правом, запрет на синтез без явного согласия владельца и право граждан требовать удаления записей, созданных без их ведома.

Если закон примут, это станет важным шагом к контролю над использованием голоса, однако он пока не совершенен. Например, остаются лазейки, позволяющие тренировать нейросети без согласия на записях, сделанных в публичных местах, что требует доработки. Несмотря на это, проект уже открывает перспективы для усиления правовой защиты в быстро развивающемся цифровом мире.

Международный опыт в защите права на голос

В разных странах защита голоса как объекта права реализована по-своему. Одни делают акцент на коммерческом аспекте, другие — на биометрической безопасности. Взгляд на международную практику помогает понять, какие механизмы могут быть адаптированы в России.

В США голос охраняется через "право на публичность" (Right of Publicity), которое позволяет контролировать его использование в коммерческих целях. Этот подход широко применяется для публичных персон, таких как знаменитости и артисты. В 2023 году актриса Скарлетт Йоханссон подала иск против приложения Lisa AI за использование её синтезированного образа и голоса для рекламы без согласия. Хотя исход дела пока не ясен, разработчики удалили материалы после претензии актрисы, а это стало громким примером того, как технологии создают новые вызовы для права на публичность.

Другой яркий пример — дело Lehrman v. Lovo, Inc. В 2024 году Пол Скай Лерман и Линнеа Сейдж, актёры озвучивания подали иск против компании Lovo за незаконное использование их голосов в синтезированной форме. Они обвиняют компанию в нарушении права на публичность и коммерческом использовании их голосов без согласия. Дело находится на стадии рассмотрения, и его исход может установить важный прецедент для защиты прав актёров и дикторов от злоупотреблений ИИ-технологиями.

В Европейском Союзе защита голоса основана на нормах GDPR, где голос считается биометрическим идентификатором. Любое его использование требует явного согласия владельца, а нарушение этих правил грозит компаниям штрафами до 20 миллионов евро или 4% годового оборота. В 2024 году эти меры были усилены с принятием Закона об искусственном интеллекте (AI Act), который стал первым в мире комплексным актом, регулирующим работу с искусственным интеллектом.

AI Act обязывает компании информировать пользователей о применении искусственного интеллекта, получать согласие на обработку данных, включая биометрические, и следить за тем, чтобы их использование не нарушало прав человека, например, права на репутацию. Закон вводит строгие правила прозрачности и ответственности, а за нарушения предусмотрены серьезные штрафы — до 35 миллионов евро или 7% от годового оборота компании. Эти меры делают Европейский Союз одним из самых жестких регуляторов в области защиты данных и регулирования искусственного интеллекта.

Рекомендации для компаний и частных лиц

Для компаний первый шаг — четко прописать правила игры. Задайте рамки: кто может работать с голосовыми данными, как они хранятся и для чего используются. Заключая контракты, избегайте размытых формулировок вроде "использование в любых целях" — уточняйте цели, сроки и запрет на синтез голоса без согласия. И не забывайте: сотрудники компаний должны понимать, что голосовые данные — это не просто файлы, а серьезная ответственность. Проводите тренинги для сотрудников, особенно для тех, кто работает с медиа или клиентами.

Частным лицам важно знать свои права. Всегда читайте договоры: найдите пункты о передаче исключительных прав. Не нравится формулировка? Вносите свои условия — например, ограничение по времени или проекту. Если вы записываете голос для компаний, спрашивайте: кто сможет использовать записи, возможно ли их синтезировать? И главное, следите за своим голосом в сети: если заметили его в рекламе или другом контенте без вашего разрешения, требуйте удаления и компенсации.

Пока законодательство в России только догоняет эти вызовы, а мировая практика формирует стандарты, ответственность за защиту голоса ложится на каждого из нас. Охраняйте его, как охраняете свои пароли и личные данные.