Сейчас ваша корзина пуста!
Искусственные голоса теперь не отличимы от настоящих человеческих голосов

Задумывались ли вы, сможете ли вы различить реальный человеческий голос и deepfake? Большинство людей этого не могут.
Мы все, вероятно, уже сталкивались с голосами искусственного интеллекта (ИИ) через персональных помощников, таких как Siri или Alexa, от которых остаётся впечатление, что их легко отличить от реального человека благодаря их плоской интонации и механическому произношению. Но учёные утверждают, что средний слушатель теперь не может различить настоящие и deepfake голоса. В новом исследовании, опубликованном 24 сентября в журнале PLoS One, было показано, что когда люди слушают человеческие голоса наряду с ИИ-генерированными версиями тех же голосов, они не могут точно определить, что是真, а что подделка.
Надин Лаван, ведущий автор исследования и старший преподаватель психологии в Королевском университете Лондона, отмечает: «Голоса, создаваемые ИИ, сейчас повсюду вокруг нас. Мы все говорили с Alexa или Siri, или общались с автоматизированными системами обслуживания клиентов». Она добавила: «Эти вещи не совсем звучат как настоящие человеческие голоса, но это было лишь вопросом времени, когда технологии ИИ начнут производить естественную, звучащую как человеческая речь».
Голоса, которые невозможно различить
Исследование показало, что хотя стандартные голоса, созданные с нуля, не казались реалистичными, клоны голосов, обученные на голосах реальных людей, были найдены столь же правдоподобными, как и их реальные прототипы. Участникам было предложено прослушать образцы 80 различных голосов (40 ИИ-генерированных и 40 реальных). В среднем только 41% голосов, созданных с нуля, были ошибочно классифицированы как человеческие, что подразумевает, что в большинстве случаев их всё ещё можно отличить от реальных людей. Однако для голосов ИИ, клонированных от небольшого количества человеческой речи, был зафиксирован процент ошибок на уровне 58%.
Этические последствия
Результаты этого исследования могут иметь глубокие последствия для этики, авторского права и безопасности. Если преступники используют ИИ для клонирования вашего голоса, это значительно упрощает обман систем голосовой аутентификации, например, в банках, или обман ваших близких, чтобы заставить их перевести деньги.
Недавние инциденты подтверждают эту тревогу. Например, 9 июля Шарон Брайтвелл была обманута на сумму в 15 000 долларов. Она прослушала, как, по её мнению, её дочь плакала по телефону, рассказывая ей, что попала в аварию и ей нужны деньги на юридическую помощь, чтобы избежать тюремного заключения. «Никто не мог меня убедить, что это не она», — сказала Брайтвелл о правдоподобной подделке голоса.
Жизненные голоса ИИ также могут быть использованы для фальсификации заявлений и интервью с политиками или знаменитостями. Поддельные аудиозаписи могут использоваться для дискредитации отдельных лиц или для подстрекательства к протестам, посевая социальное разделение и конфликт. Мошенники недавно создали ИИ-клон голоса Стивена Майлза, премьер-министра Квинсленда, используя его профиль, чтобы попытаться убедить людей инвестировать в схему с Bitcoin.
Исследователи подчеркнули, что голосовые клоны, использованные в исследовании, не были особенно сложными. Их создали с помощью программного обеспечения, доступного для коммерческого использования, и обучили всего на нескольких минутах записанного человеческого голоса. Наван отметил: «Этот процесс требует минимальных навыков, всего лишь несколько минут записи голоса и почти никаких затрат». Это показывает, насколько доступной и сложной стала технология голосового ИИ.
Положительные стороны технологии
Хотя deepfake представляет собой множество возможностей для злонамеренных действий, не всё так плохо; есть и положительные возможности, которые могут возникнуть благодаря возможности масштабного генерации голосов ИИ. «Могут быть приложения для улучшения доступности, образования и коммуникации, где индивидуальные высококачественные синтетические голоса могут улучшить пользовательский опыт», — добавил Наван.
Прокомментировать в Телеграм: https://t.me/n8nhow
Подписаться на канал обучения n8n: https://t.me/n8ncoaching
