Появилась новая форма «дипфейка», когда хакеры используют искусственный интеллект для клонирования вашего голоса. Чтобы выяснить, насколько это убедительно, журналист Daily Mail позволила хакеру клонировать ее голос — результаты оказались пугающими.
Наши голоса почти так же уникальны, как отпечатки пальцев — итак, как бы вы себя чувствовали, если бы ваш голос был клонирован? В последние месяцы появился новый тип глубокой подделки, известный как клонирование голоса, при котором хакеры используют искусственный интеллект (ИИ) для имитации вашего голоса.
Известные лица, включая Стивена Фрая, Садика Хана и Джо Байдена, уже стали жертвами клонирования голоса, в то время как один неназванный генеральный директор был даже обманом переведен мошеннику на сумму 243 000 долларов после получения поддельного телефонного звонка, пишет Daily Mail.
«Но как это работает и насколько убедительно? Чтобы выяснить это, я позволил профессиональному хакеру клонировать мой голос — с ужасающими результатами, – пишет журналистка британского издания Шивали Бест. – Клонирование голоса — это техника искусственного интеллекта, которая позволяет хакерам взять аудиозапись кого-либо, обучить инструмент искусственного интеллекта их голосу и воссоздать его.
В беседе с MailOnline Дэйн Шерретс, архитектор решений в HackerOne, объяснил: «Первоначально это использовалось для создания аудиокниг и помощи людям, потерявшим голос по медицинским показаниям. Но сегодня это все чаще используется Голливудом и, к сожалению, мошенниками».
Когда технология впервые появилась в конце 1990-х годов, ее использование было ограничено экспертами, обладающими глубокими знаниями в области искусственного интеллекта.
Однако с годами технология стала более доступной до такой степени, что, по словам Дэйна Шерретса, ее может использовать практически каждый.
«Кто-то с очень ограниченным опытом может клонировать голос, — сказал он. – Это займет, может быть, меньше пяти минут с помощью некоторых инструментов, которые существуют бесплатно и с открытым исходным кодом».
«Чтобы клонировать мой голос, все, что было нужно Шерретсу, — это пятиминутный ролик с моей речью, – продолжает журналистка Daily Mail свой рассказ. – Я решила записать, как я зачитываю статью из Daily Mail, хотя мистер Шерретс говорит, что большинство хакеров могли бы просто извлечь аудиозапись из быстрого телефонного звонка или даже видео, размещенного в социальных сетях.
«Это можно сделать во время разговора, если есть что-то, чем делятся в социальных сетях, или даже если кто-то ведет подкаст. На самом деле это просто то, что мы загружаем или записываем каждый день», — сказал он.
Как только я отправила мистеру Шерретсу клип, он просто загрузил его в инструмент (название которого он предпочел не называть), который затем можно было «натренировать» на моем голосе.
«Как только это было сделано, я смог ввести текст или даже поговорить непосредственно с инструментом и заставить его выводить все, что я хотел, чтобы сообщение было передано вашим голосом, — рассказал он. – Что действительно безумно в инструментах, которые существуют сейчас, так это то, что я могу добавлять дополнительные интонации, паузы или другие вещи, которые делают речь более естественной, что делает ее намного более убедительной в сценарии мошенничества».
Несмотря на отсутствие пауз или дополнительных интонаций, первый клип моего голосового клона, созданный мистером Шерретсом, был поразительно убедительным.
Голос робота идеально передал мой американо-шотландский гибридный акцент, когда он сказал: «Привет, мам, это Шивали. Я потеряла свою банковскую карту, и мне нужно перевести немного денег. Не могла бы ты, пожалуйста, отправить немного на счет, с которого тебе только что пришло сообщение?»
Тем не менее, жуткость была усилена в следующем клипе, в котором мистер Шеррет добавил паузы.
«Ближе к концу вы можете услышать долгую паузу, а затем вздох, и это делает его звучание намного более естественным», — объяснил профессиональный хакер.
Хотя мой опыт клонирования голоса, к счастью, был всего лишь демонстрацией, мистер Шерретс подчеркивает некоторые серьезные опасности этой технологии.
«У некоторых людей были поддельные звонки о похищении, когда им звонил их «ребенок» и говорил: «Меня похитили, мне нужны миллионы долларов, или они меня не отпустят», и у ребенка был очень расстроенный голос, — сказал он. – Сегодня мы все чаще наблюдаем, как люди пытаются предпринимать более целенаправленные попытки социальной инженерии против компаний и организаций. Я использовал ту же технологию, чтобы клонировать голос моего генерального директора. Руководители компаний часто выступают на публике, поэтому очень легко получить высококачественную аудиозапись их голоса и скопировать ее. Наличие голоса генерального директора значительно упрощает быстрое получение пароля или доступа к системе. Компаниям и организациям необходимо осознавать этот риск».
К счастью, мистер Шерретс говорит, что есть несколько ключевых признаков, указывающих на то, что голос является клоном.
«Есть ключевые признаки, — сказал он MailOnline. – Есть паузы, проблемы, когда это звучит не так естественно, и на заднем плане может быть то, что вы называете «артефактами». Например, если голос был клонирован в переполненной комнате и там много других людей общаются, то при использовании этого голосового клона вы услышите какой-то мусор на заднем плане».
Однако по мере того, как технология продолжает развиваться, обнаружить эти признаки будет сложнее.
«Люди должны быть осведомлены об этой технологии и постоянно относиться с подозрением ко всему, что требует от них срочных действий — это часто является тревожным сигналом, — объяснил эксперт. – Они должны быстро задавать вопросы, которые, возможно, на самом деле знает только реальный человек, и не бояться пробовать и проверять вещи, прежде чем предпринимать какие-либо действия».
Шерретс рекомендует использовать «стоп-слово» для вашей семьи и друзей. «Если у вас действительно срочная ситуация, вы можете произнести это стоп-слово, и они сразу поймут, что это действительно вы», — сказал он.
Наконец, эксперт советует осознавать свой цифровой след и следить за количеством, которое вы загружаете онлайн. «Каждый раз, когда я загружаю сейчас, это расширяет мою область звуковой атаки и может быть использовано для обучения искусственного интеллекта позже, — добавил он. – В этом есть компромиссы, на которые каждый должен будет пойти, но это то, о чем нужно знать — ваши собственные аудиозаписи, которые всплывают там, могут быть использованы против вас».