Используя готовый инструмент преобразования голоса, исследователи разработали атаку с имитацией голоса, чтобы попытаться проникнуть в автоматизированные системы и системы верификации человека.Голос человека — неотъемлемая часть повседневной жизни. Это позволяет людям общаться как в непосредственной близости, так и в удаленных местах с помощью телефонов или радио, или через Интернет с использованием цифровых носителей.
«Поскольку люди все время полагаются на использование своего голоса, это становится удобной практикой», — сказал Нитеш Саксена, доктор философии, директор лаборатории «Безопасность и конфиденциальность в новых вычислительных и сетевых системах» (SPIES) и доцент. компьютерных и информационных наук в UAB. "Чего они могут не осознавать, так это того, что уровень комфорта делает голос уязвимым товаром. Люди часто оставляют следы своего голоса во многих различных сценариях.
Они могут говорить вслух во время общения в ресторанах, проведения публичных презентаций или телефонных звонков. , или оставьте образцы голоса в Интернете ".Человек с потенциально злонамеренными намерениями может записывать голос человека, находясь в непосредственной близости от говорящего, отправляя спам-вызов, выполняя поиск и добычу аудиовизуальных клипов в Интернете или даже взламывая серверы в облаке, которые хранят аудиоинформацию.Это исследование, проведенное исследователями из Департамента компьютерных и информационных наук Колледжа искусств и наук UAB, а также Центра обеспечения информации и совместных криминалистических исследований, исследует, как злоумышленник, владеющий звуковыми образцами голоса жертвы, может поставить под угрозу безопасность, безопасность и конфиденциальность жертвы.
Достижения в области технологий, особенно в области автоматизации синтеза речи, например морфинга голоса, позволяют злоумышленнику построить очень точную модель голоса жертвы из ограниченного числа образцов. Преобразование голоса может использоваться для преобразования голоса злоумышленника в произнесение произвольного сообщения голосом жертвы.«В результате всего несколько минут звука в голосе жертвы могут привести к клонированию самого голоса жертвы», — сказала Саксена. «Последствия такого клона могут быть серьезными. Поскольку голос является характеристикой, уникальной для каждого человека, он формирует основу для аутентификации человека, давая злоумышленнику ключи к конфиденциальности этого человека».
В качестве примера для этой статьи исследователи исследовали последствия кражи голосов в двух важных приложениях и контекстах, которые полагаются на голоса в качестве основы для аутентификации.Первое приложение — это система голосовой биометрии или проверки говорящего, которая использует потенциально уникальные особенности голоса человека для аутентификации этого человека.
«Голосовая биометрия — новое модное слово среди банков и компаний, выпускающих кредитные карты», — сказала Саксена. «Многие банки и компании, выпускающие кредитные карты, стремятся предоставить своим пользователям беспроблемный опыт использования своих услуг с точки зрения доступа к своим счетам с использованием голосовой биометрии».Эта технология теперь также используется на смартфонах в качестве замены традиционных блокировок с помощью PIN-кода и используется во многих государственных организациях для управления доступом в зданиях.
Голосовая биометрия основана на предположении, что каждый человек обладает уникальным голосом, который зависит не только от его или ее физиологических особенностей голосовых связок, но и от формы всего его или ее тела, а также от того, как формируется и артикулируется звук.Как только злоумышленник преодолевает голосовую биометрию с помощью фальшивых голосов, он может получить беспрепятственный доступ к системе, которая может быть устройством или службой, используя функцию аутентификации.
Во-вторых, исследовательская группа рассмотрела влияние кражи голосов на человеческое общение в качестве другого ее применения в тематическом исследовании статьи. Инструмент преобразования голоса имитировал двух известных знаменитостей, Опру Уинфри и Морган Фриман, в контролируемой учебной среде.
Если злоумышленник может имитировать голос жертвы, безопасность удаленных разговоров может быть поставлена под угрозу. Злоумышленник может заставить систему морфинга говорить буквально все, что хочет злоумышленник, тоном и стилем речи жертвы, и может начать атаку, которая может нанести ущерб репутации жертвы, ее или ее безопасности и безопасности людей вокруг жертвы. .«Например, злоумышленник может опубликовать измененные образцы голоса в Интернете, оставить поддельные голосовые сообщения контактам жертвы, потенциально создать поддельные аудиодоказательства в суде и даже выдать себя за жертву в телефонных разговорах в реальном времени с кем-то, кого жертва знает, "Саксена сказала. "Возможности безграничны."Результаты показывают, что современные алгоритмы автоматической проверки были в значительной степени неэффективными для атак, разработанных исследовательской группой. Средний показатель отклонения фальшивых голосов для большинства жертв составлял менее 10–20 процентов.
Даже человеческая проверка была уязвима для атак. Согласно двум онлайн-исследованиям с участием около 100 пользователей, исследователи обнаружили, что участники исследования почти в половине случаев отвергали измененные образцы голоса знаменитостей, а также несколько знакомых пользователей.«Наше исследование показало, что преобразование голоса представляет собой серьезную угрозу, и наши атаки могут быть успешными в большинстве случаев», — сказала Саксена. «Вызывает тревогу то, что атаки на верификацию говорящего на основе человека могут стать более эффективными в будущем, потому что качество преобразования / синтеза голоса будет продолжать улучшаться, в то время как можно с уверенностью сказать, что человеческие способности, скорее всего, не улучшатся».
Хотя результаты этого исследования показывают, насколько уязвимым может быть человек для голосовых атак, существуют способы предотвратить его кражу. Саксена предлагает людям повысить осведомленность о возможности этих атак, а также с осторожностью публиковать аудиозаписи своих голосов в Интернете.
«В конечном счете, лучшей защитой из всех возможных будет разработка систем проверки говорящих, которые могут полностью противостоять атакам с имитацией голоса путем тестирования живого присутствия говорящего», — сказал Саксена. «Наше будущее исследование изучит эту и другие стратегии защиты».В соавторстве с Саксеной написали эту статью аспиранты UAB Дибья Мухопадхьяй и Малихэ Ширванян, исследователи из лаборатории SPIES Lab.

