Злоумышленники могут взломать голосовую аутентификацию с успехом до 99% за шесть попыток
«При регистрации в голосовой аутентификации вас просят повторить определенную фразу своим голосом. Затем система извлекает уникальную голосовую подпись (голосовой отпечаток) из этой предоставленной фразы и сохраняет ее на сервере», — сказал Андре Кассис, кандидат наук в области компьютерной безопасности и конфиденциальности и автор исследования.
«При будущих попытках аутентификации вас попросят повторить другую фразу, а извлеченные из нее функции сравниваются с голосовым отпечатком, который вы сохранили в системе, чтобы определить, следует ли предоставлять доступ».
После того, как была введена концепция голосовых отпечатков, злоумышленники быстро поняли, что они могут использовать программное обеспечение «deepfake» с поддержкой машинного обучения для создания убедительных копий голоса жертвы, используя всего пять минут записанного звука.
Unsplash/CC0 Public Domain
В ответ разработчики ввели «контрмеры спуфинга» — проверки, которые могли бы изучить образец речи и определить, был ли он создан человеком или машиной.
Исследователи из Ватерлоо разработали метод, который позволяет избежать контрмер спуфинга и может обмануть большинство систем голосовой аутентификации всего за шесть попыток. Они идентифицировали маркеры в дипфейковом аудио, которые выдают, что он сгенерирован компьютером, и написали программу, которая удаляет эти маркеры, делая его неотличимым от подлинного звука.
В недавнем тесте системы голосовой аутентификации Amazon Connect они достигли 10% успеха за одну четырехсекундную атаку, при этом этот показатель вырос до более чем 40% менее чем за 30 секунд. С некоторыми из менее сложных систем голосовой аутентификации, на которые они нацелены, они достигли 99% успеха после шести попыток.
Кассис утверждает, что, хотя голосовая аутентификация, очевидно, лучше, чем отсутствие дополнительной безопасности, существующие контрмеры против спуфинга критически ошибочны.
«Единственный способ создать безопасную систему — это думать как злоумышленник. Если вы этого не сделаете, то вы просто ждете, чтобы на вас напали», — сказал Кассис.
Научный руководитель Кассиса, профессор компьютерных наук Урс Хенгартнер добавил: «Демонстрируя небезопасность голосовой аутентификации, мы надеемся, что компании, полагающиеся на голосовую аутентификацию в качестве единственного фактора аутентификации, рассмотрят возможность развертывания дополнительных или более строгих мер аутентификации».
Подробнее: Breaking Security-Critical Voice Authentication, 2023 IEEE Symposium on Security and Privacy (SP). DOI: 10.1109/SP46215.2023.00139 🔗 https://www.computer.org/csdl/proceedings-article/sp/2023/933600a951/1NrbYmtLXB6 🔗
Нашли ошибку в тексте? Напишите нам.