Новости Мошенники научились подделывать голоса при звонке в реальном времени

Специальный корреспондент
Собака

Собака

Пресс-служба
Ветеран пробива
Private Club
Регистрация
13/10/15
Сообщения
60.193
Репутация
64.270
Реакции
292.766
USD
0
Эксперты по кибербезопасности из NCC Group установили, что современные технологии искусственного интеллекта позволяют воспроизводить голос любого человека в режиме реального времени, что свидетельствует о переходе дипфейков на новый уровень изощренности. В ходе исследования были проанализированы несколько случаев нестандартного мошенничества.


В рамках практических испытаний специалисты продемонстрировали, что для создания точного голосового клона достаточно наличия аудиозаписи речи и стандартного ноутбука, оборудованного базовой графической картой. При этом система оперативно генерирует голос с естественным звучанием, который невозможно отличить от голоса реального, в том числе знакомого человека.


Специалисты охарактеризовали данный метод как «дипфейк-фишинг» или «речевой фишинг», отметив, что эта технология позволяет злоумышленникам мгновенно имитировать голос собеседника без заметных задержек. В экспериментальных условиях исследователи применяли данную технологию совместно с технологией подмены телефонного номера. В большинстве случаев испытуемые не смогли отличить синтезированный голос от подлинного.


Отличительной характеристикой данной атаки является отсутствие необходимости в сложном оборудовании или мощных серверных решениях. Все операции осуществляются с использованием программного обеспечения с открытым исходным кодом и стандартных вычислительных ресурсов. Даже ноутбук с видеокартой RTX A1000 способен справляться с подобными задачами.


Для защиты от данного вида мошенничества эксперты рекомендуют применять дополнительные методы верификации: секретные пароли, кодовые фразы и другие защитные механизмы.







 
Назад
Сверху Снизу