Мошенники стали звонить под видом соцопросов и записывать голоса для дипфейков.
Россиянам стали поступать звонки от злоумышленников, которые притворяются сотрудниками различных исследовательских организаций, для того чтобы записать голос человека для создания дипфейков. Об этом 11 июня сообщила заместитель директора по продуктам VisionLabs Татьяна Дешкина.
«Мошенники могут представляться сотрудниками различных исследовательских организаций и центров социологических исследований, чтобы записать голос человека и в будущем клонировать его для создания дипфейка. Главная задача злоумышленников — удержать пользователя на линии как можно дольше», — рассказала она
По ее словам, мошенникам нужна запись голоса длиной около 20 секунд, при этом она должна быть с разной интонацией и без шумов. Эксперт добавила, что более продолжительный разговор позволит мошенникам качественнее имитировать голос человека. Самую большую опасность представляют комбинированные схемы, в которых подделанный голос накладывают на изображение или видео.
«В ближайшем будущем мобильные телефоны, социальные сети и мессенджеры, скорее всего, также получат встроенные системы для распознавания контента, созданного при помощи нейросетей», — отметила Дешкина.
Россиянам стали поступать звонки от злоумышленников, которые притворяются сотрудниками различных исследовательских организаций, для того чтобы записать голос человека для создания дипфейков. Об этом 11 июня сообщила заместитель директора по продуктам VisionLabs Татьяна Дешкина.

«Мошенники могут представляться сотрудниками различных исследовательских организаций и центров социологических исследований, чтобы записать голос человека и в будущем клонировать его для создания дипфейка. Главная задача злоумышленников — удержать пользователя на линии как можно дольше», — рассказала она
Для просмотра ссылки необходимо нажать
Вход или Регистрация
».По ее словам, мошенникам нужна запись голоса длиной около 20 секунд, при этом она должна быть с разной интонацией и без шумов. Эксперт добавила, что более продолжительный разговор позволит мошенникам качественнее имитировать голос человека. Самую большую опасность представляют комбинированные схемы, в которых подделанный голос накладывают на изображение или видео.
«В ближайшем будущем мобильные телефоны, социальные сети и мессенджеры, скорее всего, также получат встроенные системы для распознавания контента, созданного при помощи нейросетей», — отметила Дешкина.
Для просмотра ссылки необходимо нажать
Вход или Регистрация