Мошенники активно применяют нейросети на основе искусственного интеллекта для создания правдоподобных голосовых копий родственников, сообщили в Центре цифровой экспертизы Роскачества.
«В особой зоне риска пожилые люди и подростки. Проведите беседу с близкими, придумайте кодовое слово для своих, чтобы точно знать, когда звонят чужие. Один личный вопрос, встроенный в диалог, – и мошенник, использующий ИИ, будет разоблачен», – сказал руководитель Центра цифровой экспертизы Роскачества Сергей Кузьменко.
При возникновении подозрений необходимо немедленно положить трубку и перезвонить человеку на его номер, чтобы убедиться в его безопасности. Подделку голоса можно выявить даже в случае звонка с правильного номера, добавляют специалисты. Одним из признаков фальсификации может служить неестественный шум. Если в записи монотонно шумит ветер, сигналят автомобили или слышны другие резкие звуки, это должно насторожить. Мошенники специально используют такие помехи, чтобы скрыть механическое звучание голоса, лишенное пауз, эмоциональных оттенков и естественных интонаций.
Кроме того, злоумышленники часто пытаются запугать или навязывают четкие алгоритмы действий. Любая просьба сообщить коды или перевести деньги «немедленно» является тревожным сигналом, так же, как и запрет перезванивать и уклонение от личной встречи.
Показатели имитации
Согласно данным организации, сгенерированные нейросетями изображения стали настолько реалистичными, что большинство россиян (от 62% до 80%) не могут отличить их от настоящих. Однако существуют определенные признаки, помогающие распознать обман. Например, неестественная мимика часто выдает подделку – в таких случаях движения лица выглядят странно, а эмоции не соответствуют произносимым словам. Еще одним важным показателем является качество изображения, в частности размытость или пикселизация вокруг губ и глаз. Несовпадение звука и видео также свидетельствует о дипфейке: если речь не синхронизирована с движением губ, скорее всего, это цифровой клон, пояснили эксперты.




