Мошенники стали чаще подделывать голоса
Федеральная торговая комиссия (FTC) и организации по борьбе с мошенничествами сообщают о резко возросшем количестве преступлений с использованием поддельных голосов (fake voices) близких людей (родственников, друзей, коллег и т. п.). Это одно из первых мошенничеств, которое осуществляется с помощью технологии искусственного интеллекта (AI).
В большинстве случаев жертвы обмана получают звонки, сообщения на автоответчик, а также войсмейлы в социальных сетях с просьбой перевести им немного денег, продиктовать номер кредитной карты или напомнить пароль к важному аккаунту. Мошенник говорит голосом знакомого человека и заподозрить подвох практически невозможно. Как результат, жертвами обмана, как правило, становятся 18 - 24-летние американцы. Ранее эта возрастная категория жителей США считалась самой защищённой от технологических мошенничеств. Более того, аферисты часто обманывают молодёжь от лица родителей, бабушек и дедушек.
Так,в штате Вайоминг 19-летний студент перевёл мошенникам $5,000. Ему «позвонил» родной 72-летний дедушка, который «попал под автобус и нуждается в срочной операции». Дед утверждал, что страховка покрывает лишь часть медицинских услуг, а все его сбережения хранятся дома в наличном виде. Внук дал дедушке «взаймы» и продиктовал номер кредитной карты - деньги ушли мошенникам.
Эксперты утверждают, что поддельные голоса образца 2024 года невозможно отличить от реальных. AI подделывает интонацию, тональность и даже вставляет в речь любимые слова и обороты человека. Оригиналы голосов мошенники берут из видеороликов в социальных сетях или записывают их во время телефонных разговоров. Зачастую люди разговаривают с маркетологами и робоколлами, но не понимают, что цель звонящего - кража их голоса.
Максим Бондарь