С помощью искусственного интеллекта злоумышленники создают убедительное видеоизображение человека, после чего звонят его друзьям или родным и вымогают деньги. Мошенники могут представляться именем жертвы и отправлять видеосообщения в мессенджерах. И выглядит это убедительно: вы видите лицо, которое говорит голосом вашего родственника. Стоит помнить, что в таких случаях нельзя вступать в диалог с мошенником, чтобы ваш голос не был похищен и использован для других авантюр.
Так, главному редактору ИА «ДОН 24» Виктору Серпионову поступило сообщение якобы от одного из сотрудников областного ведомства. После первого подозрительного сообщения «Приветствую» мошенник начал видеозвонок. Нейросеть оказалась весьма похожа на реального человека. После того как звонок был сброшен, злоумышленник вступил в диалог в чате.
Преступник выдавал себя неграмотной речью из раза в раз. Чтобы «убедить» своего собеседника в серьезности намерений, он прислал «фото приказа ФСБ» о «начавшейся проверке» с подписью и печатью. Такие «приказы» легко делаются с помощью известного графического редактора.
Как отметили в УФСБ по Ростовской области, ведомство не рассылает официальные документы посредством мессенджеров и электронных почтовых сервисов, а также не проводит беседы с гражданами по телефону.
«При поступлении подобных писем рекомендуем игнорировать содержащиеся в них указания и блокировать контакт, с которого письмо поступило. На официальном сайте ФСБ России fsb.ru указаны все способы связи с подразделениями центрального аппарата и территориальными органами безопасности», – прокомментировали в областном УФСБ.
По информации ИА «ДОН 24»
Фото из открытых источников
Оставить сообщение: