|
16.01.2024 | 10:12
3279

Осторожно, мошенники: новый способ вымогательства денег

Казахстанцам стоит сохранять бдительность и с подозрением относиться к сообщениям от знакомых с просьбой отправить деньги

Осторожно, мошенники: новый способ вымогательства денег elements.envato.com

Преступники взяли на вооружение искусственный интеллект (ИИ) и начали генерировать голоса своих жертв, чтобы вымогать деньги у их знакомых, передает Almaty.tv со ссылкой на NUR.KZ. 

Мошенники часто используют взломанные аккаунты в социальных сетях и мессенджерах, чтобы через них обманывать людей и красть их деньги. Обычно они обходятся простыми сообщениями, которые рассылают контактам жертв с просьбой прислать деньги на указанную карту. 

Однако с развитием искусственного интеллекта методы аферистов сильно усложнились. Как рассказали журналисты РБК, в России были зафиксированы случаи, когда мошенники с помощью ИИ генерировали голоса своих жертв и просили деньги уже с помощью аудиосообщений, разосланных их контактам. 

Чтобы получить достоверный голос другого человека, злоумышленники взламывают его аккаунт в мессенджере, скачивают голосовые сообщения, загружают их в нейросеть, которая впоследствии реалистично воспроизводит голосом жертвы целые предложения. 

Между тем жителям Казахстана, которые также активно пользуются мессенджерами и соцсетями, стоит сохранять бдительность и с подозрением относиться к сообщениям от знакомых с просьбой отправить деньги, даже если они голосовые. 

Перед тем, как это сделать, лучше удостовериться, что это действительно знакомый контакт, которому необходима денежная помощь, например, позвонив ему и поговорив вживую. 

Напомним, в 2023 году в стране было зарегистрировано 44,8 тыс. случаев мошенничества. Среди выявленных преступников были даже несовершеннолетние дети.

Читайте также: Развели на миллионы: полицейские задержали банду мошенников

Подписывайтесь на наш Telegram
Узнавайте обо всем первыми. Если есть, что сообщить, пишите нам в WhatsApp
Новости партнеров
След. →
Прямой эфир