В превышении полномочий подозревают двух сотрудников администрации Ессентуков
19:38
Больше 10 тысяч человек закружатся в “Вальсе Победы” на Ставрополье
17:50
Снег и дождь обещают ставропольцам в субботу
17:30
Мужчина погиб в сгоревшей квартире в Ставрополе
17:12
За кражу гитары в Сочи ставрополец может сесть в колонию на 5 лет
17:09
На слабый напор после глобального отключения воды жалуются жители Ставрополя
16:46
21 апреля стартует голосование за объекты благоустройства на Ставрополье
16:16
Рабочий получит 1 млн рублей за травмирование на ставропольском предприятии
15:55
Велосипедист скончался под колёсами грузовика на Ставрополье
15:20
Количество микрозаймов растет: что новый закон сделает с деньгами россиян
15:00
В Ставрополе представили наставников проекта Бизнес Баттл
14:35
Двоих подозреваемых задержали за подрыв банкомата в ТЦ Ставрополя
14:16
Бастрыкин заинтересовался обманом родителей танцоров на Ставрополье
12:50
Девять улиц остались без воды в Пятигорске 11 апреля
12:46
За 500 млн рублей откроют отделение скорой помощи нового типа на Ставрополье
12:17

Мошенники используют нейросети для обмана россиян

Злоумышленники активно осваивают новые технологии для мошенничества
4 июля 2023, 11:00 Общество #ТоварищБди
Хакеры используют нейросети для обмана россиян pixabay.com
Хакеры используют нейросети для обмана россиян
Фото: https://pixabay.com
Нашли опечатку?
Ctrl+Enter

Достижения в области систем искусственного интеллекта используются не только для того, чтобы облегчить жизнь людям, но и для мошенничества, предупреждает руководитель направления информационной безопасности Центра цифровой эксперты Роскачества Сергей Кузьменко.

Например, мошенники с помощью нейросетей копируют голос человека и создают запись для обмана его близкий, рассказал эксперт. Причем для этого им достаточно лишь отрывка разговора длиной в 20 секунд, отметил он. И зачастую подделки получаются настолько качественными, что даже мать не может отличить голос ребенка от записи, созданной нейросетью, подчеркнул Кузьменко.

Схема мошенничества при этом не изменилась, потенциальным жертвам сообщают, что их близкий человек попал в беду и срочно нужны деньги, рассказал специалист. Кроме записи голоса также используют и искусственно сгенерированные видеоизображения, так называемые дипфейки, добавил эксперт.

Чтобы распознать обман, надо заранее договориться с родственниками о кодовом слове, которое нужно произнести, если нужна помощь, посоветовал специалист. Также желательно сразу прерывать разговор и перезванивать близкому человека по другому номеру телефона, рассказал Сергей Кузьменко в беседе с агентством "Прайм" (18+).

3751453.jpgЗа какие действия банк точно заблокирует перевод

Эксперт объяснил, какие шутки сотрудники банка не поймут и заблокируют карту

228786
32
24