Жара до +32° накроет Ставрополье на выходных
16:12
О ситуации с вирусом Коксаки в Турции рассказала туристка из Ставрополя
15:52
Блогер Руки-Базуки из Пятигорска сделал операцию на бицепсе
15:10
Пострадавший от взрыва газа дом полностью восстановили в Ставрополе
14:55
Трое чиновников заплатят штраф в Предгорье
14:06
Из-за нашествия черепах в озере 30’Ка забили тревогу в Железноводске
13:18
Отнять дачу государство сможет только через суд — ставропольский юрист
13:03
Представили продукцию и потенциал: чем запомнился КИФ государствам-участникам
12:56
Флайборд-шоу впервые увидят в Ессентуках на День России
12:34
Команда "СУЭК-Хакасии" "Юг Сибири" стала серебряным призером CASE-IN
12:10
У нерадивых дачников смогут отнять землю в России
11:55
16-летний парень планировал диверсию на железной дороге
11:38
За модификацию компьютерных вирусов ставрополец получил условный срок
11:25
Нюх и чуйка "шерстяных солдат": как собаки и кошки помогают бойцам на СВО
11:20
Штормовое предупреждение продлили до 5 июня на Ставрополье
11:08

Мошенники используют нейросети для обмана россиян

Злоумышленники активно осваивают новые технологии для мошенничества
4 июля 2023, 11:00 Общество #ТоварищБди
Хакеры используют нейросети для обмана россиян pixabay.com
Хакеры используют нейросети для обмана россиян
Фото: https://pixabay.com
Нашли опечатку?
Ctrl+Enter

Достижения в области систем искусственного интеллекта используются не только для того, чтобы облегчить жизнь людям, но и для мошенничества, предупреждает руководитель направления информационной безопасности Центра цифровой эксперты Роскачества Сергей Кузьменко.

Например, мошенники с помощью нейросетей копируют голос человека и создают запись для обмана его близкий, рассказал эксперт. Причем для этого им достаточно лишь отрывка разговора длиной в 20 секунд, отметил он. И зачастую подделки получаются настолько качественными, что даже мать не может отличить голос ребенка от записи, созданной нейросетью, подчеркнул Кузьменко.

Схема мошенничества при этом не изменилась, потенциальным жертвам сообщают, что их близкий человек попал в беду и срочно нужны деньги, рассказал специалист. Кроме записи голоса также используют и искусственно сгенерированные видеоизображения, так называемые дипфейки, добавил эксперт.

Чтобы распознать обман, надо заранее договориться с родственниками о кодовом слове, которое нужно произнести, если нужна помощь, посоветовал специалист. Также желательно сразу прерывать разговор и перезванивать близкому человека по другому номеру телефона, рассказал Сергей Кузьменко в беседе с агентством "Прайм" (18+).

3751453.jpgЗа какие действия банк точно заблокирует перевод

Эксперт объяснил, какие шутки сотрудники банка не поймут и заблокируют карту

228786
32
24