Водитель не справился с управлением и погиб на Ставрополье
18:40
Самолет-лаборатория будет три года летать над Ставропольем
18:13
ЧП с обрушением грунта в санатории Кисловодска: что известно
18:01
Резиновую лодку с двумя мальчиками из Ставрополя утянуло в море
17:32
Следком опубликовал видео с места обрушения грунта в Кисловодске
17:20
Ударные "птички" бывшего дайвера всегда находят цель
16:44
Чиновники одного из округов Ставрополья будут общаться в мессенджере MAX
16:14
Санавиация спасла пенсионерку, пострадавшую при ДТП на Ставрополье
16:07
Исполняющей обязанности ректора СКФУ назначили Татьяну Шебзухову
15:53
T2 предупреждает о распространении вредоносных программ через связку SMS и Telegram
15:30
Под завалами грунта в Кисловодске может находиться человек - мэр города
15:23
Инфляция на Ставрополье ускорилась до 11,1%
15:15
ЧП с обрушением грунта на территории санатория прокомментировал мэр Кисловодска
15:00
В поезде Кисловодск - Тында отравились 57 пассажиров
14:53
Два человека пострадали при обвале скально-грунтовой породы в Кисловодске
14:37

Мошенники используют нейросети для обмана россиян

Злоумышленники активно осваивают новые технологии для мошенничества
4 июля 2023, 11:00 Общество #ТоварищБди
Хакеры используют нейросети для обмана россиян pixabay.com
Хакеры используют нейросети для обмана россиян
Фото: https://pixabay.com
Нашли опечатку?
Ctrl+Enter

Достижения в области систем искусственного интеллекта используются не только для того, чтобы облегчить жизнь людям, но и для мошенничества, предупреждает руководитель направления информационной безопасности Центра цифровой эксперты Роскачества Сергей Кузьменко.

Например, мошенники с помощью нейросетей копируют голос человека и создают запись для обмана его близкий, рассказал эксперт. Причем для этого им достаточно лишь отрывка разговора длиной в 20 секунд, отметил он. И зачастую подделки получаются настолько качественными, что даже мать не может отличить голос ребенка от записи, созданной нейросетью, подчеркнул Кузьменко.

Схема мошенничества при этом не изменилась, потенциальным жертвам сообщают, что их близкий человек попал в беду и срочно нужны деньги, рассказал специалист. Кроме записи голоса также используют и искусственно сгенерированные видеоизображения, так называемые дипфейки, добавил эксперт.

Чтобы распознать обман, надо заранее договориться с родственниками о кодовом слове, которое нужно произнести, если нужна помощь, посоветовал специалист. Также желательно сразу прерывать разговор и перезванивать близкому человека по другому номеру телефона, рассказал Сергей Кузьменко в беседе с агентством "Прайм" (18+).

3751453.jpgЗа какие действия банк точно заблокирует перевод

Эксперт объяснил, какие шутки сотрудники банка не поймут и заблокируют карту

228786
32
24