Все, что случилось в мире за последние сутки, также события в экономике и обществе, спорте и шоу бизнесе, новинки автопрома и многое другое на страницах нашего блога!

Скандальная технология из порно поможет мошенникам обокрасть банковских клиентов

Скандальная технология из порно поможет мошенникам обокрасть банковских клиентов

Фото: Игорь Зарембо / РИА Новости

Эксперты в области защиты данных назвали технологию deepfake реальной угрозой для клиентов банков. Об этом сообщается в Telegram-канале компании Group-IB.

Сотрудник компании Антон Фишман призвал пользователей не разговаривать по телефону ни с «сотрудниками банка», ни с теми, кто представляется специалистами страховых компаний или пенсионного фонда. Однако, по его мнению, возможность сделать «аудиослепок» с голоса клиента все еще остается мифом. Он уточнил, что система верификации включает не один параметр, поэтому подделать биометрическую информацию будет сложно.

Так Фишман прокомментировал появляющиеся в сети публикации, о том, что в разговоре с неизвестными нельзя кратко соглашаться или говорить фразы вроде «да, я подтверждаю».

При этом важной проблемой, по мнению эксперта, стала технология deepfake, позволяющая «обучить» искусственный интеллект. Он привел в пример инцидент, произошедший в Германии: там мошенники, используя обученный механизм, от лица директора компании заставили представителей другой фирмы перевести на неизвестный счет 220 тысяч евро.

Читать также:
Рина Гришина появилась на премьере “Полицейского с Рублевки” с обручальным кольцом

В начале 2018 года алгоритм deepfake стал скандально известен в сети. Он позволил создавать фейковые видео и аудиозаписи: к примеру, в сети распространились фальшивые порноролики, где вместо лиц профессиональных актеров были подставлены лица знаменитостей. Администрация Reddit и ряд порнохостингов заблокировали все подобные видео, опасаясь юридических последствий. Тогда специалисты предположили, что фальшивые ролики с участием политиков могут стать причиной начала ядерной войны.