Статистика из года в год говорит о том, что мошенники перебираются в сетевое пространство. Совершенствуются и технологии, с помощью которых они совершают свои злостные деяния.
В сегодняшней статье мы поговорим о том, как нас будут обманывать в ближайшем будущем.
Deepfake — это новый вид мошенничества с применением искусственного интеллекта, позволяющего создавать реалистичные видео и аудио файлы с заменой голоса или изображения, что может сильно ударить не только по безопасности компаний, но и вызвать финансовые трудности обычных людей.
Как зародился вид мошенничества
Как и все изобретения нейросети изначально должны были работать на благо людей. Впервые они применены в киноиндустрии еще в девяностых годах, и доработав функционал стала применяться интернет-умельцами, компаниями и киноиндустриями в настоящее время.
Первым скандалом с применением deepfake стало в 2017 году, применение лица актрисы Галь Гадот, исполнившей роль Чудо-женщины в одноименном фильме, в сценах щекотливого содержания. После чего в 2018 году в интернете появилось еще одно видео, где Барак Обама оскорбляет Трампа.
Опыт в создании фейковых продуктов становится все больше, поэтому каждая последующая вариация выглядит реалистичней предыдущей. Плохо, что инструментарий работы с нейросетями не сложен и пользоваться им могут даже люди не обладающие опытом работы в данной сфере.
Первое громкое кибер-преступление с применением искусственного интеллекта
Несмотря на то, что правонарушения такого типа пока еще не распространены в мире, но в конце лета было совершено первое громкое преступление с применением технологии deepfake.
Мошенник выманил у крупной компании большую денежную сумму. Она составила 240 тысяч евро.
Голос директора вышестоящей компании, созданный с помощью искусственного интеллекта, воспроизводился при телефонном разговоре. В процессе разговора он дал указание совершить перевод денег в размере 200 тысяч фунтов стерлингов одному из поставщиков, обещая возместить всю сумму в скором времени. Данная сумма была переведена на счета Венгрии, потом в Мексику и в дальнейшем была распределена по мелким счетам всего мира.
Сотрудник пал жертвой обмана, рассказывая впоследствии, что голос был полностью идентичен и не вызывал сомнения.
Преступления связанные с голосовым мошенничеством были и ранее, но этот случай стал самым выдающимся. Специалисты занимающиеся анализом полученной информации о преступлениях связанных с deepfake утверждают, что в период с 2013 по 2017 год количество таких преступлений выросло на 350%. Исходя из этого работники отделов по предотвращению киберпреступлений считают, что данный инцидент послужит началом появления нового вида интернет мошенничества.
Технологии развиваются с каждым днем все больше и больше, а пока они будут существовать найдутся люди, которые захотят нажиться за счет другого человека. Поэтому необходимо и самому быть начеку, если ваш начальник просит перевести большую сумму, перед совершение транзакции перезвоните и повторно уточните необходимость совершения действий.
В сегодняшней статье мы поговорим о том, как нас будут обманывать в ближайшем будущем.
Deepfake — это новый вид мошенничества с применением искусственного интеллекта, позволяющего создавать реалистичные видео и аудио файлы с заменой голоса или изображения, что может сильно ударить не только по безопасности компаний, но и вызвать финансовые трудности обычных людей.
Как зародился вид мошенничества
Как и все изобретения нейросети изначально должны были работать на благо людей. Впервые они применены в киноиндустрии еще в девяностых годах, и доработав функционал стала применяться интернет-умельцами, компаниями и киноиндустриями в настоящее время.
Первым скандалом с применением deepfake стало в 2017 году, применение лица актрисы Галь Гадот, исполнившей роль Чудо-женщины в одноименном фильме, в сценах щекотливого содержания. После чего в 2018 году в интернете появилось еще одно видео, где Барак Обама оскорбляет Трампа.
Опыт в создании фейковых продуктов становится все больше, поэтому каждая последующая вариация выглядит реалистичней предыдущей. Плохо, что инструментарий работы с нейросетями не сложен и пользоваться им могут даже люди не обладающие опытом работы в данной сфере.
Первое громкое кибер-преступление с применением искусственного интеллекта
Несмотря на то, что правонарушения такого типа пока еще не распространены в мире, но в конце лета было совершено первое громкое преступление с применением технологии deepfake.
Мошенник выманил у крупной компании большую денежную сумму. Она составила 240 тысяч евро.
Голос директора вышестоящей компании, созданный с помощью искусственного интеллекта, воспроизводился при телефонном разговоре. В процессе разговора он дал указание совершить перевод денег в размере 200 тысяч фунтов стерлингов одному из поставщиков, обещая возместить всю сумму в скором времени. Данная сумма была переведена на счета Венгрии, потом в Мексику и в дальнейшем была распределена по мелким счетам всего мира.
Сотрудник пал жертвой обмана, рассказывая впоследствии, что голос был полностью идентичен и не вызывал сомнения.
Преступления связанные с голосовым мошенничеством были и ранее, но этот случай стал самым выдающимся. Специалисты занимающиеся анализом полученной информации о преступлениях связанных с deepfake утверждают, что в период с 2013 по 2017 год количество таких преступлений выросло на 350%. Исходя из этого работники отделов по предотвращению киберпреступлений считают, что данный инцидент послужит началом появления нового вида интернет мошенничества.
Технологии развиваются с каждым днем все больше и больше, а пока они будут существовать найдутся люди, которые захотят нажиться за счет другого человека. Поэтому необходимо и самому быть начеку, если ваш начальник просит перевести большую сумму, перед совершение транзакции перезвоните и повторно уточните необходимость совершения действий.