"2024 год станет годом масштабного мошенничества, созданного искусственным интеллектом" - предупреждает эксперт по кибербезопасности Кевин Госшалк из Arkose Labs.
Злоумышленники все чаще используют возможности искусственного интеллекта для создания более реалистичных форм мошенничества. Одной из таких схем является фишинг, который представляет собой отправку ложных сообщений или электронных писем с целью обмана пользователей и получения их конфиденциальной информации.
Раньше фишинговые сообщения обычно создавались на плохом языке с многочисленными ошибками, что привлекало к себе внимание и делало обнаружение подделки проще. Однако теперь применение генеративного искусственного интеллекта позволяет создавать более привлекательные и качественные сообщения с идеальной грамматикой, что усложняет задачу их распознавания.
Мошенничество с клонированием голоса с помощью искусственного интеллекта также набирает обороты, предупреждает эксперт. Киберпреступники используют глубокие подделки голоса, созданные на основе записей голоса реальных пользователей, которые могут быть найдены в таких источниках, как видеоролики на YouTube. Это позволяет им в точности воссоздавать интонацию, акцент и другие характеристики голоса другого человека, создавая иллюзию, что это настоящий собеседник.
Такие известные инциденты, как случай с гендиректором энергетической компании в Великобритании, который был обманут хакером, переведшим $243 тыс. третьей стороне, или случай с директором банка в Эмиратах, чей голос был клонирован с помощью нейросетей, и в результате мошенники получили 35 миллионов долларов, свидетельствуют об опасности таких атак.
В большинстве случаев человеческий фактор является главной причиной успешности таких мошеннических схем
Недостаточная осведомленность и неправильные действия сотрудников становятся слабым звеном в системе безопасности предприятия. Поэтому важно
обучать и проверять своих сотрудников, чтобы дать им необходимые знания и навыки для борьбы с мошенничеством.