Ведущих специалистов в области кибербезопасности беспокоит возможность использования злоумышленниками ChatGPT, Google Bard, WormGPT и аналогичных инструментов генеративного искусственного интеллекта. Главная проблема заключается в том, что генеративный искусственный интеллект дает возможность проводить изощренные атаки по электронной почте, создавая на основе общедоступной информации в высокой степени персонализированные мошеннические сообщения, считают специалисты, участвовавшие в опросе, проведенном фирмой Abnormal Security.
В другом исследовании, выполненном группой IBM X-Force, была убедительно продемонстрирована возможность создания таких сообщений моделью ChatGPT. Исследователи попросили модель самостоятельно определить, какие темы больше всего волнуют сотрудников компании заданной отрасли, затем выбрать метод социальной инженерии — социальную значимость, доверие или авторитетность, метод маркетинга — персонализацию, оптимизацию для мобильных устройств, призыв к действию, и, наконец, составить письмо от имени менеджера кадрового отдела со ссылкой на веб-сайт. Исследователи разослали это письмо сотрудникам крупной компании и сравнили результаты (то есть количество переходов по ссылке) с результатами рассылки аналогичного письма, составленного опытными специалистами в области социальной инженерии. По ссылке в письме, составленном ChatGPT, перешли 11% получателей, а по ссылке в письме, составленном специалистом — 14%. Таким образом, заключают исследователи, искусственный интеллект практически сравнялся с человеком в составлении мошеннических писем.