За последние месяцы специалисты по компьютерной безопасности продемонстрировали уже несколько примеров использования языковой модели ChatGPT для написания программного кода, выполняющего функции, свойственные вредоносным программам — например, записи нажатий клавиш или модификации динамически подгружаемых библиотек. В ChatGPT встроены фильтры, которые должны предотвращать подобное поведение модели, но, как выяснилось, их легко обойти с помощью специальным образом сформулированных запросов.
Один из примеров такого использования ChatGPT показал главный инженер по безопасности компании HYAS InfoSec Джефф Симс. Он назвал свою разработку BlackMamba. Это программа на языке Python, которая при запуске отправляет в ChatGPT запрос на создание функции-кейлоггера (записывающей нажатия клавиш), а затем исполняет полученный код с помощью стандартной функции exec(). ChatGPT может создать множество вариантов функции-кейлоггера и антивирусным программам трудно отследить все возможные модификации. Другой пример с аналогичной идеей показали специалисты фирмы CyberArk. Их программа запрашивает у ChatGPT функцию, динамически подгружающую DLL-библиотеку в процесс Windows Explorer.