Национальный институт стандартов и технологий США (NIST) выпустил программную платформу с открытым исходным кодом под названием Dioptra, предназначенную для испытаний систем искусственного интеллекта.
Злоумышленники могут пытаться исказить данные для обучения модели, манипулировать входными данными или извлекать из обученной модели сведения об исходных данных, позволяющие воссоздать модель. Инструменты, входящие в состав платформы Dioptra, помогают организовать процесс испытаний модели, вести журналы экспериментов и взаимодействовать с разными моделями и наборами данных. Кроме того, NIST опубликовал несколько документов с рекомендациями о разработке систем искусственного интеллекта. Эти рекомендации помогут защитить модель от использования ее с целью причинения вреда — например, для разработки биологического оружия или проведения кибератак.