Национальный институт стандартов и технологий (National Institute of Standards and Technology, NIST) США опубликовал окончательную версию руководства по защите от атак на системы искусственного интеллекта (ИИ), написал во вторник Nextgov/FCW.
В документе прописаны три основные угрозы для разных типов ИИ-систем – прогностических (предиктивных) и генеративных.
Для первых риски представляют «кибератаки уклонения, отравление данных, нацеленные на конфиденциальные данные нападения». Для вторых – «атаки на цепочку поставок, манипуляция входными данными, встраивание скрытых инструкций для ИИ-алгоритмов» (подробнее о таких атаках см., например, здесь – ред.).
Руководство содержит указания на различные известные способы избежать угроз, например, использовать состязательное обучение или очистку данных.
В то же время в NIST признают, что «атаки по количеству и мощности превосходят доступные методы их отражения».
См. также: NIST опубликовал первые три стандарта постквантовой криптографии >>>