«Лаборатория Касперского» создаст центр безопасности искусственного интеллекта
«Лаборатория Касперского» выступает за создания центра искусственного интеллекта (ИИ) на базе одного из регуляторов. Новое учреждение займется ИБ-вопросами в сфере ИИ. Новый ИИ-центр должен агрегировать информацию по актуальным способам кибератак на ИИ-алгоритмы и отдельно собирать информацию об уязвимостях.
Создание центра безопасности ИИ
«Лаборатория Касперского» выступает за создания центра искусственного интеллекта (ИИ) на базе одного из регуляторов. Об этом в середине октября 2024 г. пишет издание ComNews. По задумке, новое учреждение займется ИБ-вопросами в сфере ИИ.
Об этом рассказал директор по исследованиям и разработке АО «Лаборатория Касперского» Антон Иванов. Он сообщил, что в России нет единого центра по ИИ-безопасности, и это проблема, так как никто не представляет модель его угроз. У нас нет единой базы данных ИИ-угроз и, самое главное, нет механизмов идентификации ИИ-пользователей. Иванов уточнил, что многие пользуются различными библиотеками для извлечения образов и текстов из фотографий. В настоящее время ИБ-специалисты находят много скомпрометированных библиотек, который лежат в open source, а большая часть дата‑инженеров и дата‑саентистов пользуются этим софтом при ИИ-разработке. Как нам оповестить их, что это программное обеспечение (ПО) опасно? Сейчас такого механизма нет. Иванов добавил, поэтому нужно создать такой центр, который будет заниматься ИИ-безопасностью. Рассказывать про закладки в ПО, используемое при ИИ-разработке, и про новые способы манипулировать ИИ-моделями.
ИИ - это быстрорастущая и меняющаяся технология, предоставляющая невероятные возможности и проблемы для нашей страны.
Позднее в разговоре с корреспондентом издания ComNews Антон Иванов сказал, что данные о киберрисках для ИИ могут собираться в центрах, работающих по принципу сomputer emergency reaction team (CERT) - группа реагирования на компьютерные инциденты, представляющая из себя независимую группу экспертов, и работа над этой идеей идет уже несколько месяцев. В области классической кибербезопасности уже есть опыт по обмену информацией о техниках и тактиках атакующих, индикаторах компрометации и т.д. Однако в ИИ-области нужен другой подход.
По информации ComNews, новый ИИ-центр должен агрегировать информацию по актуальным способам кибератак на ИИ-алгоритмы и отдельно собирать информацию об уязвимостях и закладках в компонентах ИТ-систем, использующих технологию ИИ, и предоставлять разработчикам ИТ-систем, использующих ИИ, доступ к ней.
В настоящее время «Лаборатория Касперского» открыта к сотрудничеству с другими компаниями — лидерами отраслей, работающих с ИИ (ИБ, финтех, операторы связи и т.д.) в рамках центра исследования ИИ-безопасности, для быстрого обмена информацией и рекомендациями по реагированию на возможные ИТ-инциденты.
Американский опыт
Хотя ИИ приносит беспрецедентные возможности для продвижения миссии для Соединенных Штатов, он открывает большую и изменчивую поверхность кибератаки, которую необходимо тщательно и скрупулезно решать.
Для того чтобы гарантировать, что Агентство национальной безопасности (АНБ) остается впереди тактик и методов наших противников, Агентство запустило Центр безопасности ИИ АНБ (AISC). AISC станет ключевой частью миссии АНБ по кибербезопасности с целью защиты ИИ страны посредством сотрудничества Intel-Driven с промышленностью, академическими кругами, IC и другими государственными партнерами.
AISC разработала ИТ-систему под названием AI Security защищает ИИ-системы от обучения, выполнения и раскрытия неправильных действий. Это набор практик для защиты ИИ-систем— данных обучения, моделей, способностей и жизненных циклов — от цифровых атак, краж и повреждений. Защита ИИ-систем поможет обеспечить конфиденциальность, целостность и доступность информации и услуг.
По словам сотрудников AISC, обеспечение безопасности ИИ-систем требует от США защиты всего жизненного цикла ИИ-разработки, расширения безопасных методов разработки ПО. В частности, американским властям необходимо защитить данные для обучения, фреймворки, модели, возможности моделей и жизненный цикл операций разработки машинного обучения (ML).
В апреле этого года АНБ выпускает информационный лист по кибербезопасности (CSI) «Безопасное развертывание ИИ-систем: лучшие практики развертывания безопасных и устойчивых ИИ-систем». CSI предназначен для поддержки владельцев ИТ-систем национальной безопасности и компаний оборонно-промышленной базы в США, которые будут развертывать и эксплуатировать ИИ-системы, разработанные и разработанные внешней организацией.
CSI - это первый выпуск Центра ИИ-безопасности (AISC) АНБ в партнерстве с Агентством кибербезопасности и безопасности инфраструктуры (CISA), Федеральным бюро расследований (ФБР), Австралийским центром кибербезопасности (ACSC) Управления связи Австралии, Канадским центром кибербезопасности, Новозеландским национальным центром кибербезопасности (NCSC-NZ) и Национальным центром кибербезопасности Соединенного Королевства (NCSC-UK). Хотя руководство предназначено для целей национальной безопасности, оно применимо для всех, кто внедряет возможности ИИ в управляемую среду, особенно в средах с высокой степенью угрозы и ценностью. Оно основано на ранее выпущенных руководящих принципах по разработке безопасных ИИ-систем и взаимодействию с ИИ. Это первое руководство нацеливает центр на поддержку одной из его основных целей: повышение конфиденциальности, целостности и доступности ИИ-систем.