Как обеспечить доверенный ИИ в критической информационной инфраструктуре рассказал академик Арутюн Аветисян
Как обеспечить доверенный ИИ в критической информационной инфраструктуре рассказал академик Арутюн Аветисян
На пленарном заседании «ИИ: Применение, перспективы и вызовы» директор Института системного программирования им. В.П. Иванникова РАН академик Арутюн Аветисян рассказал об обеспечении доверия и безопасности искусственного интеллекта, особенно при использовании в критической информационной инфраструктуре. Выступление математика прошло 22 сентября в Университете «Сириус», в ходе первого дня работы форума «Микроэлектроника 2025».
Говоря о вызовах безопасности, Арутюн Аветисян привёл примеры уязвимостей: от взлома систем распознавания лиц до аварий с автономными автомобилями и психологического воздействия ИИ на людей. «По данным ВОЗ, каждый восьмой из нас психологически нестабилен. Говорят, уже тысячами исчисляются случаи, когда большие модели приводят к самоубийству», — констатировал он. Особую опасность, по его словам, представляют сложные мошеннические схемы с использованием дипфейков, которые подрывают доверие к цифровой информации.
При этом угрозы в ИИ носят принципиально новый, комплексный характер, сочетая кибербезопасность и социо-гуманитарный аспект. «В отличие от традиционного IT, искусственный интеллект имеет два измерения — это кибербезопасность традиционная, конечно же, и вторая — социо-гуманитарная. И вот это уже новый вызов, с которым мы должны иметь дело», — подчеркнул он.
Исключить возможность подмены информации возможно путём формирования инфраструктуры доверенных баз данных. Даже незначительное искажение данных (менее 1 %) может привести к «отравлению» информации и, как следствие, к обучению системы на некорректных данных, которые потенциально позволят взломать всю систему.
Разработкой безопасных, этичных и надёжных технологий искусственного интеллекта в России занимается Консорциум исследований безопасности технологий искусственного интеллекта, основанный Институтом системного программирования РАН, АНО «Национальный технологический центр цифровой криптографии» и Академией криптографии Российской Федерации. По словам академика, инструменты уже нашли десятки уязвимостей в популярных фреймворках. Кроме того, планируется скорый выход первого отечественного стандарта по безопасной разработке для машинного обучения.
Вопрос безопасности данных потенциально снимает федеративное обучение — метод машинного обучения, при котором модель обучается на данных, хранящихся на множестве децентрализованных устройств без необходимости собирать эти данные в одном месте. Федеративное обучение особенно актуально для критических инфраструктур, которым необходимы данные для машинного обучения.
«Важно подчеркнуть, что это не обязательно означает открытость в общепринятом смысле, речь может идти о закрытых версиях внутри определённого конгломерата», — пояснил учёный.
Ключевой компонент безопасного ИИ — технологическая платформа на отечественном оборудовании, подчеркнул академик. «Обеспечить безопасность без своего „железа“ невозможно», — резюмировал Арутюн Аветисян.
Российский форум «Микроэлектроника 2025» проходит с 21 по 27 сентября на площадке Научно-технологического университета «Сириус» (федеральная территория Сириус). Это важнейшее отраслевое мероприятие входит в план мероприятий Десятилетия науки и технологий и объединяет специалистов микро- и радиоэлектронной отрасли, создания и применения электронной компонентной базы и программно-аппаратных комплексов. За семь дней работы в мероприятии примут участие более 3500 человек и прозвучат больше 1100 докладов.