Наука

В РФ создали способ защиты ИИ от копирования его данных
Фото: ru.freepik.com/freepik

Автор:

В РФ создали способ защиты ИИ от копирования его данных

В пресс-службе Института искусственного интеллекта AIRI было оглашено о том, что российские ученые создали новый способ обнаружения краж моделей искусственного интеллекта (ИИ). Разработанные учеными «водяные знаки» позволяют установить факт компрометации модели. Этот метод полезен как для закрытых, так и открытых моделей, предотвращая незаконное использование. Основной принцип этой методики заключается в возможности изменения любой нейронной сети таким образом, чтобы она реагировала на определенные цифровые «водяные знаки». Существенно, чтобы эти знаки сохраняли свою функциональность после внесения изменений в модель, подчеркнули в пресс-службе.

Ученые провели проверку своего подхода на известной нейронной сети ResNet34, используемой для классификации изображений. Они разработали набор «водяных знаков» и опробовали сохранение способности модели реагировать на них после внесения изменений.

Проведенные эксперименты показали, что новый метод позволяет обнаруживать незаконное использование модели в 73-100% случаев, превышая эффективность уже существующих методов. Ученые надеются, что их разработка поможет разработчикам искусственного интеллекта более эффективно защищать свои проекты, и уже представили ее в открытый доступ.

Ранее «Медздрав.Инфо» сообщал о том, что разработана память для ПК, действующая при температуре 600 °C.