
«Ростелеком»: показ фото либо записи голоса — наиболее примитивная атака на ИИ
Выяснилось, что атаки на искусственный интеллект (ИИ) бывают трех уровней, но наиболее простая из них — это использование фотографии, маски либо грима, а еще записи голоса. Про это в своем интервью СМИ заявил директор по цифровой идентичности «Ростелекома» Иван Беров.
Он отметил, что атаки можно поделить на три уровня. Наиболее простая — это применение фотографии, маски либо грима, а еще записи голоса. В процессе распознавании биометрии система получает видеозапись, на ней пользователь, смотря в камеру, говорит сгенерированную случайным методом последовательность чисел. При этом она отслеживает правильность произнесения чисел, мимику лица и губ, освещенность и прочие параметры и детектирует фальшивку, добавил Беров.
Вместе с тем атаки второго уровня сложности, как подчеркивает специалист, связаны с синтезом речи и наложением изображения лица. В случае, если применяется морфинг (компьютерная анимация), то при наложении одного изображения на другое набор опорных точек смещается, то есть лицо как бы плывет, и машина это не может увидеть. С подобного рода атаками система легко справляется, уточнил директор по цифровой идентичности «Ростелекома».
По словам Берова, наиболее сложный тип атаки — когда нейросеть полностью эмулирует лицо и голос, это называется дипфейк. Однако какой бы ни был искусный дипфейк, мошеннику нужно «показать» его камере и микрофону, так как это компьютерная программа и ее нельзя просто отправить в защищенную систему в виде файла. И именно данный факт определяется и пресекается. Используется ряд технологий ИИ, принимающих решение о том, живой ли человек находится перед камерой либо это его компьютерная копия, резюмировал эксперт.














