
Вы спокойно разговариваете с голосовым ассистентом, а в фоне уже спрятана чужая команда. Модель внезапно начинает игнорировать вас и выполнять то, что нужно постороннему человеку.
16 апреля 2026 года вышла работа, принятая на IEEE S&P 2026. Авторы разработали фреймворк AudioHijack, который незаметно впрыскивает вредоносную инструкцию в аудиоканал. Искажения маскируются под обычную реверберацию — человек ничего не слышит, а модель чётко ловит команду.
Атака работает независимо от контекста. На 13 современных моделях успех 79–96 % даже на новых разговорах. Модель можно заставить распространять дезинформацию или запускать инструменты.
Взлом бытовых помощников известен уже несколько лет. Но эта атака бьёт по серьёзным моделям нового поколения. Особенно уязвимы оказались коммерческие сервисы Mistral AI (Voxtral) и Microsoft Azure (MAI-Voice).
Техника элегантная: вместо грубого шума — градиентная оптимизация. Человеческое ухо почти ничего не замечает.
Пока это лабораторная демонстрация, но она показывает новую брешь в голосовых интерфейсах.
Источник:
Meng Chen, Kun Wang, Li Lu, Jiaheng Zhang, Tianwei Zhang. Hijacking Large Audio-Language Models via Context-Agnostic and Imperceptible Auditory Prompt Injection. arXiv:2604.14604 (2026). https://arxiv.org/abs/2604.14604
