Разработка может использоваться также для повышения безопасности систем, использующих голосовую аутентификацию.
Специалисты Института искусственного интеллекта AIRI и Московского технического университета связи и информатики (МТУСИ) разработали систему, которая с помощью ИИ определяет признаки генерации синтетического голоса, которую используют телефонные мошенники.
Современные технологии позволяют создавать синтетические голоса, которые уже сейчас очень трудно отличить от настоящих. Преимущество таких ИИ-моделей в их способности учитывать контекст и знания о голосовых данных, позволяя более эффективно различать подлинный голос и его подделку. Данные сети не только распознают подделки с высокой точностью, но и способны адаптироваться к новым типам угроз. Внедрение подобных передовых методов существенно повышает уровень безопасности и защищенности от атак, основанных на подмене голоса.
Мошенники генерируют чужие голоса, используя технологии преобразования текста в речь и обработки голоса. Авторы предложили решение для анализа аудиоряда, производительность которого вдвое превосходит модель, созданную ранее учеными Южной Кореи и Франции. Российская разработка может использоваться для борьбы с телефонным мошенничеством или повышения безопасности систем, использующих голосовую аутентификацию.
Интеграция может осуществляться различными способами: от внедрения отдельного программного решения до встраивания в существующие системы безопасности. Потребность в подобных технологиях высока, учитывая растущую угрозу атак с использованием синтетических голосов.
Источник: nauka.tass.ru