Как взломать банковский счет с помощью искусственного интеллекта за 5 минут
Один парень задался вопросом: «действительно ли так хороши системы голосовой защиты в американских банках?». Чтобы это проверить он записал всего 5 минут своей речи для нейронки ElevenLabs. После — она синтезировала его голос! А доступ к банковскому счету ИИ получил еще быстрее:
- Банк: назовите причину звонка
- AI: проверить мой баланс
- Банк: пожалуйста, произнесите «мой голос — это мой пароль»
- AI: мой голос — это мой пароль
- Банк: спасибо! Вот ваш баланс!
Диджитальная
Как взломать банковский счет с помощью искусственного интеллекта за 5 минут
Один парень задался вопросом: «действительно ли так хороши системы голосовой защиты в американских банках?». Чтобы это проверить он записал всего 5 минут своей речи для нейронки ElevenLabs. После — она синтезировала его голос! А доступ к банковскому счету ИИ получил еще быстрее:
- Банк: назовите причину звонка
- AI: проверить мой баланс
- Банк: пожалуйста, произнесите «мой голос — это мой пароль»
- AI: мой голос — это мой пароль
- Банк: спасибо! Вот ваш баланс!
Этот поразительный эксперимент наглядно демонстрирует уязвимость современных систем аутентификации, основанных исключительно на голосе. Нейросеть ElevenLabs, способная с невероятной точностью имитировать тембр, интонацию и даже акцент, оказалась способна обойти защиту, которая считалась надежной. Всего несколько минут аудиозаписи позволили ИИ создать настолько убедительную копию голоса, что система голосовой идентификации банка приняла его за настоящего клиента.
Ситуация, когда Искусственный Интеллект, используя лишь синтезированный голос, смог получить доступ к конфиденциальной финансовой информации, поднимает серьезные вопросы о безопасности. Этот случай подчеркивает необходимость комплексного подхода к аутентификации, который не должен полагаться на один лишь фактор. Современные системы должны включать в себя многоуровневую защиту, например, комбинацию голосовой биометрии с другими методами, такими как одноразовые пароли, ответы на секретные вопросы или даже аппаратные токены.
Эксперты в области кибербезопасности уже давно предупреждают о потенциальных рисках, связанных с развитием генеративных нейросетей. Способность ИИ создавать реалистичные аудио- и видеоматериалы открывает широкие возможности для мошенничества. Данный инцидент служит ярким напоминанием о том, что технологии развиваются стремительно, и системы безопасности должны адаптироваться к новым угрозам, иначе мы рискуем столкнуться с последствиями, которые сложно предсказать. Банки и другие финансовые учреждения должны немедленно пересмотреть свои протоколы безопасности, чтобы предотвратить подобные взломы в будущем.
Диджитальная

