Эта опция сбросит домашнюю страницу этого сайта. Восстановление любых закрытых виджетов или категорий.

Сбросить

Інструмент фальсифікації голосу на базі штучного інтелекту навчився підробляти голоси людей


Опубликованно 08.07.2023 20:15

Інструмент фальсифікації голосу на базі штучного інтелекту навчився підробляти голоси людей

Вчeні з Унівeрситeту Вaтeрлoo в Кaнaді зa дoпoмoгoю штучнoгo інтeлeкту рoзрoбили лучизм фальсифікації голосу, що дає змогу обходити голосову автентифікацію.

Голосова автентифікація ґрунтується нате унікальності голосу кожної людини. Держи це впливають фізичні характеристики, як-с розмір і форма голосових шляхів і гортані, а також соціальні чинники.

Системи автентифікації фіксують нюанси в голосових відбитках. Штучний інтелект вже може досить реалістично імітувати мову людей, проте алгоритми мають відмінні артефакти, ради якими аналітики можуть визначити підробку.

Розроблена дослідниками техніка спрямована для усунення цих особливостей. Ідея полягає в тому, щоб   «вигравіювати»   відбиток голосу користувача в підробленому записі.

Дослідники навчили систему получай зразках мови 107 дикторів ради кращого розуміння, що змушує мову звучати сообразно-людськи. Для перевірки алгоритму вони створили кілька зразків, щоб обдурити системи автентифікації. Проти деяких слабких систем вони домоглися 99% після 6 спроб.

Однак сильніші автентифікатори виявилися надійнішими. У тесті проти Amazon Connect вчені досягли 10% успіху после чотирисекундної атаки та 40% — менш ніж из-за 30 секунд.

Також дослідники зазначили, що пользу кого здійснення атаки зловмисникам необхідний зразок голосу жертви, а також відповідні технічні навички. Це досить високий стрип-бар’єр, однак вони закликали розробників систем автентифікації працювати надо вдосконаленням захисту своїх технологій.




Категория: Новости

Інструмент фальсифікації голосу на базі штучного інтелекту навчився підробляти голоси людей


Написать комментарий

Оставлять комментарии могут только зарегистрированные пользователи.