Подемот на вештачката интелигенција создаде можности за генерирање слики, текст, глас и машинско учење. Иако вештачката интелигенција нуди многу придобивки, таа исто така им обезбедува на измамниците нови методи за искористување поединци, најчесто за пари. Можеби сте слушнале за дипфејк, каде што вештачката интелигенција се користи за создавање лажни слики, видеа, па дури и аудио, често во нив се вклучени познати личности или политичари. Клонирањето на гласот, еден вид на оваа технологија, создава дигитална реплика на нечиј глас со доловување на говорните обрасци, акценти и дишење од кратки аудиопримероци.
Откако ќе се создаде говорна шема, генератор на глас со вештачка интелигенција може да го конвертира внесувањето текст во високореалистичен говор што личи на гласот на позната личност. Со напредна технологија, гласовното клонирање може да се постигне само со аудиопримерок од три секунди. Додека едноставна фраза како „здраво, има ли некој таму?“ може да доведе до измами за гласовно клонирање, подолг разговор им помага на измамниците да доловат повеќе вокални детали и специфичност. Затоа е најдобро повиците да бидат кратки додека не се уверите во идентитетот на повикувачот.
Сајбер-криминалците користат технологија за клонирање глас за да имитираат познати личности, владини службеници или обични луѓе. Кога гласот е клониран, тој може да се користи во измама често придружена со лажен идентификатор на повикувач за да изгледа како да е вистински. Неодамнешните истражувања покажуваат дека 28 отсто од возрасните во Англија се соочиле со измами за клонирање гласови минатата година, а 46 отсто не биле свесни за постоењето на овој тип измама. Во текот на 2022 година, речиси 240.000 Австралијци пријавиле дека биле жртви на измами за клонирање глас, што довело до финансиска загуба од 568 милиони долари. Ризиците што ги носи гласовното клонирање бараат мултидисциплинарен одговор.