24.11.2024
xaker

Видеоклипове в социалните медии могат да бъдат използвани от измамници, за да клонират гласовете ни с помощта на изкуствен интелект и след това да измамят семейството и приятелите ви за пари. Необходима е „проба“ от само 3 секунди, твърдят експертите, които предлагат и решение, пише The Guardian.

Измамниците търсят видеоклипове, които са качени онлайн и се нуждаят само от няколко секунди аудио, за да възпроизведат начина, по който целевият човек говори. След това се обаждат или изпращат гласови съобщения до приятели и семейство с молба спешно да изпратят пари.

Проучване, публикувано от дигиталния кредитор Starling Bank, установява, че 28% от хората са били обект на измама с клониране на глас с изкуствен интелект поне веднъж през последната година. Въпреки това, 46% от хората дори не са знаели за съществуването на този вид измама, а 8% са казали, че е вероятно да изпратят всяка поискана сума пари, дори ако смятат, че обаждането от техен любим човек е странно.

Главеният експерт по информационна сигурност в Starling Bank Лиза Греъм казва: „Хората редовно публикуват онлайн съдържание, което съдържа записи на техния глас, без да осъзнават, че това ги прави по-уязвими за измамници“.

Какво да правим

Експертите предлагат на хората да измислят и използват „безопасна фраза“ с близки приятели и семейство, за да проверят дали обаждането е истинско.

„Измамниците се нуждаят само от три секунди звук, за да клонират гласа ви, но ще отнеме само няколко минути със семейството и приятелите ви, за да създадете сигурна фраза, за да им се противопоставите“, обяснява Греъм. „Затова е по-важно от всякога хората да са наясно с тези видове измами, поддържани от измамници, както и как да защитят себе си и своите близки от това да се превърнат в жертва“, съветва специалистът.

Британската агенция за киберсигурност заяви през януари, че изкуственият интелект прави все по-трудно разпознаването на фишинг съобщения, които подмамват потребителите да дадат пароли или лични данни. Тези все по-сложни измами са успели да заблудят дори големи международни компании.

През февруари полицията в Хонконг започна разследване, след като служител на неназована компания каза, че е била измамена да плати 200 милиона хонконгски долара (20 милиона паунда) от парите на фирмата си на измамници в дълбоко фалшив видеоконферентен разговор, представяйки се за висши служители на компанията. Смята се, че престъпниците са изтеглили предварително видеозаписи и след това са използвали изкуствен интелект, за да добавят фалшиви гласове, които да бъдат използвани във видеоконференцията. Лорд Хансън, министърът на вътрешните работи предупреди за огромните рискове от AI. „Изкуственият интелект предоставя невероятни възможности за индустрията, обществото и правителствата, но ние трябва да останем бдителни за опасностите, включително измамите, базирани на ИИ“, категоричен е той.

trud.bg