Телефонні шахраї все частіше почали використовувати голосові повідомлення, згенеровані нейромережами, щоб імітувати голос знайомих або родичів своєї жертви. Про нову схему обману попереджають експерти з кібербезпеки, наголошуючи на швидкому розвитку технологій діпфейків.
Спеціалісти пояснюють, що алгоритм штучного інтелекту навчається на реальних записах голосу людини. Він аналізує та виділяє стійкі ознаки мовлення, а потім на їхній основі генерує абсолютно нове повідомлення. У результаті зловмисникам вдається створити переконливий ефект впізнавання та легко ввести жертву в оману.
Однак експерти зазначають, що навіть зараз згенеровані аудіо мають певні недоліки. Якщо уважно прислухатися до такого голосового повідомлення, можна помітити суттєві відмінності від звичайної розмови.
Фахівці радять українцям звертати увагу на такі підозрілі деталі:
- нестабільний тембр або “металевий” відтінок голосу;
- занадто рівне або взагалі відсутнє дихання;
- неприродні чи склеєні паузи між словами;
- нетипові для вашого знайомого формулювання або, навпаки, надмірні пояснення ситуації.
Водночас варто пам’ятати, що технології нейромереж постійно вдосконалюються, тому шахраям вдається підробляти голоси дедалі якісніше. Особливо ефективною така тактика стає тоді, коли зловмисники створюють стресову ситуацію і жертва вже перебуває під сильним емоційним тиском, втрачаючи здатність критично мислити.