Ministerul Afacerilor Interne transmite că, în ultima perioadă, a fost identificată o nouă metodă de fraudă – infractorii clonează cu ajutorul inteligenţei artificiale vocile persoanelor apropiate.
Practic, escrocii se folosesc de câteva secunde de înregistrări ale persoanelor apropiate – din videoclipuri sau mesaje audio postate pe reţelele sociale – şi cu ajutorul AI-ului creează apeluri telefonice în care pretind că au avut un accident sau o urgenţă gravă, şi cer bani.
Mulţi au picat în această capcană, chiar dacă la capătul celălalt al firului nu se afla o persoană reală. Specialiştii în securitate spun că scenariul clasic este menit să provoace panică şi grabă, special pentru a forţa victimele să ia decizii pripite.
Sfaturile specialiștilor
Dacă primiţi un astfel de apel – opriţi-vă! închideţi şi verificaţi dacă informaţia este reală. Sunaţi persoana care chipurile cere ajutor pe numărul cunoscut. Nu vă grăbiţi să trimiteţi bani, date personale sau informaţii sensibile bancare. Încercaţi să vă păstraţi calmul.
Pentru a evita astfel de situaţii, stabiliţi împreună cu membrii familiei o parolă sau un cuvânt secret pentru a evita să fiţi păcăliţi de apelanţii suspecţi. Specialiştii în securitate cibernetică ne mai recomandă să fim atenţi la anomalii – vocile clonate pot prezenta uneori un ton monoton, pauze nenaturale sau zgomote de fundal ciudate, potrivit radiocluj.ro.

