Forestil dig, at du sidder med en kop kaffe, og telefonen ringer.
Det er din søster. Hun lyder lidt forpustet, måske stresset.
Hun har glemt sin pung og skal bruge dit CPR-nummer - eller lige et par tusind kroner. Selvom du nok instinktivt får lyst til at hjælpe med det samme, skal du holde lidt igen.
For stemmen i røret lyder som din søster, men det kan meget vel være kunstig intelligens, der spiller dig et puds.
Svindleren bag skal kun bruge 20 sekunders optagelse af din stemme for at lave en overbevisende kopi, som tilsvarende kan udnyttes.
Sådan skriver mediet Mobilizujeme.
Svindlerne har det nemt
Velkommen til 2025, hvor AI ikke kun bruges til at skrive kærestebreve eller lave sjove kattevideoer, men også til at bedrage folk på snedig vis.
I apps som Speechify kan man klone sin stemme på få minutter.
Det er gratis, det er nemt, og det er skræmmende realistisk. Selvom det måske starter som et sjovt projekt, er vejen fra sjov til svindel uhyggeligt kort.
Udvikler sig hele tiden
De teknologiske værktøjer udvikler sig med lynets hast.
I dag kan en svindler få en stemme til at lyde som om, det er din mor, chef eller bedste ven.
De kan endda også lave en video, som passer til, hvor det kan være svært at gennemskue svindelnummeret. Det kaldes deepfake, og det er ikke længere noget, der kun findes i sci-fi-film.
Derfor anbefaler eksperter også, at du aldrig stoler blindt på en velkendt stemme. Uanset hvor troværdigt det lyder, bør du aldrig give personlige oplysninger eller overføre penge baseret på et opkald alene.
Svindel er måske blevet smartere, men det kan du også blive.