Nieuws
Oplichting met nagebootste stemmen
Rubrieken: Nieuws, Maatschappij
Gepubliceerd:
Laatste update:
Bron: HCC/redactie MijnAmstelveen De snelle ontwikkeling van kunstmatige intelligentie (AI) biedt veel kansen. Maar criminelen maken er ook misbruik van. Een nieuwe vorm van oplichting is AI-voice spoofing: het namaken van stemmen. Oplichters doen zich voor als een familielid, vriend of medewerker van een organisatie. Het gesprek klinkt echt, maar is dat niet. Dit kan leiden tot grote financiële en persoonlijke schade. De grootste vereniging van computergebruikers HCC waarschuwt hier uitdrukkelijk voor. Hoe werkt het? Criminelen hebben maar een paar seconden aan audio nodig om een stem na te maken. Die halen ze bijvoorbeeld van sociale media of voicemails. Met speciale software kunnen ze daarna een gesprek voeren dat heel echt lijkt. Toch zijn er vaak kleine signalen dat het om een nepgesprek gaat. Hoe herken je een nepgesprek? Let op deze signalen: Korte stiltes. Na een vraag valt soms een vreemde pauze. De AI heeft tijd nodig om een antwoord te maken. Te perfecte stem. De stem klinkt vaak té glad. Je hoort geen ademhaling, geen “eh” of kleine foutjes. Vreemde reacties. Stel een onverwachte vraag. Een echte persoon reageert direct. Een AI kan vastlopen of het gesprek terugsturen naar het onderwerp. Herhaling van zinnen. AI gebruikt vaak dezelfde zinnen en blijft hangen in een script, zoals vragen om geld of inloggegevens. Wat moet je doen bij twijfel? Hang meteen op Bel zelf terug via een bekend, officieel nummer Gebruik een codewoord met familie of bekenden. Als de beller het codewoord niet weet, is dat een duidelijk waarschuwingssignaal. Blijf alert Deze vorm van oplichting wordt steeds slimmer. Daarom is het belangrijk om alert te blijven en niet zomaar te vertrouwen op een stem aan de telefoon. Gezond wantrouwen kan veel problemen voorkomen. Foto: AI gemaakt
