Forventet stigning i AI-kryptosvindel – sådan foregår det

Martin Guldlund
| 2 min read
Forventet stigning i kryptosvindel på grund af AI
Kilde: Pixabay

Der er en stigende bekymring for, at svindlere vil bruge kunstig intelligens (AI) til at udvikle nye metoder til at snyde og bedrage, i takt med at teknologien udvikler sig.

En af de primære måder, hvorpå svindlere bruger AI, er på sociale medier. Ved at udnytte AI-drevne værktøjer kan svindlere forstærke deres rækkevidde og skabe en tilsyneladende loyal fangruppe på tusindvis af mennesker.

Disse falske konti og interaktioner kan bruges til at skabe en illusion af troværdighed og popularitet til diverse svindel-projekter.

Svindlerne kan sågar bruge AI-drevne chatbots eller virtuelle assistenter til at engagere med enkeltpersoner, give investeringsrådgivning, promovere falske tokens og ICO’s eller tilbyde investeringsmuligheder med højt afkast.

Brugen af AI kan udfordre den grundlæggende idé om, at kryptoprojekter med større og mere loyale følgerskarer som regel er legitime.

Med AI er det nemmere for at snyde folk, så brugerne må udvise forsigtighed og rettidig omhu, før de investerer i et projekt.

Et eksempel på, hvordan svindlere bruger kunstig intelligens, er ved den såkaldte “svineslagtere-metode”. Det betyder, at en AI bruges til at indlede et venskab med nogen – ofte en ældre eller sårbar person- for i sidste ende at snyde dem. Processen kan vare flere dage eller uger.

AI gør det nemmere automatisere og skalere svindel

Udviklingen indenfor AI-teknologi har gjort det muligt for svindlere at automatisere og skalere svindelprocedurer, der ofte er rettet mod sårbare individer i kryptosektoren.

Derudover kan svindlere udnytte sociale medieplatforme og AI-genereret indhold til at orkestrere komplicerede pump-and-dumps, hvor prisen på tokens kunstigt bliver hypet, mens svindlerne sælger deres tokens med stor profit, hvilket efterlader mange investorer med store tab.

Investorer er længe blevet advaret om at holde øje med deepfake krypto-svindel, som bruger AI-teknologi til at skabe meget realistisk onlineindhold, der ændrer ansigter i videoer og på billeder eller sågar ændrer lyd for at få det til at virke, som om influencers eller kendte personer støtter svindelprojekter.

FBI har udstedt en advarsel om den voksende trussel om “deepfakes”, der bliver brugt til cyberafpresning.

Tidligere på måneden sagde FBI, at “ondsindede aktører” bruger deepfakes til at manipulere fotografier eller videoer, ofte hentet fra sociale mediekonti eller det åbne internet, og skaber billeder med seksuelt indhold, der ser autentiske ud.

I sidste uge suspenderede Twitter kontoen for en populær chatbot, der var forbundet med en meme-coin ved navn “Explain This Bob”, efter Elon Musk kaldte den for et “scam”.

Den automatiserede Twitter-konto “Explain This Bob” brugte OpenAIs seneste GPT-4-modulering til at forstå og svare på tweets fra folk, der taggede kontoen.

Selv om der også er positive anvendelsesmuligheder for AI i kryptovalutasektoren – såsom automatisering af programmering – må brugerne stadig være på vagt og udvise forsigtighed, når de investerer i nye projekter.

Nogle eksperter mener, at det er uundgåeligt, at krypto og AI vokser sammen.

“Cyberkriminelle bruger AI til krypto-svindel, skaber avancerede bots, der efterligner familiemedlemmer, rejser bekymringer om kryptoindustriens sikkerhed og fremmer en skeptisk tankegang”, sagde Twitter-brugeren GarageID.