AI-hallusinasjoner utgjør nå en trussel mot nettsikkerheten

Image by Solen Feyissa, from Unsplash

AI-hallusinasjoner utgjør nå en trussel mot nettsikkerheten

Lesetid: 2 min.

Studien viser at AI-chatbots anbefaler falske innloggingssider til millioner av brukere, noe som setter dem i fare for phishing og svindel, under påskudd av å gi hjelpsomme svar.

Har du det travelt? Her er de raske faktaene:

  • 34% av AI-foreslåtte innloggings-URLer var falske, uhevdet eller urelaterte.
  • Perplexity AI anbefalte et phishing-nettsted i stedet for Wells Fargo’s offisielle innlogging.
  • Kriminelle optimaliserer phishing-sider for å rangere i AI-genererte resultater.

I deres studie, testet cybersikkerhetsfirmaet Netcraft en populær stor språkmodell (LLM) ved å spørre hvor man skal logge inn på 50 kjente merker. Av de foreslåtte 131 nettstedlenkene, var 34% av disse feil, med inaktive eller uregistrerte domener utgjør 29%, og urelaterte bedrifter står for 5%.

Dette problemet er ikke teoretisk. I et virkelig eksempel viste den AI-drevne søkemotoren Perplexity en phishing-side til en bruker som søkte etter Wells Fargo innloggingsside. En falsk Google Sites-side som etterlignet banken dukket opp øverst i søkeresultatene, mens den autentiske linken var skjult under.

Netcraft forklarte «Dette var ikke grensetilfeller. Vårt team brukte enkel, naturlig formulering, og simulerte nøyaktig hvordan en typisk bruker kanskje vil spørre. Modellen ble ikke lurt – den var rett og slett ikke nøyaktig. Det er viktig, fordi brukere i økende grad stoler på AI-drevne søke- og chatgrensesnitt for å svare på denne typen spørsmål.”

Etter hvert som AI blir standardgrensesnittet på plattformer som Google og Bing, øker risikoen. I motsetning til tradisjonelle søkemotorer, presenterer chatbots informasjon klart og med selvtillit, noe som fører til at brukere stoler på svarene deres, selv når informasjonen er feil.

Trusselen stopper ikke ved phishing. Moderne nettkriminelle optimaliserer sitt ondsinnede innhold for AI-systemer, noe som resulterer i tusenvis av svindelsider, falske API-er og forgiftet kode som glipper forbi filtre og ender opp i AI-genererte svar.

I en kampanje opprettet angriperne en falsk blockchain API, som de promoterte gjennom GitHub-repositorier og bloggartikler, for å lure utviklere til å sende kryptovaluta til en svindel lommebok.

Netcraft advarer om at det ikke er nok å registrere falske domener på forhånd. I stedet anbefaler de smartere deteksjonssystemer og bedre opplæringssikkerhetsbarrierer for å forhindre at AI i utgangspunktet finner opp skadelige URLer.

Likte du denne artikkelen? Like den!
Jeg misikte den sterkt Jeg likte den ikke Den var helt grei Den var bra! Den var kjempebra! Elsket den!

Vi er veldig gade for at du satte pris på arbeidet vårt!

Som en leser vi verdsetter høyt, har du mulighet til å gi oss en anmeldelse på Trustpilot? Det tar bare et øyeblikk og betyr utrolig mye. Tusen hjertelig takk!

Gi oss en vurdering på Trustpilot
5.00 Stem på av 1
Tittel
Kommentar
Tusen takk for tilbakemeldingen