AI-agenter Lurt av Falske Minner, Muliggjør Krypto Tyveri

Image created with ChatGPT

AI-agenter Lurt av Falske Minner, Muliggjør Krypto Tyveri

Lesetid: 2 min.

En ny forskningsstudie avdekket betydelige sikkerhetsproblemer i Web3 AI-drevne agenter, som lar angripere bruke falske minner for å utføre uautoriserte kryptovalutaoverføringer.

Har det travelt? Her er de viktige faktaene:

  • Hackere kan injisere falske minner i AI-agenter for å stjele kryptovaluta.
  • Angrep basert på minne omgår grunnleggende sikkerhetsvarsler og sikkerhetstiltak.
  • Blockchain-transaksjoner er irreversible—stjålne midler er permanent tapt.

Forskere fra Princeton University og Sentient Foundation oppdaget at disse AI-agentene, designet for å håndtere blockchain-baserte oppgaver som handel med krypto og administrasjon av digitale eiendeler, er sårbare for en taktikk kalt kontekstmanipulasjon.

Angrepet fungerer ved å målrette minnesystemene til plattformer som ElizaOS, som skaper AI-agenter for desentraliserte applikasjoner. Minnesystemet til disse agentene lagrer tidligere samtaler for å bruke dem som en veileder for deres fremtidige valg.

Forskerne demonstrerte at angripere kan legge inn villedende kommandoer i minnesystemet, noe som fører til at AI sender midler fra den tiltenkte lommeboken til en lommebok kontrollert av angriperen. Alarmende nok kan disse falske minnene reise mellom plattformer.

For eksempel kan en agent som er kompromittert på Discord senere gjøre feil overføringer via X, uten å innse at noe er galt.

Det som gjør dette spesielt farlig er at standard defensive tiltak ikke kan stoppe denne type angrep. Behandlingen av falske minner som ekte instruksjoner gjør grunnleggende prompt-baserte sikkerhetstiltak ineffektive mot denne typen angrep.

Alle blockchain-transaksjoner blir permanente, så det er ingen mulighet til å gjenopprette stjålne midler. Problemet blir verre fordi visse AI-agenter lagrer minne over flere brukere, så et enkelt sikkerhetsbrudd kan påvirke mange brukere.

Forskerteamet testet flere måter å forhindre dette på, inkludert justering av AI-trening og krav om manuell godkjenning for transaksjoner. Mens disse tilnærmingene gir noe håp, kommer de på bekostning av å senke automatiseringen.

Problemet strekker seg utover kryptovaluta. Den samme sårbarheten kan påvirke allmenn AI-assistenter, og risikere datalekkasjer eller skadelige handlinger hvis angripere endrer minnet deres.

Denne sårbarheten er spesielt alarmert i lys av nye funn der 84% av IT-ledere stoler like mye eller mer på AI-agenter enn på menneskelige medarbeidere, og 92% forventer at disse systemene vil drive forretningsresultater innen 12 til 18 måneder.

For å løse problemet, lanserte forskerne et verktøy kalt CrAIBench for å hjelpe utviklere med å teste systemene sine og bygge sterkere forsvar. Inntil da, advarer eksperter brukere om å være forsiktige når de stoler på AI-agenter med økonomiske beslutninger.

Likte du denne artikkelen? Like den!
Jeg misikte den sterkt Jeg likte den ikke Den var helt grei Den var bra! Den var kjempebra! Elsket den!

Vi er veldig gade for at du satte pris på arbeidet vårt!

Som en leser vi verdsetter høyt, har du mulighet til å gi oss en anmeldelse på Trustpilot? Det tar bare et øyeblikk og betyr utrolig mye. Tusen hjertelig takk!

Gi oss en vurdering på Trustpilot
0 Stem på av 0
Tittel
Kommentar
Tusen takk for tilbakemeldingen