Studie advarer: AI kan forsterke polariseringen på sosiale medier
Kunstig intelligens kan forsterke polariseringen på sosiale medier, advarer forskere og studenter ved Concordia, og uttrykker bekymring for ytringsfrihet og feilinformasjon.
Har du dårlig tid? Her er de viktigste faktaene:
- AI-algoritmer kan spre splittelse ved kun å bruke følgerantall og nylige innlegg.
- Forsterkende-læringsroboter tilpasser seg raskt for å utnytte sosiale mediers sårbarheter.
- Eksperter advarer om at plattformer risikerer enten sensur eller ukontrollert manipulasjon.
Selv om polarisering på sosiale medier ikke er noe nytt, advarer forskere og studentaktivister ved Concordia University om at kunstig intelligens kan forverre problemet betydelig.
«I stedet for å bli vist opptak av hva som skjer eller innhold fra journalistene som rapporterer om det, ser vi i stedet overdrevent dramatisert AI-kunst av ting vi burde bry oss om politisk […] Det fjerner virkelig folk og fjerner ansvarlighet» sa Danna Ballantyne, ekstern affærer og mobiliseringskoordinator for Concordia Student Union, som rapportert av The Link.
Hennes bekymringer gjenspeiler ny forskning fra Concordia, der professor Rastko R. Selmic og doktorgradsstudent Mohamed N. Zareer viste hvordan forsterkningslærings-boter kan forsterke splittelse på nettet. “Vårt mål var å forstå hvilken terskel kunstig intelligens kan ha på polarisering og sosiale medie-nettverk, og simulere det […] for å måle hvordan denne polariseringen og uenighet kan oppstå.” sa Zareer, som rapportert av The Link.
Funnene tyder på at algoritmer ikke trenger privat data for å skape splid, der grunnleggende signaler som følgerantall og nylige innlegg er nok. «Det er bekymringsfullt, fordi [selv om] det ikke er en enkel robot, er det fortsatt en algoritme du kan lage på datamaskinen din […] Og når du har nok datakraft, kan du påvirke flere og flere nettverk,» forklarte Zareer til The Link.
Dette gjenspeiler en større mengde forskning som viser hvordan forsterket læring kan brukes som våpen for å drive samfunn fra hverandre. Studien utført av Concordia brukte Double-Deep Q-læring og viste at fiendtlige AI-agenter kan «fleksibelt tilpasse seg endringer innen nettverket, noe som gjør det i stand til effektivt å utnytte strukturelle sårbarheter og forsterke splittelser blant brukerne,» som forskningen bemerket.
Faktisk er Double-Deep Q-læring en AI-teknikk der en bot lærer optimale handlinger gjennom prøving og feiling. Den bruker dype nevrale nettverk til å håndtere komplekse problemer og to verdiestimater for å unngå å overvurdere belønninger. I sosiale medier kan den strategisk spre innhold for å øke polarisering med minimal data.
Zareer advarte om at politiske beslutningstakere står overfor en vanskelig balanse. «Det er en hårfin linje mellom å overvåke og sensurere og prøve å kontrollere nettverket,» sa han til The Link. For lite tilsyn lar boter manipulere samtaler, mens for mye kan risikere å undertrykke ytringsfriheten.
Imens frykter studenter som Ballantyne at AI visker ut levd erfaring. «AI fjerner fullstendig det,» sa hun til The Link.