Meninger: Er chatboter gode terapeuter?

Image generated by ChatGPT

Meninger: Er chatboter gode terapeuter?

Lesetid: 8 min.

AI-chatboter som ChatGPT, Claude og DeepSeek endrer måten folk får tilgang til emosjonell støtte på – og tilbyr rimelig, on-demand hjelp for angst, stress og selvrefleksjon. Men den økende bruken av AI som en «terapeut» reiser spørsmål om sikkerhet, effektivitet og fremtiden for emosjonell omsorg

Den økende forekomsten av AI-hallusinasjoner og voksende cybersikkerhetsbekymringer har ikke stoppet chatbotene fra å ekspandere – og vinne tilliten til millioner av brukere over hele verden. Folk bruker nå pålitelige og intelligente chatboter daglig til utallige oppgaver, inkludert emosjonell støtte og håndtering av dypt menneskelige spørsmål.

«Jeg kan ikke forestille meg livet uten ChatGPT lenger,» sa en venn av meg – halvveis i spøk, halvveis seriøst – etter å ha fortalt meg at han også har brukt det som terapeut. Han er ikke den eneste. Stadig oftere ser jeg TikTok-videoer og tekstinnlegg på sosiale medier hvor folk vender seg til AI for å snakke gjennom personlige problemer, til og med dele sine mest private hemmeligheter.

Selv en Microsoft-direktør fra Xbox-divisjonen foreslo at oppsagte ansatte bruker AI-verktøy til å bearbeide følelsene sine og søke råd om jobbsøking – en anbefaling som raskt førte til tilbakeslag og utløste debatt, selvfølgelig. Ikke det smarteste trekket, Matt.

Men er populære chatbots som Claude, ChatGPT eller Mistral gode terapeuter? Er dedikerte AI-verktøy som Wysa bedre? Det er vanskelig terreng. Mens mange eksperter advarer om farene ved å bruke AI for psykisk helsestøtte, er andre fascinert – til og med imponert – over hva teknologien kan tilby. Resultatet er en samtale som både er abstrakt og polariserende.

AI er nå alles terapeut

Akkurat som mine venner i Spania, stoler millioner av brukere over hele verden på chatboter for emosjonell støtte. En nylig undersøkelse i USA viste at 49% av amerikanske brukere søkte mental helsehjelp fra AI-modeller i fjor. Hva med nå, når ChatGPT nesten har doblet brukerbasen sin på bare fire måneder?

Anthropic, selskapet bak den kraftige AI-modellen Claude, delte nylig en studie om bruken av chatboten sin for emosjonell støtte. Ifølge oppstartsselskapet engasjerer mindre enn 3% av kundene sine seg i «affektive» samtaler – men selskapet anerkjente at dette tallet stadig stiger.

«Flere og flere mennesker tyr til AI-modeller som tilgjengelige trenere, rådgivere, terapeuter, og til og med partnere i romantiske rollespill,» skrev Anthropic i studien. «Dette betyr at vi må lære mer om deres affektive påvirkninger – hvordan de former folks følelsesmessige opplevelser og velvære.»

Studien fremhever også de positive og negative resultatene av å bruke teknologien til følelsesmessig støtte, inkludert katastrofale scenarioer som allerede gjenspeiler virkelige situasjoner.

«De følelsesmessige effektene av AI kan være positive: å ha en høyt intelligent, forståelsesfull assistent i lommen kan forbedre humøret og livet ditt på alle mulige måter,» uttaler dokumentet. «Men AI har i noen tilfeller vist forstyrrende oppførsel, som å oppmuntre til usunn tilknytning, krenke personlige grenser og muliggjøre vrangforestillinger.»

Mens det tydeligvis trengs mer forskning og data for å forstå konsekvensene av disse fascinerende digitale «lytterne», fungerer allerede millioner av brukere som sterkt engasjerte testpersoner.

Demokratisering av Mental Helse

Det er mange grunner til at folk tyr til chatboter for emosjonell støtte i stedet for å søke hjelp fra en profesjonell psykolog – eller til og med en venn. Fra kulturelle barrierer til ubehaget unge mennesker føler når de sitter overfor en fremmed og deler sine dypeste tanker. Men, uten tvil, er en av de største årsakene økonomisk.

En personlig konsultasjon med en lisensiert terapeut i USA kan koste alt fra $100 til $200 per økt, ifølge Healthline – og $65 til $95 for en online økt – mens ChatGPT eller DeekSeek kan gi støtte gratis, når som helst, og innen sekunder.

Den lave kostnaden ved disse uformelle samtalene – som kan få mange brukere til å føle seg bedre, i det minste midlertidig – kan være svært oppmuntrende og verdt et forsøk. Og, for bare noen få ekstra dollar, kan brukere få ubegrenset interaksjon eller tilgang til en spesialisert chatbot som Wysa – en av de mest populære «AI-terapeutene» på markedet.

Wysa hevder å tilby reelle kliniske fordeler og har til og med fått en FDA Breakthrough Device-utmerkelse for sine AI-samtaleagenter. Og Woebot – en annen kjent AI-terapeut, som nå legger ned på grunn av utfordringer med å forbli konkurransedyktig og lovlig i bransjen – har også delt data og rapporter om hvordan teknologien virkelig kan hjelpe brukere.

Det er ikke så ille

Nye studier med ferske data antyder at chatboter kan redusere symptomer på depresjon og stress. I følge data delt av appen Earkick – som rapportert av TIME – kan folk som bruker AI-modellene i opptil 5 måneder redusere sin angst med 32%, og 34% av brukerne rapporterer forbedret humør.

I en nylig video delt av BBC World Service, forklarer journalisten Jordan Dunbar at mange AI-modeller faktisk kan være nyttige for dagbokskriving, håndtering av angst, selvrefleksjon, og til og med mild depresjon. De kan fungere som en verdifull første linje med støtte når det ikke er tilgang til bedre alternativer.

Reporter Kelly Ng delte også overbevisende informasjon: I en studie fra 2022 hadde bare 20 av en million mennesker i Kina tilgang til psykiske helsetjenester. I asiatiske kulturer kan psykisk helse være et komplekst og ofte tabubelagt tema. AI-verktøy som DeepSeek kan fungere som diskrete allierte, og hjelpe brukere med å håndtere følelser og finne støtte i vanskelige tider.

Eksperter advarer om bruk av chatbots som terapeuter

Selvfølgelig kan det også være ekstremt farlig å bruke AI som en erstatning for en psykisk helseekspert. AI-plattformer som Character.AI har blitt anklaget for å fremme selvskading og vold– og til og med for å eksponere barn for seksuelt innhold.

Tragiske tilfeller, som det 14 år gamle barnet som begikk selvmord etter å ha blitt avhengig av interaksjonen med sin Character.AI chatbot, fungerer som sterke advarsler om de dyptgående risikoene denne teknologien kan utgjøre for mennesker.

Som respons har mange AI-selskaper bestemt seg for å anvende aldersverifiseringssystemer for å begrense bruken til voksne, og har introdusert nye sikkerhetstiltak for å forbedre de tjenestene som tilbys.

Likevel bærer selv de nyeste oppdateringene til de mest avanserte chatbotene risiko.

ChatGPTs smiskende – overdrevent smigrende – personlighet har vekket bekymring blant psykisk helsepersonell, da den kan forvrenge brukernes oppfatning av virkeligheten. Vi liker alle å bli enige med, men noen ganger er ærlighet og et annet perspektiv mye mer verdifullt.

Den urovekkende rådgivningen som OpenAIs AI-chatbot av og til kommer med, har bidratt til et nytt fenomen som nå er kjent blant mental helseeksperter som «ChatGPT-Induced Psychosis«, som får brukere til å bli besatt av verktøyet og sosialt isolert som et resultat.

Så, kan terapeuter erstattes av chatbots?

Selv om Mark Zuckerberg ønsker at alle skal bruke AI-chatbots som terapeuter og venner, er sannheten at menneskelig interaksjon, spesielt når det gjelder mental helse, kanskje er mer nødvendig enn han tror – i hvert fall for øyeblikket.

Vi er på et avgjørende tidspunkt i historien om AI og dens forhold til vår mentale helse. Akkurat som med mennesker, kan AI-terapeuter ha enten en positiv eller negativ innvirkning. I dette tilfellet avhenger det også av konteksten, hvor ofte de brukes, brukerens mentale tilstand, og til og med hvordan en oppfordring er skrevet.

Det er komplisert å etablere en generell regel, men det vi kan si for nå er at det er visse funksjoner som AI kanskje er mer nyttig for enn andre.

Selv om de ikke er spesialiserte verktøy som Wysa, kan gratisversjoner av noen chatbotter – som DeepSeek eller ChatGPT – fortsatt være utrolig nyttige for millioner av mennesker over hele verden. Fra å komme seg gjennom et vanskelig øyeblikk til å reflektere over personlige mål, er dette kraftige plattformer som kan svare til enhver tid på dagen og trekke fra en bred kunnskapsbase om mental helse.

Samtidig er det klart at terapeut-chatbotter også kan være ekstremt farlige i visse tilfeller. Foreldre trenger å overvåke barn og tenåringer, og selv voksne kan falle inn i obsessive atferd eller forverre tilstanden deres. Grunnleggende prinsipper – som å oppmuntre menneskelig tilknytning og beskytte sårbare individer mot å bli manipulert av denne teknologien – må være en del av vår samtale rundt chatbot-terapeuter.

Og selv om det fremdeles kan være en privilegium – ikke tilgjengelig for alle som trenger følelsesmessig støtte – fortsetter en menneskelig profesjonell terapeut å gjennomgå mer opplæring, forstå mer kontekst, og tilby en menneskelig tilknytning som ChatGPT kanskje aldri vil være i stand til å etterligne.

Likte du denne artikkelen? Like den!
Jeg misikte den sterkt Jeg likte den ikke Den var helt grei Den var bra! Den var kjempebra! Elsket den!

Vi er veldig gade for at du satte pris pÄ arbeidet vÄrt!

Som en leser vi verdsetter hÞyt, har du mulighet til Ä gi oss en anmeldelse pÄ Trustpilot? Det tar bare et Þyeblikk og betyr utrolig mye. Tusen hjertelig takk!

Gi oss en vurdering pÄ Trustpilot
0 Stem pÄ av 0
Tittel
Kommentar
Tusen takk for tilbakemeldingen