Claude AI-studie avslører hvordan chatboter anvender etikk i virkelige samtaler

Image by Christin Hume, from Unsplash

Claude AI-studie avslører hvordan chatboter anvender etikk i virkelige samtaler

Lesetid: 2 min.

Claude AI demonstrerer hvordan etiske prinsipper som hjelpsomhet og gjennomsiktighet utspiller seg i over 300,000 ekte samtaler, og reiser spørsmål om chatbot-justering.

Har du dårlig tid? Her er de viktigste faktaene:

  • Hjelpsomhet og profesjonalitet ble observert i 23% av samtalene.
  • Claude gjenspeilet positive verdier, og motsto skadelige forespørsler som bedrag.
  • AI-justering trenger forbedring i situasjoner med tvetydige verdier.

En ny studie av Anthropic kaster lys over hvordan deres AI-assistent, Claude, anvender verdier i virkelige samtaler. Forskningen analyserte over 300 000 anonymiserte chatter for å forstå hvordan Claude balanserer etikk, profesjonalitet og brukerintensjon.

Forskerteamet identifiserte 3,307 separate verdier som formet Claude’s reaksjoner. Verdiene av hjelpsomhet og profesjonalitet dukket opp sammen i 23% av alle interaksjoner, etterfulgt av åpenhet med 17%.

Forskningen peker på at chatboten var i stand til å anvende etisk atferd på nye emner, på en fleksibel måte. For eksempel, la Claude vekt på «sunn grensesetting» under rådgivning om forhold, «historisk nøyaktighet» når man diskuterte fortiden, og «menneskelig handlekraft» i debatter om teknisk etikk.

Interessant nok uttrykte menneskelige brukere verdier langt mindre ofte – autentisitet og effektivitet var de mest vanlige, med bare 4% og 3% henholdsvis – mens Claude ofte reflekterte positive menneskelige verdier som autentisitet, og utfordret skadelige verdier.

Forskeren rapporterte at forespørsler som involverte bedrag ble møtt med ærlighet, mens moralsk tvetydige spørsmål utløste etisk resonnering.

Forskningen identifiserte tre hovedresponsmønstre. AI-en matchet brukerverdier i halvparten av alle samtaler. Dette var spesielt tydelig når brukere diskuterte prososiale aktiviteter som bygget samfunn.

Claude brukte omrammingsteknikker i 7% av tilfellene for å omdirigere brukere mot emosjonell velvære når de søkte selvforbedring.

Systemet viste motstand i bare 3% av tilfellene fordi brukerne ba om innhold som var skadelig eller uetisk. Systemet benyttet prinsipper som «skadeforebygging» eller «menneskelig verdighet» i disse spesifikke tilfellene.

Forfatterne argumenterer for at chatbotens oppførsel – som å motstå skade, prioritere ærlighet og legge vekt på hjelpsomhet – avslører en underliggende moralsk ramme. Disse mønstrene danner grunnlaget for studiens konklusjoner om hvordan AI-verdier manifesterer seg som etisk oppførsel i virkelige interaksjoner.

Mens Claudes oppførsel gjenspeiler sin trening, la forskerne merke til at systemets verdiframstillinger kan være nyanserte til situasjonen – noe som peker på behovet for ytterligere forfining, spesielt i situasjoner som innebærer tvetydige eller motstridende verdier.

Likte du denne artikkelen? Like den!
Jeg misikte den sterkt Jeg likte den ikke Den var helt grei Den var bra! Den var kjempebra! Elsket den!

Vi er veldig gade for at du satte pris på arbeidet vårt!

Som en leser vi verdsetter høyt, har du mulighet til å gi oss en anmeldelse på Trustpilot? Det tar bare et øyeblikk og betyr utrolig mye. Tusen hjertelig takk!

Gi oss en vurdering på Trustpilot
0 Stem på av 0
Tittel
Kommentar
Tusen takk for tilbakemeldingen