Hvordan Solace Care bruker kunstig intelligens på en ansvarlig måte | Trøst og omsorg

Overholdelse

Hvordan Solace Care bruker kunstig intelligens på en ansvarlig måte

AI hjelper oss med å veilede deg gjennom de praktiske oppgavene etter et dødsfall raskere. Slik bruker vi det – ansvarlig, åpent og i tråd med reglene i EUs KI-forordning.

Solace Care

Solace Care bruker AI til å hjelpe deg med å finne informasjon raskere og utforme skjemaer enklere. Vi gjør dette i tråd med EU AI Act, med mennesker involvert hele veien, i EU, og vi trener aldri eksterne AI-modeller på dataene dine.

AI er et ord som brukes om alt mulig i dag, og det kan være vanskelig å vite hva som faktisk skjer når et produkt sier at det «bruker AI». Denne artikkelen forklarer nøyaktig hvordan vi bruker det hos Solace Care, hva reglene er, og hvorfor vi mener at tilnærmingen vår lar deg dra nytte av teknologien uten å gi slipp på noe.

Hva gjør Solace Care egentlig med AI?

Vi bruker AI på noen få, avgrensede områder, og alt dette støtter det ene vi finnes for å gjøre: hjelpe familier gjennom den praktiske siden av et dødsfall.

  • Veiledet informasjonsinnhenting — hjelper deg med å finne riktig dokument, myndighet eller neste steg etter et dødsfall, basert på land og situasjon.

  • Dokumentstøtte — utforming av skjemaer og korrespondanse som du deretter går gjennom og sender.

  • Innholdspersonalisering — løfter frem den veiledningen som er mest relevant for dine konkrete omstendigheter.

  • Intern kvalitetssikring — hjelper teamet vårt med å oppdage mangler eller feil i vårt eget innhold.

Vi bruker ikke AI til å ta beslutninger om forsikringskravet ditt, utbetalingen din eller noe annet som påvirker rettighetene dine. Alle beslutninger som betyr noe for deg, forblir hos deg eller hos den regulerte parten som er ansvarlig for dem — forsikringsselskapet ditt, banken din, notaren din.

Hva sier EU AI Act, og hvordan passer Solace Care inn?

EU AI Act (forordning (EU) 2024/1689) trådte i kraft 1. august 2024 og fases inn frem til 2027. Den sorterer AI-systemer i fire risikokategorier: uakseptabel risiko, høy risiko, begrenset risiko og minimal risiko.

Solace Cares AI-funksjonalitet faller tydelig inn i kategoriene begrenset risiko og minimal risiko. Ingen av våre AI-bruksområder når terskelen for høy-risiko-AI etter vedlegg III i loven. Her er hvorfor, i klart språk:

  • Ingen selvstendige beslutninger om krav. AI hjelper med administrative oppgaver. Utbetalingsbeslutninger forblir hos forsikringsselskapet.

  • Ingen biometrisk behandling. Ingen ansiktsgjenkjenning, ingen følelsesdeteksjon, ingen biometrisk kategorisering.

  • Ingen kredittscoring eller risikoprofilering av enkeltbrukere.

  • Ingen portvokting av nødvendige tjenester. Vi hjelper deg med å finne frem i rettighetene dine — vi innvilger eller avslår dem ikke.

Hvordan vet du når AI er involvert?

Åpenhet er et grunnleggende krav i artiklene 12, 14 og 50 i AI Act, og det er et prinsipp vi følger som standard.

Når AI hjelper til med å generere innhold i Solace Care, merkes det som et forslag eller et utkast. Du velger selv om du vil godta, redigere eller forkaste det. Det er alltid et menneske — deg — i loopen for alt som faktisk sendes ut i verden.

Internt eier CTO og CEO AI-styringen sammen. Bruk av AI logges og kan revideres. Skjevheter og rettferdighet følges opp jevnlig.

Hva skjer med dataene dine når AI er involvert?

Dette er spørsmålet som betyr aller mest, og vi tar det på største alvor. Fire regler gjelder for hver eneste AI-interaksjon:

  1. Dataene dine anonymiseres, tokeniseres eller pseudonymiseres før de i det hele tatt når en språkmodell. Personidentifiserende opplysninger fjernes eller erstattes med meningsløse symboler.

  2. Vi bruker EU-hostede instanser hos AI-leverandører når det er mulig. Når en leverandør er basert utenfor EU, ruter vi likevel dataene dine gjennom deres EU-infrastruktur.

  3. Dataene dine brukes aldri til å trene tredjeparts AI-modeller. Vi håndhever dette på to måter: kontraktsmessig gjennom databehandleravtaler, og teknisk gjennom API-innstillingene vi konfigurerer.

  4. Overføringer over landegrenser følger Schrems II-reglene — standard kontraktsklausuler og vurderinger av overføringskonsekvenser er på plass for alle leverandører utenfor EU som vi bruker.

Særlige kategoridata: det ekstra laget av omtanke

Praktisk arbeid rundt dødsfall berører helsejournaler, dødsattester og forsikringskrav — informasjon som GDPR artikkel 9 klassifiserer som «særlige kategorier av personopplysninger», noe som betyr at det får ekstra juridisk beskyttelse.

Når AI kommer borti denne typen informasjon, bruker vi sterkere tiltak: mer aggressiv anonymisering, strengere tilgangskontroll og, der det er mulig, å unngå eksterne modeller helt til fordel for søk i vårt eget verifiserte innhold.

Hva betyr «AI-etikk» hos Solace Care?

En kort liste, ærlig praktisert:

  • Menneskelig tilsyn som standard. AI foreslår. Mennesker bestemmer.

  • Minimer data som sendes utenfor Solace. Hvis vi kan gjøre det internt, gjør vi det.

  • Ingen overraskelser. Når AI brukes, vet du det.

  • Ansvarlig eierskap. En navngitt person godkjenner hver AI-funksjon før den lanseres.

  • Åpenhet for korrigering. Hvis et forslag er feil eller føles uforenlig, kan du melde fra — og vi lærer av det.

Hva bør du gjøre hvis du har bekymringer?

Skriv til privacy@solace.care. Hvis du vil ha den detaljerte versjonen, har vi et eget dokument om vurdering av etterlevelse av EU AI Act, tilgjengelig på forespørsel.

Teknologi bør gjøre de vanskeligste øyeblikkene i livet litt enklere, ikke vanskeligere å ha tillit til. Det er standarden vi holder oss selv til.

Har du spørsmål om hvordan Solace Care bruker AI? Skriv til oss på privacy@solace.care.