Hur Solace Care använder AI på ett ansvarsfullt sätt | Tröst och omsorg

Efterlevnad

Hur Solace Care använder AI på ett ansvarsfullt sätt

AI hjälper oss att vägleda dig genom administrationen efter ett dödsfall snabbare. Så här använder vi den — ansvarsfullt, transparent och inom ramarna för EU:s AI-förordning.

Solace Care

Solace Care använder AI för att hjälpa dig hitta information snabbare och fylla i formulär lättare. Vi gör det enligt EU:s AI-förordning, med människor i loopen, inom EU, och vi tränar aldrig externa AI-modeller på dina uppgifter.

AI är ett ord som används för allt nuförtiden, och det kan vara svårt att veta vad som faktiskt händer när en produkt säger att den "använder AI." Den här artikeln förklarar exakt hur vi använder det på Solace Care, vilka reglerna är och varför vi tycker att vårt arbetssätt låter dig dra nytta av tekniken utan att ge upp något.

Vad gör Solace Care egentligen med AI?

Vi använder AI på några få, tydliga sätt, och alla stödjer det enda vi finns till för: att hjälpa familjer att ta sig igenom den praktiska sidan av en förlust.

  • Guidad informationssökning — hjälper dig hitta rätt dokument, myndighet eller nästa steg efter ett dödsfall, utifrån ditt land och din situation.

  • Dokumentstöd — att utforma formulär och brev som du sedan granskar och skickar.

  • Innehållspersonalisering — lyfter fram den vägledning som är mest relevant för just dina omständigheter.

  • Intern kvalitetssäkring — hjälper vårt team att upptäcka luckor eller fel i vårt eget innehåll.

Vi använder inte AI för att fatta beslut om ditt försäkringsärende, din utbetalning eller något annat som påverkar dina rättigheter. Alla beslut som spelar roll för dig stannar hos dig eller hos den reglerade part som ansvarar för dem — ditt försäkringsbolag, din bank, din notarie.

Vad säger EU:s AI-förordning, och hur passar Solace Care in?

EU:s AI-förordning (förordning (EU) 2024/1689) trädde i kraft den 1 augusti 2024 och införs stegvis fram till 2027. Den delar in AI-system i fyra riskkategorier: oacceptabel, högrisk, begränsad risk och minimal risk.

Solace Cares AI-funktionalitet hamnar tydligt i kategorierna begränsad risk och minimal risk. Ingen av våra AI-användningar når tröskeln för högrisk-AI enligt bilaga III i förordningen. Här är varför, på vanligt språk:

  • Inga autonoma beslut i ärenden. AI hjälper till med administrativa uppgifter. Beslut om utbetalning ligger kvar hos försäkringsbolaget.

  • Ingen biometrisk behandling. Ingen ansiktsigenkänning, ingen känsloidentifiering, ingen biometrisk kategorisering.

  • Ingen kreditscoring eller riskprofilering av enskilda användare.

  • Ingen grindvakt för samhällsviktiga tjänster. Vi hjälper dig att hitta rätt i dina rättigheter — vi beviljar eller avslår dem inte.

Hur vet du när AI är inblandat?

Transparens är ett kärnkrav enligt artiklarna 12, 14 och 50 i AI-förordningen, och det är en princip vi utgår från som standard.

När AI hjälper till att skapa innehåll i Solace Care märks det som ett förslag eller ett utkast. Du väljer om du vill acceptera, redigera eller radera det. Det finns alltid en människa — du — i loopen för allt som går ut i världen.

Internt äger vår CTO och VD tillsammans AI-styrningen. AI-användning loggas och går att granska. Snedvridning och rättvisa följs upp regelbundet.

Vad händer med dina uppgifter när AI är inblandat?

Det här är den viktigaste frågan, och vi tar den på största allvar. Fyra regler gäller för varje AI-interaktion:

  1. Dina uppgifter maskeras, tokeniseras eller pseudonymiseras innan de ens når en språkmodell. Personliga identifierare tas bort eller ersätts med meningslösa token.

  2. Vi använder EU-hostade instanser hos AI-leverantörer där det är möjligt. När en leverantör är baserad utanför EU skickar vi ändå dina uppgifter via deras EU-infrastruktur.

  3. Dina uppgifter används aldrig för att träna AI-modeller från tredje part. Vi säkerställer detta på två sätt: genom avtal via personuppgiftsbiträdesavtal och tekniskt genom de API-inställningar vi konfigurerar.

  4. Överföringar över gränser följer Schrems II-reglerna — standardavtalsklausuler och överföringskonsekvensbedömningar finns på plats för varje leverantör utanför EU som vi använder.

Särskilda kategorier av uppgifter: ett extra lager av omsorg

Administration kring ett dödsfall berör journaler, dödsbevis och försäkringsärenden — information som GDPR:s artikel 9 klassificerar som "särskilda kategorier av uppgifter," vilket innebär att den får extra rättsligt skydd.

När AI hanterar den här typen av information använder vi starkare skydd: mer långtgående maskning, striktare åtkomstkontroller och, där det är möjligt, att helt undvika externa modeller till förmån för sökning i vårt eget verifierade innehåll.

Vad betyder "AI-etik" på Solace Care?

En kort lista, ärligt tillämpad:

  • Mänsklig tillsyn som standard. AI föreslår. Människor beslutar.

  • Minimera data som skickas utanför Solace. Om vi kan göra det internt, gör vi det.

  • Inga överraskningar. När AI används, vet du om det.

  • Tydligt ansvar. En namngiven person godkänner varje AI-funktion innan den lanseras.

  • Öppenhet för rättelser. Om ett förslag är fel eller känns konstigt kan du flagga det — och vi lär oss av det.

Vad ska du göra om du har frågor eller oro?

Skriv till privacy@solace.care. Om du vill ha den mer detaljerade versionen har vi ett separat dokument med bedömning av efterlevnad av EU:s AI-förordning som finns tillgängligt på begäran.

Teknik ska göra livets svåraste stunder lite lättare, inte svårare att lita på. Det är den standard vi håller oss till.

Frågor om hur Solace Care använder AI? Skriv till oss på privacy@solace.care.