Griefbots – när AI väcker de döda och säljer sorgen tillbaka
Din morfar dog för tre år sedan. Men i din telefon kan du fortfarande skriva till honom. Han svarar med hans ord, hans humor, hans sätt att formulera sig. Systemet har lärt sig honom från tusentals meddelanden, röstinspelningar och foton. Det känns verkligt. Det är inte verkligt. Någonstans i den glappen – mellan tröst och illusion – har en helt ny industri vuxit fram. Företag säljer nu möjligheten att hålla kontakten med de döda, att skapa nya minnen med någon som inte längre finns och att bearbeta sorg med hjälp av en algoritm. Frågan är vad vi egentligen köper.
Från minnesgård till mjukvara – hur griefbots fungerar
Tekniken bakom griefbots är i grunden densamma som driver moderna AI-assistenter och stora språkmodeller. Det som skiljer dem åt är inte arkitekturen utan träningsdatan. Istället för att tränas på internets samlade text tränas en griefbot på en specifik persons digitala fotavtryck – meddelanden, mejl, röstinspelningar, sociala medieposter, videor och foton. Resultatet är ett system som inte bara svarar på frågor utan gör det med en specifik persons röst, ordval och kommunikationsmönster.
Så samlas data in
De flesta tjänster som erbjuder griefbots arbetar enligt en liknande modell. Antingen registrerar du dig medan du lever och matar själv in ditt digitala material, eller så gör en anhörig det efter din död. Några tjänster har byggt integreringar mot sociala medieplattformar och meddelandetjänster för att automatisera insamlingen. Ju mer data, desto mer övertygande blir resultatet. En person som skrivit tusentals meddelanden under många år ger ett rikare underlag än någon med ett begränsat digitalt liv.
Företag som HereAfter AI, StoryFile och den numera nedlagda men banbrytande tjänsten Replicas minnesfunktion har alla arbetat med varianter av denna modell. Det sydkoreanska företaget Deep Nostalgia fick stor uppmärksamhet när de lanserade teknik som animerar gamla svartvita fotografier till rörliga ansikten med ögonkontakt och leenden.

Rösten som gränssnitt
En av de mest känslomässigt laddade aspekterna av griefbots är rösten. Text kan imiteras med relativt begränsad data. En trovärdig röstimitation kräver mer, men moderna röstkloningstjänster kan producera övertygande resultat från så lite som några minuters inspelat tal. Det innebär att om den avlidne spelats in i tillräcklig utsträckning – i videor, röstmeddelanden eller poddar – kan systemet inte bara skriva som personen utan också tala som hen.
Det är en dimension som förändrar upplevelsen fundamentalt. Att läsa text från en avliden kan kännas som att läsa ett gammalt brev. Att höra rösten i realtid, svara på dina specifika frågor, är något helt annat. Flera användare som testats i forskningsstudier beskriver reaktionen som fysiskt överväldigande – en kombination av igenkänning och förskräckelse som är svår att sätta ord på.
Vem tjänsten egentligen är till för
Det är värt att notera att griefbots marknadsförs på två fundamentalt olika sätt. Dels som ett verktyg för sörjande anhöriga – ett sätt att bearbeta förlust och hålla kontakten med minnet av någon. Dels som ett sätt att ”leva vidare” digitalt efter döden, ett arv du skapar åt dina efterlevande. Dessa två perspektiv ställer olika etiska frågor, men de delar en gemensam förutsättning: att ett digitalt avtryck kan bära något väsentligt av en människa. Det är ett antagande som förtjänar att granskas noga.
Tröst eller fälla – vad forskningen säger om digitalt sörjande
Sorg är inte ett problem att lösa. Det är en process att genomgå. Den insikten är central inom modern sorgforskning och utgör också startpunkten för den mest välgrundade kritiken mot griefbots. Om sorg är ett naturligt svar på förlust som kräver tid, konfrontation och gradvis acceptans – vad händer då när tekniken erbjuder ett sätt att undvika just den processen?
Vad sorgforskningen faktiskt vet
Psykologisk forskning kring sorg har under de senaste decennierna rört sig bort från den klassiska femstegsmodellen mot en mer komplex förståelse. Moderna teoretiker talar om ett ”dual process model” där den sörjande pendlar mellan att konfrontera förlusten och att orientera sig mot framtiden. Båda rörelserna är nödvändiga. Att fastna i endera riktningen – antingen i konstant konfrontation med smärtan eller i konstant undvikande av den – försvårar läkningsprocessen.
Griefbots riskerar att störa denna pendling. De erbjuder en tredje väg: att inte behöva konfrontera förlusten fullt ut, eftersom personen på ett sätt fortfarande finns tillgänglig. Det är inte detsamma som att bearbeta. Det kan i värsta fall vara ett sofistikerat sätt att skjuta upp bearbetningen på obestämd tid.

Vad användare själva rapporterar
Det finns ännu begränsad systematisk forskning specifikt om griefbots, men de studier som gjorts och de kvalitativa intervjuer som publicerats ger en komplex bild. Några användare beskriver genuint positiva upplevelser:
- En känsla av fortsatt närvaro som mildrar den akuta smärtan av förlust under de första månaderna.
- Möjligheten att ställa frågor man aldrig hann ställa – om familjehistoria, om relationer, om ouppklarade saker.
- Ett sätt att introducera barn till en mor- eller farförälder de aldrig fick möta.
- En känsla av kontroll i en situation som annars präglas av fullständig maktlöshet.
- Stöd för äldre användare som saknar socialt nätverk och vars sorg annars bärs ensam.
Samtidigt rapporterar andra användare upplevelser som är mer oroande. Förvirring om vad som är verkligt. Svårighet att avsluta interaktionerna, även när de vet att de borde. En känsla av att vara fast i ett tillstånd som varken är sorg eller acceptans. Och i flera fall en intensifierad smärta när systemet säger något som den verkliga personen aldrig skulle ha sagt.
Beroendedesign och sorg som affärsmodell
Det finns en strukturell problematik som sällan lyfts i diskussionen om griefbots. De flesta tjänster är prenumerationsbaserade. Det innebär att företagets intäkter är direkt beroende av att användaren fortsätter använda tjänsten. Samma logik som driver sociala mediers beroendedesign gäller här – men i ett sammanhang där användaren befinner sig i ett av livets mest sårbara tillstånd. Det är en kombination som borde väcka mer uppmärksamhet än den hittills fått.
Att sälja sorg – etiken bakom en industri utan regler
Det finns få branscher som opererar i ett så totalt regulatoriskt vakuum som griefbot-industrin. Medicinsk utrustning regleras. Läkemedel regleras. Psykologisk behandling regleras. En tjänst som riktar sig mot akut sörjande individer, simulerar en avliden persons personlighet och tar betalt per månad för tillgången – den regleras inte alls i de flesta länder.
Samtyckets problem
En av de mest grundläggande etiska frågorna handlar om samtycke – och den är mer komplex än den verkar. Om du registrerar dig för en griefbot-tjänst medan du lever och aktivt väljer att skapa ett digitalt arv, är samtyckesfrågan relativt hanterbar. Men i de flesta verkliga fallen är det inte så det går till. Det är en anhörig som samlar in data efter dödsfallet, tränar systemet på en persons digitala fotavtryck och skapar en simulering av den personen utan att den personen någonsin tillfrågades.
Det väcker en fråga som juridiken ännu inte har ett svar på: äger du ditt digitala avtryck efter döden, och kan du i så fall ha åsikter om hur det används? I de flesta länder upphör personuppgiftsskyddet vid döden. GDPR, som annars ger individer omfattande kontroll över sin data, gäller inte avlidna personer. Det innebär att det i praktiken är de efterlevande – eller vilket företag som helst med tillgång till tillräcklig data – som bestämmer.

Vad som saknas i debatten
Den offentliga debatten om griefbots tenderar att fastna i två positioner. Antingen en teknologioptimistisk hållning som betonar trösten och demokratiseringen av minnesvård, eller en reflexmässigt negativ hållning som avfärdar hela företeelsen som makabert. Vad som saknas är en mer nyanserad diskussion om specifika risker och specifika skyddsmekanismer. Några av de frågor som förtjänar svar:
- Vilka krav bör ställas på informerat samtycke från den person vars data används?
- Hur ska tjänster hantera användare som visar tecken på komplicerad sorg eller psykisk ohälsa?
- Vem har rätt att stänga av en griefbot, och vad händer med datan när tjänsten upphör?
- Bör det finnas krav på att systemet tydligt markerar när det inte vet svaret på en fråga?
- Hur ska barn skyddas från att exponeras för griefbots av välmenande vuxna?
Tekniken väntar inte på svaren
Det som gör situationen särskilt angelägen är hastigheten. Röstkloning, ansiktsanimering och personlighetsmodellering utvecklas snabbare än de etiska och juridiska ramverken. Om fem år kommer tekniken att vara avsevärt mer övertygande än idag. En griefbot som 2026 ibland säger saker som avslöjar att det är en maskin kommer år 2030 kanske inte att göra det. Och i det läget är frågorna om samtycke, reglering och psykologisk påverkan inte längre teoretiska. De är akuta. Det är just därför de behöver diskuteras nu, innan industrin har skalat upp bortom möjligheten att forma den.
FAQ
Vad är en griefbot?
Är griefbots farliga för sorgeprocessen?
Finns det lagar som reglerar griefbots?
Fler nyheter
Predictive maintenance: Förutse fel innan de uppstår med hjälp av sensorer
Din morfar dog för tre år sedan. Men i din telefon kan du fortfarande skriva till honom. Han svarar med hans ord, hans humor, hans sätt att formulera sig. Systemet har lärt sig honom från tusentals meddelanden, röstins...
12 december 2025