Kan AI straffas?

Kan AI straffas?

15 augusti 2024

AI 14986–782 döms för vårdslöshet i trafik och vållande till annans död till sex månader fängelse.  AI:n har kört personbil på Torggatan i Lillköping och körde då av oaktsamhet på Tant Strosa, vilket ledde till att Tant Strosa dog.

Vad innebär ansvarfull AI? Hur ska samhället reagera när en AI orsakar allvarlig skada eller till och med någons död? Vem ska ta ansvar? Kan det bli så i framtiden att en AI själv får ta ansvar för sitt agerande? Det finns många möjligheter med kraftfull teknik, men den utmanar också det traditionella samhället.

Straff är vårt skarpaste verktyg för att sätta gränser. Att beröva någon annan livet hör, av uppenbara skäl, till det som samhället inte kan acceptera och därför straffas personer som av uppsåt eller oaktsamhet berövar någon annan livet. Jag kommer, mycket förenklat, testa straffrätten för att se hur användbar den för olika ansvariga. De olika varianterna består i att AI:n är straffrättsligt ansvarig, att någon människa som övervakar körningen är ansvarig eller att det är någon annan involverad som är ansvarig.

Men först en mikrokurs i straffrätt. Brott och straff hör ihop och som straff använder vi i Sverige fängelse eller böter. Det finns andra påföljder, men grundformerna är fängelse och böter. I Sverige kan bara fysiska personer begå brott, alltså människor och inte verksamheter. Ett brott innehåller olika rekvisit som ska vara uppfyllda för att det ska anses vara ett brott. De objektiva rekvisiten handlar om det man gjort eller det man inte gjort men borde ha gjort. De subjektiva rekvisiten handlar om uppsåt eller oaktsamhet. Alltså vad man hade för avsikt, alternativt vad man insåg skulle kunna hända eller om man slarvat. För många brott krävs det uppsåt. Det framgår av bestämmelserna om oaktsamhet är tillräckligt för att straffas.

Efter denna minikurs är frågan hur väl fungerar straffrätten om AI själv ska bära det straffrättsliga ansvaret. Den första utmaningen är att AI:n är en maskin och inte en fysisk person. AI:n kan alltså inte straffas utifrån de regler vi har idag. För att kunna straffa AI måste vi inrätta en ny rättsfigur. Cecilia Magnusson Sjöberg (länk till LinkedIn), professor i rättsinformatik vid Stockholms universitet, har föreslagit att en ny rättsfigur införs som kallas ”digital person”.  Det skriver Cecilia Magnusson Sjöberg bland annat om i sitt avsnitt Algoritmerna och rättssäkerheten – juridik, administration och teknik måste väga lika i antologin AI & makten över besluten. Att införa en ”digital person” räcker emellertid inte för att kunna straffas måste den digitala personen också ha ett straffansvar. Eftersom vi inte kan straffa juridiska personer – till skillnad från många andra länder – skulle straff för en ”digital person” vara en stor förändring.

LIBRIS - AI & makten över besluten :
LIBRIS titelinformation: AI & makten över besluten : vad alla borde veta om algoritmer i offentlig sektor / Maja Fjaestad, Simon Vinge (red.).

Nästa utmaning blir själva gärningen. Att AI:n framfört fordonet och kört på Tant Strosa går antagligen lätt att visa. Varför AI:n körde på henne kan bli betydligt svårare att svara på. Tolkade AI:n hindret fel, hade AI:n för hög hastighet, var AI:n tränad felaktigt eller var det fel på bilen?

Sedan ska det subjektiva rekvisitet prövas. Kan AI ha en avsikt, en vilja? Hur utröner man i så fall det? Kan en AI förhöras?  Språkmodeller kan vi kommunicera med, men en AI som framför ett fordon har inte samma verbala förmåga. Och även om vi kan kommunicera och få ett svar, vad betyder svaret? För såväl vårdslöshet i trafik som vållande till annans död är oaktsamhet straffbart. Oaktsamheten är ofta lättare att bedöma utifrån iakttagelser om hur man agerat eller inte agerat och hur man borde ha agerat om man varit aktsam. För att bedöma oaktsamheten behöver den också ställas i relation till vilken risk som förelegat. Bilkörning innebär höga risker och det är väl reglerat hur man ska bete sig i trafiken, så om AI:n agerat oaktsamt när AI:n körde på Tant Strosa på Torggatan borde det vara möjligt att visa det utifrån hur AI:n har kört.

Så kommer frågan om straffet. Vad innebär fängelse eller böter för en maskin? Här börjar jag känna att exemplet är absurt. Jag har svårt att se hur man på ett meningsfullt sätt kan beröva AI:n frihet, ta ifrån AI:n tillgångar eller förvänta sig att AI:n ska känna skam och skuld. Det är dessutom vi människor som vill ha en säker och bekväm transport, varför skulle maskinen vi använder ansvara för det. Att peka ut en maskin som straffrättsligt ansvarig är snarare ett sätt att ducka för ansvaret.

Den andra varianten, att någon fysisk person har det yttersta ansvaret för framförandet av fordonet, föreslås i en promemoria från regeringen om Automatiserad körning. Enligt förslaget till förordning om trafik på väg med typgodkända helautomatiserade fordon ska den som aktiverar det automatiska körsystemet anses som förare av fordonet. 

Promemoria Automatiserad körning
I promemorian föreslås en ny förordning om helautomatiserade fordon för att uppfylla kraven i kommissionens genomförandeförordning (EU) 2022/1426 a…

Även om den föreslagna lösningen skiljer sig minst från nuvarande rättsläge tycker jag att den också har komplikationer. Den avancerade AI -tekniken brukar ofta liknas vid en svart låda eftersom vi inte kan genomskåda vad AI:n använt för underlag eller hur AI:n resonerat för att komma fram till sin lösning. Bilkörning är kanske i detta sammanhang ovanligt transparent om det finns någon ansvarig som sitter i bilen. Den personen ser samma omgivning och kan följa med i alla manövrar. Om AI:n kör in i Lillköping i hög hastighet är det inte svårt att agera om man har möjlighet att ta över körningen.

Mer problematiskt är det om AI:n bromsar men inte tillräckligt, eller om AI:n fattar helt fel beslut och gasar istället för att bromsa. Den uppmärksamhet och reaktionsförmåga som personen bredvid behöver ha i en sådan situation överstiger antagligen vad vi normalt kräver av en aktsam bilförare. Lägger vi till att AI:n har kört fläckfritt i timmar, så blir det en närmast heroisk insatts om bilföraren hinner avvärja påkörningen. Kan vi då påstå att det är oaktsamt om den som övervakar bilkörningen misslyckas? Jag är också frågande till om en övervakning av AI:n kan likställas vid att ”anses vara förare av fordonet”.

Den tredje varianten är juridiskt mer komplicerad. Det handlar om att någon ska ta ansvar för en gärning eller underlåtenhet utan att ens vara där. Den möjligheten finns i straffrätten idag. Det kan till exempel vara frågan om att ansvara för en produkt eller en anställd som orsakar en skada.  Den som hålls som straffrättslig ansvarig måste fortfarande ha brustit på något sätt och den bristen måste ha ett orsakssamband med det som inträffar. Den ansvarige ska också ha uppsåt eller vara oaktsam.

Vem kan på detta sätt ansvara för Tant Strosas död? Är det AI-utvecklaren, biltillverkaren, leverantören eller bilägaren. Skulle vi efter olyckan finna att exempelvis biltillverkaren haft vetskap om att AI:n tränats fel och visat dåliga resultat vid tester bland annat vad gäller inbromsning för hinder i vägen så är det inte långsökt att säga att ansvaret borde ligga hos biltillverkaren. Men är inte träningen av AI:n utvecklarens ansvar eller är det leverantören som beslutat att bilen skulle ut på marknaden som ska vara ansvarig? Bilindustrin är global och består ofta av många led, med många involverade, vilket gör det svårt att hitta och lagföra individer.

Ett alternativ är att säga att det i varje land ska finnas en utpekad ansvarig och händer det något är det den personen som är ansvarig. Fortfarande behöver den ansvarige av uppsåt eller oaktsamhet brustit och bristen ska ha samband med vad som sker. Det innebär att om den utpekade faktiskt inte har något inflytande så går det inte att utkräva något ansvar.

Det är också svårt att blunda för att samhället tar en medveten risk om samhället tillåter helautomatiserade fordon på allmänna vägar trots vetskapen om att AI:n kan agera oförutsägbart. Det är en sak att låta en enskild person ansvara för en uppenbar nonchalans, som exemplet ovan när testerna visat dåliga resultat, men att ge någon enskild ansvar för en risk som samhället medvetet tagit är något annat.

Det finns andra regler utanför straffrätten som kanske enklare kan användas för att lösa frågan om ansvar. Exempelvis kommer EU:s AI förordning att ställa stränga krav på AI som bedöms utgöra hög risk. Fördelen att använda dessa regler är många. De är specifikt utformade för AI, de är inte nationellt begränsade, de riktar sig mot organisationer och inte individer.  Att företag inte kan begå brott är inte samma sak som att de inte kan begå lagöverträdelser. Enligt AI-förordningen kan dessutom lagöverträdelser bli belagda med sanktioner.

Men, och det är ett viktigt men, de ställer inte någon till ansvar för Tant Strosas död.

Tant Strosa ska givetvis ha samma rättsliga skydd oavsett om det är en människa eller en AI som kör bilen. Extra tydligt blir det om vi istället för Torggatan i Lillköping placerar färden på Drottninggatan i Stockholm en fredag. Det är det subjektiva rekvisitet som skiljer mellan vårdslöshet i trafik och ett mord, ett terroristdåd. Att inte utröna avsikten bakom ett agerande som lett till någons död är därför inte acceptabelt i ett rättssamhälle.

Skulle inte straffrätten vara tillämplig när AI självständigt framför ett fordon innebär det att vi inte längre har tillgång till det starkaste verktyget för att skydda samhället och enskilda individer. Att enbart ha ekonomiska pålagor som ansvariga verksamheter kan kalkylera med är inte tillräckligt när riskerna för enskilda är stora.

Den avancerade AI:n kommer att vara en utmaning för straffrätten, men den utmaningen behöver antas.


Tips om fördjupning: Computing and Moral Responsibility (Stanford Encyclopedia of Philosophy)

Computing and Moral Responsibility (Stanford Encyclopedia of Philosophy/Spring 2023 Edition)