Vilken typ av moral ska självstyrande bilar ha?

31 januari, 2016
Kategori:

Självstyrande bilar har testats under några år. De fungerar tydligen utmärkt och är väldigt sällan inblandade i olyckor. De gånger det ändå har skett, har det oftast varit olyckor av typen att en annan bilförare kört in i bilen bakifrån.

Den som programmerar en självstyrande bil måste ge bilen instruktioner hur den ska göra i olika situationer. Det är inte svårt att tänka sig att det kan bli oerhört komplicerat – inte minst moraliskt och etiskt.

Tänk er att bilen hamnar i en situation där den måste väja för ett hinder. En parkerad lastbil som hastigt dyker upp bakom en skarp kurva med dålig sikt, till exempel. Till höger om lastbilen står en skolklass vid en busshållplats och till vänster är det ett brant stup. Lastbilen har en explosiv last som riskerar att sprängas om den blir påkörd. Hur ska bilen göra?

Rent utilitaristiskt så borde bilen välja att styra ut för stupet och ta föraren med sig. På så sätt är det bara de som sitter i bilen (som vi antar är färre än tio personer) som kommer till skada eller omkommer.

Det är inte säkert att en bilförare skulle ha gjort denna prioritering. Sannolikt hinner inte föraren göra sådana avvägningar på en bråkdel av en sekund. Troligtvis kan resultatet av händelsen bli lite hur som helst beroende på förarens reflexmässiga åtgärder.

Men när den som programmerar bilens ”moral” kan sitta i lugn och ro och tänka ut hur den ska agera, är det annorlunda.

En rad frågor av moralisk karaktär dyker upp som ytterligare komplicerar frågan.

När bilen blixtsnabbt räknar på de olika alternativens utfall, ska då ett människoliv i bilen jämställas med ett människoliv utanför bilen?
När bilen ställs inför två alternativ, där det ena alternativet innebär att två personer utanför bilen blir påkörda och det andra innebär att tre personer i bilen blir skadade eller omkommer – hur ska bilen agera då?

Kan man verkligen, rent kallt räkna antalet personer, eller är det skillnad mellan de som faktiskt frivilligt har satt sig i en bil och därmed tagit en viss risk, och de som bara råkar befinna sig vid en busshållplats eller på en trottoar?

Är kanske den enda rimliga lösningen att bilen alltid ska eftersträva ett agerande som inte skadar andra än de som sitter i bilen?

Men hur blir det om någon som har för avsikt att begå självmord kastar sig ut framför bilen. Är det då helt självklart att bilen ska väja ut för ett stup, in i ett träd eller in i en bergvägg och döda de som sitter i bilen? Är det ens förenligt med utilitaristiska principer?
Ska bilen ta hänsyn till hur unga, friska och lyckliga de som sitter i bilen är, i förhållande till de som befinner sig utanför bilen? Hur skulle det i så fall gå till?

Går det att sälja en bil som man vet är programmerad på ett sådant sätt att den kommer att döda de som åker i den om, den är tvungen att välja?

Jag tror att det här är ett olösligt problem som exemplifierar hur svårt det blir när robotar blir allt vanligare hjälpredor för oss människor. Robotar kan inte själva göra moraliska överväganden utan bara reagera på inprogrammerade algoritmer. Den som programmerar roboten måste alltså ge den en moral.

Ingen kommer antagligen att klandras för att den gör ett felaktig moraliskt beslut, om situationen uppkommer så hastigt att det inte finns någon tid till eftertanke. Men den som i lugn och ro har programmerat en bil tar ett betydligt större ansvar för etik och moral.

Kanske är det detta dilemma som gör att självkörande bilar aldrig kommer att bli verklighet i stor skala. Vem ska ta ansvaret för vad bilen gör i olika svåra situationer? Det kan inte vara bilföraren – som ju inte har möjlighet att påverka situationen. Den enda som återstår är biltillverkaren och är tveksamt om någon sådan verkligen är beredd att ta ett sådant ansvar.

 

Golv eller ribba?
Kan vi lära oss av historien, eller är vi dömda att begå samma misstag om och om igen?