Det har noen år nå vært snakk om at biler ikke lenger skal trenge sjåfør, men bli styrt av seg selv og de kaller «kunstig intelligens». Kanskje er dette vår tids versjon av oldtidens «vogner uten hester», altså noe av det mest spektakulære man kan tenke seg? Allerede i lang tid har filmindustrien brukt det, i biler til James Bond og David Haselhof. Det er biler som stiller opp, når de blir kallet på.
Men sånne førerløse biler har noen problemer i virkelighetens verden. Jeg vil jo straks peke på ett ganske viktig poeng, og det er at folk flest synes det er ganske kjekt å kjøre bil, så behovet er kanskje ikke all verden? Dessuten har folk flest en ganske stor skepsis mot å sette seg inn i noe som beveger seg, og som ikke noe levende har kontroll over. Denne frykten gjør også at skulle det skje noe, så ville spørsmål om skyld, erstatning og forsikring være verre, enn om det var mennesker som kjørte, og som vanlig hadde skylden.
Ved å kunne et minstemål av data, vil man også skjønne at dette er virkelig, virkelig komplisert å få til. Hvordan skal man programmere en datamaskin i en bil til å reagere riktig på alle tenkelige og utenkelige situasjoner som kan oppstå? Det er særlig de i kategori 2, der, som er vanskelige.
Filosofene har også grepet tak i dette. Og når de gjør det, blir det virkelig morsomt, som det så ofte blir når filosofer er involvert. De har dette her med å leve i tankene sine, og får ikke alltid selv med seg at disse tankene blir godt løsrevet fra virkelighetens verden etter hvert.
Det filosofene er opptatt av, er det etiske i bilkjøringen, valgene som ikke kan programmeres. Og da har de tenkt ut eksempelet, med at det er en gammel dame og en gammel mann på den ene siden, og en yngre kvinne med barnevogn på den andre. Så skjer det «et eller annet» som gjør at du må ta et valgt, og svinge sånn at du risikerer å kjøre over de gamle, eller de unge. Det er sånn en datamaskin ikke kan vite, men det kan liksom et menneske alltid vite.
Her kan vi også finne eksempler som utfordrer den gode takt og tone. For eksempel om det på ene siden stod en muslim, eller på andre siden en afrikaner fra sør for Sahara. Eller to kvinner, der den ene var pen, den andre var overvektig. Eller menn, der den ene virket til å være kanskje litt homofil. Eller barn, der det ene var velkledd og tydelig skoleflink, mens det andre nok har problemer med for stort fravær.
På et øyeblikk vil et levende menneske her, i følge filosofene, velge rett, mens man for en datamaskin aldri kan programmere inn alle data som trengs for alltid å kunne regne ut hvem av to mennesker det er mest greit å kvitte seg med, som jo er det denne filosofiske diskusjonen koker ned til.
I virkelighetens verden har jeg selv ved hjelp at internett aldri hørt om eller funnet frem til en situasjon, der man i trafikken står overfor valget å kjøre over den ene eller den andre. Det er fullstendig irrelevant for om man kan få førerløse biler til å virke eller ikke. Eller, for å si det på den måten, det er en grunn til at disse spørsmålene aldri kommer opp når vanlige mennesker tar sertifikatet. Heller ikke som en del av teoriprøven.
Men det kunne jo være artig da, å høre hva som er riktig, hvem som er minst verd av to mennesker? På meg høres det ut som et spørsmål nettopp filosofene har lært oss er temmelig uetisk, og veldig feil å spørre om. Det er kun førerløse biler med kunstig intelligens, som kan få dette spørsmålet som et problem, for å vite om de er i stand til å kjøre bil.
Kanskje er det litt kunstig intelligens også hos filosofene?