Home / Nieuws & Blogs / De autonome auto neemt het stuur over, voor onze eigen veiligheid

De autonome auto neemt het stuur over, voor onze eigen veiligheid

| 5 september 2014

De laatste tijd zijn zelfrijdende auto’s steeds meer in het nieuws. Daardoor lijkt deze futuristische en ingrijpende ontwikkeling steeds dichterbij en dat vormt een leuke aanleiding om eens te filosoferen over juridische en maatschappelijke implicaties. Moeten we voor onze eigen veiligheid het stuur volledig aan algoritmes overdragen? Fuel for thought!

De digitale chauffeur brengt je veilig thuis

De voordelen van zelfrijdende auto’s lijken eindeloos. Volgens Riender Happee, onderzoeker van de TU Delft en leider van het Dutch Automated Vehicle Initiative (DAVI), zullen zelfrijdende auto’s de veiligheid op de weg bijvoorbeeld aanzienlijk verhogen.

Terwijl mensen nu nog boetes krijgen voor bumperkleven omdat het onveilig is als mensen erg dicht achter elkaar rijden, zouden autonome auto’s dat wél veilig kunnen. Daardoor zou niet alleen het aantal verkeersdoden, maar ook het brandstofverbruik aanzienlijk dalen (vanwege de slipstream) en de wegcapaciteit zelfs verdubbelen. Met enige fantasie is het ook voorstelbaar dat vijfbaanse kruispunten zonder verkeerslichten veilig kunnen zijn, als auto’s zichzelf besturen. En waarom zou er nog een maximumsnelheid bestaan als autonome auto’s elektrisch, uitstootvrij en volkomen veilig veel harder kunnen rijden?

Boetes voor je telefoon vasthouden onder het rijden zouden ook verleden tijd zijn. En na een feestje zou de digitale onbeschonken bestuurder (‘DOB’?) je altijd veilig naar huis kunnen brengen. Heerlijk, wat een luxe, wat een vrijheid! Maar zoals vaker het geval is bij futuristische technologie met welhaast utopisch potentieel, bestaan er ook heikele punten.

Aansprakelijkheid: een beetje van jezelf en een beetje van de fabrikant?

Hoewel de kans op fouten aanzienlijk kleiner lijkt dan bij menselijke bestuurders, is de mogelijkheid geenszins uit te sluiten dat de computer van de zelfrijdende auto crasht, met een letterlijke crash tot gevolg. Had de bestuurder nog kunnen en moeten ingrijpen? In de zelfrijdende auto volgens de visie van Google zou dat in elk geval niet kunnen, want die heeft helemaal geen stuur en pedalen. Google moet die visie voorlopig alleen nog wel even aanpassen, omdat nieuwe Californische wetgeving vereist dat zelfrijdende auto’s daar juist wel mee zijn uitgerust, zodat passagiers bestuurders toch kunnen ingrijpen in noodgevallen. Of dat dan altijd goed zou gaan is echter de vraag, aangezien uit onderzoek van DAVI blijkt dat bestuurders na een automatisch ritje minder adequaat reageren. (En dit zullen nog geen bestuurders zijn geweest die de auto als DOB gebruikten.)

De bestuurders van de eerste lichting productiemodellen, die rond 2020 worden verwacht, zullen volgens Happee al wel de ogen van de weg kunnen houden, maar nog vrij alert moeten zijn, om in een redelijke tijd het stuur over te kunnen nemen. Wanneer vervolgens de ervaring zou leren dat ingrijpen in de praktijk bijna nooit meer nodig is, of vaak juist (de kans op) schade eerder vergroot dan verkleint, kan adequaat ingrijpen ook minder snel worden verwacht van de inzittenden. Dan zouden zij ook minder snel aansprakelijk zijn.

Een auto met ethiek?

Hoe autonomer de auto en hoe minder mogelijkheden tot ingrijpen in concrete (nood)situaties de bestuurder heeft, hoe interessanter het vraagstuk wordt of een zelfrijdende auto ook morele en ethische normen ingeprogrammeerd kan en moet krijgen. Stel dat een kind plots op de weg verschijnt voor de ingang van een tunnel en remmen is niet meer mogelijk, maar uitwijken en zelf een gewisse dood ingaan wel; zou de auto dan moeten kiezen om het kind te doden of de inzittenden? En wie krijgt de keuze hoe de auto wordt ingeprogrammeerd om met dergelijke gevallen om te gaan, de gebruiker zelf, de fabrikant of misschien de wetgever?

Of is het onzin te denken dat auto’s praktisch gezien zo te programmeren zullen zijn dat zij in milliseconden kinderen kunnen onderscheiden van volwassenen, bejaarden, overstekend wild, of welk ander obstakel dan ook? En is het niet volstrekt onwaarschijnlijk dat er een hele serie ingewikkelde kansberekeningen en wiskundige en natuurkundige simulaties zou plaatsvinden, waarvan daadwerkelijk de uitkomst zou zijn dat de zekere dood van óf het kind óf de passagier(s) onvermijdbaar zou zijn? En hoe gedetailleerd zouden die instellingen dan moeten zijn? Moet de keuze bijvoorbeeld anders zijn als het kind alleen blijvend verlamd zou raken? Of als er een zwangere vrouw in de auto zit? Het lijkt beduidend eenvoudiger en verstandiger om de auto simpelweg zo te programmeren dat die altijd zo goed mogelijk zal proberen om obstakels, van wat voor type dan ook, te vermijden, dan om te proberen de auto uit te rusten met een (al dan niet nader instelbaar) ethisch besef.

Alle computers zijn te hacken en zelfrijdende auto’s dus ook

Chinese studenten zijn er al in geslaagd om ramen, schuifdak, deuren, claxon en verlichting te bedienen van een rijdende Tesla Model S. Een hackende autodief zou een autonome auto zelf van het huis van het slachtoffer naar zijn eigen huis kunnen laten rijden. In dergelijk geval zou het fijn zijn als de politie hem zou kunnen terug-hacken en weer naar huis laten rijden. Of is het toch juist niet zo’n prettig idee dat de overheid op elk moment de volledige controle over je auto kan overnemen? Als zelfrijdende auto’s werkelijkheid worden, wordt het in elk geval zaak om goed na te denken over de (wettelijke) beveiligingseisen en waarborgen dat alleen de legitieme bezitter instructies kan geven aan de autonome auto.

Wat als je zelf wilt blijven sturen?

Stel dat iemand het helemaal niks vindt, zo’n zelfrijdende auto, en gewoon met of zonder aluhoedje op zelf wil blijven sturen in een auto die de geheime diensten niet na één moskeebezoek teveel vanop afstand richting Guantanamo kunnen laten rijden. Kan dat straks nog wel? Zou er nog een verzekering te krijgen zijn voor waaghalzen die zélf een auto willen besturen? Of wordt een menselijke bestuurder in het tijdperk van nul verkeersdoden en verkeerslichtloze vijfbaanse kruispunten als een ontoelaatbaar risico beschouwd? En motorrijders? Zelfrijdende motoren lijken moeilijker te maken dan auto’s en schieten bovendien hun doel nogal voorbij. Een motor is vooral leuk om zelf te besturen. Oldtimers en sportauto’s zijn dat ook. Mogen deze straks überhaupt de weg niet meer op?

Stel dat nul verkeersdoden inderdaad haalbaar zou zijn, maar alleen als de grillige en onberekenbare menselijke factor uit het verkeer wordt gehaald, waar zouden we dan voor kiezen? Accepteren we dat verkeersdoden het gevolg kunnen zijn van menselijk falen, of geven we het stuur volledig over aan algoritmes en robots?