Ethiek van kunstmatige intelligentie

Aan wiens overlevingskans geeft een zelfsturende auto prioriteit, als een botsing onvermijdelijk is? De snelle ontwikkelingen op het terrein van AI en neurale netwerken dwingen ons om fundamenteel na te denken over ethische vragen rond de inzet van autonoom handelende systemen, vindt prof.dr. Jeroen van den Hoven. “We hebben dat soort vragen te makkelijk voor ons uit geschoven, maar inmiddels zijn we door de techniek ingehaald.”

Wijnand Westerveld

De successen van IBM’s Deep Blue met schaken eind vorige eeuw en veel recenter de overwinning van Googles Deep Mind met het spel Go tonen aan dat kunstmatige intelligentie het menselijk vernuft kan overtreffen. Op het gebeid van patroonherkenning zijn kunstmatig intelligente systemen inmiddels zelfs zo ver, dat overheden op verschillende plaatsen op de wereld al proeven met zelfsturende auto’s op de openbare weg durven toestaan.
De komende jaren zullen AI-systemen de mens op steeds meer plaatsen assisteren of zelfs vervangen en autonoom beslissingen nemen. Dat roept ethische vragen op. Beslissen neurale netwerken straks over leven en dood? Prof. Dr. Jeroen van den Hoven, hoogleraar Ethiek aan de TU Delft, heeft van reflectie op dat vraagstuk zijn specialiteit gemaakt.

Wat doet een zelfsturende auto in de situatie waar een aanrijding onvermijdelijk is en het systeem de keus heeft tussen het aanrijden van twee bejaarden of een moeder met kinderwagen?
“Ik heb daar een keer met Sebastian Thrun over gesproken, de man die bij Google verantwoordelijk was voor het self driving car-project. De vraag hoe zo’n autonoom systeem in specifieke dilemma’s zal reageren leek hem minder relevant. Hij was eerder geneigd naar de grootschalige effecten voor de verkeersveiligheid te kijken; hij leek ervan overtuigd dat zelfrijdende auto’s het verkeer veiliger zullen maken en tot minder verkeersdoden zullen leiden. Hij leek zich er niet van bewust dat ook deze benadering een ethische keuze impliceert en dat inzittenden zich toch verantwoordelijk zullen voelen voor de keuze die de software van hun intelligente voertuig in specifieke situaties voor hen zal maken.”

Wilt u daarmee zeggen dat het besef dat toepassing van kunstmatige intelligentie ons dwingt om fundamenteel na te denken over ethische vragen rond de inzet van autonoom handelende systemen onvoldoende is doorgedrongen?
“Nee, dat niet. Er zijn inmiddels de nodige initiatieven ontwikkeld, zowel nationaal als internationaal. De gemeenschappelijke noemer van die initiatieven is Responsible Innovation, het ontwikkelen en inzetten van nieuwe techniek met inachtneming van morele overwegingen. Nederland speelt op dit vlak een voortrekkersrol. Je ziet nu ook de behoefte ontstaan om internationale afspraken te maken rond de inzet van killer robots, wapensystemen die buiten menselijke controle om mensen kunnen doden. Er is breed besef dat we daarmee een grens overschrijden en dat er daarom internationale afspraken moeten komen over verbod, beperkingen en controle, net als bij discussies over chemische, biologische, en kernwapens. Een ander voorbeeld van ethische reflectie op slimme IT is de oprichting van een ethiek adviescommissie door de European Data Protection Supervisor (EDPS), zeg maar de Europese evenknie van onze privacywaakhond Authoriteit Persoonsgegevens.”

Is het denkbaar dat een zelflerend systeem op enig moment in staat zal zijn om op basis van bepaalde input tot ethische besluitvorming te komen?
“Dat hangt er van af hoe je ethiek definieert. Er is een stroming die stelt dat ethiek niet meer is dan een veredelde kosten-batenafweging. Waarbij de baten op verschillende manieren kunnen worden gemeten: in geld, geluk, plezier, vrije tijd. In die optiek is een AI-systeem heel goed in staat ‘ethische’ output te genereren. Als alle relevante data, constraints en doel eenmaal gegeven zijn, kan AI beter dan de mens optimaliseren. Maar daarmee wordt de ethiek en de morele dimensie van ons leven drastisch versmald. In mijn visie is ethiek veel meer dan dat. Ethiek gaat juist over het bepalen door mensen van wat relevant en belangrijk is voor mensen. Ethiek heeft betrekking op begrippen als medemenselijkheid, respect, waardigheid, geluk, mededogen, vrijheid, privacy, mensenrechten. Dat soort waarden is niet adequaat te definiëren zonder menselijke tussenkomst. Die waarden zullen ook een rol moeten spelen in het ontwerp, gebruik en de evaluatie van intelligente systemen.”

Is het technisch haalbaar om morele waarden te incorporeren in intelligente systemen?
“Morele randvoorwaarden en overwegingen moeten in termen van requirements worden uitgedrukt. Neem als voorbeeld dierenwelzijn. Dat vinden we als maatschappij belangrijk. Maar waarom is dat belangrijk voor ons en hoe zwaar weegt het tegenover andere waarden? Bij het ontwerpen van een nieuwe legbatterij moet dierenwelzijn meegenomen worden. De vraag is dan: hoe vertaal je dierenwelzijn in requirements en specs, standaarden en normen? Op basis van overleg met experts en stakeholders komen we tot het antwoord dat dierenwelzijn in een legbatterij onder meer bewegingsruimte voor een kip impliceert en dat leidt dan vervolgens in overleg tot een waarde, bijvoorbeeld uitgedrukt in een aantal vierkante decimeters per kip. Maar de dieperliggende vraag is hoe kom je tot deze morele randvoorwaarden? Waarom juist die?
Ontwerpers en ingenieurs zal steeds vaker gevraagd worden om hun ontwerp toe te lichten en te verdedigen in termen van morele waarden of het nu gaat om duurzaamheid, privacy, gelijkheid, democratie of respect.”

In het voorbeeld van de legbatterij is men via dialoog en discussie tot de definitie van dierenwelzijn gekomen, maar inmiddels weten we dat AI het menselijk intellect kan overtreffen. Is het denkbaar dat een zelflerend systeem op basis van die ‘superieure’ intelligentie zelf tot ethische overwegingen komt die de menselijke ethiek overtreffen?
“Ik betwijfel of we dat ooit zo zullen zien. Voor artificiële neurale netwerken moet je je afvragen wie de set van voorbeelden kiest waarop ze worden getraind, wie kiest de doelfuncties? AI-toepassingen zouden ‘gemeen’, ‘verwend’, ‘onaangepast’ of ‘crimineel’ kunnen worden, net zoals dat met natuurlijke neurale netwerken zoals kinderen kan gebeuren. Microsoft heeft al de chatbot Tay uit roulatie moeten nemen, omdat die discriminerend en onwelvoeglijk taalgebruik had aangeleerd van socialmediagebruikers. We moeten snel gaan nadenken over governance en regulering van dit soort techniek. En dat blijven uiteindelijk menselijke beslissingen.”

Toch waarschuwt de Britse wetenschapper Stephen Hawking voor het gevaar dat autonoom handelende systemen uiteindelijk het heft in handen zullen nemen en de mens overrulen. Hij noemt dat een grotere bedreiging dan de milieuproblematiek.
“Ik zou zeggen: daar zijn we zelf altijd nog – net op tijd – bij.”

Zijn er terreinen waar AI nooit autonoom zal mogen handelen?
“Ja! Beschikken over leven en dood. Dat is wat mij betreft een ‘no-go area’. In de VS is het gebruik van neurale netwerken voor bepaalde toepassingen momenteel niet toegestaan, omdat de ‘besluitvorming’ van zo’n systeem niet traceerbaar is. Anders gezegd, men wil kunnen controleren hoe een systeem tot een bepaalde keuze komt. Daarnaast zijn er toepassingen die mensen nu niet wenselijk vinden. Neem het volledig computergestuurde vliegtuig zonder piloot. Nu al worden de modernste vliegtuigen van opstijgen tot en met de landing door de computer gestuurd. Een bemanning is strikt genomen niet nodig. Toch stapt geen mens op dit moment op Schiphol op weg naar New York in een Boeing 777 zonder een wakkere crew in de cockpit.”

Terug naar de zelfrijdende auto. Zullen deze voertuigen ooit massaal onze snelwegen berijden?
“Er zijn nog veel lastige technische, juridische, ethische en sociale vraagstukken op te lossen, voordat het zover is. Om maar eens een klein voorbeeld te noemen: stel dat van een bepaald merk bekend is dat het bij dreigend gevaar altijd vaart zal minderen of uitwijken. Hoe voorkom je dan dat andere voertuigen daar misbruik van maken? Het zogenaamde ‘evil driving’: die auto moet ik voorrang geven, maar dat merk zal mij altijd voor laten gaan. Dat soort gedrag is lastig te programmeren. Tegelijkertijd ben ik er van overtuigd dat we AI steeds meer zullen inzetten, waarbij ik opmerk dat grote bedrijven als IBM en Google zich er terdege van bewust zijn dat ze vertrouwen van de consument nodig hebben. Ze zullen er alles aan moeten doen om uit te leggen hoe hun AI-techniek werkt en hoe ze er gebruik van maken.”

CV
Prof. Dr. Jeroen van den Hoven is hoogleraar Ethiek aan de TU Delft en decaan van de faculteit Techniek Bestuur en Management. Van den Hoven leidt een NWO-onderzoeksprogramma, adviseerde de Europese Commissie op dit vlak en stond zelf onder meer aan de basis van het 3TU Centre for Ethics and Technology. Hij is editor in chief van het wetenschappelijke tijdschrift Ethics and Information Technology, lid van de ethische adviesgroep van de Europese Data Protectie Supervisor en voorzitter van een expertgroep die de minister van EZ adviseert over privacy en Big Data.

 

Tag

AI

Onderwerp



Niet gevonden? Vraag het de redactie!

Heeft u het antwoord op uw vraag niet gevonden, of bent u op zoek naar specifieke informatie? Laat het ons weten! Dan zorgen we ervoor dat deze content zo snel mogelijk wordt toegevoegd, of persoonlijk aan u wordt geleverd!

Stel uw vraag