Onlangs heeft Lockheed-Martin een gevechtsvliegtuig zonder piloot getest, dat bestuurd werd door artificiële intelligentie (AI). Dit is de eerste keer dat zoiets gebeurde. Het gevechtsvliegtuig genaamd VISTA is ontworpen om andere (gevechts)vliegtuigen te imiteren en is eigenlijk een aangepaste F16, waarop gemakkelijk software kan worden geïnstalleerd.
De bedoeling van VISTA is om situaties in de lucht te simuleren, waardoor piloten die trainingen volgen, levensechter kunnen oefenen. De luchtmacht heeft echter ook de ambitie om de ontwikkelde software tijdens oorlogssituaties te gebruiken.
Ethische discussie komt op gang
Het gebruik van autonome vliegtuigen in oorlogssituaties zorgt echter voor een ethische discussie, namelijk of machines zelfstandig mensen mogen doden. Volgens defensiespecialist en UGent-professor Sven Biscop maakt AI op dit moment nog te veel foute inschattingen. Ook blijft de mens onontbeerlijk om te beslissen wat een legitiem doelwit is en wat niet. Beslissingen over leven en dood, en de ongetwijfeld verkeerde beslissingen die er genomen zullen worden, kunnen niet worden uitbesteed aan een machine.
Verschil tussen vriend en vijand
Een groot probleem met het gebruik van AI in autonome wapensystemen is dat het algoritme het verschil tussen een vijand en een burger niet altijd kan zien. Er is momenteel geen internationale regelgeving over het gebruik van autonomie in wapensystemen. Maar de discussie wordt wel volop gevoerd, vooral op diplomatiek niveau. Er wordt geneigd naar een verbod op autonome wapensystemen omdat ze niet kunnen voldoen aan het internationaal humanitair recht. Er zouden namelijk te veel onschuldige slachtoffers vallen omdat AI nu eenmaal fouten maakt.
Stabiliteit in de wereld
Toch blijft de interesse in autonome wapensystemen bestaan, getuige de conferentie die op dit moment plaatsvindt in Den Haag. Tijdens deze tweedaagse conferentie wordt onder andere gekeken naar de ontwikkeling van autonome wapensystemen en de mogelijke gevolgen voor de veiligheid en stabiliteit in de wereld.
Gevolgen autonome wapensystemen onvoorspelbaar
Het is belangrijk om de mogelijke gevolgen van autonome wapensystemen te onderzoeken en hierover te blijven discussiëren, vooral op diplomatiek niveau. Het gebruik van AI in autonome wapensystemen kan namelijk leiden tot onbedoelde slachtoffers en onvoorspelbare uitkomsten. Het is daarom belangrijk om regels op te stellen die de veiligheid van burgers en militairen garanderen en om ervoor te zorgen dat de beslissing over leven en dood altijd in handen van mensen blijft.
Tot slot
Elke verandering of technologische ontwikkeling brengt veranderingen met zich mee maar de controle over leven of dood is niet aan ons, en ook niet aan AI is mijn mening. AI moet gezien als een hulpmiddel voor, en niet als vervanging van de mens maar dat is mijn mening. Ik vind de technologische ontwikkelingen prachtig maar de controle over leven of dood uit handen geven is in mijn ogen een stap te ver.
> Bekijk ook: De wereld tussen mens en Robot smelt samen