De recente tragische ervaringen in Gaza hebben de vrees bevestigd van wetenschappers die waarschuwden voor het gebruik van AI en robotica in wapensystemen en oorlogvoering. Het gebruik van AI in richtsystemen werd verondersteld om preciezer te kunnen richten en zo onschuldige burgers te sparen – door het Lavendel systeem te gebruiken om op personeel te richten en het Gospel systeem om op gebouwen te richten waar zich militanten zouden bevinden. Deze overhaast gebruikte AI-technologie heeft echter geleid tot het willekeurig doden van onschuldige burgers.
Dit is niet het enige recente voorbeeld van risicovol gebruik van AI-wapens. Zeer angstaanjagende maar op feiten gebaseerde waarschuwingen van erkende experts zijn gevolgd door toenemende investeringen door grote mogendheden om hun voorbereidingen voor de ontwikkeling van een breed scala aan robotwapens te versterken.
Hoewel sommige van de civiele toepassingen van robots ook steeds meer kritiek te verduren hebben gekregen vanwege de vrees voor grootschalige werkloosheid die ze waarschijnlijk zullen veroorzaken in verschillende sectoren van het werk in een wereld die al lijdt onder de nadelige gevolgen van werkloze groei, zijn de nadelige gevolgen van militair gebruik van robots waarschijnlijk veel gevaarlijker. Toch is een van de argumenten die gegeven worden om militair gebruik van robotwapens (ook wel dodelijke autonome wapens of LAW’s genoemd) niet te controleren, dat werk voor civiel en militair gebruik van robots, vooral in de context van wetenschappelijk onderzoek en innovatie, nauw verwant kan zijn. De boodschap is dat naarmate civiel onderzoek naar robots vordert, er ook implicaties zullen zijn voor militair gebruik van robots die door geen enkele leidende militaire macht genegeerd kunnen worden.
Aan de ene kant wordt dus gesteld dat civiele vooruitgang op het gebied van robots door kostenbesparingen en andere beperkte voordelen ongeacht de maatschappelijke kosten onvermijdelijk zal leiden tot de verspreiding van robotica in civiele toepassingen en aan de andere kant wordt gesteld dat de militaire mogelijkheden die ontstaan in de context van deze technologische ontwikkeling even onvermijdelijk zullen worden gebruikt door verschillende militaire instellingen in verschillende delen van de wereld. Zodra het belang van robots voor militairen steeds duidelijker wordt, zullen militaire instellingen natuurlijk ook veel investeren in de puur militaire ontwikkeling van robots. Dit stadium is al bereikt in het geval van de leidende militaire machten van de wereld. We bevinden ons dus in een situatie waarin, ondanks de toenemende waarschuwingen van experts voor robotwapens, de trend naar de ontwikkeling van steeds destructievere robotwapens op dit moment niet te stoppen lijkt. In de VS verschijnen verschillende nieuwe start-ups om de toenemende bereidheid van het Pentagon om te investeren in AI-wapens te bevorderen, en het is onwaarschijnlijk dat andere machten achter zullen blijven.
Al in 2012-13 hebben 270 computerexperts, AI-experts en ingenieurs in het kader van de inspanningen van het International Committee for Robot Arms Control opgeroepen tot een verbod op de ontwikkeling en inzet van wapensystemen die autonoom, zonder menselijke controle, beslissen om geweld toe te passen. Ze zeiden duidelijk dat de beslissing om geweld toe te passen niet aan machines mag worden gedelegeerd. Deze experts vroegen zich af hoe apparaten die worden bestuurd door complexe algoritmen op elkaar zullen reageren, en waarschuwden dat dergelijke interacties onstabiel en onvoorspelbaar gedrag kunnen creëren dat conflicten kan initiëren of escaleren of ongerechtvaardigde en ernstige schade kan toebrengen aan de burgerbevolking.
In augustus 2017 riepen 116 specialisten uit 26 landen, waaronder enkele van ’s werelds meest vooraanstaande pioniers op het gebied van robotica en kunstmatige intelligentie, de Verenigde Naties op om de ontwikkeling en het gebruik van killer robots te verbieden. Ze schreven,
“Als er eenmaal dodelijke autonome wapens zijn ontwikkeld, zullen gewapende conflicten kunnen worden uitgevochten op een schaal die groter is dan ooit en op tijdschalen die sneller zijn dan mensen kunnen bevatten. Dit kunnen terreurwapens zijn, wapens die despoten en terroristen gebruiken tegen onschuldige mensen, en wapens die gehackt zijn om zich op ongewenste manieren te gedragen.”
“We hebben niet lang meer om te handelen.” In deze brief werd gewaarschuwd. “Als deze doos van Pandora eenmaal geopend is, zal hij moeilijk te sluiten zijn.”
Ryan Gariepy, de oprichter van Clearpath Robotics, heeft gezegd,
“In tegenstelling tot andere mogelijke verschijningsvormen van AI die nog steeds sciencefiction zijn, staan autonome wapensystemen op dit moment aan de vooravond van ontwikkeling en hebben ze een zeer reëel potentieel om aanzienlijke schade toe te brengen aan onschuldige mensen en wereldwijde instabiliteit te veroorzaken.”
The Economist (27 januari 2017) merkte in zijn speciale rapport getiteld ‘The Future of War’ op,
“De wereld weet tenminste hoe het is om in de schaduw van kernwapens te leven. Er zijn veel grotere vraagtekens over hoe de snelle vooruitgang in kunstmatige intelligentie (AI) en deep learning de manier waarop oorlogen worden uitgevochten zal beïnvloeden, en misschien zelfs de manier waarop mensen over oorlog denken. De grote zorg is dat deze technologieën autonome wapensystemen kunnen creëren die keuzes kunnen maken over het doden van mensen, onafhankelijk van degenen die ze hebben gemaakt of ingezet.”
In dit speciale rapport wordt onderscheid gemaakt tussen drie soorten AI-wapens of robotwapens
(I) in the loop (waarbij een mens voortdurend toezicht houdt op de operatie en verantwoordelijk blijft voor kritieke beslissingen,
(II) on the loop (met een mens die toezicht houdt op machines die in elke fase van de missie kunnen ingrijpen) of
(III) “out of the loop” (waarbij de machine na lancering de missie uitvoert zonder enige menselijke tussenkomst).
Volledig autonome robotwapens (derde categorie) zijn uiteraard het gevaarlijkst.
In 2015 werd door meer dan 1000 AI-experts een brief ondertekend waarin gewaarschuwd werd tegen de opkomende wedloop van deze wapens. Een internationale campagne genaamd ‘Campaign to Stop Killer Robots’ zet zich regelmatig in voor deze en aanverwante doelstellingen. Elon Musk heeft verklaard dat concurrentie om AI-superioriteit op nationaal niveau de “meest waarschijnlijke oorzaak van Wereldoorlog 3” is.
Stephen Hawking, Elon Musk en vele andere experts hebben in een gezamenlijke verklaring gezegd dat slecht gehanteerde AI als wapen een existentiële bedreiging kan vormen voor het menselijk ras.
Paul Scharre, een expert op het gebied van autonome wapens, heeft geschreven dat “collectief zwermen robotsystemen het potentieel hebben om militaire operaties nog dramatischer en ontwrichtender te veranderen”. Een mogelijkheid die hij noemt is dat kleine 3D-geprinte drones gevormd kunnen worden tot slimme wolken die een gebouw kunnen binnendringen of over een groot gebied gedropt kunnen worden om te zoeken naar verborgen vijandelijke troepen.
In mijn roman Een dag in 2071 visualiseer ik zo’n situatie waarin machtige elites zo’n troepenmacht van piepkleine robotsoldaten gebruiken om een opstand van gewone mensen te onderdrukken.
Verschillende landen gaan snel vooruit met robotwapens. In 2014 kondigde het Pentagon zijn ‘Third Offset Strategy’ aan met speciale nadruk op robotica, autonome systemen en ‘big data’. Dit moet de VS helpen om zijn militaire superioriteit te behouden. In juli 2017 presenteerde China zijn “Next-Generation Artificial-Intelligence Development Plan”, dat een cruciale rol toekent aan AI als de transformerende technologie op zowel civiel als militair gebied, met de nadruk op “militair-civiele fusie”.
De campagne Stop Killer Robots wil een juridisch bindend internationaal verdrag dat AI verbiedt. Maar het is de vraag of dit effectief kan zijn zonder dat de grote militaire machten het ondertekenen en deze grote machten gaan door met grote investeringen in robotwapens. Natuurlijk moeten alle inspanningen die nu worden gedaan om robotwapens te controleren, worden voortgezet en versterkt, maar daarnaast is het ook belangrijk om heel serieus te kijken naar waarom onze wereld, zoals die nu is georganiseerd, steeds vaker niet in staat blijkt om sommige van de gevaarlijkste bedreigingen te controleren.
Bron: Bharat Dogra / https://www.globalresearch.ca/risks-ai-weapons-continue-increase/5857437
Categorie: AI
Tages: Robotica, AI, Lavendel systeem, Gospel systeem, AI-technologie,
Beheerder Vincent W Schoers
Copyright © 2021 door zorgdatjenietslaapt.nl. Toestemming tot gehele of gedeeltelijke herdruk wordt graag verleend, mits volledige creditering en een directe link worden gegeven.
Mijn lichaam is geen eigendom van de staat. Ik heb de uitsluitende en exclusieve autonomie over mijn lichaam en geen enkele politicus, ambtenaar of arts heeft het wettelijke of morele recht om mij te dwingen een niet-gelicentieerd, experimenteel vaccin of enige andere medische behandeling of procedure te laten ondergaan zonder mijn specifieke en geïnformeerde toestemming. De beslissing is aan mij en aan mij alleen en ik zal mij niet onderwerpen aan chantage door de overheid of emotionele manipulatie door de media, of zogenaamd bekende mediageile beïnvloeders.
Alles hier gepubliceerd reflecteert de mening, ziens-, denkwijze van de gene die het plaatst
Geef een reactie