Vechtende Robots: Verboden Mag Niet

Inhoudsopgave:

Vechtende Robots: Verboden Mag Niet
Vechtende Robots: Verboden Mag Niet

Video: Vechtende Robots: Verboden Mag Niet

Video: Vechtende Robots: Verboden Mag Niet
Video: Einde van de Wereld Locatie van SIRI! (Robot Ei Gevonden) 2024, April
Anonim

De experts kwamen bijeen in Genève, maar er kon geen overeenstemming worden bereikt: de Verenigde Staten en Rusland blokkeerden al het werk. Misschien is dit de enige keer dat hegemonen zo harmonieus samenwerken.

Vechtende robots: verboden mag niet
Vechtende robots: verboden mag niet

Bijeenkomsten van experts in de vorm van het Verdrag inzake onmenselijke wapens eindigden in Genève om te beslissen over het lot van de zogenaamde gevechtsrobots - autonome wapens die kunstmatige intelligentie gebruiken om doelen te verslaan. Er konden echter geen afspraken worden gemaakt. De Verenigde Staten, Rusland, Zuid-Korea, Israël en Australië behoorden tot de minderheidslanden die erin zijn geslaagd het sentiment tegen een volledig verbod op moordrobots te blokkeren.

Dus hoewel er nog steeds geen werkend autonoom wapen in de wereld is, blijft de technologie bij wijze van spreken humaan - het kan worden ontwikkeld en onderzocht. Interessant is dat de Verenigde Staten en Rusland, volgens het Stockholm Peace Research Institute (SIPRI), bovenaan de lijst staan van de grootste wapenexporteurs. Zuid-Korea, Israël en Australië blijven ook niet achter in deze ranglijst - ze behoren tot de top 20 van marktspelers.

En hoewel China (de vijfde wapenexporteur ter wereld, een permanent lid van de VN-Veiligheidsraad pleit voor een verbod op gevechtsrobots, slaagde het er tijdens de bijeenkomsten niet in om de weegschaal in zijn richting te sturen. Vandaag steunen 26 landen openlijk de verbod op het gebruik van kunstmatige intelligentie in oorlog. Anderen schrikken terug voor een duidelijk standpunt) Frankrijk en Duitsland (de derde en vierde wapenexporteurs) bieden aan om een document te ondertekenen dat het primaat van de mens boven kunstmatige intelligentie zou consolideren, maar ze zijn waarschijnlijker aan de kant van degenen die autonome gevechtsvoertuigen willen ontwikkelen.

"Het is zeker teleurstellend dat een kleine groep militaire reuzen de wil van de meerderheid kan tegenhouden", zegt Mary Verhem, coördinator van de Campagne om Killer Robots te stoppen, over de resultaten van de bijeenkomsten in Genève.

De situatie lijkt inderdaad op een samenzwering van gewapende monopoliemagnaten, aangezien de Verenigde Staten en Rusland meestal niet op zijn minst een soort compromis kunnen bereiken over belangrijke kwesties. Neem de Syrische: Washington en Moskou blokkeerden wederzijds elkaars resoluties na het gebruik van chemische wapens in Syrië dit voorjaar. Verstikkende gassen en andere giftige stoffen voor militaire doeleinden waren trouwens eerder verboden door het Verdrag inzake onmenselijke wapens.

De volgende bijeenkomst over het lot van killer robots vindt in november plaats in Genève.

Waarom willen ze autonome wapens verbieden?

Voorstanders van het verbod op robotoorlogvoering houden vol dat het slagveld geen plaats is voor kunstmatige intelligentie. Naar hun mening vormen dergelijke technologieën een enorme bedreiging. Althans, vandaag is het niet duidelijk hoe de machine onderscheid zal maken tussen strijders (zij die direct betrokken zijn bij vijandelijkheden) en niet-strijders (legerpersoneel dat alleen wapens kan gebruiken voor zelfverdediging) en burgers in het algemeen. Er is een mogelijkheid dat het werk de gewonden en degenen die zich overgeven zal doden, wat verboden is door de huidige regels van oorlogsvoering.

Wat weerhoudt het werk ervan om alle partijen bij het conflict te onderbreken, zelfs de eigenaren van dergelijke wapens? Elementen van kunstmatige intelligentie worden al met succes gebruikt in militaire uitrusting, raketten; robots worden aangetrokken voor verkenning, maar het laatste woord ligt nog steeds bij de mens. Autonome wapens zullen de bevelen van de commandanten niet gehoorzamen - daarom zijn ze autonoom. Dat is de reden waarom militaire generaals uit verschillende landen sceptisch zijn over de introductie van machines in de gelederen van het personeel.

En nog een open vraag is het internationale terrorisme. Autonome wapentechnologie kan in verkeerde handen vallen en uiteindelijk worden gehackt. Een jaar geleden zei de Russische president Vladimir Poetin dat de heerser van de wereld degene zal zijn die de leider zal worden in de ontwikkeling van kunstmatige intelligentie. In het geval van autonome wapens zal degene die toegang krijgt tot dergelijke technologieën de heerser van de wereld worden. En hiervoor heb je in feite alleen een computer en een ontduiker nodig die door de beveiligingssystemen gaat. Het Pentagon is trouwens meer dan eens gehackt. Daarom kan niemand garanties geven dat autonome wapens onschendbaar blijven.

Ook is onduidelijk wie juridisch aansprakelijk is als er een oorlogsmisdaad wordt gepleegd als gevolg van het functioneren van het autonome wapensysteem. “De ingenieur, programmeur, fabrikant of commandant die het wapen gebruikte? Als verantwoordelijkheid niet kan worden gedefinieerd zoals vereist door het internationaal humanitair recht, kan de inzet van dergelijke systemen dan worden erkend als wettelijk of ethisch verantwoord?”, merkt het Internationale Comité van het Rode Kruis op.

Interessant is dat wetenschappers ook pleitten voor een verbod op gevechtsrobots. In juli van dit jaar ondertekenden meer dan tweeduizend wetenschappers, met name de maker van Tesla en SpaceX Elon Musk en de mede-oprichters van DeepMind, een document dat ze geen dodelijke autonome wapens zouden ontwikkelen. Google deed hetzelfde. De techgigant heeft het werk aan het Maven-project van het Pentagon opgegeven. En in 2017 hebben een aantal wetenschappers de VN al opgeroepen om de creatie van killer robots te verbieden.

Overigens verscheen eind 2013 de kwestie van kunstmatige intelligentie in oorlog op de agenda van de Verenigde Naties, maar sindsdien is er praktisch niets veranderd. Pas dit jaar begonnen expertmeetings in de vorm van de Convention on Inhumane Weapons. Dat wil zeggen, het duurde meer dan vier jaar om op een min of meer praktisch niveau te komen.

Waarom ze autonome wapens niet willen verbieden

Hoe banaal het ook klinkt, de wapenwedloop is de belangrijkste reden waarom ze killer robots niet willen verbieden. Poetin heeft gelijk: wie als eerste autonome wapens krijgt, zal de wereld domineren. Officieel wordt deze reden geuit.

Het belangrijkste argument van tegenstanders van het verbod is de onmogelijkheid om civiele kunstmatige intelligentie te scheiden van het leger. We zullen bijvoorbeeld keukenmessen niet verbieden alleen omdat terroristen ze kunnen gebruiken. Het is inderdaad praktisch onmogelijk om de civiele ontwikkeling van kunstmatige intelligentie te scheiden van het leger. Maar nu hebben we het over het verbod op dit wapen, dat in staat zal zijn om onafhankelijk doelen te bepalen en aan te vallen. Dit zou het Maven-project kunnen zijn, waaraan het Amerikaanse ministerie van Defensie samen met Booz Allen Hamilton werkt (Google weigerde het contract).

De ontwikkelaars van Maven willen drones leren om beelden, met name van satellieten, te analyseren en - mogelijk - doelwitten voor aanvallen te identificeren. Het Pentagon begon in april 2017 aan het project te werken en hoopte tegen het einde van het jaar de eerste werkende algoritmen te hebben. Maar door demarches van Google-medewerkers liep de ontwikkeling vertraging op. Vanaf juni van dit jaar kon het systeem volgens Gizmodo onderscheid maken tussen elementaire objecten - auto's, mensen, maar het bleek in moeilijke situaties volkomen onbeduidend te zijn. Als het verbod op autonome wapens desondanks op VN-niveau wordt aangenomen, zal het project moeten worden geschrapt, terwijl het Pentagon beweert dat hun ontwikkeling levens kan redden, omdat het kan worden geprogrammeerd om nauwkeuriger en betrouwbaarder te werken in vergelijking met mensen.

"Je moet begrijpen dat we het over technologie hebben, dat er geen voorbeelden zijn die zouden werken. Het idee van dergelijke systemen is nog steeds erg oppervlakkig", merkte aan de vooravond van de bijeenkomst in Genève op het Russische ministerie van Buitenlandse Zaken op. - Naar onze mening kan internationaal recht, met name de humanitaire sector, worden toegepast op autonome wapens. Ze hebben geen modernisering of aanpassing aan systemen nodig die nog niet bestaan.”

Nou, en nog een echte, maar niet geuite reden is geld. Tegenwoordig wordt de markt voor militaire kunstmatige-intelligentietechnologieën geschat op meer dan zes miljard dollar. Maar tegen 2025 zal dat cijfer verdrievoudigen - tot bijna 19 miljard, volgens analisten van het Amerikaanse bedrijf MarketsandMarkets. Voor de grootste wapenexporteurs is dit een goede motivatie om eventuele beperkingen op de ontwikkeling van killer robots te blokkeren.

Vooruitgang kan niet worden gestopt

Voorstanders van een verbod op autonome wapens merken op dat de technologie zich zeer snel ontwikkelt en dat kunstmatige intelligentie uiteindelijk een wapen zal worden - een kwestie van tijd. Er zit logica in hun woorden. Kunstmatige intelligentie is een integraal onderdeel van de vierde wetenschappelijke en technologische revolutie, die nu doorgaat. Men mag niet vergeten dat technische vooruitgang op de een of andere manier samenhangt met militaire operaties. De derde wetenschappelijke en technologische revolutie duurde tot het midden van de jaren vijftig van de twintigste eeuw, dat wil zeggen, het hoogtepunt viel in de periode van de Tweede Wereldoorlog.

In 1949 nam Genève het Verdrag voor de bescherming van burgers in oorlogstijd aan. In de naoorlogse periode vulden ze ook het IVe Verdrag van Den Haag van 1907 aan, dat de regels voor het voeren van oorlog vastlegde. Dat wil zeggen, de verschrikkingen van de Tweede Wereldoorlog werden de katalysator voor dit proces. Mensenrechtenverdedigers willen dus niet wachten tot de Derde Wereldoorlog om de mensheid te beschermen tegen autonome wapens. Daarom is het nu noodzakelijk om het lot van killer-robots te bepalen, benadrukken ze.

Volgens experts van Human Rights Watch is het gebruik van gevechtsrobots in strijd met de Martens-verklaring - de preambule van het Haags Verdrag van 1899 inzake het recht en de gebruiken van oorlog. Met andere woorden, killer robots schenden de wetten van de mensheid en de eisen van het publieke bewustzijn (de positie werd bevestigd in de IV Haagse Conventie).

"We moeten samenwerken om een preventief verbod op dergelijke wapensystemen op te leggen voordat ze zich over de wereld verspreiden", zegt Bonnie Doherty, senior onderzoeker op de wapenafdeling van Human Rights Watch.

Nou, het werkte deze keer niet om killer-robots te verbieden. Voorspelbaar zullen ook de vergaderingen in november vruchteloos zijn. Toegegeven, bijna alle landen zijn het erover eens - de technologie kan niet door de zwaartekracht stromen en gevechtsrobots hebben zo'n stopkraan nodig. Maar het is nog steeds niet duidelijk of de mensheid tijd zal hebben om eraan te trekken wanneer dat nodig is.

Aanbevolen: