prostředky/UAV, roboti zejména pro boj ve městech).
V US to v rámci projektů DARPA ( Defense Advanced Research Projects Agency) potvrzují vojenské programy FLA / Fast Lightweight Autonomy ( rychlá navigace dronů uvnitř budov či v místech s překážkami, např. v lese ) + CODE ( systémy pro výše zmíněné autonomní bojové prostředky, které by je řídily, a chovaly se jako vlk při lovu – vyhledaly cíl, identifikovaly jej, sledovaly, zamířily, zaútočily, vyhodnotily zákrok ).
O inteligentních zbraních se od roku 2014 jedná v OSN v rámci ženevské Úmluvy z roku 1980 o zákazu jistých typů klasických zbraní/ Convention on Certain Conventional Weapons /CCWC, které jsou nadměrně devastující nebo nerozlišují mezi vojáky a civilisty, mj. nášlapné miny, maskovaná výbušná zařízení na veřejných prostranstvích, která se spouštějí běžnými úkony, např. zavřením/otevřením dveří, nastartováním auta, zápalná zařízení, oslepující laserové zbraně ( byly zakázány v roce 1995).
Cílem jednání je zbraně s umělou inteligencí zakázat, či je zakázat alespoň částečně.
Zatím se v OSN řeší technická otázka, zda jsou tyto zbraně v souladu s mezinárodním humanitárním právem, upravujícím mj. vojenské útoky, které musí být dle ženevské úmluvy z roku 1949 v souladu se třemi principy : a) vojenská nutnost
b) přísné rozlišení mezi kombatanty a nekombatanty
c) přiměřenost vojenského útoku a rizik kolaterálních škod
Navíc Martensova klauzule, připojená v roce 1977, zakazuje zbraně, které porušují „ zásadu lidskosti a veřejné svědomí „ ...
Např. Německo v 4/2015, kdy o těchto zbraních s umělou inteligencí v OSN proběhlo třetí jednání, prohlásilo, že nedovolí, aby umělá inteligence rozhodovala o otázkách života a smrti, zatímco Japonsko prohlásilo, že jeho systémy umělé inteligence o tomto rozhodovat nebudou ...
Zastánci umělé inteligence tvrdí, stejně jako tvrdili Američané v případě svržení atomovek na Hirošimu a Nagasaki, že „ jejich přesnost lidské ztráty ve válce omezí, a nenasazením vojáků se drasticky sníží i počet civilních obětí „ - toto tvrzení je však založeno na předpokladu ceteris paribus/ pokud se ostatní podmínky nezmění – tj. že specifické možnosti zabíjení, které jejich příchodem na bojiště vzniknou, budou úplně stejné, jako kdyby byli nasazeni lidští vojáci.
Je to stejné, jako kdybychom řekli, že střely s plochou dráhou letu budou používány za stejných podmínek, jako se v minulosti používala kopí – jde tudíž o zcela falešný závěr : autonomní zbraně se s lidskými vojáky nedají srovnat, a proto budou užívány zcela jiným způsobem.
I kdyby byli vytvořeni roboti schopni etického úsudku, nebude existovat žádná záruka, že etickým způsobem budou použiti.
Je proto lživé tvrdit, že profesionální vojáci jsou špatní, zatímco autonomní zbraně budou dodržovat principy mezinárodního práva válečného, a že teroristické státy, diktátoři či teroristické skupiny budou tak ukáznění, že autonomní zbraně budou využívat etickým způsobem – tyto zbraně naopak umožní diktátorům vládnout stovky let.
Jinými slovy lidé budou proti autonomním systémům zcela bez obrany, viz můj článek Dehumanizace války, aneb jak drony změní válku, militaria.cz.
Proto 28.7.2015 2.500 vědeckých specialistů a inženýrů, které autonomní systémy vyvíjejí, sepsalo petici, aby tyto zbraně budoucnosti se strategickým ( mohou nést i jaderné nálože ) i taktickým ( větší roboti by na bojiště mohli dopravit stovky minirobotů) využitím, které mohou být tak malé ( např. o velikosti hmyzu ) , že budou nezničitelné, byly zakázány .
Nové výhružky Západu ze strany Žirinovského (10.8.015)
http://ldpr.ru/events/russian_bear_1008_15/?is_print=1
Рябков: оснований для диалога с США по ядерному разоружению пока нет /Důvody pro jednání s US o jaderném odzbrojení zatím nejsou (14.8.015)
http://ria.ru/defense_safety/20150814/1183748341.html