СМРТОНОСНИ АУТОНОМНИ СИСТЕМИ ОРУЖЈА (LAWS) - КА СТРОЖОЈ РЕГУЛАТИВИ ИЛИ НЕСЕЛЕКТИВНОЈ УПОТРЕБИ?
Sažetak
Широм света, савремена ратишта демонстрирају употребу оружја нове генерације попут такозваних „робота убица”, то јест смртоносних аутономних система оружја (LAWS). Нове револуционарне технологије уз употребу вештачке интелигенције (AI) омогућиле су серијску производњу и коришћење у војне сврхе система попут беспилотних летелица (наоружаних и ненаоружаних – “UCAV/UAV”), вребајућег оружја (loitering munitions), ројева дронова (drone swarms), самоходних оружаних платформи, итд. Овакво оружје нове генерације, вођено вештачком интелигенцијом са различитим степенима аутономије, је већ било употребљено на ратиштима у Либији, Сирији, Јемену, Нагорно-Карабаху и Украјини. Светска академска јавност, као и различите активистичке групе, изразиле су забринутост због недостатка међународне законске регулације смртоносних аутономних система оружја, док су се истовремено водиле дебате и око етичности употребе оваквог оружја. Главни циљеви овог истраживачког рада су разумевање ограничења вештачке интелигенције која се употребљава у овим оружаним системима, преглед важећих регулација смртоносних аутономних система оружја на основу јавно доступних података, као и компаративна анализа стратегија и ставова према овим оружаним системима од стране ЕУ, САД, Кине, Русије и Индије. Резултати овог истраживања указују пре свега на то да вештачка интелигенција која управља оваквим оружаним системима није способна да постигне ниво интелигенције и свести налик на људску. То не значи да вештачка интелигенција, са досадашњим технолошким развојем, није у стању да достигне одређене нивое аутономије које би омогућиле наоружаним беспилотним летелицама или самоходним оружаним платформама да примене смртоносну силу против људских бића који су означени као противничке снаге. Државе широм света виде предност у поседовању и употреби оваквог наоружања с обзиром на њихову релативно ниску цену производње као и релативно високу штету коју могу да начине противничким снагама у поређењу са трошковима производње таквог оружја. Такође, изузетно важан фактор који даје предност овом оружју огледа се у очувању живота сопствених војника током борбених операција, с обзиром да се оператери оваквих оружаних платформи налазе далеко иза подручја борбених дејстава. Даљи резултати овог истраживања указују на то да законска регулација истраживања, производње и употребе оваквог оружја не постоји на међународном нивоу, већ се искључиво води неформална дискусија под оквиром Конвенције о конвенционалном оружју из 1980. године. Због недостатка јединствене позиције око законске регулације смртоносних аутономних система оружја, већина држава је сагласна да се употреба оваквог оружја мора забранити уколико такви системи не испуњавају услове прописане чланом 36 Допунског протокола из 1977. године уз Женевске конвенције из 1949. године. Из тог разлога, успостављена је Група владиних стручњака (GGE) са циљем вођења расправе о мултилатералној законској регулативи ових оружаних система. Водеће светске силе, попут Сједињених Америчких Држава, Кине, Русије, Индије и Европске Уније такође имају различите ставове о овом питању. Ово истраживање показује да је једино Европска Унија у потпуности за међународну забрану истраживања, производње и употребе смртоносних аутономних система оружја. Са друге стране, Сједињене Америчке Државе, Кина, Русија и Индија имају донекле балансиран став према овом питању. Иако ове државе активно учествују у Групи владиних стручњака и воде расправе о међународној законској регулативи ових оружаних система, свака од њих задржава право да врши истраживања, као и да производи и употребљава ово оружје у ,,одбрамбене сврхе”. Главни разлог за такав став проистиче из виђења да је овакво оружје нове генерације способно да поремети равнотежу снага на бојном пољу, и самим тим, постоји одређени страх међу великим силама од могућности ''заостатка'' у новој трци у наоружању. Може се закључити да због недостатка јединственог става у односу на међународну законску регулативу смртоносних аутономних система оружја, постоји оправдана могућност не само повећања производње оваквих оружаних система, већ и њихова даља неометана примена у наредним годинама. Такође, важно је напоменути да чак и у случају када би се успоставила међународна законска регулатива оваквих оружаних система, по свему судећи би се њихова производња и примена наставила, највероватније само у већој тајности. Са једне стране, такви оружани системи се сматрају као нешто што радикално мења однос снага на терену и природу савременог рата, док се са друге стране њиховом применом још увек не крши онај најстрожији табу, који на пример постоји око хипотетичке употребе (тактичког) нуклеарног оружја у савременом оружаном сукобу.
Reference
“В Минобороны РФ Создали Управление По Работе с Искусственным Интеллектом – ТАСС.” TACC, August 17, 2022. https://tass.ru/armiya-i-opk/15492531.
Иванов Д. В. 2021. “Корженяк А.М., Лапихина Е.C. Смертоносные автономные системы вооружений и международное право.” Московский журнал международного права. (3): 6–19. doi: 10.24833/0869-0049-2021-3-6-19
Ajey, Lele. 2019. “Debating Lethal Autonomous Weapon Systems.” Journal of Defence Studies, 13 (1): 51–70.
Arkin Ronald C., Patrick Ulam, and Britanny Duncan. 2009. “An Ethical Governor for Constraining Lethal Action in an Autonomous System.” Technical Report GIT-GVU-09-02, Georgia Tech Mobile Robot Lab. https://www.cc.gatech.edu/ai/robot-lab/online-publications/GIT-GVU-09-02.pdf.
Bächle, Thomas Christian, and Jascha Bareis. 2022. “Correction: ‘Autonomous Weapons’ as a Geopolitical Signifier in a National Power Play: Analysing AI Imaginaries in Chinese and US Military Policies.” European Journal of Futures Research 10 (1). doi: 10.1186/s40309-022-00212-8.
Boulanin, Vincent. 2015. “Implementing Article 36 Weapon Reviews in the Light of Increasing Autonomy in Weapon Systems.” SIPRI, No. 1. https://www.sipri.org/sites/default/files/files/insight/SIPRIInsight1501.pdf.
Branca, Eleonora. 2021. “An International Regulation of Lethal Autonomous Weapon Systems: What Role for the EU? Policy Brief No. 8 – June 2021.” ENTER Policy Brief Series, June 2021. https://foreignpolicynewrealities.eu/wp-content/uploads/2021/06/Policy-Brief-No.-8.pdf.
Connolly, Catherine. 2022. “Loitering Munitions with Autonomous Capabilities Used in Ukraine.” Stop Killer Robots. October 17, 2022. https://www.stopkillerrobots.org/news/loitering-munitions-with-autonomous-capabilities-used-in-ukraine/#:~:text=Russia%20has%20deployed%20the%20Iranian,country%20began%20in%20February%202022.
Economic Laws Practice. 2019. “Ministry of Defence: Implementation of Artificial Intelligence in Indian Defence Services.” February 3, 2019. https://elplaw.in/wp-content/uploads/2019/02/190213-Implementation-of-Artificial-Intelligence-in-Indian-Defence-Services.pdf.
Elmokadem, Taha, and Andrey V. Savkin. 2021. “Towards Fully Autonomous Uavs: A Survey.” Sensors 21 (18): 6223. doi: 10.3390/s21186223.
European Parliament, Resolution of European Parliament of 12 September 2018 on autonomous weapon systems 2018/2752(RSP), 12.09.2018. https://www.europarl.europa.eu/doceo/document/TA-8-2018-0341_EN.html.
European Parliament, Resolution of European Parliament of 20 January 2021 on artificial intelligence: questions of interpretation and application of international law in so far as the EU is affected in the areas of civil and military uses and of state authority outside the scope of criminal justice (2020/2013(INI)), (2021/C 456/04) https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:52021IP0009.
International Humanitarian Law Databases. “Article 36 – New Weapons.” Protocol Additional to the Geneva Conventions of 12 August 1949, and relating to the Protection of Victims of International Armed Conflicts (Protocol I), 8 June 1977. https://ihl-databases.icrc.org/en/ihl-treaties/api-1977/article-36.
Jones, Taylor. 2022. “Real-Life Technologies That Prove Autonomous Weapons Are Already Here.” Future of Life Institute, November 30, 2022. https://futureoflife.org/aws/real-life-technologies-that-prove-autonomous-weapons-are-already-here/.
Kallenborn, Zachary. 2022. “InfoSwarms: Drone Swarms and Information Warfare.” The US Army War College Quarterly, 52 (2): 87–102. doi: 10.55540/0031-1723.3154.
Kaplan, Andreas, and Michael Haenlein. “Siri, Siri, in My Hand: Who’s the Fairest in the Land? On the Interpretations, Illustrations, and Implications of Artificial Intelligence.” Business Horizons, 62 (1): 15–25. doi: 10.1016/j.bushor.2018.08.004.
Longpre, Shayne, Marcus Storm, and Rishi Shah. 2022. “Lethal Autonomous Weapons Systems & Artificial Intelligence: Trends, Challenges, and Policies.” MIT Science Policy Review, 3: 47–56. doi: 10.38105/spr.360apm5typ.
Manigart, Philippe, Tibor Szvircsev Tresch, Frank Brundtland Steder, Nancy Otis, Johan Österberg, Rene Moelker, Valerian Lecoq, Emma Jonsson, Erik van Doorn, and Tessa op den Buijs. 2018. “The Impact of Demographic Change on Recruitment and Retention of Personnel in European Armed Forces: Opinions of Young Prospects and International Experts.” European Defence Agency, April 2018. https://eda.europa.eu/docs/default-source/reports/impact-personnel_executive-summary.pdf?platform=hootsuite.
McCarthy, John. 1955. “A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence.” Professor John McCarthy. http://jmc.stanford.edu/articles/dartmouth.html.
McCarthy, John. 2007. “What Is Artificial Intelligence?” Professor John McCarthy. http://jmc.stanford.edu/articles/whatisai.html.
Nadibaidze, Anna. 2022. “Great Power Identity in Russia’s Position on Autonomous Weapons Systems.” Contemporary Security Policy, 43 (3): 407–35. doi: 10.1080/13523260.2022.2075665.
Nasu, Hitoshi, and Christopher Korpela. 2022. “Stop the ‘Stop the Killer Robot’ Debate: Why We Need Artificial Intelligence in Future Battlefields.” Council on Foreign Relations, June 21, 2022. https://www.cfr.org/blog/stop-stop-killer-robot-debate-why-we-need-artificial-intelligence-future-battlefields.
Pramudia, Putu Shangrina. 2022. “China's Strategic Ambiguity on the Issue of Autonomous Weapons Systems.” Global: Jurnal Politik Internasional, 24 (1). doi: 10.7454/global.v24i1.706.
Report of the 2019 session of the Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons Systems, Geneva, CCW/GGE, 25 September 2019. https://documents-dds-ny.un.org/doc/UNDOC/GEN/G19/285/69/PDF/G1928569.pdf?OpenElement.
Russell, Stuart J., and Peter Norvig. 2010. Artificial Intelligence: A Modern Approach. Upper Saddle River: Prentice-Hall.
Sayler, Kelley M. 2022. "Defense Primer: U.S. Policy on Lethal Autonomous Weapon Systems (IF11150), Version: 9, November 14. 2022. https://crsreports.congress.gov/product/details?prodcode=IF11150.
Schwarz, Elke. 2021. “Autonomous Weapons Systems, Artificial Intelligence, and the Problem of Meaningful Human Control.” Philosophical Journal of Conflict and Violence, 5 (1): 53–72. doi: 10.22618/tp.pjcv.20215.1.139004.
Shalev-Shwartz, Shai, and Shai Ben-David. 2022. Understanding Machine Learning: From Theory to Algorithms. Cambridge: Cambridge University Press. https://www.cs.huji.ac.il/~shais/UnderstandingMachineLearning/understanding-machine-learning-theory-algorithms.pdf.
Sharkey, Noel. 2020. “Fully Autonomous Weapons Pose Unique Dangers to Humankind.” Scientific American. February 1, 2020. https://www.scientificamerican.com/article/fully-autonomous-weapons-pose-unique-dangers-to-humankind/.
Sharma, Sanur. 2022. “AI and National Security: Major Power Perspectives and Challenges.” Manohar Parrikar Defence Institute for Defence Studies and Analysis, September 12, 2022. https://www.idsa.in/issuebrief/ai-and-national-security-ssharma-120922#footnote18_2zu082p.
United States Department of Defense. “Department of Defense Directive Number 3000.09.”, November 21, 2012 (Incorporating Change 1, May 8, 2017). https://www.esd.whs.mil/portals/54/documents/dd/issuances/dodd/300009p.pdf.
Wakefield, Jane. 2018. “South Korean University Boycotted over 'Killer Robots'.” BBC News. April 5, 2018. https://www.bbc.com/news/technology-43653648.
Warren, Aiden, and Alek Hillas. 2022. “Red Robots.” Cornell International Affairs Review 15 (1): 9–56. doi: 10.37513/ciar.v15i1.653.
Webster, Graham, Rogier Creemers Elsa Kania Paul Triolo. 2017. “Full Translation: China's 'New Generation Artificial Intelligence Development Plan' (2017).” DigiChina. August 1 2017. Stanford University. https://digichina.stanford.edu/work/full-translation-chinas-new-generation-artificial-intelligence-development-plan-2017/.
Zaid, Mohammed. 2022. “Perspective on Lethal Autonomous Weapon Systems (Laws): Employment and Legal Aspects.” The United Service Institution of India, September 2022. https://usiofindia.org/publication/usi-journal/perspective-on-lethal-autonomous-weapon-systems-laws-employment-and-legal-aspects/.