Preview

Международная аналитика

Расширенный поиск

Смертоносные автономные системы c искусственным интеллектом: как избежать превосходства

https://doi.org/10.46272/2587-8476-2020-11-4-137-146

Полный текст:

Аннотация

Учитывая относительную новизну вопросов военного применения искусственного интеллекта (ИИ), автор изучает его влияние на международные отношения, опираясь на последние доклады международных исследовательских центров, организаций и национальные стратегии и программы. Автор в данной статье рассматривает политические последствия военного применения ИИ, национальные и международные подходы к смягчению его вызовов. Уделяя большое внимание политике двух технологических лидеров в этой области, автор приходит к выводу, что сбалансированная политика США определит, смогут ли Китай и США создать, несмотря на наличие конкуренции, единые правила легализации использования систем ИИ в военной сфере и сформировать единые стандарты, включающие высокий уровень безопасности при использовании этих систем, в том числе в вопросах нераспространения данного вида вооружения. Автор также обращает внимание, что сосредоточенность Европы на конфликте с Россией и ее исключение из среды, создаваемой техническими и этико-правовыми инструментами использования ИИ, усугубит элемент непредсказуемости в двусторонних отношениях. Именно поэтому в интересах Европы привлечь Россию к разработке общей платформы и стандартов для применения ИИ. Разработка и установление единых стандартов безопасности поможет избежать проблем с искаженным восприятием применения ИИ и привнесет элемент предсказуемости в международные отношения.

Об авторе

Н. А. Самойловская
Российского Пагуошского комитета при Президиуме РАН
Россия

Наталья Александровна Самойловская, председатель молодежного отделения

Ленинский проспект 32А, 119991, Москва

ResearcherID: C-6267-2015



Список литературы

1. Boulanin, Vincent, ed. the Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk. EuroAtlantic Perspectives. Vol. I. SIPRI, May 2019. https://www.sipri.org/sites/default/files/2019-05/sipri1905-aistrategic-stability-nuclear-risk.pdf.

2. Boulanin, Vincent, Netta Goussac, Laura Bruun, and Luke Richards. Responsible Military Use of Artificial Intelligence: Can the European Union Lead the Way in Developing Best Practice? SIPRI, November 2020. https://www.sipri.org/sites/default/files/2020-11/sipri_report_responsible_artificial_intelligence_research_and_innovation_for_international_peace_and_security_2011.pdf.

3. Brown, Michael, Eric Chewning, and Pavneet Singh. Preparing the United States for the Superpower Marathon with China. The Brookings Report, April 2020. https://www.brookings.edu/wp-content/uploads/2020/04/FP_20200427_superpower_marathon_brown_chewning_singh.pdf.

4. Dynkin, Alexander and Vladimir Baranovsky, eds. Russia and the World: 2024. Economy and Foreign Policy. Primakov National Research Institute of World Economy and International Relations, Russian Academy of Sciences (IMEMO), 2019. https://doi.org/10.20542/978-5-9535-0563-5.

5. Horowitz, Michael C., Paul Scharre, and Alexander Velez-Green. A Stable Nuclear Future? The Impact of Autonomous Systems and Artificial Intelligence. Conference Paper, December 2019. https://arxiv.org/ftp/arxiv/papers/1912/1912.05291.pdf.

6. Payne, Kenneth. “Artificial Intelligence: a Revolution in Strategic Affairs?” Survival 60, no. 5 (September 3, 2018): 7–32. https://doi.org/10.1080/00396338.2018.1518374.

7. Pinker, Steven. The Better Angels of Our Nature. Penguin Books Ltd., 2012.

8. Saalman, Lora, ed. The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk. East Asian Perspectives. Vol. II. SIPRI, October 2019. https://sipri.org/sites/default/files/2019-10/the_impact_of_artificial_intelligence_on_strategic_stability_and_nuclear_risk_volume_ii.pdf

9. “The Digital Great Game.” Strategic Comments 26, no. 7 (August 8, 2020): iv–vi. https://doi.org/10.1080/13567888.2020.1846453.

10. Topychkanov, Petr, ed. The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk. South Asian Perspectives. Vol. III. SIPRI, April 2020. https://sipri.org/sites/default/files/2020-04/impact_of_ai_on_strategic_stability_and_nuclear_risk_vol_iii_topychkanov_1.pdf.


Для цитирования:


Самойловская Н.А. Смертоносные автономные системы c искусственным интеллектом: как избежать превосходства. Международная аналитика. 2020;11(4):137-146. https://doi.org/10.46272/2587-8476-2020-11-4-137-146

For citation:


Samoylovskaya N.A. LAWS with AI: How to aBANdon the Superiority. Journal of International Analytics. 2020;11(4):137-146. https://doi.org/10.46272/2587-8476-2020-11-4-137-146

Просмотров: 62


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 2587-8476 (Print)
ISSN 2541-9633 (Online)