from 01.01.2025 until now
Vasit, Iraq
VAK Russia 12.00.02
VAK Russia 12.00.10
VAK Russia 12.00.12
VAK Russia 12.00.14
UDC 341
CSCSTI 10.07
Russian Library and Bibliographic Classification 60
Artificial intelligence (AI) is one of the key technologies of the 21st century, offering both new opportunities and systemic risks. Today, states and international organizations are developing various strategies to regulate AI, but a unified global approach is still lacking. This article examines the question: is international cooperation in AI regulation a necessity or a political choice? The aim of the study is to analyze existing regulatory models, assess their effectiveness, and identify conditions under which global cooperation becomes essential. The methodology includes comparative legal and analytical methods, as well as case analysis of international documents and initiatives. The research focuses on key frameworks such as the EU AI Act, UNESCO recommendations, OECD guidelines, and G7 statements. The article outlines the main barriers to unification: national sovereignty, differences in ethical and political approaches, and competition for AI leadership. The conclusion is that global AI regulation is not merely a matter of choice, but a necessary response to the transboundary nature of AI technologies. Lack of coordinated action may lead to a legal vacuum and increased global risks. The article will be of interest to scholars in international law, digital policy, and the ethics of technology.
Artificial Intelligence (AI), International Law, Digital Regulation, Global Cooperation, Cross-Border Technologies, AI Ethics, Regulatory Acts, European AI Act
1. Введение
В последние годы развитие искусственного интеллекта (ИИ) приобрело беспрецедентный масштаб, охватывая все сферы общественной жизни — от экономики и здравоохранения до образования и обороны [1]. Интенсивное внедрение ИИ-технологий сопровождается не только перспективами повышения эффективности, но и рисками, связанными с неконтролируемым использованием алгоритмов, автоматическим принятием решений и возможными нарушениями прав человека. Эти вызовы порождают необходимость выработки нормативных рамок, способных обеспечить баланс между инновациями и соблюдением этических и правовых принципов.
Однако на сегодняшний день отсутствуют единые универсальные международные нормы, регулирующие использование и развитие ИИ. Различные страны и международные организации разрабатывают собственные подходы и стратегии, зачастую отличающиеся как по содержанию, так и по цели. В результате наблюдается фрагментация нормативного регулирования, что усложняет координацию усилий государств в глобальном цифровом пространстве [4].
Целью настоящего исследования является анализ природы международного сотрудничества в сфере регулирования ИИ: является ли оно объективной необходимостью, обусловленной трансграничным характером технологий, или выступает политико-этическим выбором суверенных государств. Данная проблема приобретает особую актуальность в условиях глобализации цифровых платформ и транснационального характера ИИ-решений.
Для достижения поставленной цели в статье рассматриваются современные международные инициативы, включая стратегии Европейского союза, Организации экономического сотрудничества и развития (ОЭСР), ЮНЕСКО, а также отдельные национальные подходы. Обзор научной и нормативной литературы позволяет выявить ключевые тенденции и проблемы, связанные с международным регулированием в данной области.
В качестве гипотезы выдвигается положение о том, что международное сотрудничество в сфере регулирования ИИ на современном этапе выходит за рамки добровольного выбора и становится объективной необходимостью, обусловленной как техническими, так и социально-этическими факторами. Методологическую основу исследования составляют сравнительно-правовой и аналитический методы, кейс-анализ конкретных правовых инициатив, а также документальный анализ международных стратегий и нормативных актов.
2. Материалы и методы
Методологическую основу настоящего исследования составляет междисциплинарный подход, сочетающий правовые, этические и технологические аспекты анализа. Такой подход обусловлен многоуровневой природой искусственного интеллекта, который затрагивает как правовые механизмы регулирования, так и фундаментальные ценности, лежащие в основе этики цифрового общества.
Основными источниками выступают международные документы, принятые под эгидой таких организаций, как ООН, ЮНЕСКО, ОЭСР, Европейская комиссия, Совета Европы, Всемирный экономический форум и другие. Также анализу подвергаются национальные стратегии регулирования ИИ, включая примеры законодательства стран Европейского союза, Соединённых Штатов Америки, Китая, Российской Федерации и других государств, активно участвующих в цифровой трансформации.
В исследовании используются следующие методы:
- Аналитический метод, применяемый для осмысления правовой и научной литературы, а также для обобщения теоретических подходов к международному регулированию ИИ;
- Сравнительно-правовой метод, позволяющий выявить различия и сходства в национальных и международных стратегиях по регулированию ИИ, определить модели, имеющие универсальный потенциал;
- Кейс-анализ, направленный на изучение конкретных инициатив международного сотрудничества и практик стран, реализующих самостоятельные или согласованные подходы к вопросам управления ИИ.
Такой набор методов обеспечивает комплексный взгляд на проблему и способствует формированию обоснованных выводов о характере и перспективах международного взаимодействия в рассматриваемой сфере.
3. Результаты исследования
В рамках исследования были проанализированы ключевые международные инициативы, направленные на правовое и этико-нормативное регулирование искусственного интеллекта (ИИ). На сегодняшний день наиболее значимыми и институционально оформленными подходами являются:
- Регламент об искусственном интеллекте (AI Act) Европейского союза, принятый в 2024 году [5];
- Рекомендации ЮНЕСКО по этике ИИ (2021) [6];
- Принципы ОЭСР в отношении ИИ (2019) [9];
- Хартия G7 по ИИ (2023) [2];
- Китайские инициативы по этическому управлению ИИ (2021–2023);
- Доктрина Совета Европы о правах человека и ИИ (разработка ведётся с 2022 года).
Современные подходы к регулированию технологий искусственного интеллекта (ИИ) на международной арене значительно различаются в зависимости от уровня юридической обязательности, структуры норм, а также степени этической и правозащитной направленности. Ниже представлен краткий обзор наиболее значимых инициатив, разработанных различными странами и международными организациями.
Европейский союз, принявший в 2024 году Акт об искусственном интеллекте (AI Act), стал первым регионом, который ввёл комплексный и обязательный правовой режим в области ИИ. Закон предусматривает четкую классификацию рисков, выделяя четыре уровня — от минимального до недопустимого, с соответствующими регуляторными мерами. В документе чётко выражен приоритет прав человека и этических принципов, хотя последние подчинены юридическим требованиям. Одной из ключевых черт AI Act является наличие конкретных механизмов контроля и санкций, включая финансовые штрафы и полномочия надзорных органов. Обязательность исполнения распространяется на все страны ЕС, а трансграничное сотрудничество поддерживается, однако в первую очередь ориентировано на внутреннюю координацию в рамках Европейского пространства.
ЮНЕСКО в 2021 году приняла Рекомендации по этике ИИ, основанные на принципах мягкого права. Эти рекомендации акцентируют внимание на этических аспектах и правах человека, выступая своего рода международным моральным стандартом. Однако отсутствие юридической силы и механизмов принудительного исполнения делает документ скорее инструментом идеологического и методологического влияния, нежели практического регулирования. Тем не менее, ЮНЕСКО активно продвигает международное сотрудничество, включая участие в диалоге с глобальными юрисдикциями.
Организация экономического сотрудничества и развития (ОЭСР) ещё в 2019 году представила Руководящие принципы по ИИ, которые также носят рекомендательный характер. Хотя в них поднимаются важные этические и правовые вопросы, отсутствует классификация рисков и формализованные механизмы контроля. Однако благодаря широкому охвату стран-членов ОЭСР документ играет роль базового ориентира для формирования национальных стратегий в области ИИ.
G7 в 2023 году приняла Хиросимскую декларацию, обозначив политические ориентиры в регулировании ИИ. Основное внимание уделяется применению технологий в чувствительных сферах, что предполагает определённую классификацию рисков по видам использования. Однако правовая обязательность данного документа отсутствует, а упоминания об этике и правах человека носят декларативный характер. Несмотря на это, в документе подчёркивается важность международного взаимодействия, особенно в рамках демократических государств.
Китай, начиная с 2021 года, сформировал собственный гибридный режим регулирования, сочетающий обязательные нормативные акты и рекомендательные положения. Здесь наблюдается чёткая классификация рисков, активное развитие национального законодательства и наличие механизмов государственного контроля, включая цензуру и санкционные меры. При этом фокус на правах человека выражен лишь частично, что отражает приоритет национальных интересов и государственной безопасности. Трансграничное сотрудничество КНР реализуется избирательно и в ограниченных рамках.
Таким образом, можно выделить две основные тенденции: европейская модель, ориентированная на юридическую строгость, защиту прав и международное сотрудничество, и азиатская (в частности, китайская), предполагающая жёсткий государственный контроль при ограниченной открытости. В то же время рекомендации ЮНЕСКО и ОЭСР формируют основу для этико-ориентированного, но необязательного подхода. В совокупности это указывает на отсутствие единой глобальной модели регулирования ИИ и необходимость дальнейшего согласования правовых рамок на международном уровне.
Кейсы международного взаимодействия
Кейс 1: ЕС и транснациональные компании (AI Act и OpenAI)
После публикации Reglement AI Act в 2024 году Европейская комиссия вступила в переговоры с такими компаниями, как OpenAI, Google DeepMind и Meta. Некоторые положения регламента (например, запрет использования ИИ для предиктивной полиции и социального скоринга) вызвали дискуссии на международном уровне. В результате OpenAI заявила о корректировке архитектуры ChatGPT в странах ЕС, что стало примером давления одного региона на транснациональные корпорации с целью соблюдения этических норм [10].
Кейс 2: Рекомендации ЮНЕСКО и развитие ИИ в странах Африки
ЮНЕСКО в 2021 году выпустила первые универсальные этические принципы ИИ [3], которые особенно активно внедряются в образовательные и административные ИИ-системы стран Африки (например, Кения, Гана, Руанда). Это стало возможным благодаря грантовому сотрудничеству с ЕС и ВОЗ, демонстрируя, как мягкое право влияет на регуляторную практику развивающихся стран при поддержке международного партнёрства.
На сегодняшний день ряд государств разработали собственные стратегии в области развития искусственного интеллекта (ИИ), отражающие не только технологические и экономические приоритеты, но и политико-этические ориентиры. Анализ таких стратегий позволяет выделить ключевые направления государственной политики в области ИИ и оценить их с точки зрения обязательности, этической направленности и практической реализации.
Соединённые Штаты Америки (США) в своих стратегических документах акцентируют внимание на поддержке частного сектора и сохранении глобального технологического лидерства. В центре внимания находятся инвестиции в исследования, обеспечение конкурентоспособности и привлечение талантов. Этические аспекты в американской стратегии учитываются частично — в основном через рекомендации для разработчиков, а не в виде жёстких нормативов. Документы в этой области не являются обязательными к исполнению, что подчёркивает приоритет саморегуляции и рыночных механизмов.
Китайская Народная Республика (КНР), напротив, использует ИИ как инструмент усиления государственного контроля и обеспечения национальной безопасности. В китайской стратегии отчётливо выражен этический фокус, включая положения о «гармонии между человеком и машиной», защите частных данных и предотвращении социального вреда. В то же время, в отличие от западных моделей, стратегия носит обязательный характер, включающая законы, подзаконные акты и директивы, распространяемые как на государственные, так и на частные структуры. Это делает китайский подход одним из самых централизованных и нормативно насыщенных в мире.
Российская Федерация в своей Стратегии развития ИИ делает упор на цифровой суверенитет, технологическую независимость и цифровую трансформацию экономики. Этические вопросы, такие как справедливость, прозрачность и защита прав граждан, упоминаются, однако они не занимают центрального места. В целом документы содержат частично обязательные положения, включая рекомендации для органов власти, а также базу для формирования будущего правового регулирования.
Япония, в отличие от большинства стран, подчёркивает необходимость этичного применения ИИ и ориентируется на баланс между инновациями и социальным доверием. В японской стратегии на первый план выходят принципы безопасности, прозрачности и инклюзивности. Этика занимает значительное место в стратегических документах, однако, как и в США, меры носят рекомендательный характер, что соответствует японской модели мягкого регулирования с участием научных и общественных структур.
Таким образом, можно выделить две противоположные модели: либерально-рекомендательная (США, Япония), акцентирующая внимание на стимулировании инноваций и частичной этической саморегуляции, и централизованно-обязательная (КНР, частично — РФ), ориентированная на контроль, безопасность и включение этических норм в структуру правового регулирования. Эти различия обусловлены как политическими системами, так и культурно-правовыми традициями, что подтверждает отсутствие единого универсального подхода к формированию стратегий ИИ в мировом масштабе.
4. Обсуждение
Развитие искусственного интеллекта (ИИ) на национальном уровне демонстрирует значительное разнообразие подходов к его регулированию. Эти различия обусловлены не только уровнем технологического развития, но и философскими, этическими, политико-правовыми и геостратегическими установками государств [7].
В Европейском союзе регулирование ИИ основывается на гуманистических и правозащитных принципах, что отражается в принятии AI Act и разработке механизмов ответственности за действия ИИ. В противоположность этому, в Китае доминирует технократический и государственно-ориентированный подход, где ключевой акцент сделан на социальную стабильность, контроль и государственный суверенитет. США, в свою очередь, делают ставку на инновации и минимизацию государственного вмешательства, что объясняет отсутствие федерального закона, регулирующего ИИ, и ориентацию на добровольные стандарты.
Идея глобального регулирования ИИ сталкивается с противоречием между необходимостью выработки единых норм и стремлением государств сохранить технологический и нормативный суверенитет. Особенно остро это проявляется в вопросах контроля над транснациональными ИИ-компаниями, кибербезопасности и стратегической автономии [8]. Например, Китай и Россия демонстрируют низкую степень вовлеченности в западные инициативы, предпочитая формировать собственные нормы.
Несмотря на усилия организаций, таких как ЮНЕСКО, ОЭСР и G7, до настоящего времени не удалось разработать обязующий международный правовой документ, регулирующий сферу ИИ. Причины включают геополитическую напряжённость, конкуренцию за лидерство в ИИ и отсутствие консенсуса в базовых понятиях (например, что считать “вредом” или “дискриминацией”, вызванной ИИ). Однако положительные примеры soft-law инициатив (рекомендации ЮНЕСКО) демонстрируют, что первый шаг к глобальной гармонизации может быть сделан через этические и добровольные рамки.
ИИ всё чаще рассматривается не только как технологическая платформа, но и как инструмент социального влияния, контроля и манипуляции. Примеры внедрения ИИ в системе оценки лояльности граждан, предиктивной полиции и автоматизации цензуры (в Китае, Иране и ряде других стран) указывают на необходимость выработки универсальных этических границ допустимого в использовании ИИ. Таким образом, международное сотрудничество должно учитывать не только юридические, но и глубоко политические аспекты применения ИИ в управлении.
5. Заключение
Проведённое исследование подтвердило выдвинутую в начале гипотезу: с учётом трансграничного характера искусственного интеллекта, международное сотрудничество в сфере его регулирования становится не просто желательным, а объективно необходимым. Угрозы, связанные с неэтичным применением ИИ, дискриминацией, подрывом прав человека, а также геополитическим неравенством, требуют согласованных международных действий.
Для формирования устойчивой и эффективной архитектуры глобального регулирования ИИ рекомендуется:
- развивать многосторонние площадки сотрудничества (ЮНЕСКО, ОЭСР, G20) с целью выработки согласованных понятий и принципов;
- создавать гибкие, адаптивные механизмы регулирования с учётом национальных и культурных особенностей;
- усилить обмен лучшими практиками и повысить прозрачность ИИ-систем в транснациональных корпорациях;
- инициировать разработку рамочной международной конвенции по этическому и правовому регулированию ИИ.
В перспективе необходимы дальнейшие исследования в следующих направлениях: влияние ИИ на международное гуманитарное право; правовой статус автономных систем; вопросы ответственности за действия ИИ в трансграничных контекстах; участие развивающихся стран в формировании нормативной повестки.
Таким образом, вопрос международного регулирования искусственного интеллекта выходит за рамки технической проблемы и становится вызовом глобального масштаба — как в правовом, так и в этико-политическом измерении.
1. Garms Aleksandr Aleksandrovich. Mezhdu etikoy i progressom: problemy razvitiya iskusstvennogo intellekta // BECSOR. 2023. №3. URL: https://cyberleninka.ru/article/n/mezhdu-etikoy-i-progressom-problemy-razvitiya-iskusstvennogo-intellekta (data obrascheniya: 05.06.2025).
2. Iskusstvennyy intellekt berut pod global'nyy kontrol': strany G7 soglasovali principy regulirovaniya novoy industrii // Kommersant'. 2023. URL: https://www.kommersant.ru/doc/6310824 (data obrascheniya: 05.06.2025).
3. Leushina V. V., Karpov V. E. Etika iskusstvennogo intellekta v standartah i rekomendaciyah // Filosofiya i obschestvo. 2022. №3(104). DOI: https://doi.org/10.30884/jfio/2022.03.07. URL: https://www.socionauki.ru/journal/articles/3332397/ (data obrascheniya: 05.06.2025).
4. Mezhdunarodnoe sotrudnichestvo v sfere iskusstvennogo intellekta [Elektronnyy resurs]. Rezhim dostupa: https://www.smetchik.rf/news/interesnye/mezhdunarodnoe-sotrudnichestvo-v-sfere-iskusstvennogo-intellekta, svobodnyy. Data obrascheniya: 04.06.2025.
5. Reglament Evropeyskogo soyuza ob iskusstvennom intellekte / ANO «Cifrovaya ekonomika» // Gosudarstvennaya platforma po iskusstvennomu intellektu. URL: https://ai.gov.ru/knowledgebase/dokumenty-po-razvitiyu-ii-v-drugikh-stranakh/2024_reglament_evropeyskogo_soyuza_ob_iskusstvennom_intellekte_ano_cifrovaya_ekonomika_/ (data obrascheniya: 05.06.2025).
6. Rekomendaciya YuNESKO ob etike iskusstvennogo intellekta (Recommendation on the Ethics of Artificial Intelligence) // Gosudarstvennaya platforma po iskusstvennomu intellektu. URL: https://ai.gov.ru/knowledgebase/dokumenty-mezhdunarodnykh-organizatsiy-po-ii/2021_rekomendaciya_ob_etike_iskusstvennogo_intellekta_recommendation_on_the_ethics_of_artificial_intelligence_unesco/ (data obrascheniya: 05.06.2025).
7. Romanova A. V. Nacional'naya strategiya razvitiya iskusstvennogo intellekta: pravovoy analiz, problemy i perspektivy // Molodoy uchenyy. 2022. №46 (441). S. 319-322. URL: https://moluch.ru/archive/441/96548/ (data obrascheniya: 05.06.2025).
8. Saidova Alina Batyrovna, Bayramova Bahar. Iskusstvennyy intellekt kak ob'ekt mezhdunarodnogo regulirovaniya // Nauka i mirovozzrenie. 2025. №45. URL: https://cyberleninka.ru/article/n/iskusstvennyy-intellekt-kak-obekt-mezhdunarodnogo-regulirovaniya (data obrascheniya: 05.06.2025).
9. OECD. Digital Transformation. URL: https://www.oecd.org/en/topics/digital.html (data obrascheniya: 05.06.2025).
10. OpenAI rasshiryaet global'noe vliyanie cherez novye ofisy v ES // Habr. 2025. URL: https://habr.com/ru/companies/bothub/news/880462/ (data obrascheniya: 05.06.2025).



