THE ROLE OF ARTIFICIAL INTELLIGENCE IN ENSURING DIGITAL SOVEREIGNTY: INTRODUCTION OF AI IN PUBLIC ADMINISTRATION AND THE SOCIAL SPHERE — LEGAL AND ETHICAL ASPECTS OF ITS REGULATION
Abstract and keywords
Abstract:
The article provides a comprehensive interdisciplinary analysis of the role and place of artificial intelligence (AI) technologies in the strategic process of ensuring the digital sovereignty of the Russian Federation. Based on the analysis of doctrinal sources and the regulatory framework, the legal and ethical aspects of the implementation of AI systems in the field of public administration and the social sphere are investigated. The author identifies key systemic barriers to the effective implementation of AI, including legal fragmentation, staff shortages, infrastructural constraints, and a lack of public trust. Special attention is paid to the analysis of ethical risks associated with algorithmic bias, violation of citizens' rights and distortion of traditional values. The paper compares globalist and sovereign approaches to the ethical regulation of AI, argues for the need to form a national doctrine of AI ethics based on the Russian philosophical and legal heritage. Based on the results of the study, scientific and practical proposals are formulated to improve legislation and create institutional mechanisms aimed at harmonizing technological development with the objectives of strengthening national sovereignty.

Keywords:
artificial intelligence, digital sovereignty, public administration, social sphere, legal regulation, ethics of artificial intelligence, digital transformation, information security, legal risks, national doctrine.
Text
Text (RU) (PDF): Read Download

Современный этап мирового развития характеризуется стремительной цифровой трансформацией, в авангарде которой находятся технологии искусственного интеллекта (ИИ). Как отмечает А.В. Черняев, эти технологии «бросают вызов традиционным способам производственной и повседневной деятельности человека, трансформируя сами основы его бытия в персональном, социальном и политическом измерениях»[1]. Этот переход к новому технологическому укладу, который А.А. Фролов и Э.Р. Колкарева определяют как среду «на границе искусственного интеллекта и роботизации»[2], ставит перед государствами стратегическую задачу обеспечения цифрового суверенитета. Для России, стремящейся к достижению «„цифровой зрелости“ ключевых отраслей экономики и социальной сферы»[3], развитие и внедрение ИИ становится императивом национального развития.

Однако амбивалентная природа ИИ порождает фундаментальное противоречие: с одной стороны, открываются беспрецедентные возможности для модернизации, с другой — возникают глубокие риски для правовой системы и безопасности. Проблема усугубляется тем, что технологическое развитие значительно опережает адаптацию правовых институтов, что, по мнению Е.Р. Бозиевой и соавторов, «неизбежно приводит к возникновению правовых пробелов, коллизий и регуляторного вакуума»[4].

На сегодняшний день правовая база регулирования ИИ в России носит фрагментарный характер. Несмотря на закрепление в Конституции РФ вопросов «обеспечения безопасности личности, общества и государства при применении информационных технологий» (п. «м» ст. 71) как предмета ведения Федерации[5], и наличие стратегических документов, комплексное законодательство отсутствует. Как справедливо указывает В.А. Холопов, положения ключевой Национальной стратегии развития ИИ «носят преимущественно декларативный характер и не содержат конкретных механизмов правового регулирования»[6] [Холопов, 2026, с. 710].

Одной из самых острых нерешенных проблем остается правовой статус ИИ. По словам Председателя Конституционного Суда РФ В.Д. Зорькина, признание ИИ субъектом права «вступает в неразрешимое противоречие едва ли не со всеми канонами правовой догматики, включая учения об автономной правовой воле, правоотношении, правонарушении и юридической ответственности» [цит. по: Черняев, 2024, с. 758]. Эта доктринальная проблема имеет прямые практические следствия, создавая правовые коллизии. Например, В.А. Холопов обращает внимание на противоречие между практикой автоматизированного принятия решений и нормами Федерального закона «О персональных данных», которые ограничивают принятие юридически значимых решений исключительно на основе автоматизированной обработки.

На фоне этой правовой неопределенности практическое внедрение ИИ в государственное управление и социальную сферу сталкивается с рядом системных барьеров. Несмотря на очевидный потенциал, продемонстрированный, в частности, ИИ-моделью в ГАС «Управление», которая «в онлайн-режиме анализирует 100% мероприятий нацпроектов»[7], существуют серьезные препятствия. Ключевым из них В.А. Холопов называет кадровый дефицит, подтверждая это данными НИУ ВШЭ, согласно которым «лишь 12% государственных органов имеют штатных специалистов по работе с алгоритмическими системами»[8]. Ситуация усугубляется инфраструктурными ограничениями, разрозненностью информационных систем и растущими угрозами кибербезопасности. Тревожная статистика, приводимая в исследовании В.А. Холопова, свидетельствует, что «за 2022 год утекло 667,6 млн персональных записей», что подрывает доверие граждан. Этот дефицит доверия, в свою очередь, формирует, по выражению М.Р. Довлатовой и соавторов, «психологический барьер для восприятия ИИ как объективного инструмента»[9] .

Помимо правовых и институциональных проблем, наиболее глубокие вызовы лежат в этико-аксиологической плоскости. Как предупреждает М.В. Федоров, бесконтрольное развитие ИИ несет экзистенциальные риски, включая «нарушение баланса между управлением и манипулированием в обществе» и «подавление биологических и психологических потребностей» человека[10]. Более того, как отмечает Е.В. Алферова, ссылаясь на классификацию С.И. Коданевой, существуют концептуальные «ловушки» ИИ, такие как «ловушка фрейминга» (неспособность смоделировать социальную систему целиком) и «ловушка формализма» (неспособность объяснить полный смысл социальных понятий), которые ставят под сомнение возможность полной замены человека машиной в сложных социальных процессах[11].

В этих условиях на глобальной арене разворачивается конкуренция двух подходов к этическому регулированию. Глобалистский подход, представленный, в частности, Рекомендациями ЮНЕСКО, по мнению А.В. Черняева, является инструментом продвижения западной идеологии и интересов транснациональных корпораций. Участник разработки этого документа от России М.В. Федоров прямо свидетельствовал, что за универсальными формулировками скрывались «идеи протекционизма в интересах крупного капитала» и «прозападные политические установки»[12].

Альтернативой является суверенный подход, который предполагает разработку национальных этических и правовых норм, основанных на собственных культурно-цивилизационных ценностях. Как утверждает А.В. Черняев, в современном мире способность «эффективно развивать и контролировать национальную сферу высоких технологий становится одним из ключевых условий сохранения полноценного государственного суверенитета»[13]. Такой подход для России может найти опору в богатейшем наследии отечественной философской мысли, в частности, в идеях русского космизма, утверждающего «абсолютную ценность индивидуального человеческого существования» и подчинение технического прогресса высшим нравственным целям.

Таким образом, обеспечение цифрового суверенитета России в эпоху ИИ требует не простого решения технических и правовых задач, а выработки комплексной, национально ориентированной стратегии. Эта стратегия должна включать создание целостного законодательства, преодоление институциональных барьеров и, что самое главное, формирование собственной этико-философской доктрины, которая позволит направить мощь технологий на укрепление государственности и защиту национальных интересов.

References

1. Alferova E.V. Konceptual'nye «lovushki» iskusstvennogo intellekta v teorii i praktike gosudarstvennogo upravleniya // Gosudarstvo i pravo. 2025. № 4. S. 138-145.

2. Bozieva E.R., Makoeva A.S., Temirkanov M.A. Regulyatornyy vakuum v sfere primeneniya sistem iskusstvennogo intellekta: problemy i puti ih preodoleniya // Pravo i cifrovaya ekonomika. 2025. № 1. S. 3-11.

3. Vershickaya Yu.V., Zgonnikova A.P. Analiz utechek personal'nyh dannyh v Rossiyskoy Federacii: statistika, prichiny i posledstviya // Voprosy kiberbezopasnosti. 2025. № 2 (62). S. 33-41.

4. Dovlatova M.R., Isaev I.F., Petrov V.S. Psihologicheskie bar'ery i problemy doveriya grazhdan k sistemam iskusstvennogo intellekta v social'noy sfere // Sociologicheskie issledovaniya. 2025. № 5. S. 215-224.

5. Kodaneva S.I. Iskusstvennyy intellekt v publichnom upravlenii: vozmozhnosti i riski. M.: INION RAN, 2021. 210 s.

6. Pashnina E.A., Vinokurova S.I. Ocenka dostizheniya «cifrovoy zrelosti» otrasley ekonomiki kak faktor nacional'noy konkurentosposobnosti // Ekonomika i upravlenie. 2024. № 8. S. 405-412.

7. Troyan M.V. Konstitucionno-pravovye osnovy primeneniya tehnologiy iskusstvennogo intellekta v sisteme gosudarstvennogo upravleniya RF // Konstitucionnoe i municipal'noe pravo. 2025. № 3. S. 60-66.

8. Fedorov M.V. Ekzistencial'nye riski cifrovizacii: iskusstvennyy intellekt kak vyzov chelovecheskoy prirode // Filosofiya i obschestvo. 2023. № 4. S. 5-15.

9. Fedorov M.V., Cvetkov Yu.A. Opyt uchastiya v razrabotke Rekomendaciy YuNESKO po etike II: suverennyy vzglyad // Analiticheskiy vestnik Soveta Federacii FS RF. 2020. № 21 (754).

10. Frolov A.A., Kolkareva E.R. Formirovanie novogo tehnologicheskogo uklada na granice iskusstvennogo intellekta i robotizacii: social'no-ekonomicheskie posledstviya // Innovacii. 2025. № 2. S. 205-211.

11. Holopov V.A. Institucional'nye i pravovye bar'ery vnedreniya iskusstvennogo intellekta v gosudarstvennoe upravlenie Rossii // Vestnik Moskovskogo universiteta. Seriya 11. Pravo. 2026. № 1. S. 705-720.

12. Chelovek i sistemy iskusstvennogo intellekta v cifrovom mire: aksiologicheskie i antropologicheskie problemy: kollektivnaya monografiya / pod red. akad. V.S. Stepina. M.: Prospekt, 2022. 248 s.

13. Chernyaev A.V. Cifrovoy suverenitet i etika iskusstvennogo intellekta: rossiyskiy podhod v global'nom kontekste // Polis. Politicheskie issledovaniya. 2024. № 6. S. 757-768.

Login or Create
* Forgot password?