сотрудник
Россия
сотрудник
Россия
В статье осуществляется комплексный междисциплинарный анализ роли и места технологий искусственного интеллекта (ИИ) в стратегическом процессе обеспечения цифрового суверенитета Российской Федерации. На основе анализа доктринальных источников и нормативно-правовой базы исследуются правовые и этические аспекты имплементации систем ИИ в сферу государственного (публичного) управления и социальную сферу. Автор выявляет ключевые системные барьеры, препятствующие эффективному внедрению ИИ, включая правовую фрагментацию, кадровый дефицит, инфраструктурные ограничения и дефицит общественного доверия. Особое внимание уделяется анализу этических рисков, связанных с алгоритмической предвзятостью, нарушением прав граждан и деформацией традиционных ценностей. В работе сопоставляются глобалистский и суверенный подходы к этическому регулированию ИИ, аргументируется необходимость формирования национальной доктрины этики ИИ, основанной на отечественном философско-правовом наследии. По итогам исследования формулируются научно-практические предложения по совершенствованию законодательства и созданию институциональных механизмов, направленных на гармонизацию технологического развития с задачами укрепления национального суверенитета.
искусственный интеллект, цифровой суверенитет, государственное управление, социальная сфера, правовое регулирование, этика искусственного интеллекта, цифровая трансформация, информационная безопасность, правовые риски, национальная доктрина.
Современный этап мирового развития характеризуется стремительной цифровой трансформацией, в авангарде которой находятся технологии искусственного интеллекта (ИИ). Как отмечает А.В. Черняев, эти технологии «бросают вызов традиционным способам производственной и повседневной деятельности человека, трансформируя сами основы его бытия в персональном, социальном и политическом измерениях»[1]. Этот переход к новому технологическому укладу, который А.А. Фролов и Э.Р. Колкарева определяют как среду «на границе искусственного интеллекта и роботизации»[2], ставит перед государствами стратегическую задачу обеспечения цифрового суверенитета. Для России, стремящейся к достижению «„цифровой зрелости“ ключевых отраслей экономики и социальной сферы»[3], развитие и внедрение ИИ становится императивом национального развития.
Однако амбивалентная природа ИИ порождает фундаментальное противоречие: с одной стороны, открываются беспрецедентные возможности для модернизации, с другой — возникают глубокие риски для правовой системы и безопасности. Проблема усугубляется тем, что технологическое развитие значительно опережает адаптацию правовых институтов, что, по мнению Е.Р. Бозиевой и соавторов, «неизбежно приводит к возникновению правовых пробелов, коллизий и регуляторного вакуума»[4].
На сегодняшний день правовая база регулирования ИИ в России носит фрагментарный характер. Несмотря на закрепление в Конституции РФ вопросов «обеспечения безопасности личности, общества и государства при применении информационных технологий» (п. «м» ст. 71) как предмета ведения Федерации[5], и наличие стратегических документов, комплексное законодательство отсутствует. Как справедливо указывает В.А. Холопов, положения ключевой Национальной стратегии развития ИИ «носят преимущественно декларативный характер и не содержат конкретных механизмов правового регулирования»[6] [Холопов, 2026, с. 710].
Одной из самых острых нерешенных проблем остается правовой статус ИИ. По словам Председателя Конституционного Суда РФ В.Д. Зорькина, признание ИИ субъектом права «вступает в неразрешимое противоречие едва ли не со всеми канонами правовой догматики, включая учения об автономной правовой воле, правоотношении, правонарушении и юридической ответственности» [цит. по: Черняев, 2024, с. 758]. Эта доктринальная проблема имеет прямые практические следствия, создавая правовые коллизии. Например, В.А. Холопов обращает внимание на противоречие между практикой автоматизированного принятия решений и нормами Федерального закона «О персональных данных», которые ограничивают принятие юридически значимых решений исключительно на основе автоматизированной обработки.
На фоне этой правовой неопределенности практическое внедрение ИИ в государственное управление и социальную сферу сталкивается с рядом системных барьеров. Несмотря на очевидный потенциал, продемонстрированный, в частности, ИИ-моделью в ГАС «Управление», которая «в онлайн-режиме анализирует 100% мероприятий нацпроектов»[7], существуют серьезные препятствия. Ключевым из них В.А. Холопов называет кадровый дефицит, подтверждая это данными НИУ ВШЭ, согласно которым «лишь 12% государственных органов имеют штатных специалистов по работе с алгоритмическими системами»[8]. Ситуация усугубляется инфраструктурными ограничениями, разрозненностью информационных систем и растущими угрозами кибербезопасности. Тревожная статистика, приводимая в исследовании В.А. Холопова, свидетельствует, что «за 2022 год утекло 667,6 млн персональных записей», что подрывает доверие граждан. Этот дефицит доверия, в свою очередь, формирует, по выражению М.Р. Довлатовой и соавторов, «психологический барьер для восприятия ИИ как объективного инструмента»[9] .
Помимо правовых и институциональных проблем, наиболее глубокие вызовы лежат в этико-аксиологической плоскости. Как предупреждает М.В. Федоров, бесконтрольное развитие ИИ несет экзистенциальные риски, включая «нарушение баланса между управлением и манипулированием в обществе» и «подавление биологических и психологических потребностей» человека[10]. Более того, как отмечает Е.В. Алферова, ссылаясь на классификацию С.И. Коданевой, существуют концептуальные «ловушки» ИИ, такие как «ловушка фрейминга» (неспособность смоделировать социальную систему целиком) и «ловушка формализма» (неспособность объяснить полный смысл социальных понятий), которые ставят под сомнение возможность полной замены человека машиной в сложных социальных процессах[11].
В этих условиях на глобальной арене разворачивается конкуренция двух подходов к этическому регулированию. Глобалистский подход, представленный, в частности, Рекомендациями ЮНЕСКО, по мнению А.В. Черняева, является инструментом продвижения западной идеологии и интересов транснациональных корпораций. Участник разработки этого документа от России М.В. Федоров прямо свидетельствовал, что за универсальными формулировками скрывались «идеи протекционизма в интересах крупного капитала» и «прозападные политические установки»[12].
Альтернативой является суверенный подход, который предполагает разработку национальных этических и правовых норм, основанных на собственных культурно-цивилизационных ценностях. Как утверждает А.В. Черняев, в современном мире способность «эффективно развивать и контролировать национальную сферу высоких технологий становится одним из ключевых условий сохранения полноценного государственного суверенитета»[13]. Такой подход для России может найти опору в богатейшем наследии отечественной философской мысли, в частности, в идеях русского космизма, утверждающего «абсолютную ценность индивидуального человеческого существования» и подчинение технического прогресса высшим нравственным целям.
Таким образом, обеспечение цифрового суверенитета России в эпоху ИИ требует не простого решения технических и правовых задач, а выработки комплексной, национально ориентированной стратегии. Эта стратегия должна включать создание целостного законодательства, преодоление институциональных барьеров и, что самое главное, формирование собственной этико-философской доктрины, которая позволит направить мощь технологий на укрепление государственности и защиту национальных интересов.
1. Алферова Е.В. Концептуальные «ловушки» искусственного интеллекта в теории и практике государственного управления // Государство и право. 2025. № 4. С. 138-145.
2. Бозиева Е.Р., Макоева А.С., Темирканов М.А. Регуляторный вакуум в сфере применения систем искусственного интеллекта: проблемы и пути их преодоления // Право и цифровая экономика. 2025. № 1. С. 3-11.
3. Вершицкая Ю.В., Згонникова А.П. Анализ утечек персональных данных в Российской Федерации: статистика, причины и последствия // Вопросы кибербезопасности. 2025. № 2 (62). С. 33-41.
4. Довлатова М.Р., Исаев И.Ф., Петров В.С. Психологические барьеры и проблемы доверия граждан к системам искусственного интеллекта в социальной сфере // Социологические исследования. 2025. № 5. С. 215-224.
5. Коданева С.И. Искусственный интеллект в публичном управлении: возможности и риски. М.: ИНИОН РАН, 2021. 210 с.
6. Пашнина Е.А., Винокурова С.И. Оценка достижения «цифровой зрелости» отраслей экономики как фактор национальной конкурентоспособности // Экономика и управление. 2024. № 8. С. 405-412.
7. Троян М.В. Конституционно-правовые основы применения технологий искусственного интеллекта в системе государственного управления РФ // Конституционное и муниципальное право. 2025. № 3. С. 60-66.
8. Федоров М.В. Экзистенциальные риски цифровизации: искусственный интеллект как вызов человеческой природе // Философия и общество. 2023. № 4. С. 5-15.
9. Федоров М.В., Цветков Ю.А. Опыт участия в разработке Рекомендаций ЮНЕСКО по этике ИИ: суверенный взгляд // Аналитический вестник Совета Федерации ФС РФ. 2020. № 21 (754).
10. Фролов А.А., Колкарева Э.Р. Формирование нового технологического уклада на границе искусственного интеллекта и роботизации: социально-экономические последствия // Инновации. 2025. № 2. С. 205-211.
11. Холопов В.А. Институциональные и правовые барьеры внедрения искусственного интеллекта в государственное управление России // Вестник Московского университета. Серия 11. Право. 2026. № 1. С. 705-720.
12. Человек и системы искусственного интеллекта в цифровом мире: аксиологические и антропологические проблемы: коллективная монография / под ред. акад. В.С. Степина. М.: Проспект, 2022. 248 с.
13. Черняев А.В. Цифровой суверенитет и этика искусственного интеллекта: российский подход в глобальном контексте // Полис. Политические исследования. 2024. № 6. С. 757-768.



