РОЛЬ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ОБЕСПЕЧЕНИИ ЦИФРОВОГО СУВЕРЕНИТЕТА: ВНЕДРЕНИЕ ИИ В ГОСУДАРСТВЕННОМ УПРАВЛЕНИИ И СОЦИАЛЬНОЙ СФЕРЕ — ПРАВОВЫЕ И ЭТИЧЕСКИЕ АСПЕКТЫ ЕГО РЕГУЛИРОВАНИЯ
Аннотация и ключевые слова
Аннотация:
В статье осуществляется комплексный междисциплинарный анализ роли и места технологий искусственного интеллекта (ИИ) в стратегическом процессе обеспечения цифрового суверенитета Российской Федерации. На основе анализа доктринальных источников и нормативно-правовой базы исследуются правовые и этические аспекты имплементации систем ИИ в сферу государственного (публичного) управления и социальную сферу. Автор выявляет ключевые системные барьеры, препятствующие эффективному внедрению ИИ, включая правовую фрагментацию, кадровый дефицит, инфраструктурные ограничения и дефицит общественного доверия. Особое внимание уделяется анализу этических рисков, связанных с алгоритмической предвзятостью, нарушением прав граждан и деформацией традиционных ценностей. В работе сопоставляются глобалистский и суверенный подходы к этическому регулированию ИИ, аргументируется необходимость формирования национальной доктрины этики ИИ, основанной на отечественном философско-правовом наследии. По итогам исследования формулируются научно-практические предложения по совершенствованию законодательства и созданию институциональных механизмов, направленных на гармонизацию технологического развития с задачами укрепления национального суверенитета.

Ключевые слова:
искусственный интеллект, цифровой суверенитет, государственное управление, социальная сфера, правовое регулирование, этика искусственного интеллекта, цифровая трансформация, информационная безопасность, правовые риски, национальная доктрина.
Текст
Текст (RU) (PDF): Читать Скачать

Современный этап мирового развития характеризуется стремительной цифровой трансформацией, в авангарде которой находятся технологии искусственного интеллекта (ИИ). Как отмечает А.В. Черняев, эти технологии «бросают вызов традиционным способам производственной и повседневной деятельности человека, трансформируя сами основы его бытия в персональном, социальном и политическом измерениях»[1]. Этот переход к новому технологическому укладу, который А.А. Фролов и Э.Р. Колкарева определяют как среду «на границе искусственного интеллекта и роботизации»[2], ставит перед государствами стратегическую задачу обеспечения цифрового суверенитета. Для России, стремящейся к достижению «„цифровой зрелости“ ключевых отраслей экономики и социальной сферы»[3], развитие и внедрение ИИ становится императивом национального развития.

Однако амбивалентная природа ИИ порождает фундаментальное противоречие: с одной стороны, открываются беспрецедентные возможности для модернизации, с другой — возникают глубокие риски для правовой системы и безопасности. Проблема усугубляется тем, что технологическое развитие значительно опережает адаптацию правовых институтов, что, по мнению Е.Р. Бозиевой и соавторов, «неизбежно приводит к возникновению правовых пробелов, коллизий и регуляторного вакуума»[4].

На сегодняшний день правовая база регулирования ИИ в России носит фрагментарный характер. Несмотря на закрепление в Конституции РФ вопросов «обеспечения безопасности личности, общества и государства при применении информационных технологий» (п. «м» ст. 71) как предмета ведения Федерации[5], и наличие стратегических документов, комплексное законодательство отсутствует. Как справедливо указывает В.А. Холопов, положения ключевой Национальной стратегии развития ИИ «носят преимущественно декларативный характер и не содержат конкретных механизмов правового регулирования»[6] [Холопов, 2026, с. 710].

Одной из самых острых нерешенных проблем остается правовой статус ИИ. По словам Председателя Конституционного Суда РФ В.Д. Зорькина, признание ИИ субъектом права «вступает в неразрешимое противоречие едва ли не со всеми канонами правовой догматики, включая учения об автономной правовой воле, правоотношении, правонарушении и юридической ответственности» [цит. по: Черняев, 2024, с. 758]. Эта доктринальная проблема имеет прямые практические следствия, создавая правовые коллизии. Например, В.А. Холопов обращает внимание на противоречие между практикой автоматизированного принятия решений и нормами Федерального закона «О персональных данных», которые ограничивают принятие юридически значимых решений исключительно на основе автоматизированной обработки.

На фоне этой правовой неопределенности практическое внедрение ИИ в государственное управление и социальную сферу сталкивается с рядом системных барьеров. Несмотря на очевидный потенциал, продемонстрированный, в частности, ИИ-моделью в ГАС «Управление», которая «в онлайн-режиме анализирует 100% мероприятий нацпроектов»[7], существуют серьезные препятствия. Ключевым из них В.А. Холопов называет кадровый дефицит, подтверждая это данными НИУ ВШЭ, согласно которым «лишь 12% государственных органов имеют штатных специалистов по работе с алгоритмическими системами»[8]. Ситуация усугубляется инфраструктурными ограничениями, разрозненностью информационных систем и растущими угрозами кибербезопасности. Тревожная статистика, приводимая в исследовании В.А. Холопова, свидетельствует, что «за 2022 год утекло 667,6 млн персональных записей», что подрывает доверие граждан. Этот дефицит доверия, в свою очередь, формирует, по выражению М.Р. Довлатовой и соавторов, «психологический барьер для восприятия ИИ как объективного инструмента»[9] .

Помимо правовых и институциональных проблем, наиболее глубокие вызовы лежат в этико-аксиологической плоскости. Как предупреждает М.В. Федоров, бесконтрольное развитие ИИ несет экзистенциальные риски, включая «нарушение баланса между управлением и манипулированием в обществе» и «подавление биологических и психологических потребностей» человека[10]. Более того, как отмечает Е.В. Алферова, ссылаясь на классификацию С.И. Коданевой, существуют концептуальные «ловушки» ИИ, такие как «ловушка фрейминга» (неспособность смоделировать социальную систему целиком) и «ловушка формализма» (неспособность объяснить полный смысл социальных понятий), которые ставят под сомнение возможность полной замены человека машиной в сложных социальных процессах[11].

В этих условиях на глобальной арене разворачивается конкуренция двух подходов к этическому регулированию. Глобалистский подход, представленный, в частности, Рекомендациями ЮНЕСКО, по мнению А.В. Черняева, является инструментом продвижения западной идеологии и интересов транснациональных корпораций. Участник разработки этого документа от России М.В. Федоров прямо свидетельствовал, что за универсальными формулировками скрывались «идеи протекционизма в интересах крупного капитала» и «прозападные политические установки»[12].

Альтернативой является суверенный подход, который предполагает разработку национальных этических и правовых норм, основанных на собственных культурно-цивилизационных ценностях. Как утверждает А.В. Черняев, в современном мире способность «эффективно развивать и контролировать национальную сферу высоких технологий становится одним из ключевых условий сохранения полноценного государственного суверенитета»[13]. Такой подход для России может найти опору в богатейшем наследии отечественной философской мысли, в частности, в идеях русского космизма, утверждающего «абсолютную ценность индивидуального человеческого существования» и подчинение технического прогресса высшим нравственным целям.

Таким образом, обеспечение цифрового суверенитета России в эпоху ИИ требует не простого решения технических и правовых задач, а выработки комплексной, национально ориентированной стратегии. Эта стратегия должна включать создание целостного законодательства, преодоление институциональных барьеров и, что самое главное, формирование собственной этико-философской доктрины, которая позволит направить мощь технологий на укрепление государственности и защиту национальных интересов.

Список литературы

1. Алферова Е.В. Концептуальные «ловушки» искусственного интеллекта в теории и практике государственного управления // Государство и право. 2025. № 4. С. 138-145.

2. Бозиева Е.Р., Макоева А.С., Темирканов М.А. Регуляторный вакуум в сфере применения систем искусственного интеллекта: проблемы и пути их преодоления // Право и цифровая экономика. 2025. № 1. С. 3-11.

3. Вершицкая Ю.В., Згонникова А.П. Анализ утечек персональных данных в Российской Федерации: статистика, причины и последствия // Вопросы кибербезопасности. 2025. № 2 (62). С. 33-41.

4. Довлатова М.Р., Исаев И.Ф., Петров В.С. Психологические барьеры и проблемы доверия граждан к системам искусственного интеллекта в социальной сфере // Социологические исследования. 2025. № 5. С. 215-224.

5. Коданева С.И. Искусственный интеллект в публичном управлении: возможности и риски. М.: ИНИОН РАН, 2021. 210 с.

6. Пашнина Е.А., Винокурова С.И. Оценка достижения «цифровой зрелости» отраслей экономики как фактор национальной конкурентоспособности // Экономика и управление. 2024. № 8. С. 405-412.

7. Троян М.В. Конституционно-правовые основы применения технологий искусственного интеллекта в системе государственного управления РФ // Конституционное и муниципальное право. 2025. № 3. С. 60-66.

8. Федоров М.В. Экзистенциальные риски цифровизации: искусственный интеллект как вызов человеческой природе // Философия и общество. 2023. № 4. С. 5-15.

9. Федоров М.В., Цветков Ю.А. Опыт участия в разработке Рекомендаций ЮНЕСКО по этике ИИ: суверенный взгляд // Аналитический вестник Совета Федерации ФС РФ. 2020. № 21 (754).

10. Фролов А.А., Колкарева Э.Р. Формирование нового технологического уклада на границе искусственного интеллекта и роботизации: социально-экономические последствия // Инновации. 2025. № 2. С. 205-211.

11. Холопов В.А. Институциональные и правовые барьеры внедрения искусственного интеллекта в государственное управление России // Вестник Московского университета. Серия 11. Право. 2026. № 1. С. 705-720.

12. Человек и системы искусственного интеллекта в цифровом мире: аксиологические и антропологические проблемы: коллективная монография / под ред. акад. В.С. Степина. М.: Проспект, 2022. 248 с.

13. Черняев А.В. Цифровой суверенитет и этика искусственного интеллекта: российский подход в глобальном контексте // Полис. Политические исследования. 2024. № 6. С. 757-768.

Войти или Создать
* Забыли пароль?