сотрудник
Россия
УДК 004.8 Искусственный интеллект
В статье рассматриваются особенности установления причинной связи и вины при наступлении общественно опасных последствий вследствие использования технологий искусственного интеллекта. Разработана трёхэлементная модель установления причинной связи и уточнены критерии оценки умысла и неосторожности в преступлениях, совершенных с использованием искусственного интеллекта.
искусственный интеллект; причинно-следственная связь; опосредованный вред; субъективная сторона преступления; умысел; неосторожность; объективное вменение; уголовная ответственность.
Современный этап цифровой трансформации характеризуется стремительным внедрением технологий искусственного интеллекта (далее ‑ ИИ) в социально значимые сферы общественных отношений: транспортную инфраструктуру, финансовые рынки, здравоохранение, государственное управление, сферу безопасности и обороны. Алгоритмические системы принимают решения, влияющие на распределение материальных ресурсов, диагностику заболеваний, маршрутизацию транспортных потоков и оценку кредитных рисков. Тем самым искусственный интеллект становится значимым элементом общественных отношений, складывающихся в различных сферах между разнообразными субъектами.
Существенное внимание вопросам интеграции ИИ-систем и ИИ-агентов в сферу организации и осуществления общественных отношений в социально значимых областях ‑ здравоохранении, управлении дорожным движением, логистике, финансовом секторе и публичном администрировании ‑ уделяется российским законодателем. Это подтверждается динамичным развитием нормативно-правовой базы[1] и реализацией национальных проектов[2], ориентированных на цифровую трансформацию государственного управления и экономики, а также рамочных условий для тестирования ИИ-технологий в отдельных регионах страны, включая особые условия для обработки персональных данных[3].
Вместе с тем расширение масштабов алгоритмической автоматизации происходит на фоне устойчивого роста преступлений, совершаемых с использованием информационно-коммуникационных технологий. Данное обстоятельство объективно усиливает криминогенный потенциал цифровой среды и требует учёта специфических рисков, связанных с возможным использованием ИИ в противоправных целях либо с причинением вреда вследствие его автономного функционирования.
Интеграция технологий ИИ в социально значимые сферы, включая публичное управление, актуализирует проблему нормативного определения пределов уголовно-правовой охраны общественных отношений от рисков, обусловленных использованием автономных алгоритмических систем. Речь идёт не только о техническом регулировании цифровых процессов, но и о формировании адекватных механизмов уголовно-правового реагирования на случаи причинения общественно опасного вреда при применении ИИ.
Показательным в данном контексте является подготовленный в 2025 г. Минцифры России законопроект, предусматривающий дополнение перечня обстоятельств, отягчающих наказание новым видом ‑ совершение преступления с использованием технологии искусственного интеллекта. повышенную уголовную ответственность введение уголовной ответственности за совершение преступлений с использованием технологий искусственного интеллекта[4]. Данная инициатива отражает осознание государством возрастания общественной опасности алгоритмически опосредованных форм причинения вреда и стремление усилить уголовно-правовую защиту соответствующих общественных отношений.
Вместе с тем позиция Минюста России, раскритиковавшего проект, выявляет наличие концептуальной неопределённости[5]. Указание на риск формирования противоречивой правоприменительной практики вследствие недостаточной определённости понятия «искусственный интеллект» свидетельствует о сложности его интеграции в уголовно-правовую материю. Дополнительные аргументы, связанные с увеличением нагрузки на экспертные учреждения, удлинением сроков рассмотрения дел и ростом финансовых затрат, демонстрируют институциональные последствия признания использования ИИ обстоятельством, отягчающим уголовное наказание.
Изложенные обстоятельства являются свидетельством возникновения нормативной дилемы: с одной стороны, объективно возрастают риски причинения вреда в результате алгоритмически опосредованной деятельности; с другой ‑ отсутствует устойчивая доктринальная и законодательная модель, позволяющая корректно и единообразно квалифицировать такие деяния. Проблема заключается не столько в самом факте использования ИИ, сколько в определении его юридически значимой роли в причинном механизме и установлении субъективного отношения лица к последствиям функционирования алгоритма.
В этой связи возникает потребность в разработке системного уголовно-правового подхода, который обеспечивал бы:
‑ чёткое разграничение случаев, когда ИИ выступает лишь техническим средством, и ситуаций, при которых его использование объективно повышает общественную опасность деяния;
‑ формализацию критериев установления причинной связи и вины в условиях алгоритмической автономности;
‑ баланс между принципом законности и необходимостью реагирования на новые цифровые угрозы.
Формирование системного уголовно-правового подхода к оценке использования искусственного интеллекта предполагает, прежде всего, нормативное разграничение двух качественно различных обстоятельств, имеющих различное значение для квалификации деяния[6].
Первое связано с использованием ИИ в качестве технического средства (нейтрального инструмента). В данном случае алгоритм выполняет вспомогательную функцию, обеспечивая автоматизацию действий, полностью охватываемых волей и сознанием субъекта. Он не вносит самостоятельного вклада в формирование общественно опасного результата, а лишь ускоряет или упрощает реализацию уже сформированного преступного намерения. Причинная связь при этом сохраняет традиционную линейную структуру, а степень общественной опасности определяется характером деяния самого лица, а не технологической формой его осуществления. В подобных случаях использование ИИ не требует специальной уголовно-правовой квалификации и не должно рассматриваться как квалифицирующий признак или обстоятельство отягчающее наказание.
Вторая ситуация имеет место тогда, когда ИИ выступает фактором объективного повышения общественной опасности. Речь идёт о случаях, в которых применение автономной алгоритмической системы:
‑ существенно увеличивает масштаб причиняемого вреда (например, за счёт массовости и автоматизированности действий);
‑ ускоряет распространение негативных последствий;
‑ затрудняет их своевременное выявление и пресечение;
‑ повышает вероятность наступления тяжких последствий вследствие способности системы к автономному принятию решений.
В таких условиях алгоритм перестаёт быть нейтральным инструментом и становится элементом, трансформирующим механизм причинения вреда. Использование ИИ должно получать соответствующую уголовно-правовую оценку, поскольку объективно повышает степень общественной опасности деяния.
В целях обеспечения единообразной правоприменительной практики представляется целесообразным использовать модель оценки причинной связи при использовании ИИ, основанную на следующих критериях:
1. Критерий архитектурной предопределённости. Первостепенное значение имеет установление того, действовал ли алгоритм в пределах предусмотренной разработчиком логики и функциональной архитектуры. Если наступивший результат является следствием реализации заложенных параметров системы либо допустимых режимов её функционирования, то причинная связь с действиями лица, инициировавшего использование алгоритма, сохраняет нормативную значимость. И напротив, если поведение системы обусловлено внешним вмешательством, техническим сбоем или выходом за пределы проектной логики, вопрос о причинной обусловленности требует дополнительной оценки.
2. Критерий предсказуемости риска. Необходимо установить, являлся ли наступивший результат типичным или вероятностно допустимым сценарием функционирования системы. В контексте самообучающихся моделей это означает анализ статистической допустимости соответствующего исхода. Если результат входил в круг предсказуемых рисков, связанных с эксплуатацией алгоритма, он может рассматриваться как реализация созданной субъектом опасности. Отсутствие субъективного предвидения наступления общественно-опасного последствия, при условии надлежащего проектирования и контроля должно оцениваться как отсутствие прямой непосредственной причинной связи между деянием и последствиями.
3. Критерий управляемости. Существенным элементом причинного анализа является оценка возможности субъекта повлиять на функционирование алгоритма либо прекратить его работу. Речь идёт о наличии у лица реальной возможности оказывать влияние на параметры работы алгоритма, корректировать его функционирование либо прекращать его эксплуатацию в случае выявления риска наступления общественно опасных последствий. Контроль может носить технический, организационно-управленческий либо правовой характер и должен оцениваться с учётом статуса лица и объёма возложенных на него обязанностей.
Наличие у субъекта фактической возможности, а также нормативно закреплённой обязанности осуществления контроля свидетельствует о сохранении детерминирующей роли его поведения в причинном механизме и, соответственно, является аргументом в пользу признания юридически значимой причинной связи.
Предложенные критерии позволяют перенести анализ причинности из плоскости абстрактной фактической обусловленности в сферу уголовно-правовой оценки.
Причинная связь при использовании автономной алгоритмической системы может признаваться установленной при совокупности следующих условий:
- Субъект посредством разработки, внедрения либо эксплуатации системы допустил возможность наступления общественно опасных последствий;
- Функционирование алгоритма осуществлялось в пределах допущенной возможности и соответствовало его проектной архитектуре;
- Наступившее последствие явилось прямым результатом сознательного допущения наступления общественно-опасного последствия.
Разработка критериев установления причинной связи при использовании автономных алгоритмических систем логически предполагает уточнение подходов к оценке субъективной стороны деяния. В условиях цифровой трансформации вина не может определяться исключительно через абстрактную категорию предвидения последствий; она должна соотноситься со спецификой распределения функций и компетенций в рамках жизненного цикла ИИ-системы.
Установление признаков субъективной стороны в составе преступлений, связанных с наступлением общественно-опасного последствия в результате использования автономных алгоритмических систем, должно осуществляться с опорой на классическую уголовно-правовую концепцию вины как психического отношения лица к совершаемому деянию и его общественно опасным последствиям, выраженного в форме умысла либо неосторожности. Принципиально важно подчеркнуть, что алгоритмическая автономность не трансформирует природу вины и не допускает объективного вменения; она лишь усложняет содержание интеллектуального и волевого элементов.
В условиях использования ИИ интеллектуальный элемент вины должен охватывать:
‑ осознание лицом факта использования автономной алгоритмической системы;
‑ понимание её функциональных характеристик и потенциальных ограничений;
‑ предвидение возможности наступления общественно опасных последствий, обусловленных спецификой её работы.
Волевой элемент выражается в отношении субъекта к созданному алгоритмическому риску: в желании наступления последствий, сознательном их допущении либо в самонадеянном расчёте на их предотвращение.
Специфика умышленной формы вины в условиях алгоритмической автономности заключается в том, что психическое отношение виновного охватывает не только совершаемое им действие (бездействие), но и инициирование либо продолжение функционирования автономной алгоритмической системы как источника грозящей опасности.
Прямой умысел имеет место в случаях, когда лицо осознаёт общественную опасность применения автономной системы, предвидит неизбежность или реальную возможность причинения вреда и желает наступления соответствующих последствий. В алгоритмическом аспекте это может выражаться в целенаправленном использовании ИИ для достижения преступного результата, при понимании его масштабируемости, скорости и трудности выявления.
Косвенный умысел предполагает, что лицо предвидит реальную возможность наступления вредных последствий вследствие функционирования алгоритма, не желает их, но сознательно допускает либо относится к ним безразлично. В данном случае элементом психического отношения выступает не конкретный алгоритмический сценарий, а риск, обусловленный эксплуатацией системы в определённых условиях.
Неосторожная форма вины требует более тонкой оценки, поскольку автономность системы может создавать иллюзию утраты контроля.
Легкомыслие имеет место тогда, когда лицо предвидело возможность наступления общественно опасных последствий, связанных с функционированием ИИ, но без достаточных оснований рассчитывало на их предотвращение (например, полагаясь на автоматические механизмы самокоррекции без проведения надлежащего тестирования).
Небрежность выражается в непредвидении наступления вреда при наличии обязанности и реальной возможности его предвидеть. В алгоритмическом контексте это означает игнорирование профессионально очевидных рисков, отказ от анализа обучающих данных, непринятие мер по контролю за системой либо внедрение её в социально значимую сферу без должной оценки последствий.
Таким образом, вина при использовании ИИ должна устанавливаться с учётом психического отношения субъекта к созданному им алгоритмическому риску. При этом, не требуется предвидение всех возможных вариантов поведения системы; достаточно осознания вероятностной возможности причинения вреда в пределах созданной опасной ситуации.
Полагаем, что предложенный подход позволит сохранить традиционное содержание вины (интеллектуальный и волевой элементы) при одновременном учёте специфики алгоритмической автономности, исключая как объективное вменение, так и необоснованное освобождение от ответственности под предлогом «непредсказуемости» цифровой системы[7].
Обобщение изложенных положений позволяет сформулировать авторскую концепцию дифференциации уголовной ответственности, обеспечивающей системное разрешение проблемы уголовно-правовой оценки деяний, совершаемых с использованием автономных алгоритмических систем.
Ключевым исходным положением данной концепции является признание того, что ИИ не обладает сознанием, волей и способностью к осознанию общественной опасности своего поведения, а потому не может рассматриваться в качестве субъекта преступления[8]. Любая уголовно-правовая оценка должна быть сосредоточена исключительно на поведении человека ‑ разработчика, оператора, пользователя либо иного лица, вовлечённого в создание и эксплуатацию системы.
Второе принципиальное положение заключается в том, что использование ИИ как таковое не образует квалифицирующего признака состава преступления. Технологическая форма реализации деяния не может автоматически усиливать уголовную ответственность, поскольку это противоречило бы принципу законности и запрету расширительного толкования уголовного закона. Сам по себе факт применения алгоритма не свидетельствует о повышении общественной опасности.
Уголовно-правовое значение приобретает лишь такое использование автономной системы, которое объективно трансформирует механизм причинения вреда. Речь идёт о ситуациях, когда эксплуатация ИИ:
‑ создаёт повышенный риск наступления общественно опасных последствий по сравнению с «традиционными» способами совершения преступления;
‑ затрудняет выявление, предотвращение или пресечение вреда вследствие автономности и масштабируемости алгоритмического воздействия;
‑ усиливает тяжесть или объём последствий, в том числе за счёт скорости распространения и массового характера действий.
Именно совокупность указанных обстоятельств позволяет говорить о качественном изменении степени общественной опасности и, следовательно, о допустимости учёта алгоритмической автономности при квалификации деяния.
В рамках предлагаемой концепции реализация уголовной ответственности должна осуществляться в строгом соответствии с принципом индивидуализации, при котором определяющее значение приобретает учёт функциональной роли лица в процессе разработки, внедрения и эксплуатации автономной алгоритмической системы. Юридической оценке подлежит не формальное участие субъекта в цифровом процессе как таковом, а его конкретный вклад в создание, модификацию либо допущение юридически значимого риска, реализовавшегося в наступивших общественно опасных последствиях[9]. Тем самым исключается возможность как коллективного, так и абстрактного вменения ответственности за сам факт «использования технологии» без установления персонализированного психического и причинного отношения к результату.
Определяющим критерием уголовно-правовой оценки выступает не применение ИИ «per se», а степень фактического и нормативного контроля лица над функционированием алгоритмической системы, а также объективная предсказуемость её поведения в конкретных условиях. Чем выше уровень управляемости системы и чем более очевидным был риск наступления вреда, тем более обоснованным является вменение соответствующих последствий. И напротив, при отсутствии у лица реальной возможности влияния на функционирование системы либо при наступлении результата в пределах допустимого технологического риска, не подлежащего разумному предвидению, основания для уголовной ответственности могут отсутствовать ввиду недоказанности вины.
1. Казанцев Д.А. Проблемы и перспективы регулирования отношений в рамках сделки, совершенной с участием искусственного интеллекта // Journal of Digital Technologies and Law. 2023. №2. С. 438-462. DOI: https://doi.org/10.21202/jdtl.2023.18; EDN: https://elibrary.ru/JYQAZW
2. Мосечкин И.Н. Искусственный интеллект и уголовная ответственность: проблемы становления нового вида субъекта преступления // Вестник СПбГУ. Серия 14. Право. 2019. №3. С. 461-476. DOI: https://doi.org/10.21638/spbu14.2019.304; EDN: https://elibrary.ru/BGASBE
3. Мурашев П.М. Искусственный интеллект в уголовном судопроизводстве: риски и вызовы // Закон и право. 2025. №10. С. 233-238. DOI: https://doi.org/10.24412/2073-3313-2025-10-233-238; EDN: https://elibrary.ru/MMNIWX
4. Рарог А.И. Вина в советском уголовном праве: монография; научный редактор Б.В. Здравомыслов. М.: Проспект, 2018. 190 с. EDN: https://elibrary.ru/BUZXPN



