<?xml version="1.0"?>
<!DOCTYPE article
PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.4 20190208//EN"
       "JATS-journalpublishing1.dtd">
<article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" article-type="research-article" dtd-version="1.4" xml:lang="en">
 <front>
  <journal-meta>
   <journal-id journal-id-type="publisher-id">Intellectual Sovereignty</journal-id>
   <journal-title-group>
    <journal-title xml:lang="en">Intellectual Sovereignty</journal-title>
    <trans-title-group xml:lang="ru">
     <trans-title>Интеллектуальный Суверенитет</trans-title>
    </trans-title-group>
   </journal-title-group>
   <issn publication-format="print">3033-8239</issn>
   <issn publication-format="online">3033-8255</issn>
  </journal-meta>
  <article-meta>
   <article-id pub-id-type="publisher-id">118118</article-id>
   <article-id pub-id-type="edn">kmzafl</article-id>
   <article-categories>
    <subj-group subj-group-type="toc-heading" xml:lang="ru">
     <subject>Общественные и гуманитарные науки</subject>
    </subj-group>
    <subj-group subj-group-type="toc-heading" xml:lang="en">
     <subject>Social Sciences and Humanities</subject>
    </subj-group>
    <subj-group>
     <subject>Общественные и гуманитарные науки</subject>
    </subj-group>
   </article-categories>
   <title-group>
    <article-title xml:lang="en">CAUSALITY AND GUILT IN THE CONTEXT OF ALGORITHMIC AUTONOMY: PROBLEMS OF CRIMINAL LAW ASSESSMENT OF THE USE OF ARTIFICIAL INTELLIGENCE</article-title>
    <trans-title-group xml:lang="ru">
     <trans-title>ПРИЧИННАЯ СВЯЗЬ И ВИНА В УСЛОВИЯХ АЛГОРИТМИЧЕСКОЙ АВТОНОМНОСТИ: ПРОБЛЕМЫ УГОЛОВНО-ПРАВОВОЙ ОЦЕНКИ ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА</trans-title>
    </trans-title-group>
   </title-group>
   <contrib-group content-type="authors">
    <contrib contrib-type="author">
     <name-alternatives>
      <name xml:lang="ru">
       <surname>Рясов</surname>
       <given-names>Дмитрий Алексеевич</given-names>
      </name>
      <name xml:lang="en">
       <surname>Ryasov</surname>
       <given-names>Dmitry Alekseevich</given-names>
      </name>
     </name-alternatives>
     <email>ryasov_dmitriy@mail.ru</email>
     <bio xml:lang="ru">
      <p>кандидат юридических наук;</p>
     </bio>
     <bio xml:lang="en">
      <p>candidate of jurisprudence sciences;</p>
     </bio>
     <xref ref-type="aff" rid="aff-1"/>
    </contrib>
   </contrib-group>
   <aff-alternatives id="aff-1">
    <aff>
     <institution xml:lang="ru">Ставропольский филиал Краснодарского университета МВД России</institution>
     <country>Россия</country>
    </aff>
    <aff>
     <institution xml:lang="en">Ставропольский филиал Краснодарского университета МВД России</institution>
     <country>Russian Federation</country>
    </aff>
   </aff-alternatives>
   <pub-date publication-format="print" date-type="pub" iso-8601-date="2026-04-01T00:00:00+03:00">
    <day>01</day>
    <month>04</month>
    <year>2026</year>
   </pub-date>
   <pub-date publication-format="electronic" date-type="pub" iso-8601-date="2026-04-01T00:00:00+03:00">
    <day>01</day>
    <month>04</month>
    <year>2026</year>
   </pub-date>
   <volume>1</volume>
   <issue>1</issue>
   <elocation-id>7</elocation-id>
   <history>
    <date date-type="received" iso-8601-date="2026-03-10T00:00:00+03:00">
     <day>10</day>
     <month>03</month>
     <year>2026</year>
    </date>
    <date date-type="accepted" iso-8601-date="2026-03-11T00:00:00+03:00">
     <day>11</day>
     <month>03</month>
     <year>2026</year>
    </date>
   </history>
   <self-uri xlink:href="https://intellectualsovereignty.ru/en/nauka/article/118118/view">https://intellectualsovereignty.ru/en/nauka/article/118118/view</self-uri>
   <abstract xml:lang="ru">
    <p>В статье рассматриваются особенности установления причинной связи и вины при наступлении общественно опасных последствий вследствие использования технологий искусственного интеллекта. Разработана трёхэлементная модель установления причинной связи и уточнены критерии оценки умысла и неосторожности в преступлениях, совершенных с использованием искусственного интеллекта.</p>
   </abstract>
   <trans-abstract xml:lang="en">
    <p>The article examines the specifics of establishing causation and guilt in the occurrence of socially dangerous consequences due to the use of artificial intelligence technologies. A three-element causal relationship model has been developed and criteria for assessing intent and negligence in crimes committed using artificial intelligence have been clarified.</p>
   </trans-abstract>
   <kwd-group xml:lang="ru">
    <kwd>искусственный интеллект; причинно-следственная связь; опосредованный вред; субъективная сторона преступления; умысел; неосторожность; объективное вменение; уголовная ответственность.</kwd>
   </kwd-group>
   <kwd-group xml:lang="en">
    <kwd>artificial intelligence; causal relationship; indirect harm; subjective side of the crime; intent; negligence; objective imputation; criminal liability.</kwd>
   </kwd-group>
  </article-meta>
 </front>
 <body>
  <p>Современный этап цифровой трансформации характеризуется стремительным внедрением технологий искусственного интеллекта (далее ‑ ИИ) в социально значимые сферы общественных отношений: транспортную инфраструктуру, финансовые рынки, здравоохранение, государственное управление, сферу безопасности и обороны. Алгоритмические системы принимают решения, влияющие на распределение материальных ресурсов, диагностику заболеваний, маршрутизацию транспортных потоков и оценку кредитных рисков. Тем самым искусственный интеллект становится значимым элементом общественных отношений, складывающихся в различных сферах между разнообразными субъектами.Существенное внимание вопросам интеграции ИИ-систем и ИИ-агентов в сферу организации и осуществления общественных отношений в социально значимых областях ‑ здравоохранении, управлении дорожным движением, логистике, финансовом секторе и публичном администрировании ‑ уделяется российским законодателем. Это подтверждается динамичным развитием нормативно-правовой базы[1] и реализацией национальных проектов[2], ориентированных на цифровую трансформацию государственного управления и экономики, а также рамочных условий для тестирования ИИ-технологий в отдельных регионах страны, включая особые условия для обработки персональных данных[3].Вместе с тем расширение масштабов алгоритмической автоматизации происходит на фоне устойчивого роста преступлений, совершаемых с использованием информационно-коммуникационных технологий. Данное обстоятельство объективно усиливает криминогенный потенциал цифровой среды и требует учёта специфических рисков, связанных с возможным использованием ИИ в противоправных целях либо с причинением вреда вследствие его автономного функционирования.Интеграция технологий ИИ в социально значимые сферы, включая публичное управление, актуализирует проблему нормативного определения пределов уголовно-правовой охраны общественных отношений от рисков, обусловленных использованием автономных алгоритмических систем. Речь идёт не только о техническом регулировании цифровых процессов, но и о формировании адекватных механизмов уголовно-правового реагирования на случаи причинения общественно опасного вреда при применении ИИ.Показательным в данном контексте является подготовленный в 2025 г. Минцифры России законопроект, предусматривающий дополнение перечня обстоятельств, отягчающих наказание новым видом ‑ совершение преступления с использованием технологии искусственного интеллекта. повышенную уголовную ответственность введение уголовной ответственности за совершение преступлений с использованием технологий искусственного интеллекта[4]. Данная инициатива отражает осознание государством возрастания общественной опасности алгоритмически опосредованных форм причинения вреда и стремление усилить уголовно-правовую защиту соответствующих общественных отношений.Вместе с тем позиция Минюста России, раскритиковавшего проект, выявляет наличие концептуальной неопределённости[5]. Указание на риск формирования противоречивой правоприменительной практики вследствие недостаточной определённости понятия «искусственный интеллект» свидетельствует о сложности его интеграции в уголовно-правовую материю. Дополнительные аргументы, связанные с увеличением нагрузки на экспертные учреждения, удлинением сроков рассмотрения дел и ростом финансовых затрат, демонстрируют институциональные последствия признания использования ИИ обстоятельством, отягчающим уголовное наказание.Изложенные обстоятельства являются свидетельством возникновения нормативной дилемы: с одной стороны, объективно возрастают риски причинения вреда в результате алгоритмически опосредованной деятельности; с другой ‑ отсутствует устойчивая доктринальная и законодательная модель, позволяющая корректно и единообразно квалифицировать такие деяния. Проблема заключается не столько в самом факте использования ИИ, сколько в определении его юридически значимой роли в причинном механизме и установлении субъективного отношения лица к последствиям функционирования алгоритма.В этой связи возникает потребность в разработке системного уголовно-правового подхода, который обеспечивал бы:‑ чёткое разграничение случаев, когда ИИ выступает лишь техническим средством, и ситуаций, при которых его использование объективно повышает общественную опасность деяния;‑ формализацию критериев установления причинной связи и вины в условиях алгоритмической автономности;‑ баланс между принципом законности и необходимостью реагирования на новые цифровые угрозы.Формирование системного уголовно-правового подхода к оценке использования искусственного интеллекта предполагает, прежде всего, нормативное разграничение двух качественно различных обстоятельств, имеющих различное значение для квалификации деяния[6].Первое связано с использованием ИИ в качестве технического средства (нейтрального инструмента). В данном случае алгоритм выполняет вспомогательную функцию, обеспечивая автоматизацию действий, полностью охватываемых волей и сознанием субъекта. Он не вносит самостоятельного вклада в формирование общественно опасного результата, а лишь ускоряет или упрощает реализацию уже сформированного преступного намерения. Причинная связь при этом сохраняет традиционную линейную структуру, а степень общественной опасности определяется характером деяния самого лица, а не технологической формой его осуществления. В подобных случаях использование ИИ не требует специальной уголовно-правовой квалификации и не должно рассматриваться как квалифицирующий признак или обстоятельство отягчающее наказание.Вторая ситуация имеет место тогда, когда ИИ выступает фактором объективного повышения общественной опасности. Речь идёт о случаях, в которых применение автономной алгоритмической системы:‑ существенно увеличивает масштаб причиняемого вреда (например, за счёт массовости и автоматизированности действий);‑ ускоряет распространение негативных последствий;‑ затрудняет их своевременное выявление и пресечение;‑ повышает вероятность наступления тяжких последствий вследствие способности системы к автономному принятию решений.В таких условиях алгоритм перестаёт быть нейтральным инструментом и становится элементом, трансформирующим механизм причинения вреда. Использование ИИ должно получать соответствующую уголовно-правовую оценку, поскольку объективно повышает степень общественной опасности деяния.В целях обеспечения единообразной правоприменительной практики представляется целесообразным использовать модель оценки причинной связи при использовании ИИ, основанную на следующих критериях:1. Критерий архитектурной предопределённости. Первостепенное значение имеет установление того, действовал ли алгоритм в пределах предусмотренной разработчиком логики и функциональной архитектуры. Если наступивший результат является следствием реализации заложенных параметров системы либо допустимых режимов её функционирования, то причинная связь с действиями лица, инициировавшего использование алгоритма, сохраняет нормативную значимость. И напротив, если поведение системы обусловлено внешним вмешательством, техническим сбоем или выходом за пределы проектной логики, вопрос о причинной обусловленности требует дополнительной оценки.2. Критерий предсказуемости риска. Необходимо установить, являлся ли наступивший результат типичным или вероятностно допустимым сценарием функционирования системы. В контексте самообучающихся моделей это означает анализ статистической допустимости соответствующего исхода. Если результат входил в круг предсказуемых рисков, связанных с эксплуатацией алгоритма, он может рассматриваться как реализация созданной субъектом опасности. Отсутствие субъективного предвидения наступления общественно-опасного последствия, при условии надлежащего проектирования и контроля должно оцениваться как отсутствие прямой непосредственной причинной связи между деянием и последствиями.3. Критерий управляемости. Существенным элементом причинного анализа является оценка возможности субъекта повлиять на функционирование алгоритма либо прекратить его работу. Речь идёт о наличии у лица реальной возможности оказывать влияние на параметры работы алгоритма, корректировать его функционирование либо прекращать его эксплуатацию в случае выявления риска наступления общественно опасных последствий. Контроль может носить технический, организационно-управленческий либо правовой характер и должен оцениваться с учётом статуса лица и объёма возложенных на него обязанностей.Наличие у субъекта фактической возможности, а также нормативно закреплённой обязанности осуществления контроля свидетельствует о сохранении детерминирующей роли его поведения в причинном механизме и, соответственно, является аргументом в пользу признания юридически значимой причинной связи.Предложенные критерии позволяют перенести анализ причинности из плоскости абстрактной фактической обусловленности в сферу уголовно-правовой оценки.Причинная связь при использовании автономной алгоритмической системы может признаваться установленной при совокупности следующих условий:Субъект посредством разработки, внедрения либо эксплуатации системы допустил возможность наступления общественно опасных последствий;Функционирование алгоритма осуществлялось в пределах допущенной возможности и соответствовало его проектной архитектуре;Наступившее последствие явилось прямым результатом сознательного допущения наступления общественно-опасного последствия.Разработка критериев установления причинной связи при использовании автономных алгоритмических систем логически предполагает уточнение подходов к оценке субъективной стороны деяния. В условиях цифровой трансформации вина не может определяться исключительно через абстрактную категорию предвидения последствий; она должна соотноситься со спецификой распределения функций и компетенций в рамках жизненного цикла ИИ-системы.Установление признаков субъективной стороны в составе преступлений, связанных с наступлением общественно-опасного последствия в результате использования автономных алгоритмических систем, должно осуществляться с опорой на классическую уголовно-правовую концепцию вины как психического отношения лица к совершаемому деянию и его общественно опасным последствиям, выраженного в форме умысла либо неосторожности. Принципиально важно подчеркнуть, что алгоритмическая автономность не трансформирует природу вины и не допускает объективного вменения; она лишь усложняет содержание интеллектуального и волевого элементов.В условиях использования ИИ интеллектуальный элемент вины должен охватывать:‑ осознание лицом факта использования автономной алгоритмической системы;‑ понимание её функциональных характеристик и потенциальных ограничений;‑ предвидение возможности наступления общественно опасных последствий, обусловленных спецификой её работы.Волевой элемент выражается в отношении субъекта к созданному алгоритмическому риску: в желании наступления последствий, сознательном их допущении либо в самонадеянном расчёте на их предотвращение.Специфика умышленной формы вины в условиях алгоритмической автономности заключается в том, что психическое отношение виновного охватывает не только совершаемое им действие (бездействие), но и инициирование либо продолжение функционирования автономной алгоритмической системы как источника грозящей опасности.Прямой умысел имеет место в случаях, когда лицо осознаёт общественную опасность применения автономной системы, предвидит неизбежность или реальную возможность причинения вреда и желает наступления соответствующих последствий. В алгоритмическом аспекте это может выражаться в целенаправленном использовании ИИ для достижения преступного результата, при понимании его масштабируемости, скорости и трудности выявления.Косвенный умысел предполагает, что лицо предвидит реальную возможность наступления вредных последствий вследствие функционирования алгоритма, не желает их, но сознательно допускает либо относится к ним безразлично. В данном случае элементом психического отношения выступает не конкретный алгоритмический сценарий, а риск, обусловленный эксплуатацией системы в определённых условиях.Неосторожная форма вины требует более тонкой оценки, поскольку автономность системы может создавать иллюзию утраты контроля.Легкомыслие имеет место тогда, когда лицо предвидело возможность наступления общественно опасных последствий, связанных с функционированием ИИ, но без достаточных оснований рассчитывало на их предотвращение (например, полагаясь на автоматические механизмы самокоррекции без проведения надлежащего тестирования).Небрежность выражается в непредвидении наступления вреда при наличии обязанности и реальной возможности его предвидеть. В алгоритмическом контексте это означает игнорирование профессионально очевидных рисков, отказ от анализа обучающих данных, непринятие мер по контролю за системой либо внедрение её в социально значимую сферу без должной оценки последствий.Таким образом, вина при использовании ИИ должна устанавливаться с учётом психического отношения субъекта к созданному им алгоритмическому риску. При этом, не требуется предвидение всех возможных вариантов поведения системы; достаточно осознания вероятностной возможности причинения вреда в пределах созданной опасной ситуации.Полагаем, что предложенный подход позволит сохранить традиционное содержание вины (интеллектуальный и волевой элементы) при одновременном учёте специфики алгоритмической автономности, исключая как объективное вменение, так и необоснованное освобождение от ответственности под предлогом «непредсказуемости» цифровой системы[7].Обобщение изложенных положений позволяет сформулировать авторскую концепцию дифференциации уголовной ответственности, обеспечивающей системное разрешение проблемы уголовно-правовой оценки деяний, совершаемых с использованием автономных алгоритмических систем.Ключевым исходным положением данной концепции является признание того, что ИИ не обладает сознанием, волей и способностью к осознанию общественной опасности своего поведения, а потому не может рассматриваться в качестве субъекта преступления[8]. Любая уголовно-правовая оценка должна быть сосредоточена исключительно на поведении человека ‑ разработчика, оператора, пользователя либо иного лица, вовлечённого в создание и эксплуатацию системы.Второе принципиальное положение заключается в том, что использование ИИ как таковое не образует квалифицирующего признака состава преступления. Технологическая форма реализации деяния не может автоматически усиливать уголовную ответственность, поскольку это противоречило бы принципу законности и запрету расширительного толкования уголовного закона. Сам по себе факт применения алгоритма не свидетельствует о повышении общественной опасности.Уголовно-правовое значение приобретает лишь такое использование автономной системы, которое объективно трансформирует механизм причинения вреда. Речь идёт о ситуациях, когда эксплуатация ИИ:‑ создаёт повышенный риск наступления общественно опасных последствий по сравнению с «традиционными» способами совершения преступления;‑ затрудняет выявление, предотвращение или пресечение вреда вследствие автономности и масштабируемости алгоритмического воздействия;‑ усиливает тяжесть или объём последствий, в том числе за счёт скорости распространения и массового характера действий.Именно совокупность указанных обстоятельств позволяет говорить о качественном изменении степени общественной опасности и, следовательно, о допустимости учёта алгоритмической автономности при квалификации деяния.В рамках предлагаемой концепции реализация уголовной ответственности должна осуществляться в строгом соответствии с принципом индивидуализации, при котором определяющее значение приобретает учёт функциональной роли лица в процессе разработки, внедрения и эксплуатации автономной алгоритмической системы. Юридической оценке подлежит не формальное участие субъекта в цифровом процессе как таковом, а его конкретный вклад в создание, модификацию либо допущение юридически значимого риска, реализовавшегося в наступивших общественно опасных последствиях[9]. Тем самым исключается возможность как коллективного, так и абстрактного вменения ответственности за сам факт «использования технологии» без установления персонализированного психического и причинного отношения к результату.Определяющим критерием уголовно-правовой оценки выступает не применение ИИ «per se», а степень фактического и нормативного контроля лица над функционированием алгоритмической системы, а также объективная предсказуемость её поведения в конкретных условиях. Чем выше уровень управляемости системы и чем более очевидным был риск наступления вреда, тем более обоснованным является вменение соответствующих последствий. И напротив, при отсутствии у лица реальной возможности влияния на функционирование системы либо при наступлении результата в пределах допустимого технологического риска, не подлежащего разумному предвидению, основания для уголовной ответственности могут отсутствовать ввиду недоказанности вины.</p>
 </body>
 <back>
  <ref-list>
   <ref id="B1">
    <label>1.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Казанцев Д.А. Проблемы и перспективы регулирования отношений в рамках сделки, совершенной с участием искусственного интеллекта // Journal of Digital Technologies and Law. 2023. №2. С. 438-462.</mixed-citation>
     <mixed-citation xml:lang="en">Kazancev D.A. Problemy i perspektivy regulirovaniya otnosheniy v ramkah sdelki, sovershennoy s uchastiem iskusstvennogo intellekta // Journal of Digital Technologies and Law. 2023. №2. S. 438-462.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B2">
    <label>2.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Мосечкин И.Н. Искусственный интеллект и уголовная ответственность: проблемы становления нового вида субъекта преступления // Вестник СПбГУ. Серия 14. Право. 2019. №3. С. 461-476.</mixed-citation>
     <mixed-citation xml:lang="en">Mosechkin I.N. Iskusstvennyy intellekt i ugolovnaya otvetstvennost': problemy stanovleniya novogo vida sub'ekta prestupleniya // Vestnik SPbGU. Seriya 14. Pravo. 2019. №3. S. 461-476.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B3">
    <label>3.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Мурашев П.М. Искусственный интеллект в уголовном судопроизводстве: риски и вызовы // Закон и право. 2025. №10. С. 233-238.</mixed-citation>
     <mixed-citation xml:lang="en">Murashev P.M. Iskusstvennyy intellekt v ugolovnom sudoproizvodstve: riski i vyzovy // Zakon i pravo. 2025. №10. S. 233-238.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B4">
    <label>4.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Рарог А.И. Вина в советском уголовном праве: монография; научный редактор Б.В. Здравомыслов. М.: Проспект, 2018. 190 с.</mixed-citation>
     <mixed-citation xml:lang="en">Rarog A.I. Vina v sovetskom ugolovnom prave: monografiya; nauchnyy redaktor B.V. Zdravomyslov. M.: Prospekt, 2018. 190 s.</mixed-citation>
    </citation-alternatives>
   </ref>
  </ref-list>
 </back>
</article>
