Личность
Право
Государство

УДК 343.13

Ю.И. Безруков
Доцент кафедры правовой психологии и судебных экспертиз
Уральский государственный юридический университет
Екатеринбург, Российская Федерация
АВТОМАТИЗИРОВАННЫЕ СИСТЕМЫ И ОТВЕТСТВЕННОСТЬ
Аннотация
Автоматизированные системы являются поистине глобальным прорывом современной инженерии. Но что, если система управления подобным механизмом даст сбой? Как будет распределяться ответственность и как ее верифицировать?
Ключевые слова
Автоматизированная система, кибернетика, бионический протез, право, правовое регулирование, автопилот, киборг, автоматизированная система, роботизированная установка, искусственный интеллект, беспилотное устройство, датчик.

В современных условиях, преступления, совершенные с участием автоматизированных систем – реальность. Так, например, в Федеративной Республике Германия произошел инцидент с участием роботизированной установки. На заводе Volkswagen во время того, как рабочий осуществлял настройку системы с использованием искусственного интеллекта, установка дала сбой и стала причиной его гибели. Другой случай, авария со смертельным исходом, произошедшая по вине автомобиля с функцией автопилота. По одной из версий, казус произошел в результате того, что система не смогла распознать белый объект на фоне светлого неба.

ГОСТ 34.003-90 содержит следующее определение автоматизированной системы: система, состоящая из персонала и комплекса средств автоматизации его деятельности, реализующая информационную технологию выполнения установленных функций[1]. Эффективное решение задач управления в настоящее время немыслимо без привлечения средств вычислительной техники и всевозможных автоматизированных информационно-управляющих систем[2], при помощи которых возможна работа искусственного интеллекта или, скажем, беспилотных устройств.

Бионические протезы, как один из видов автоматизированных систем, являются поистине глобальным прорывом современной медицинской инженерии. В результате того, что человеческий организм весьма уязвим, нередко происходят травмы, которые приводят потере конечностей, и, как следствие, человек теряет часть своих функций. Бионический протез – это аналог утраченного органа, позволяющий имитировать его работу. Для управления протезом используется специальные датчики, а также процессор, который обрабатывает поступающую информацию.

Возникает ряд вопрос, требующих внимания на этапе формирования новых сфер правового регулирования. Что если в результате сбоя программного обеспечения, субъект не сможет выполнять поставленную перед ним задачу, кто будет нести ответственность, за причиненный ущерб? Как будет распределяться юридическая ответственность?

С точки зрения юридических понятий, такое поведение вряд ли можно назвать правомерным. Вся сложность заключается в том, что невероятно трудно доказать отсутствие умысла «человека-киборга» при совершении правонарушения, равно как и обратное – присутствие умысла. Согласно презумпции невиновности, недоказанность вины означает ее отсутствие. В таком случае, рассматривать подобную ситуацию как правонарушение мы не можем, так как отсутствует обязательный признак субъективной стороны – вина. Не всякое действие или бездействие, объективно нарушающее нормы права, является правонарушением[3]. Объективное вменение по уголовному праву России не допускается, и как следствие – правонарушитель остается безнаказанным.

Деликт может быть отнесен к группе обязательств по возмещению вреда, характеризующихся особенностями средств причинения вреда (робот – как источник повышенной опасности). Однако целостного решения проблема все еще не получила. По общему правилу причинитель вреда сам отвечает за причиненный вред. Но уже в действующем законодательстве выделяются отдельные случаи, в которых за вред, причиненный действиями одного лица, отвечают другое лицо, непосредственный причинитель вреда и лицо, ответственное за его действия[4]. Таким образом, ответственность должен нести разработчик системы, согласно, например, ч. 2 ст. 33 УК РФ, где предписывается, что исполнителем признается лицо не только совершившее деяние, но и принимающее участие в преступлении посредством использования других лиц, в силу закона не подлежащих уголовной ответственности, т.е. преступление, квалифицируется как опосредованное, а сама автоматизированная система считается опосредованным преступником.

В соответствии с ч. 2 ст. 1095 ГК РФ: вред, причиненный жизни, здоровью или имуществу гражданина либо имуществу юридического лица вследствие конструктивных, рецептурных или иных недостатков товара, работы или услуги, а также вследствие недостоверной или недостаточной информации о товаре (работе, услуге), подлежит возмещению продавцом или изготовителем товара, лицом, выполнившим работу или оказавшим услугу (исполнителем), независимо от их вины и от того, состоял потерпевший с ними в договорных отношениях или нет. Это говорит о том, что в случае правонарушения в области гражданского права, ответственность будет также нести разработчик автоматизированной системы.

Как поступить, если или сам собственник, или кто-либо другой внес изменения в программное обеспечение системы управления автоматизированного устройства не соответствующие документации? Алан Уинфилд, профессор Robot Ethics в Лаборатории робототехники Bristol предлагает идею этического черного ящика, которая заключается в том, чтобы непрерывно отслеживать и регистрировать информацию датчиков, чтобы впоследствии установить причину и соответственно определить виновную сторону в ситуации произошедшего несчастного случая. В любой автоматизированной системе перед принятием решения должен быть выполнен анализ сигналов, поступивших по каналам связи от датчиков. Прежде всего, должна быть выполнена проверка этих сигналов на достоверность, чтобы выявить нарушения, как в канале передачи информации, так и в работе датчиков. Среди таких нарушений можно назвать случайную импульсную помеху, обрыв или короткое замыкание. К тому же датчики могут иметь статические ошибки, нелинейные характеристики или зашумленный выходной сигнал, что скажется на точности измерения[5], это сложная и затратная процедура, хоть и весьма эффективная. Используя подобную систему, мы смогли бы выяснить не только субъектов, ответственных за причинение вреда, но и наличие либо отсутствие вины.

Необходимо согласиться с данной идеей. Каждое автоматизированное устройство должно находиться под контролем, необходимо отслеживать информацию о работе датчиков и самой системы управления для того, чтобы впоследствии в каждом конкретном случае определить виновную сторону, при помощи анализа этой информации. Главное достоинство идеи заключается в том, что учитывается индивидуальность произошедшей ситуации.

Кибернетика – наука, порождающая новые общественно значимые отношения, которые нуждаются в правовом регулировании. Действующего законодательства, в частности ст. 238 УК РФ, недостаточно, для должной регламентации вопросов, связанных с автоматизированными системами. Коэволюция права и кибернетики – лишь вопрос времени, и вместе с тем – актуальная проблема, так как регулирование должно касаться не только уже существующих, но и потенциальных угроз.



[1] ГОСТ 34.003-90. Межгосударственный стандарт. Информационная технология. Комплекс стандартов на автоматизированные системы. Автоматизированные системы. Термины и определения. – М.: Стандартинформ, 2009.

[2] Пьявченко Т.А., Финаев В.И. Автоматизированные информационно-управляющие системы. – Таганрог: Изд-во ТРТУ, 2007. С. 6.

[3] Пьявченко Т.А., Финаев В.И. Автоматизированные информационно-управляющие системы. – Таганрог: Изд-во ТРТУ, 2007. С. 265.

[4] Шевченко А.С., Шевченко Г.Н. Деликтные обязательства в российском гражданском праве: учеб. пособие. – М.: Статут, 2013. – 133 с. С. 85.

[5] Перевалов В.Д. Теория государства и права – 3-е изд., перераб. и доп. – М.: Норма, 2009. С. 130.

Y.I. Bezrukov
Associate professor of Legal psychology and judicial examinations
Ural State Law University
Yekaterinburg, Russian Federation
AUTOMATED SYSTEMS AND RESPONSIBILITY
Annotation
Automated systems are a truly global breakthrough of modern engineering. But what if the control system of such a mechanism fails? How will responsibility be allocated and how will it be verified?
Keywords
Automated system, cybernetics, bionic prosthesis, law, legal regulation, autopilot, cyborg, automated system, robotic installation, artificial intelligence, unmanned device, sensor.