Автономная робототехника в системе уголовно-правовых отношений. Монография
Қосымшада ыңғайлырақҚосымшаны жүктеуге арналған QRRuStore · Samsung Galaxy Store
Huawei AppGallery · Xiaomi GetApps

автордың кітабын онлайн тегін оқу  Автономная робототехника в системе уголовно-правовых отношений. Монография


И. Р. Бегишев

Автономная робототехника в системе уголовно-правовых отношений

Монография



Информация о книге

УДК 343.3/.7:004.89

ББК 67.408:32.816

Б37


Автор:
Бегишев И. Р., кандидат юридических наук, заслуженный юрист Республики Татарстан, старший научный сотрудник Казанского инновационного университета им. В. Г. Тимирясова (ИЭУП).

Рецензенты:
Хисамова З. И., кандидат юридических наук, начальник отделения планирования и координации научной деятельности научно-исследовательского отдела Краснодарского университета МВД России;
Шутова А. А., кандидат юридических наук, доцент кафедры уголовно-правовых дисциплин Ижевского института (филиала) Всероссийского государственного университета юстиции (РПА Минюста России).


В монографии исследуются уголовно-правовые и криминологические аспекты разработки, производства и применения роботов, определяется место беспилотных транспортных средств, летального автономного оружия и автономных роботов в системе уголовно-правовых отношений. Особое внимание в работе уделено построению модели уголовно-правовой реакции государства на потенциальную возможность причинения вреда охраняемым законом общественным отношениям, ценностям и интересам в процессе функционирования автономных роботов.

Законодательство приведено по состоянию на 1 июля 2021 г.

Для студентов, аспирантов и преподавателей юридических вузов и факультетов, а также широкого круга читателей, интересующихся вопросами уголовно-правового регулирования автономной робототехники.


Изображение на обложке с ресурса Shutterstock.com


УДК 343.3/.7:004.89

ББК 67.408:32.816

© Бегишев И. Р., 2021

© ООО «Проспект», 2021

ВВЕДЕНИЕ

Правовое поле включает в себя ряд различных правоотношений, в которые вступают субъекты и которые подчинены законодательным нормам различного генеза. Выход подобных правоотношений за пределы правового поля влечет за собой нарушение правовых норм и, как следствие, совершение правонарушений или преступлений.

Практически каждому противоправному деянию физического или юридического лица та или иная отрасль права дает соответствующую оценку и, опираясь на отраслевые нормы, определяет степень вины и объем применимого в определенном случае наказания.

Соответственно, если субъект административного правонарушения или преступления четко определен в законе, то применение к нему определенных инструментов правового воздействия чаще всего труда не составляет. Однако в последнее время все чаще участниками правоотношений становятся различные производные искусственного интеллекта — роботы, которые получают широкое применение в различных областях современной жизни.

Наука, связанная с разработкой и внедрением в массы робототехнических технологий, — робототехника — является одним из важнейших научно-­практических направлений нашего времени и в ближайшие годы станет более актуальной во многих областях жизни. Пропорционально внедрению робототехнических технологий в человеческую жизнь возрастает и автономия таких роботов, которые все больше и больше приближаются к образцам человеческого мышления. В частности, исследователи отмечают, что в результате проведения определенных экспериментов роботы способны осознавать себя самих в пространстве1. Все это свидетельствует о том, что перед будущим робототехники поставлена задача создать таких роботов, которые будут способны адаптироваться к неструктурированной среде, такой как производство различных товаров, ведение домашнего хозяйства или вой­ны.

Несомненны положительные итоги подобных разработок: роботы облегчат повседневную жизнь человека, так как возьмут на себя значительную долю рутинной работы, а также позволят расширить социальные контакты, поскольку смогут самостоятельно общаться на равных с людьми, удовлетворять их эмоциональные потребности (в ситуации с пожилыми людьми и детьми). Подобные роботы будут способны решать определенные задачи более рационально, нежели это способен будет сделать человек, однако, как и любое другое технологическое развитие, прогресс робототехники создаст новые проблемы для нормативно-­правовых систем, в частности возложение ответственности за то или иное противоправное деяние, совершенное с участием робота, будет затруднено.

Последние достижения в области робототехники создают огромные трудности для правовой системы. С одной стороны, робототехника позиционируется как некий «совместный проект», в котором сообща действуют человек и машина и где некоторая ответственность может такой машине предписываться. С другой стороны, правовая система традиционно ориентирована на индивидуальную ответственность, по этой причине проблема распределения ответственности за нарушение правовых норм приобретает достаточную остроту.

Если в разрезе гражданско-­правовых отношений имеет место множество публикаций как российских, так и зарубежных авторов, связанных с определением робота как субъекта права, обозначением переделов ответственности машины и прочего, то уголовно-­правовые аспекты указанной проблематики рассмотрены недостаточно широко. Данное обстоятельство не только создает некий информационный вакуум в области рассматриваемого вопроса, но и влечет за собой недооценку опасности совершения роботами, особенно автономными, противоправных деяний, направленных против жизни и здоровья человека, против собственности, против общественной безопасности, против мира и безопасности человечества. По этой причине основные проблемные вопросы, рассматриваемые в настоящей монографии, являются высокоактуальными.

Работа включает четыре главы, каждая из которых раскрывает определенные аспекты уголовно-­правового регулирования правоотношений с участием автономной робототехники.

Первая глава посвящена рассмотрению вопросов, связанных с уголовно-­правовыми и криминологическими аспектами разработки, производства и применения роботов. На начальном этапе обозначены проблемы правового регулирования робототехники в целом, поскольку именно они выступают отправной точкой для возникновения тех или иных правовых коллизий. Отсутствие алгоритмической прозрачности, уязвимость кибербезопасности, сложности с решением вопросов конфиденциальности и защиты данных — все это никак не способствует формированию правового механизма в области регулирования правоотношений с участием роботов.

Отсутствие соответствующей нормативной правовой базы в рассматриваемой сфере влечет за собой возникновение различного рода криминологических рисков разработки, производства и применения роботов. В частности, здесь следует указать на возможные ошибки разработчиков программного обеспечения, возникновение различных сбоев в работе машин по вине оператора или программиста, невозможность предусмотреть наступление общественно опасных последствий от действий роботов, которые могут повлечь за собой различный вред. При этом также необходимо учесть, что риск может иметь как непрогнозируемую, так и прогнозируемую природу, соответственно, невозможность учесть все риски, которые могут возникнуть в различных сферах деятельности человека, связанных с применением роботов, влечет за собой поиск правовых инструментов, которые будут способны нивелировать подобные риски еще до того, как они станут потенциальными.

В качестве одного из направлений работы в области снижения возможностей возникновения указанных рисков может быть названа уголовно-­правовая охрана общественных отношений с участием роботов. Причина обращения к данному вопросу заключена в том, что действующее уголовное законодательство не рассматривает робота как признак, позволяющий дифференцировать ответственность. Однако не вызывает вопросов тот факт, что робототехнические устройства, в силу присущих им свой­ств, в случае совершения в отношении их посягательств, повлекших неправомерное завладение, представляют повышенную общественную опасность, так как обладают увеличенной причиняющей способностью.

Особая роль отводится рассмотрению факторов, оказывающих влияние на возникновение робопреступности. Причина этого заключена в том, что выявление сил, негативно влияющих на повышение уровня криминогенности отношений, возникающих под влиянием или при участии роботов, позволит не только снизить уровень такого влияния, но и принять меры по предупреждению их возникновения. Среди указанных факторов в монографии названы следующие: социальные факторы, обусловливающие использование роботов в преступных целях (социальная несправедливость, социальное неравенство, общественная разобщенность, межрелигиозные противоречия, межнациональные противоречия, корыстный умысел), недостатки системы, заложенной при конструировании роботов, а также дефекты (отклонения) функционирования системы робота в ходе эксплуатации — сюда считаем возможным отнести такие события, как наезд на пешехода беспилотным транспортным средством, столкновение с беспилотным летательным аппаратом, сбой в работе промышленного робота по причине несвоевременного выхода из строя той или иной детали (микросхемы), повлекший за собой несчастный случай, отказ в работе той или иной системы медицинского робота, повлекший за собой смерть пациента или серьезное нарушение функционирования организма человека и пр.

Во второй главе монографии проводится изучение места беспилотных транспортных средств в системе уголовно-­правовых отношений. Исследование проблемы правового регулирования беспилотных транспортных средств проводится с опорой на законопроект «О высокоавтоматизированных транспортных средствах и о внесении изменений в отдельные законодательные акты Российской Федерации», а также на постановление Правительства Российской Федерации от 26 ноября 2018 г. № 1415 «О проведении эксперимента по опытной эксплуатации на автомобильных дорогах общего пользования высокоавтоматизированных транспортных средств».

Важной частью данной главы выступает анализ криминологических рисков применения беспилотных транспортных средств. В указанном параграфе обозначено юридически значимое обстоятельство: возможность робототехнического транспортного средства осуществлять движение с деактивированной автоматизированной системой управления. Соответственно, можно заключить, что в случае, если в управление транспортным средством вовлечен человек, он выступает субъектом уголовной ответственности.

Также в рассматриваемой главе освещен вопрос, касающийся наступления ответственности за вред, причиненный беспилотными транспортными средствами. В результате исследования сделан вывод, что для совершенствования правового регулирования данного института необходимо выработать систему оценки автономности функционирования автомобиля при помощи его программно-­аппаратных средств, разработать специальные требования разработки, создания, эксплуатации, поддержания технического состояния высокоавтоматизированного транспортного средства. Кроме того, в каждой конкретной ситуации причинения вреда предложено устанавливать, наряду с неисполнением субъектом адресованной ему обязанности, наличие у него реальной возможности совершить объективно необходимые действия, направленные на причинение вреда охраняемым уголовным законом интересам.

Третья глава рассматривает летальное автономное оружие в системе уголовно-­правовых отношений. В частности, дается оценка летального автономного оружия с позиции его характеристики в качестве потенциальной угрозы для мира и безопасности человечества. В результате проведенного правового анализа был сделан вывод о том, что необходимо в ближайшее время обратить внимание на отсутствие в международном законодательстве норм, прямо запрещающих оборот автономных военных роботов, и устранить данный пробел, чтобы не подвергать уничтожению человечество в целом.

Кроме того, рассмотрены этические проблемы вооруженного конфликта, который протекает с использованием летального автономного оружия. Анализ данного направления завершается выводом о том, что для будущего человечества необходимо уже сейчас ввести превентивный запрет на наступательные смертоносные автономные технологии, которые находятся вне разумного контроля человека. Если создание превентивных механизмов управления безопасностью не станет приоритетом для правоведов всего мира, то это может привести к необратимым последствиям для мира в целом.

В главе исследованы также криминологические риски применения летального автономного оружия, такие как риск распределения ответственности за использование летального автономного оружия, риск выхода летального автономного оружия из-под контроля человека, риск незаконного оборота летального автономного оружия.

В завершающей монографию главе рассмотрена роль автономных роботов в системе уголовно-­правовых отношений. Автором исследуется проблема определения правосубъектности автономных роботов, проводится анализ позиций компетентных специалистов в данной области. По результатам анализа дискуссии в рамках данного вопроса следует вывод о том, что в сложившихся условиях невозможно наделить автономного робота правосубъектностью, так как сквозные цифровые технологии еще не достигли необходимого уровня развития. Однако с течением времени и в процессе совершенствования этих технологий ситуация может измениться и наделение автономного робота правосубъектностью станет необходимостью.

Исследование вопроса возможности применения уголовного наказания к автономным роботам завершает указанную главу. Автором предложены варианты правовой взаимосвязи между поведением субъекта, способного подлежать уголовной ответственности, и фактом причинения вреда в процессе функционирования автономного робота, на основании чего им было определено, что формы реализации мер уголовно-­правового характера, применяемых в отношении автономных роботов, находятся в прямой причинной зависимости с тем фактором, который повлек причинение вреда в процессе функционирования такого робота.

В целях наиболее полного и всестороннего решения задач УК РФ, адаптации существующих уголовно-­правовых норм к тенденциям динамично прогрессирующих цифровых технологий, находим возможным в обозримом будущем, при достижении технологической сингулярности и появлении автономных роботов, предложить модель уголовно-­правовой реакции государства на потенциальную возможность причинения вреда охраняемым законом общественным отношениям, ценностям и интересам в процессе функционирования автономных роботов, путем дополнения Общей части УК РФ новой главой «Меры уголовно-­правового характера, применяемые в отношении автономных роботов».

Таким образом, структура данной монографии позволяет тщательно изучить вопросы, касающиеся уголовно-­правовой природы регулирования отношений с участием автономной робототехники, а также определить направления для дальнейшего исследования.

[1] Weng Y. H., Chen C. H., Sun C. T. Toward the Human-­Robot Co-­Existence Society: On Safety Intelligence for Next Generation Robots // International Journal of Social Robotics. 2009. No 1 (4). P. 267–282.

Глава 1.
УГОЛОВНО-­ПРАВОВЫЕ И КРИМИНОЛОГИЧЕСКИЕ АСПЕКТЫ РАЗРАБОТКИ, ПРОИЗВОДСТВА И ПРИМЕНЕНИЯ РОБОТОВ

1.1. Проблемы правового регулирования робототехники

В течение нескольких последних десятилетий развитие робототехники в мире происходит достаточно интенсивно. Как и любая другая отрасль, данная сфера влечет за собой возникновение ряда правоотношений, регулируемых различными отраслями права. Однако специфика правоотношений в области робототехники такова, что достаточно часто в качестве прямого или косвенного субъекта позиционируется робот — продукт, созданный человеком для выполнения тех или иных задач и функционирующий на основе специальных программ и алгоритмов. Расширение возможностей роботов за счет наделения последних автономностью, проявляющейся в той или иной степени, влечет за собой риски выхода машин из-под контроля человека, недобросовестное использование роботов в противоправных целях, а также различные технические ошибки в программировании, способные привести к фатальным для человека последствиям. Все это не оставляет сомнений в том, что правовое регулирование отношений в рамках робототехники сопряжено с рядом актуальных проблем.

Вопросы, связанные с проблемами правового регулирования робототехники, на сегодняшний день изучаются широкой юридической научной общественностью. Спектр выделенных в данном разрезе рисков и проблем довольно широк2. Значительная часть исследований указанных выше проблем относится к предметной области. Например, авторы, изучающие правовые риски, возможные в результате внедрения робототехники, сосредотачивают свое внимание на таких отраслях, как здравоохранение, транспорт, оборона и безопасность.

Часть исследований касается проблем, связанных с правосубъектностью, интеллектуальной собственностью, дискриминацией, несправедливостью, охраной труда, конфиденциальностью и защитой данных, кибербезопасностью, ответственностью за вред3 и пр.

Рассмотрим проблемы правового регулирования робототехники посредством выделения основных групп правовых проблем, возникающих в указанной сфере.

Первая проблема — отсутствие алгоритмической прозрачности. Данная проблема стала предметом изучения ряда зарубежных правоведов4. Серьезность указанной задачи подтверждается тем, что она наиболее часто становится предметом дискуссий юристов. Так, авторы считают, что, учитывая распространение искусственного интеллекта (далее — ИИ) в областях повышенного риска, необходимо, чтобы он был подотчетным, справедливым и прозрачным5. Отсутствие алгоритмической прозрачности проблематично еще и по той причине, что сбои в программном обеспечении ИИ могут привести к нарушению прав и свобод человека и гражданина6.

Для решения указанной правовой проблемы предлагалось повысить осведомленность граждан в области алгоритмов принятия различных управленческих решений, а также установить виновных и привлечь их к ответственности за совершение сбоев в программном обеспечении.

Также высказано предположение о необходимости осуществления глобальной координации алгоритмического управления7. Кроме того, предложено разработать и принять так называемый стандарт алгоритмической прозрачности8. Однако у алгоритмической прозрачности есть свои ограничения, и, даже когда результаты интеллектуальной системы могут быть объяснены, субъекты, принимающие решения, могут не соглашаться с ними.

Некоторые из предложенных выше решений, хотя и являются чрезвычайно ценными, представляются относительно новыми и все еще находятся в процессе разработки, поэтому на данном этапе их эффективность невозможно полностью оценить.

В качестве второй проблемы следует выделить уязвимость кибербезопасности.

Авторы освещают различные проблемы безопасности, связанные с робототехникой и ИИ, например:

— полностью автоматизированное принятие решений, приводящее к дорогостоящим ошибкам и гибели людей;

— использование оружия, созданного на основе ИИ и способного к действиям без участия человека;

— применение ИИ в интересах национальной безопасности.

Все вышесказанное открывает новый вектор атаки, основанный на уязвимости цифрового программного обеспечения, использовании методов сетевого вмешательства и др.9

Не менее сложными представляются проблемы, связанные с внутренней безопасностью, например, расширение сети искусственных агентов для наблюдения за гражданским населением в интересах правительств. Данные действия напрямую могут повлиять на основные права и свободы граждан. Подобные проблемы имеют большое значение, поскольку они наносят серьезный ущерб обществу и отдельным лицам, создавая угрозу жизни и безопасности человека и доступу к ресурсам. Уязвимости кибербезопасности также представляют собой значительную угрозу, если их обнаружение происходит уже после того, как инцидент информационной безопасности произошел.

Эффективное решение таких проблем требует активного и оперативного использования правовых инструментов на всех этапах жизненного цикла рассматриваемых сквозных цифровых технологий, таких как разработка, внедрение и использование. В частности, необходимо принятие нормативных правовых актов, регулирующих права и обязанности специалистов и пользователей, имеющих доступ к той или иной интеллектуальной системе.

Третья проблема — это проблема дискриминации личности.

Данная проблема была признана серьезной рядом авторов на том основании, что алгоритмы и автоматизированные системы использовались для принятия решений, связанных с реализаций прав граждан. Это вопросы здоровья, трудоустройства, правосудия и страхования10.

В документе Агентства Европейского союза по основным правам описывается потенциал дискриминации отдельных лиц с помощью алгоритмов и говорится, что принцип недискриминации, закрепленный в статье 21 Хартии основных прав Европейского союза, необходимо учитывать при применении алгоритмов в повседневной жизни. Документ включает примеры, демонстрирующие отдельные виды дискриминации: автоматический отбор кандидатов для собеседований, определение риска при оценке кредитоспособности или в ходе испытаний кандидата11.

В отчете Европейского парламента указано, что из-за наборов данных и алгоритмических систем, используемых при оценке и прогнозировании на разных этапах обработки данных, большие данные могут приводить не только к нарушениям основных прав людей, но также к дифференцированному обращению и косвенной дискриминации в отношении групп людей со схожими характеристиками, особенно в отношении справедливости и равенства возможностей доступа к образованию и занятости, при найме или оценке отдельных лиц или при определении новых потребительских привычек пользователей социальных сетей12.

В отчете содержится призыв к Европейской комиссии, государ­ствам-­членам и органам по защите данных выявить и принять любые возможные меры для минимизации алгоритмической дискриминации и предвзятости и разработать прочную и общую этическую основу для прозрачной обработки персональных данных и автоматизированного принятия решений13.

В свете обозначенной проблемы были предложены различные варианты решений. Например, проведение регулярных оценок репрезентативности наборов данных, внесение технологических или алгоритмических корректировок для компенсации проблемных предубеждений ИИ14, участие людей в процессе оценки15.

Хотя законодательство четко регулирует правоотношения и защищает от дискриминационного поведения, есть мнение, что оно не соответствует требованиям. Так, было определено, что закон может быть неприменим в том случае, если он не распространяется на то, что прямо не защищено законом от дискриминации. Человеческий фактор может привнести дополнительные правовые проблемы в рамках рассматриваемого вопроса. Повышение прозрачности алгоритмов не означает, что они станут более понятными для людей, также может обостриться проблема раскрытия личных данных. Чтобы алгоритмический аудит был эффективным, требуется целостный, междисциплинарный, научно обоснованный и этически выработанный подход16.

Четвертая проблема — это проблемы правового статуса робота. Достаточно остро в настоящий момент ведутся дискуссии о том, подходят робототехнические системы под существующие правовые категории или следует создать новую категорию права со своими особенностями и последствиями. Исследователи ставят вопрос, можно ли считать роботов субъектами права17.

Группа экспертов высокого уровня по ИИ (AI HLEG) особо призвала «лиц, определяющих политику, воздерживаться от установления юридического лица для систем ИИ или роботов», подчеркнув, что это «в корне несовместимо с принципом человеческой деятельности, подотчетности и ответственности» и представляет собой «значительный моральный риск»18. Однако параллельно существуют мнения о том, что «правосубъектность ИИ может быть оправдана как элегантное решение прагматических проблем, возникающих из-за трудностей распределения ответственности за ИИ или в качестве поддержки моральных принципов ИИ»19.

Другие авторы предполагают, что в будущем искусственные сущности получат гражданство, и считают, что правовой статус небиологического интеллекта важно учитывать20. Однако большинство авторов придерживаются позиции, которая отрицает необходимость создания нового юридического лица на базе систем ИИ. Так, отдельные исследователи, которые рассматривали вопрос о юридической ответственности автономных машин, утверждают, что «автономным машинам не может быть предоставлен статус юридических агентов»21. Другие авторы считают, что предоставление юридического лица чисто синтетическим объектам станет вполне реальной юридической возможностью, но полагают, что такие «законодательные меры были бы морально ненужными и юридически проблемными»22.

В качестве пятой проблемы следует обозначить сложности с решением вопросов конфиденциальности и защиты данных.

Ученые-­юристы и специализированные правовые организации считают, что ИИ создает огромные проблемы с конфиденциальностью и защитой данных23. К ним относятся информированное согласие, нарушение прав отдельных лиц на защиту данных, например, права доступа к личным данным, права на предотвращение обработки данных, которая может причинить ущерб, право не подчиняться решению, основанному исключительно на автоматизированной интеллектуальной обработке, и др.

Исследователи также подчеркивают озабоченность по поводу алгоритмической подотчетности и подчеркивают, что «физическим лицам предоставляется ограниченный контроль и надзор за тем, как их личные данные используются», и призывают к новой защите данных через «право на разумные выводы», чтобы закрыть пробел в подотчетности24.

В качестве шестой проблемы необходимо выделить ответственность за вред, причиненный роботом.

Применение роботов с технологией ИИ может нанести ущерб людям и имуществу. Это, в частности, наезд на пешеходов беспилотными автомобилями, аварии и повреждения, вызванные частично управляемым дроном25. Авторы подчеркивают, что, поскольку в оборот роботов с технологией ИИ вовлечено множество сторон (поставщик составных частей, поставщик программного обеспечения, разработчик, производитель, программист, пользователь и сама робосистема), ответственность трудно установить, когда что-то пойдет не так, и существует множество факторов, которые необходимо учитывать при вынесении решения об ответственности конкретного субъекта26.

Вопросы юридической ответственности роботов с технологией ИИ можно рассматривать в двух плоскостях: гражданской или уголовной. В данном разрезе авторы обсуждают следующие вопросы: подлежит ли робот с технологией ИИ уголовной ответственности, к кому конкретно она может применяться, является ли рассматриваемый робот продуктом, на который распространяется законодательство об ответственности за некачественный продукт, например, в случаях конструктивных или производственных сбоев27.

Другие авторы обсуждают вопросы, связанные с уголовной ответственностью субъектов ИИ, и предполагают, что привлечение их к уголовной ответственности за совершение противоправных деяний в области интеллектуальной собственности вполне возможно. Проблемы ответственности, по мнению исследователей, также можно решить в соответствии с законодательством о защите прав потребителей28.

Также есть мнение, что необходимо предложить дополнительные правила, которые вместе с существующими моделями ответственности могут обеспечить более совершенные правовые механизмы, подходящие для роботов с технологией ИИ. Такие дополнительные правила будут функционировать как квазибезопасные вторичные правовые нормы. Они могут включать в себя обязанности по наблюдению за роботом с технологией ИИ, оснащение их встроенными аварийными кнопками, а также постоянную техническую поддержку и ремонт29.

В гражданских правоотношениях многие вопросы ответственности решаются в рамках строгой ответственности за вред, причиненный повышенно опасной деятельностью. Тем не менее в литературе подчеркивается, что строгая ответственность также является неполным решением проблемы, потому что, если нельзя предвидеть решения, которые может выполнить робот с технологией ИИ, или последствия, к которым это может привести, он также не может участвовать в поведении, которое призвано стимулировать строгую ответственность30.

Таким образом, можно заключить, что существует целый ряд правовых вопросов, пробелов и проблем в области правового регулирования робототехники. Наиболее важным в данной ситуации представляется то, что указанные проблемы затрагивают целый спектр прав человека: защиту данных, равенство, свободы, человеческую автономию и самоопределение личности, человеческое достоинство, безопасность человека, информированное согласие, целостность, справедливость и равенство, недискриминацию, неприкосновенность частной жизни и самоопределение.

Кроме того, необходимо назвать дополнительные правовые проблемы в рассматриваемой области, такие как отсутствие специальных регулирующих органов, «работоспособность» существующих национальных законов, отсутствие разъяснений по поводу применения существующих законов, отсутствие глобальных юридических академических дебатов в некоторых странах, неэффективность правового статуса автоматизированных систем и пр.

1.2. Криминологические риски разработки, производства и применения роботов

Внедрение любой новой технологии всегда влечет за собой возникновение рисков, имеющих различную природу. Так, М. М. Бабаев отмечает, что «в ходе хорошо известных огромных цивилизационных процессов в глобальном обществе произошли изменения, принесшие бесконечное число самых разнообразных новых, ранее неизвестных миру опасностей и угроз. Экономические, технические, технологические, информационные, демографические, экологические и иные новации — все они, как известно, обладали и обладают одновременно как созидательным, так и разрушительным потенциалом»31.

Робототехника имеет высокий уровень инновационности, развиваясь огромными темпами, может оказывать не только положительное влияние на темпы научно-­технического прогресса, но и нести ряд рисков и угроз как для создателей роботов, так и для их потенциальных пользователей. В ряде случаев подобные риски и угрозы могут иметь технологическую природу (несовершенство программного обеспечения, выход машины из-под контроля человека и пр.), однако в последнее время в научной литературе высказываются опасения относительно негативной роли человеческого фактора в возникновении правовых проблем, вытекающих из правоотношений с участием роботов и искусственного интеллекта. В этой связи считаем необходимым исследовать возможные риски и угрозы, которые могут быть образованы при обороте роботов.

Подобные риски могут иметь место как при создании (разработке, производстве), так и при использовании (применении) роботов. Рассмотрим указанные аспекты более подробно.

Процесс создания роботов представляет собой техническую разработку, которая предполагает на выходе получение образца, обладающего заданными свой­ствами и способного к совершению одной или нескольких операций в конкретных сферах деятельности. Обычно разработка алгоритмов компьютерных программ подобных машин осуществляется на основе технического задания, которое предусматривает то или иное назначение, а также функции робота. Однако на данном этапе возможно возникновение ряда рисков и угроз.

1. Разработчик может допустить техническую ошибку, в результате которой при функционировании робота будут иметь место различные сбои, влекущие за собой опасность для человека. В частности, «рабочий завода Volkswagen в Германии погиб после того, как вышедшая из-под контроля роботизированная установка ударила его в грудь и придавила к металлической пластине»32. Причиной данного несчастного случая был признан сбой в программном обеспечении, предусмотреть который разработчик заранее не мог.

Однако в данном разрезе привлечение к ответственности может быть осуществлено в отношении должностных лиц, если будет доказано, что несчастный случай мог быть предотвращен, если бы такие лица контролировали безопасное участие рабочих в производственном процессе. Например, в городе Грязи Липецкой области по ч. 2 ст. 143 УК РФ был привлечен к ответственности мастер цеха одного из заводов. Нарушив требования охраны труда, мастер цеха дал указание оператору пульта управления контролировать линию формовочной машины. Тот прошел в зону работы машины, где вопреки нормам не имелось ограждения, чтобы оценить проблемы в работе робота-­упаковщика. Робот-упаковщик прижал мужчину к оборудованию для формовки железобетонных изделий, травма оказалась смертельной33.

2. Разработчик в процессе создания самообучающейся машины может не предусмотреть наступления общественно опасных последствий, которые могут повлечь за собой различный вред. В качестве примера можно привести роботизированный автопилот, который при попытке пилота перейти на ручное управление в связи с необходимостью, например, обхода грозового фронта может самостоятельно нанести вред пилоту (принудительное катапультирование, резкое ограничение кислорода и пр.), если действия пилота будут расценены им как опасные и нарушающие заранее прописанный алгоритм34.

3. Разработчик, получая техническое задание, изначально осведомлен, что создаваемый им робот будет применяться в военной сфере, имея основным назначением уничтожение целей, в том числе человеческих.

Создание подобных роботов на сегодняшний день связано с желанием большинства стран усилить свою военную мощь. По этой причине технические специалисты на сегодняшний день осуществляют разработку и производство роботизированного оружия, при этом самым опасным видом такого оружия является автономное летальное оружие, основное назначение которого — самостоятельное принятие решений о ведении или приостановке боевых действий.

Как отмечает Г. Поволоцкий, «автономное летальное оружие представляет собой военную вооруженную платформу, перемещающуюся по воздуху, по земле или воде, которая снабжена разнообразными сенсорами и датчиками и кибернетическим устройством искусственного интеллекта, способная по своему усмотрению, без контроля со стороны человека, ориентироваться и передвигаться на местности, находить цель и переходить к уничтожению живой силы и техники противника в соответствии с оперативно-­тактическими планами своего командования»35. Соответственно, уже при создании подобного робота существует прямая угроза человеку, заложенная в самой природе создаваемой машины.

Кроме того, указанный робот может выступить товаром на так называемом черном рынке, после чего заинтересованные лица, приобретшие такой товар, могут осуществлять с его помощью различные преступления, прямо нарушая уголовный закон36.

В последние годы все больше известных людей выступают за полный запрет «роботов-­убийц». Под соответствующей инициативой подписались более 20 лауреатов Нобелевской премии мира, 150 религиозных лидеров и 3 тыс. специалистов по искусственному интеллекту. Мировую общественность ужасает сама мысль, что право распоряжаться человеческой жизнью может достаться бездушной машине, которая, конечно, не станет соблюдать нормы гуманитарного права37.

Как отмечают Л. А. Букалерова, Т. Н. Уторова, Д. О. Сизов, «уже сегодня искусственный интеллект обладает такими отличительными свой­ствами, как планирование и прогнозирование действий и их последствий, обработка информации, самостоятельность в принятии решений, а также обучаемость. Но остается еще одна существенная деталь — цели и задачи искусственного интеллекта формулирует и задает человек»38. Мы солидарны с мнением ученых.

В этой связи возникает необходимость рассмотрения еще одного аспекта, связанного с криминальными рисками и угрозам

...