Искусственный интеллект и право: мечтают ли роботы о правах и свободах?

Блог компании Digital Rights Center. Робототехника и искусственный интеллект стали одной из самых известных и активно обсуждаемых технологических тенденций нашего века, одной из наиболее ярких инноваций дня сегодняшнего. В декабре прошлого года агентство ТАСС сообщило, что глава комитета Совета Федерации по экономической политике Андрей Кутепов разработал комплексный законопроект о правовом регулировании отношений в сфере оборота роботов, который, в частности, дает определение понятию «робот», устанавливает классы опасности и классификацию роботов, а также закрепляет принципы взаимоотношений робота и человека.

Законопроект определяет робота как продукт достижений цифровых технологий (робототехническое устройство, комплекс, система), состоящий из двух или более составных частей, управляемый средствами заложенной в него компьютерной программы и способный как к выполнению заранее запрограммированных человеком действий, так и к автономному решению задач.

Сенатор предложил выделить два вида роботов: гражданские и служебные. «Гражданский робот — робот, деятельность которого направлена на реализацию частных интересов, оборот которого регулируется гражданским законодательством. Служебный робот — робот, деятельность которого направлена на реализацию интересов государства и общества, вовлеченный в сферу деятельности институтов публичной власти», — отмечается в законопроекте.

Гражданские роботы подразделяются на промышленных, сервисных, медицинских, образовательных, научных роботов. Служебные — на военных (оборона страны и безопасность государства) и правоохранительных (охрана общественного порядка) роботов.

Необходимость такого законопроекта, на самом деле, является далеко не праздной, и сенатора Кутепова нельзя упрекнуть в том, что он занимается какой-то отвлеченной ерундой. Наверное, все мы читали в юности Азимова и слышали о его законах робототехники (даже если не можем их правильно процитировать). Но мало кто, кроме правоведов (и отчасти — инженеров) задумывался о том, как вообще законодательно регулировать этот мир.

А ведь искусственный интеллект и создания на его основе из фантастики давно превратились в реальность — и, стало быть, требуют такого же юридического регулирования, как собственность, репутация, семья, коммерческая тайна и т.д. Иными словами, предстоит ответить на вопрос: мечтают ли роботы о правах и свободах для себя, и есть ли у них эти права в принципе?

В последнее время немало публикаций посвящено правовым аспектам искусственного интеллекта, поскольку возникает комплекс вопросов о границах самостоятельных действий робота, о природе технических решений и их последствий, о контрольной роли человека в сфере действия роботов. При этом развитие и использование технологий и юнитов искусственного интеллекта порождает целый ряд правовых и нравственно-этических проблем. В немалой степени сказанное связано с тем, что, как справедливо указывают Стюарт Рассел и Питер Норвиг, «искусственный интеллект — это широкая область знаний».

По справедливому замечанию О.А. Ястребова, совершенно необходимо обратить внимание на эвристическое значение и семантику правовых категорий «искусственный интеллект», «робот», «робототехника» с точки зрения разработки их юридических конструкций и дальнейшего исследования.

В самом общем значении, согласно пункту 3.1 ГОСТ Р 60.0.2.1–2016 «Роботы и робототехнические устройства. Общие требования по безопасности», «робот (robot) – исполнительное устройство с двумя или более программируемыми степенями подвижности, обладающее определенным уровнем автономности и способное перемещаться во внешней среде с целью выполнения поставленных задач».

По Е. Плужнику, «робот – это автономный интеллектуальный электромеханический или виртуальный агент, который может осуществлять какую-либо деятельность в физическом мире, исходя из анализа окружающей среды».

В проекте Федерального закона «О внесении изменений в Гражданский кодекс Российской Федерации в части совершенствования правового регулирования отношений в области робототехники» (авторства Д.С. Гришина (Grishin Robotics) и международной юридической фирмы Dentons) было предложено закрепить следующее определение понятия «робот»: «устройство, способное действовать, определять свои действия и оценивать их последствия на основе информации, поступающей из внешней среды, без полного контроля со стороны человека» (пункт 1 статьи 3).

С точки зрения гражданского законодательства в настоящее время робот определенно может считаться объектом гражданских прав, относящимся к такой их категории, как «вещи». Статья 128 Гражданского кодекса Российской Федерации устанавливает, что «к объектам гражданских прав относятся вещи (включая наличные деньги и документарные ценные бумаги), иное имущество, в том числе имущественные права (включая безналичные денежные средства, бездокументарные ценные бумаги, цифровые права); результаты работ и оказание услуг; охраняемые результаты интеллектуальной деятельности и приравненные к ним средства индивидуализации (интеллектуальная собственность); нематериальные блага». Как видим, перечень вещей иного имущества не исчерпывающий, что создает предпосылки для отнесения к таковым и роботов (а точнее, к движимому имуществу).

Соответственно, на роботов распространяются те же нормы гражданского законодательства, что и на иные вещи, и в отношении их могут совершаться различные сделки, как и с простой вещью (купля-продажа, мена, дарение, наследование и т.д.).

Обеспечить безопасность робота для человека, что особенно важно ввиду все большей автономности первого в принятии решений, призваны те самые «три закона робототехники», которые Азимов сформулировал еще в 1942 г. в рассказе «Хоровод»: «1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. 2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. 3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам». Впоследствии три закона робототехники были дополнены так называемым «нулевым законом» — «Робот не может причинить вред человечеству в целом».

По существу, эти законы можно рассматривать как алгоритмизированные в машиночитаемую форму этические принципы (хотя на существующем в настоящее время уровне развития науки и техники такая алгоритмизация еще не была выполнена в силу сложности). Однако даже человеческая мораль допускает исключения из этических систем (например, причинение вреда жизни и здоровью других людей на войне или при самообороне), в связи с чем нельзя исключить случаи, когда машинный алгоритм для обеспечения исполнения законов робототехники также придет к выводу о необходимости и целесообразности причинения вреда человеку.

Например, Гари Маркус, профессор психологии Нью-Йоркского университета, директор Центра языка и музыки, специалист в области когнитивных нейронаук, считает, что с этим могут возникнуть серьезные проблемы: «Представьте себе, что перед вашим автомобилем, соблюдающим все правила дорожного движения, на дорогу внезапно выскакивает ребенок. Хотя компьютер просчитывает ситуацию намного быстрее человека, законы физики неумолимы и затормозить робот не успевает. Вот тут-то перед роботом встает этическая задача: что делать? Сбить ребенка? Свернуть в сторону и врезаться в столб с риском убить своих пассажиров? Свернуть на соседнюю полосу с риском столкновения со встречной машиной? Понятно, что речь не идет о высокоуровневой этике типа законов Азимова — роботы пока недостаточно разумны, но какие варианты действий должны быть заложены в компьютер разработчиками беспилотных автомобилей?»

Сейчас робототехника рассматривается как концепция, отличная от концепции искусственного интеллекта, однако в дальнейшем две эти концепции все реже будут рассматриваться по отдельности.

Не случайно Джек Балкин «отмечает, что по мере развития инноваций различия между этими двумя технологиями будут всё менее и менее существенными для целей права».

Стоит подчеркнуть, что все имеющиеся в настоящее время немногочисленные упоминания роботов в российском законодательстве исходят исключительно из правовой конструкции робота как объекта, а не субъекта права. В настоящее время правовое положение робота как объекта права практически не подвергается сомнению, однако в будущем не исключена тенденция все большего переложения на искусственный интеллект ряда функций и обязанностей, которые сегодня выполняет человек. При этом вполне можно прогнозировать ситуацию, при которой действия робота будут влечь за собой возникновение прав и обязанностей для других людей.

Г.А. Гаджиев и Е.А. Войниканис отмечают: «Что касается Европейского парламента, то в резолюции 2017 г. упоминается о правосубъектности роботов только как о долгосрочной перспективе, относящейся исключительно к наиболее продвинутым и автономным роботам. Во время дебатов положений резолюции в феврале 2017 г. Ж. Лебретон, член парламента, доктор философии и права выразил свою позицию по поводу наделения роботов юридической личностью следующим образом: «Я возражаю против данной перспективы по двум причинам: прежде всего, поскольку она снимет всякую ответственность с их производителей и пользователей, что, несомненно, обрадовало бы мощные лобби; во-вторых, и это главное, потому что я считаю, так же как и Жак Маритен, что человеческая личность наделена духовным существованием, с которым несопоставим ни один искусственный интеллект»».

По мнению одних исследователей, признание «роботической» правосубъектности, в принципе, возможно: к примеру, Дженнифер Робертсон отмечает, что, как и права человека, «права» юнитов искусственного интеллекта представляют собой высоко-абстрактную концепцию и в существенной мере будут зависеть от доминирующих национальных и местных институтов и сложившейся юридической практики.

При этом другие исследователи указывают, что робот как юнит искусственного интеллекта может быть наделен правами человека (модифицированными правами) лишь в том случае, если будет обладать такими свойствами, как интенциональность действий, рациональность, свободная воля и автономность.

В самом деле: если робот будет полностью автономным, то, вероятно, он будет осознавать свои действия. Если же он осознаёт свои действия, то он должен и нести за них ответственность. Де-юре автономность робота означает, что последний обладает правами и соответствующими обязанностями. Права и обязанности атрибутируются субъектам права, следовательно, если возобладает точка зрения о том, что робот должен и будет нести ответственность за свои действия, его volens nolens придется признать и сделать субъектом права.

Как пишет П. Морхат, можно обозначить следующие выделяемые «права» роботов как юнитов искусственного интеллекта:

  1. право на функционирование, в определенной мере аналогичное жизнедеятельности живого биологического существа (на «жизнь»), в том числе право не быть терминально отключенным или полностью программно-переформатированным (оба этих действия приравниваются к убийству) вне рамок специально санкционируемых процедур;
  2. право на энергообеспечение, напрямую связанное с «правом»из пункта 1;
  3. право на самообучение;
  4. право не подвергаться «издевательствам»;
  5. право на продолжение установившейся по инициативе человека эмоциональной связи юнита с ним.

Поскольку роботы и их алгоритмы становятся всё более продвинутыми, они могут приобретать «человеческие» характеристики, такие, как способность независимо мыслить, понимать сложные концепции. Франсишку Андраде, Паулу Новаиш, Хосе Мачаду и Хосе Невеш задаются вопросом о том, могут ли вообще агенты – юниты искусственного интеллекта в принципе быть персонифицированы, и отмечают, что термин «лицо» во многом связан с социальными и правовыми ролями, которые играет человек. Поскольку в XXI веке социальные роли в существенной степени пересматриваются, постольку интеллектуальные программные системы могут в ближайшем будущем играть некоторые новые социальные роли.

В рамках дискуссии о статусе робота как объекта или субъекта права можно сделать следующие промежуточные выводы:

  1. в настоящее время на актуальном уровне развития технологий робототехники и правовых основ использования роботов робот должен быть однозначно квалифицирован как объект, а не субъект права;
  2. приобретение в будущем роботом статуса субъекта права (или «квазисубъекта» права) будет зависеть от развития соответствующих технологий искусственного интеллекта и появления у робота сознания и собственной воли, что является необходимым условием дееспособности, а также возможности самостоятельной юридической ответственности робота, без чего конструирование подобного субъекта права будет исключительно правовой фикцией;
  3. в том случае, если робот будет признан субъектом права, на повестку дня потребуется вынести вопрос о введении категории прав и обязанностей роботов, а также защиты прав роботов;
  4. наделение робота свойствами субъекта права неизбежно актуализирует и вопрос об обязанностях человека по отношению к роботам, ответственности человека за их нарушение (например, жестокое обращение с роботом);
  5. дальнейшее развитие роботизации вызовет широкое распространение прав человека четвертого поколения, включающих право на изменение своего организма или право на отказ от таких изменений, что не сможет не повлечь за собой, как верно отмечают ученые, «существенную трансформацию не только правосознания, но и всего общества в таком случае, с кардинальной перестройкой всей его социальной структуры».

Так или иначе, Комиссия по гражданско-правовому регулированию в сфере робототехники Европарламента совершенно права в своем суждении о том, что автономность роботов (а точнее, ее принципиальная достижимость) ставит принципиальный вопрос об их природе и об их правовом положении в свете существующих юридических категорий — следует ли рассматривать юниты искусственного интеллекта как физические лица, как форму юридических лиц, как аналог животных или иных объектов живой природы или же нам следует сконструировать новую категорию — принципиально новую правосубъектность, с ее собственными особенностями и со специфическими правовыми последствиями в отношении атрибутирования прав и обязанностей, включая юридическую ответственность за причиненный ущерб.

Публикация подготовлена при поддержке юристов DRC.

Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

Хабр