18 янв. 2017 г.

Робот, ты не прав!

Гришин бросает Азимову и всему миру вызов на ниве законодательства в отношении роботов. Законы о роботах обычно связывались в голове с рассказом Азимова «Хоровод». Я даже на основе этого рассказа проводил уроки информатики– получалось неплохо. Но сейчас о них вспоминать становится даже неловко, ибо первые роботы нашли применение в полной противоположности законам робототехники Азимова: для уничтожения человека. К сожалению, это обычно для человечества.

По взрывному росту популяции роботов вокруг нас можно уверенно констатировать начало эры Азимова, о которой он размышлял в середине прошлого века, прорабатывая в своих произведениях отношения человека и роботов. Его книги о роботах– сокровищница современных робототехников, хотя все может пойти по другому, чем ему виделось в этике и эстетике своего времени.

Однако, несмотря на рост достижений в области искусственного интеллекта вплоть до побед его над человеком в ряде традиционно человеческих интеллектуальных задач, вопрос законодательной проработки участия роботов в нашей жизни пока никто не ставил. До Гришина Дмитрия Сергеевича. Он опубликовал для обсуждения свой проект. При рассмотрении нормативных задач предполагается выделить несколько подходов правового регулирования:

  • приравнять роботов к животным (применить те же принципы и подходы, например, в случае ответственности владельца источника повышенной опасности);
  • использовать концепцию, близкую к юридическим лицам;
  • решить вопрос по аналогии с физическими лицами.

Меня радует сам факт такой постановки задачи, потому что нашествие роботов уже стало реальностью– значит, пора заняться регулированием их использования и участия в жизни. Заодно могут быть заполнены лакуны использования программного обеспечения, которое не менее действенно в современной сетевой жизни, чем механические последствия физически осязаемых роботов.

Если же обсуждать изложенные подходы, мне они не кажутся исчерпывающими. В роботе я вижу много слоев отношений, каждый из которых требует адекватного отражения:

  • искусственный интеллект, который может быть реализован как локально, так и в сети
  • программное обеспечение без особых интеллектуальных функций, которым робот управляется
  • механические конструкции, которые могут нанести физический ущерб

Особо стоит выделить вполне ожидаемую ситуацию с нежелательным вмешательством в работу робота на любом уровне его системы. Кто и за что должен отвечать в случае нежелательных действий робота в ситуации намеренного вмешательства внешних сил?

С точки зрения ответственности, механические конструкции могут быть многоуровневыми: базовый конструктив с загружаемой логикой и широкий спектр сторонних дополнительных аксессуаров, которые могут поставляться различными сторонними разработчиками. В случае нежелательных механических повреждений, кто должен отвечать: разработчик базовой конструкции или внешнего аксессуара?

Упомяну без раскрытия очевидный аспект баланса ответственности изготовителя, владельца и пользователя робота. Там тоже масса нюансов, которые упомянутыми 3-мя подходами не покрываются.

Но самый главный риск я вижу в наказательной концепции законодательства: не предотвратить нежелательное, а наказать виновного, дабы другим неповадно было. Причем, на западе наказательная модальность даже сильнее вызвана, что проявляется на политическом уровне в виде санкций: стремление подавить нежелательное поведение страхом наказания.

В этом контексте очень показательно уточнение Якова Кедми, развенчавшего длительно насаждаемый миф советских СМИ о мстительности израильской разведки. Нам неоднократно рассказывали про уничтожение всех участников группы захвата израильских спортсменов на Олимпиаде и террористов по другим эпизодам. Кедми совершенно иначе повернул вектор активности спецслужб Израиля: не отомстить за содеянное, а предотвратить новые негативные события. Их уничтожили не потому, что они что-то уже сделали плохое, а потому, что они готовили новые теракты. Если бы затихли, на них бы время и силы не тратили.

И тут мы попадаем в катастрофическую цивилизационную дыру правовой системы, доставшейся нам в наследство. Меня подняли на смех после заметки о римском праве как основе системы, построенной на поиске виновных и их наказании. Никто не готов кардинально пересматривать эту систему– слишком много рисков и трудозатрат. Однако именно роботы могут стать тем стимулом, который заставит изменить подходы. Возьмем за пример жуткие теракты, которые были совершены с помощью мирных аппаратов: самолетов и грузовых машин. Только представьте, что там бы не было водителей, а они бы были на автопилоте?

Если пересмотреть законы в русле предотвращения нежелательных событий, законодательство о роботах может быть вполне органично и не слишком проблемно. Если же законы остаются в логике мести за нарушения, что более вероятно, по крайней мере пока, это может существенно ограничить применимость роботизированных систем рисками последствий за непредсказуемые события. Можно, конечно, надеяться на статистику, но скорость изменений в науке и в обществе делает статистические циклы короче. Посмотрим.

PS. Оказалось, что нормативных инициатив уже несколько

Комментариев нет: