11 апр. 2021 г.

Про субъектность робота

Вадим Чеха на обсуждении новых норм поднял тему придания компьютерным платформам права субъектности. Тема зацепила не только и не столько в текущем виде, хотя это очень важно, сколько на перспективу. Что получится из размышлений по ходу написания этого текста, самому интересно.

Будем считать это за...

...ветвь рассуждений 1

.

Сразу по ходу уточнения, я вынес тезис, который продолжаю считать правильным:

  • Если речь об операционных задачах, которые обычно выполняли люди, то это можно и нужно.
  • Если речь об ответственности как стороны договора, то сомнительно.

При этом я плохо понимаю, зачем для операциональных функций может быть нужна юридическая субъектность? Например, сбором данных соискателя, их проверкой и оформлением на работу занимается бот. Какая разница, выполняется эта функция человеком или ботом? Если возникнут сомнения/возражения/уточнения, с ними все равно пойдут к ответственному за это направление работ человеку. Можно ли и нужно ли какие-то функции полностью доверять боту без живого человека как решателя нестандартных непредусмотренных алгоритмом ситуаций? Я не думаю.

Ветвь рассуждений 2

О возможности ИИ через сбор данных нейроактивности (эксперимент Маска) выявлять способности и склонности человека без его сложных процессов самосознания, то бишь формирования субъектности как личности в строгом понимании. То есть, ИИ может провести человека по образовательной траектории без формирования субъектности на основе анализа реакций мозга на разные жизненные события. Таким образом, он алгоритмами может подменить человеческую субъектности– именно то, что мы ожидаем от персонализации, становления личности.

Ветвь рассуждений 3

О демократии. Изначально правом обладали не все люди, а только некоторые. В этом я увидел преимущество, потому что в политике должны участовать только те, у кого есть своя политическая позиция. Именно поэтому мне близка идея представительной демокраии, когда не имеющий своей позиции может поручить свой голос тому, кому он доверяет и кто имеет позицию. Все бы было с этой идеей здорово, если бы не возможность манипуляций– как минимум, банальной продажи голосов вместо ответственного перепоручения.

Если же вернуться к истокам, чтобы давать голос не всем, то возникают вопросы: кому давать и кто это будет решать?

Сомнения-сборка

Есть мысль на пересечении рассуждений: так, может, ИИ выявит, у кого есть политическая позиция, а у кого ее нет?

Но, если ИИ не субъект, то решение алгоритма зависит от людей. Опять дырка для возможности манипуляции. Причем еще менее заметная, хуже поддающаяся контролю, чем в классике. Если бы ИИ был независимым субъектом, ему можно было бы доверять. Но для этого должен быть надежный механизм контроля его логики: вмешиваться в него нельзя, а проверять логику можно и нужно открыто.

Наклевывается вывод о целевом подходе к субъектности бота: невозможность вмешиваться и механизм открытого доступа к логике с процедурами поверки. С другой стороны, традиционное представление о субъектности заметно иное. Юридическое представление о субъектности изучать пока не готов. Напрашивается аналогия с открытым программным обеспечением и платформой с общественным контролем за ее работой. Конкретный оператор, отвечающий за функцонирование, и распределенная ответственность сообщества за право и правила ее использования.

PS. Тему распределения ответственности за действия робота между владельцем и производителем (в том числе, разработчике ПО) я намерено не рассматриваю, т.к. ее уже активно обсуждают специалисты и т.к. по самому характеру обсуждения о субъектности робота в данном рассмотрении говорить не слишком уместно.

Комментариев нет: