|
|
|
Вопросы правосубъектности искусственного интеллекта. Ответственность искусственного интеллекта в Казахстане
Асель Имангалиева CEO, Imangaliyeva Law Firm
Даурен Карашев Председатель Казахстанской ассоциации блокчейн-технологий
В последнее время во всем мире наблюдается активное развитие правового регулирования деятельности, связанной с использованием систем искусственного интеллекта. Необходимость регулирования связана с высокими рисками, вытекающими из деятельности искусственного интеллекта, и соответствующей потребностью максимально обеспечить как высокий уровень защиты здоровья, безопасности, основных прав человека и гражданина, так и поддержку и развитие инноваций. Так, Европейский парламент одобрил первый в мире нормативный акт, регулирующий использование искусственного интеллекта и нейросетей в разных сферах - Акт об искусственном интеллекте (AI Act). Официальная процедура вступления закона в силу должна завершиться к маю 2024 года. Уже в ноябре 2024 года некоторые ограничения начнут действовать на территории Евросоюза. Одним из ключевых положений Акта станет запрет на использование систем искусственного интеллекта, таких как нейросети, для создания и анализа баз данных с биометрической информацией граждан. Эти базы формируются на основе данных из интернета и видеоматериалов. Исключение будет сделано только для работы спецслужб в рамках борьбы с преступностью. Также вводится полный запрет на применение ИИ для распознавания эмоций и поведения людей на рабочем месте или во время обучения. Под запретом окажется использование нейросетей для прогнозирования противоправного поведения отдельных лиц. В сферах с высоким риском, таких как оборонная промышленность, государственное управление, здравоохранение и энергетика, использование ИИ будет строго контролироваться. Здесь потребуется проводить оценку рисков и соответствия требованиям ЕС. Кроме того, Акт об искусственном интеллекте вводит обязательную маркировку фото и видеоматериалов, созданных с помощью технологий синтетических медиа вроде DeepFake. Эксперты считают, что Акт об искусственном интеллекте может стать образцом для регулирования нейросетей и в других странах мира, учитывая масштабы влияния законодательства ЕС. Однако некоторые опасаются чрезмерного регулирования, которое может затормозить развитие перспективных технологий. Баланс между безопасностью и инновациями станет ключевым вызовом при имплементации нового закона[1]. В Казахстане на стадии обсуждения находится Концепция развития искусственного интеллекта на 2024-2029 годы. Концепция с учетом высокого уровня цифровизации страны предусматривает развитие искусственного интеллекта в различных отраслях экономики и социальной сферы. Разработчик Концепции предлагает решить несколько задач, направленных на создание экосистемы искусственного интеллекта: осуществление работ по созданию инфраструктуры; обеспечение доступа к большим данным; развитие человеческого капитала; организация научно-исследовательских и опытно-конструкторских работ. В среднесрочной перспективе в качестве цели определена поддержка благоприятного климата для развития экономики искусственного интеллекта, обеспечение достаточного нормативного регулирования сферы искусственного интеллекта с сохранением баланса между гарантиями безопасности и катализаторами развития. В приоритетных областях экономики предлагается внедрить наиболее подходящие решения искусственного интеллекта прикладного характера в целях повышения конкурентоспособности, инновационности и ориентированности на будущее. В связи с активным развитием сферы искусственного интеллекта требуется достаточное правовое регулирование в том числе вопросов определения правового статуса искусственного интеллекта, его правосубъектности и ответственности за совершаемые действия и принимаемые решения. Первое определение искусственного интеллекта дал один из его основателей Марвин Минский, который описал его как науку о том, как заставить машины делать вещи, которые требуют применения интеллекта, когда их делают люди. Суть этого определения верна и сегодня, однако современные специалисты в области вычислительных систем идут немного дальше и определяют искусственный интеллект как систему, способную воспринимать окружающую среду и предпринимать действия для максимизации шансов на успешное достижение своих целей, а также как способность этой системы интерпретировать и анализировать данные таким образом, чтобы она могла обучаться и адаптироваться по ходу дела. Термин «искусственный интеллект» был введен в 1956 году на научной конференции в Дартмутском университет в Ханновере. С тех пор искусственный интеллект и управление данными развивались взаимозависимым образом. Для выполнения содержательно надежного анализа искусственному интеллекту требуется огромный объем больших данных. А для цифровой обработки большого объема данных системе требуется искусственный интеллект. Таким образом, история искусственного интеллекта развивалась параллельно с ростом вычислительных мощностей и технологий баз данных. Сегодня бизнес-системы, которые когда-то могли обрабатывать всего несколько гигабайт данных, способны оперировать терабайтами и использовать искусственный интеллект для обработки результатов и проведения анализа в реальном времени. В Акте об искусственном интеллекте Евросоюза дается следующее определение искусственного интеллекта - это машинная система, предназначенная для работы с различными уровнями автономии и которая может проявлять адаптивность после развертывания и которая для достижения явных или неявных целей на основе получаемых входных данных делает вывод о том, как генерировать выходные данные, такие как прогнозы, контент, рекомендации или решения, которые могут влиять на физические или виртуальные среды[2]. Существует распространенная концепция деления искусственного интеллекта на 3 основных типа. Это деление важно для нас с позиции определения его правового статуса, правосубъектности и возможности установления ответственности за действия и решения, принимаемые искусственным интеллектом. Первый тип. Искусственный интеллект узкого назначения (ANI). ANI, также известный как «слабый» ИИ, существует уже сегодня. Хотя задачи, которые может выполнять слабый ИИ, могут выполняться с помощью очень сложных алгоритмов и нейронных сетей, они, тем не менее, остаются единичными и ориентированными на достижение цели. Распознавание лиц, поиск в интернете и самодвижущиеся автомобили - все это примеры ИИ узкого назначения. Его относят к категории слабых не потому, что ему не хватает масштаба и мощности, а потому, что ему еще далеко до наличия человеческих компонентов, которые мы приписываем настоящему интеллекту. Философ Джон Серл определяет слабый ИИ как «полезный для проверки гипотезы о разумах, но не являющийся разумом на самом деле». Второй. Искусственный интеллект общего назначения (AGI). ИИ общего назначения (сильный ИИ) должен быть способен успешно выполнять любые интеллектуальные задачи, которые под силу человеку. Как и системы ИИ узкого назначения, системы общего назначения могут учиться на опыте, выявлять и прогнозировать закономерности, но у них есть возможность сделать еще один важный шаг. Они способны экстраполировать эти знания на широкий спектр задач и ситуаций, которые не могут быть решены с помощью ранее полученных данных или существующих алгоритмов. Суперкомпьютер Summit - один из немногих подобных суперкомпьютеров в мире, обладающих ИИ общего назначения. Он может выполнять 200 квадриллионов вычислительных операций за одну секунду, на что человеку потребовался бы миллиард лет. Для реального воплощения моделей AGI не обязательно нужна такая грандиозная работоспособность, однако им потребуются вычислительные мощности, которые в настоящее время существуют только на уровне суперкомпьютеров. Третий. Искусственный суперинтеллект (ASI). Системы типа ASI теоретически обладают полным самосознанием. Они не просто имитируют или понимают поведение человека, но постигают его на фундаментальном уровне. Наделенные этими человеческими чертами и усиленные вычислительной и аналитической мощью, значительно превосходящей нашу собственную, - суперинтеллектуальные системы ИИ могут казаться выходцами из научно-фантастических антиутопий о будущем, в котором люди постепенно становятся все большим анахронизмом. Стивен Хокинг заключал, что «из-за огромного потенциала ИИ важно исследовать, как воспользоваться его преимуществами, избегая при этом потенциальных ловушек»[3]. Существуют несколько подходов к определению статуса искусственного интеллекта. 1) искусственный интеллект как объект/субъект права. Согласно консервативному подходу, искусственный интеллект - это объект права и никакой правосубъектности ему придавать не нужно. В таком случае на искусственный интеллект распространяются нормы действующего законодательства об информации, об информационной безопасности, об интеллектуальной собственности на программное обеспечение. Согласно иному подходу необходимо придать искусственному интеллекту правосубъектность, то есть определить права и обязанности. В таком случае возникают следующие вопросы: - кто будет нести ответственность за деятельность искусственного интеллекта за какие-то конкретные решения, которые он принимает; - имеет ли моральное право программист закладывать алгоритм, который будет указывать как поступать искусственному интеллекту в условиях выбора из вариантов событий, где в результате любой выбор приводит к смерти; - кому будут принадлежать права на интеллектуальную собственность на продукты, создаваемые искусственным интеллектом; 2) искусственный интеллект как животное. При таком подходе к искусственному интеллекту применяется аналогичное законодательство, как к животным, когда основные положения определены моральными и этическими положениями; 3) искусственный интеллект как физическое лицо. Согласно данной концепции, роботы признаются равными человеку в правовом смысле. 4) искусственный интеллект как юридическое лицо. Данный подход предполагает, что искусственный интеллект является обособленным от создателя/разработчика/владельца, но за действие которого разработчик отвечает в рамках доли участия (принцип ограниченной ответственности учредителя юридического лица). В данном подходе у искусственного интеллекта есть правообладатель, и должен создаваться имущественный фонд, из которого денежные средства будут расходоваться на возмещение компенсаций за причиненный ущерб в связи с действиями искусственного интеллекта; 5) искусственный интеллект как «электронное лицо». Согласно данному подходу, искусственный интеллект - это электронное лицо, обладающее юридическими обязанностями и субъективными правами[4]. Рассматривая данные подходы, полагаем, что прежде всего необходимо ответить на вопрос, относится ли искусственный интеллект к субъектам или объектам права, поскольку перечисленные варианты «животное», «физическое», «юридическое» или «электронное» лицо являются лишь разновидностями объектов и субъектов правоотношений. Как известно, объект права - это все то, по поводу чего субъекты прав вступают в правоотношения или то, по поводу чего правоотношение устанавливается» О.С. Иоффе определяет объект правоотношения так: «если объект явления есть внешний предмет, на который это явление, в силу присущего ему характера и содержания, способно оказывать воздействие, то объектом гражданского правоотношения является то, на что направлены (или, точнее, то на что воздействуют) гражданское субъективное право и гражданско-правовая обязанность как элементы гражданского правоотношения, образующие его непосредственное содержание» В цитируемом определении понятие объекта правоотношения тесно связано и в определенной степени зависит от понятия самого правоотношения. Если общественное отношение нормативно урегулировано, значит, объект правоотношения обладает реальным (конкретным) содержанием. У идеологического общественного отношения, как в той же части своего труда утверждает О.С. Иоффе, и объект - идеальный[5]. В рамках теории гражданского права можно выявить те общие признаки (свойства), соответствие которым позволит признать явление окружающей действительности объектом гражданских прав. Это ценность объекта, юридическая привязка объекта, направленность на объект деятельности субъектов, обладание объектом, дискретность объекта[6]. Субъекты права в отличие от объектов являются активными элементами правовой системы. Именно они осуществляют деятельность, приводящую к результатам правового регулирования отношений и к изменению правового режима их объектов. Всякий субъект права имеет свои интересы, автономен в формировании и выражении своей воли и может самостоятельно строить свое собственное поведение в обществе в пределах признанной за ним правосубъектности и в рамках соответствующих отношений. Соответственно, всякий субъект права своими действиями (бездействием) через приобретение и реализацию прав и обязанностей может существенно влиять на состояние интересов и правовое положение как свое собственное, так и третьих лиц. От правового статуса, положения и поведения каждого субъекта права зачастую зависит юридическая судьба других субъектов и объектов права. Как правильно в свое время было замечено по этому поводу в литературе, «субъект-объектное различение есть отправная точка любой научной дисциплины, пункт, ее задающий и определяющий. Лицо и вещь - активное и пассивное начало в праве. Категория лица - субъекта права и юридических отношений - исконно противопоставлялась понятию вещи»[7]. Существуют определенные критерии и ограничения для признания тех или иных лиц субъектами права. К таковым относятся, прежде всего, следующие свойства лиц или их объединений: 1) внешняя обособленность; 2) персонификация (выступление вовне в виде единого лица - «персоны») и 3) способность вырабатывать, выражать и осуществлять единую волю.[8] Исходя из указанных дефиниций, можно сделать вывод, что искусственный интеллект в зависимости от его типа и уровня развития может относиться как к объектам, так и субъектам права. Так, существующий на сегодняшний день слабый искусственный интеллект (ANI), в том числе различные технические средства: беспилотный транспорт, роботы, используемые в промышленных и бытовых целях, и другие, по нашему мнению, относятся к объектам права. Их невозможно персонализировать или определить их волю на совершение того или иного действия. Несмотря на автономность этих технических средств, их решения и действия определяются человеком, управляющим ими. Они являются лишь вещами, на которые направлены действия или в связи с которыми возникают правоотношения участников. Аналогичный вывод можно сделать относительно сильного искусственного интеллекта (AGI), который, несмотря на значительные мощности, все же остается под влиянием человека. Вместе с тем, технические средства, относящиеся к искусственному суперинтеллекту (ASI), по нашему мнению, не только обладают автономностью, но и одновременно могут являться участниками общественных отношений. Делегирование большого числа задач и расширение границ усмотрения со временем может создать новый способ взаимодействия человека с такими техническими средствами, основанный на независимости искусственного интеллекта в определенной степени или в полной мере. Принимая решение, основанное на полном понимании человеческого поведения и полностью имитирующее мыслительный процесс человека, многократно усиленный машинной мощностью, такие технические средства уже не смогут расцениваться объектами правоотношений. Их с полной уверенностью можно будет отнести к субъектам права. Они смогут отвечать требованиям о персонификации лица, наличии у него воли, то есть самостоятельного принятия решения, и обособленности такого субъекта, выражающейся в том, что он является отдельным участником правоотношений. Углубляясь в категоризацию искусственного суперинтеллекта как субъекта, полагаем, что более близким к его правовому статусу является статус юридического лица. Физическому лицу свойственны качества, присущие только человеческому существу - возраст, гражданство, дееспособность, состояние психического или физического здоровья. Часть этих характеристик важна при установлении ответственности и применении наказания. Обладая определенным набором качеств, дающих способность на принятие решений и совершения ряда действий, искусственный интеллект все же не одушевлен, что является значительным отличием его от человека. Юридическое же лицо имеет иные, более широкие определяющие характеристики, которые, по нашему мнению, могут быть распространены на операторов искусственного интеллекта. По казахстанскому законодательству юридическое лицо - организация, которая имеет на праве собственности, хозяйственного ведения или оперативного управления обособленное имущество и отвечает этим имуществом по своим обязательствам, может от своего имени приобретать и осуществлять имущественные и личные неимущественные права и обязанности, быть истцом и ответчиком в суде (статья 33 Гражданского кодекса Республики Казахстан). Представляется, что со временем платформы с использованием искусственного суперинтеллекта смогут быть зарегистрированы в качестве обособленных организаций, с собственными имущественными комплексами и сопутствующими правовым и финансовым обеспечением. По причине, указанной выше, спорным представляется подход, определяющий искусственный интеллект в качестве животного, которое представляет собой часть живого биологического мира, с определенными качествами одного из представителей животного мира. Рассматривая вопрос об ответственности искусственного интеллекта, полагаем возможным отметить следующее. В определении понятия юридической ответственности можно выделить несколько основных подходов. Ответственность - это: 1) юридическая обязанность соблюдения и исполнения требований, предусмотренных нормой права; 2) реакция на правонарушение; 3) взятые в динамике правовые отношения между правонарушителем (или лицом, обвиняемым в правонарушении) и государственными органами; 4) конкретные меры государственного принуждения; 5) атрибут, свойство обязанности на той стадии её реализации, когда она не исполняется добровольно[9]. Исходя из выводов, изложенных выше, полагаем, что ответственность за вред, причиненный в результате решений и действий систем искусственного интеллекта, в разных случаях будут нести разные субъекты. Так, в случае причинения вреда в результате применения систем слабого и сильного искусственного интеллекта, не являющихся субъектами правоотношений, ответственность за это, по нашему мнению, должны нести провайдеры системы такого искусственного интеллекта. Примерами слабого искусственного интеллекта могут служить высокоавтоматизированные транспортные средства 4-5-го уровня автономности или, например, автономный вендинговый автомат. Ответственность за такие технические средства возлагается на традиционных субъектов (владельца, пользователя, производителя, оператора и т.п.) в зависимости от конкретной ситуации. Абстрактными примерами сильного искусственного интеллекта являются автономные предприятия, роботы-управленцы, роботы-спутники. Несмотря на широкий объем их правомочий, ответственность за их действия, по нашему мнению, также возлагается на традиционных субъектов. Возможно несение солидарной ответственности разработчиков таких систем и их операторов (агентов), которые принимают окончательное решение о совершении того или иного действия системой. В дальнейшем, при достижении системами искусственного интеллекта высокого уровня интеллекта (ASI) потребуется рассмотреть вопрос об установлении их самостоятельной ответственности как обособленных субъектов правоотношений. Технические средства, обладающие полной свободой воли, смогут защищать свои права и нести ответственность за свои действия и решения. И если привлечение их к административной или гражданско-правовой ответственности не вызовет затруднений, то актуальность обретет вопрос уголовной ответственности юридических лиц в Казахстане. Следует отметить, что вновь принятый Евросоюзом Акт об искусственном интеллекте не устанавливает ответственность провайдеров и операторов систем искусственного интеллекта за вред, причиненный в результате их деятельности, ограничиваясь штрафами лишь за несоблюдение установленного регламента работы таких систем, несоответствие системы установленным требованиям, непредоставление информации или предоставление ложной или неполной информации о работе системы уполномоченному органу. Размеры штрафов варьируются от 7 до 35 млн. Евро в зависимости от характера совершенного правонарушения[10]. Вместе с тем, полагаем, что при принятии в Казахстане законодательного акта, регулирующего деятельность систем искусственного интеллекта, следует в обязательном порядке урегулировать вопросы ответственности за вред, причиненный в результате их деятельности. Наиболее актуальной на текущий момент развития систем искусственного интеллекта является определение вопроса разработчиков, операторов и провайдеров таких систем. Гражданско-правовая ответственность этих субъектов может, по нашему мнению, применяться по аналогии с ответственностью, предусмотренной статьей 931 Гражданского кодекса Республики Казахстан (ответственность за вред, причиненный деятельностью, создающей повышенную опасность для окружающих (источником повышенной опасности)). Уголовный и административный виды ответственности могут быть регламентированы новыми квалифицирующими признаками существующих составов или новыми составами правонарушений. Обязательным, полагаем, также будет применение института страхования ответственности лиц, являющихся операторами или провайдерами систем искусственного интеллекта.
[1] https://digital-report.ru/es-prinjal-akt-ob-iskusstvennom-intellekte-istoricheskoe-sobytie-dlja-regulirovanija-nejrosetej/#:~:text=После%20длительных%20обсуждений%20и%20согласований,начнут%20действовать%20на%20территории%20Евросоюза. [2] https://artificialintelligenceact.eu/article/3/ [3] https://www.sap.com/central-asia-caucasus/products/artificial-intelligence/what-is-artificial-intelligence.html [4] Проект Концепции развития искусственного интеллекта на 2024-2029 годы [5] https://journal.zakon.kz/203845-ponjatie-obekta prava.html#:~:text=Объект%20права%20зачастую%20рассматривается%20как,правоотношение%20устанавливается»%5B6%5D. [6] https://elar.urfu.ru/bitstream/10995/93439/1/978-5-7996-3103-1_2020.pdf [7] https://online.zakon.kz/Document/?doc_id=38398084&pos=7;-28#pos=7;-28 [8] Там же [9] https://cyberleninka.ru/article/n/yuridicheskaya-otvetstvennost-ponyatie-vidy-і-osobennosti [10] https://artificialintelligenceact.eu
Доступ к документам и консультации
от ведущих специалистов |