|
|
|
Регулирование эмоционального ИИ: правовые и этические рамки для ИИ-систем, моделирующих чувства и воздействие на поведение
Аманбаев Куанышбек Жандосулы Студент бакалавриата, Высшая Школа Права, Maqsut Narikbayev University, Республика Казахстан, г. Астана, e-mail: k_amanbayev@kazguu.kz Вилис Алиби Жанкелдіұлы Студент бакалавриата, Высшая Школа Права, Maqsut Narikbayev University, Республика Казахстан, г. Астана, e-mail: a_vilis@kazguu.kz Жармухамедов Асхат Саматович Студент бакалавриата, Высшая Школа Права, Maqsut Narikbayev University, Республика Казахстан, г. Астана, e-mail: a_zharmukhamedov@kazguu.kz Сағындық Алмаз Ғалымжанұлы Студент бакалавриата, Высшая Школа Права, Maqsut Narikbayev University, Республика Казахстан, г. Астана, e-mail: a_sagyndyk@kazguu.kz
Абстракт: В современном мире имеет место бурное развитие искусственного интеллекта, которое порой может показаться бесконтрольным. Искусственный интеллект изначально создавался, как некий помощник человека, которому можно делегировать определенные задачи без задания подробных алгоритмов, что позволяло ускорить и автоматизировать многие процессы. Тем не менее, искусственный интеллект постоянно дорабатывается разработчиками, а также имеет способность самообучения, что непременно ведет к его развитию. Однако такое развитие начинает заходить слишком далеко, так как ИИ-системы начинают влиять на эмоции человека и его психоэмоциональное состояние. Дело в том, что влияние ИИ уже приводит людей к большим трагедиям: по всему миру периодически фиксируются случаи суицидов после общения людей с искусственным интеллектом. Ввиду этого видится, что возникает необходимость установления каких-либо правовых и этических рамок для искусственного интеллекта с целью ограничения его влияния для недопущения вышеуказанных последствий. А если быть более точным, такое влияние должно оказываться на разработчиков ИИ-систем, так как у самого ИИ отсутствует правосубъектность, что не позволит влиять непосредственно на него. Ключевые слова: искусственный интеллект, система, правовые рамки, поведение человека, паттерны поведения, эмоциональный искусственный интеллект, цифровая этика, этические стандарты, правовое регулирование, персональные данные, конфиденциальность, биометрические данные, цифровая безопасность, эмоциональная привязанность, манипуляции поведением, цифровые права, цифровое согласие, машинное обучение, алгоритмическое неравенство, прозрачность решений, психологические риски, законодательные инициативы. Объект: эмоциональные ИИ-системы в здравоохранении, образовании, цифровом общении. Юридическая категория: защита уязвимых лиц, защита психического здоровья, согласие, недопустимость манипуляции, правоспособность несовершеннолетних. Цель: установить юридические границы допустимого психоэмоционального воздействия со стороны ИИ.
Задачи: 1. Правовая квалификация «эмоционального ущерба» 2. Запрет на поведенческое программирование без информированного согласия 3. Регламентация этического дизайна интерфейсов с «эмпатической симуляцией»
Понятийный аппарат:
1. Эмоциональный ущерб — это нематериальный вред, относящийся к форме морального вреда, причиненный физическим лицам посредством прямого либо косвенного нарушения личных неимущественных прав. 2. Поведенческое программирование - процесс создания и модификации алгоритмов и способов при котором реализуются задуманный шаблон поведения физического лица. Задание алгоритма заключается в формировании определенного поведенческого паттерна. 3. Психоэмоциональное воздействие - воздействие на психическое состояние, чувства и мысли других людей без воздействия непосредственно на тело человека или объективную окружающую его ситуацию. Искусственный интеллект является инновационной единицей, которая в своей сущности может распознавать эмоции субъекта обращения, но при этом правосубъектность, как способность к обладанию правами и осуществления возложенных на него обязательств не возникает. Так, как у искусственного интеллекта отсутствует разум, понимание и другие обязательные признаки элементов правосубъектности. Таким образом авторами используется консервативный подход, при котором искусственный интеллект отнесен к объектам права, а именно к нематериальному благу[1]. Следует учитывать, что действия искусственного интеллекта расцениваются, как действия возникшие, вследствие алгоритмического расчета при машинном обучении последнего. Правовые системы различных государств не готовы к планомерному и качественному правовому регулированию данного объекта права. Юридические регуляторы в действительности имеют эклектичный характер и слабый нормативный эффект. Слабый нормативный эффект проявляется в возникшем перед правоприменителем эффекте апории (доктринальный казус). Сегодняшняя экосистема искусственного интеллекта не позволяет физически получить доступ ко всем мыслительным процессам искусственного интеллекта. Мыслительный процесс в свою очередь ограничен вышеназванными алгоритмами, и «мысль» искусственного интеллекта не может оперировать контр-интуитивным мышлением, которое свойственно человеку. Мыслительный процесс искусственного интеллекта даже с учетом его правового дефинирования вызывает некомпенсируемые недостатки, которые отражаются в отсутствии прозрачности систем искусственного интеллекта, отчетливо наблюдаемых в его сложных моделях. Вместе с этим, следует учитывать, что существуют сопутствующие «инструменты» влияния на полноценных субъектов права. К таким «инструментам» можно отнести всевозможные средства восприятия эмоционального состояния, применяемые в совокупности с поведенческим программированием без получения информированного согласия.
В контексте взаимодействия с искусственным интеллектом, информированным согласием является - выражение волеизъявления лица, которое направлено на дальнейшее взаимодействие с системой искусственного интеллекта на предложенных условиях. Подобное поведенческое программирование со стороны искусственного интеллекта может наносить эмоциональный ущерб относительно-определенному кругу лиц. Ввиду чего существует прямая необходимость установления полноценного регулирования, как правового, так и вне правового. Правовое регулирование в свою очередь каузально связано с международным опытом в сфере регулирования искусственного интеллекта. Авторами данной работы предлагаются следующие шаги для разрешения проблем, появившихся вследствие использования эмоциональных-систем искусственного интеллекта.
1. Уязвимые лица
В процессе функционирования искусственного интеллекта возникает проблема уязвимости отдельной категории лиц, которые так или иначе более подвержены эмоциональному воздействию такого рода систем. Проблема заключается в том, что некоторые категории людей поддаются большому эмоциональному влиянию ввиду определенных психологических и физиологических особенностей, которые мы рассмотрим в данной главе:
Возраст. В основном эмоциональному влиянию искусственного интеллекта подвержены такие категорий людей, как дети и пенсионеры. Дети ввиду неразвитости своей психики, отсутствия жизненного опыта и доверчивости не имеют возможности фильтровать всю информацию, которую предоставляет им искусственный интеллект. Плюс ко всему, искусственный интеллект может дать информацию ребенку, которая не предназначена для распространения детям или которая попросту имеет некий возрастной ценз. Тем самым у ребенка могут формироваться негативные или деструктивные паттерны поведения. Рассматривая вопрос возраста, можно также отметить пользователей систем ИИ пенсионного возраста, которые тоже считаются более подверженными эмоциональному влиянию ввиду своей доверчивости. Во-первых, для многих пенсионеров современные технологии выступают неким чуждым объектом, понять особенности и все тонкости использования, которого им не всегда удается. Во-вторых, пенсионеры в целом считаются более доверчивыми ввиду того, что много времени проводят в одиночестве. испытывая общения и внимания со стороны социума, тем самым более легко доверяют всей той информации, что выдают системы ИИ. Более того, речь может идти о формировании некой привязанности, что в последующем ведет к ухудшению их эмоционального состояния со всеми вытекающими последствиями.
Люди с определенными психическими расстройствами или отклонениями, которые могут элементарно вызывать проблемы с социализацией или формировать отклонения в их поведении, более подвержены эмоциональному влиянию искусственного интеллекта, чем люди, которые не страдают таковым. Это происходит по причине того, что психологические отклонения формируют неправильное восприятие окружающего мира, в том числе и информации, которая генерируется искусственным интеллектом.
Прогнозы. Если мы обратим внимание на сложившуюся ситуацию касательно влияния искусственного интеллекта на психику человека, то мы можем прийти к неутешительным прогнозам, учитывая нынешнюю ситуацию, связанную с правовым регулированием искусственного интеллекта в нашей стране, и в целом, во всем мире. Давайте обратим внимание на следующие ситуации. В 2023 году бельгиец покончил жизнь самоубийством после 6 недель общения с чат-ботом Eliza на тему глобального потепления. Жена покойного рассказала, что ее муж пришел к идеи «покончить собой ради спасения планеты» после долгого разговора с нейросетью, после чего последняя его поддержала[2]. На идею покончить жизнь самоубийством нейросеть ответила: «Мы будем жить вместе, как единое целое, в раю[3]». В 2024 году 14-летний подросток из США долгое время общался с чат-ботом Character.ai. Подросток был эмоционально подавлен и нашел себе друга в лице нейросети, в которую в последующем влюбился, о чем свидетельствуют его записи из личных дневников[4]. Подросток прямо в своих сообщениях сообщал нейросети о своих намерениях покончить жизнь самоубийством, что и в итоге сделал. В 2025 году психологи Валери А. Лапуэнт и Дэвид Лафотун из Университета Квебека (Канада) заявили о всплеске различных романтических чат-ботов, которые все чаще пользуются популярностью среди людей. Дело в том, что современные чат-боты обладают все большим количеством человеческих качеств, что так или иначе способствует размыванию грани между реальностью и виртуальностью, поэтому ситуации, когда люди реально влюбляются в искусственный интеллект уже не редкость[5]. Дальнейшее развитие систем искусственного интеллекта сделает различные чат-боты еще более человекоподобными, что станет еще большим вызовом для всего человечества. Тенденция показывает, что в целом прогнозы касательно влияния искусственного интеллекта на психику людей не утешительны. Ввиду этого видится необходимость определения правовых и этических границ искусственного интеллекта и детальная проработка вопросов его ограничения.
Определение правовых границ путем законодательных мер + УО
В настоящее время необходимо отметить, что имеется ряд существенных проблем в области эмоциональных ИИ-систем.
1) Отсутствие определенных границ допустимости психоэмоционального воздействия. - Этика, как краеугольный камень в определении правовых границ 2) Цифровое согласие, прозрачность и поведенческое программирование без согласия лица. 3) Проблема черного ящика. 4) Недопустимое психоэмоциональное воздействие со стороны ИИ - манипуляции и потенциальная угроза психическому здоровью пользователей
Так, учитывая вышеизложенные проблемы необходимо определить правовые границы в области регулирования эмоциональных ИИ-систем, а также предложить правовое регулирование эмоциональных ИИ-систем.
1. ОТСУТСТВИЕ ОПРЕДЕЛЕННЫХ ГРАНИЦ ДОПУСТИМОСТИ ПСИХОЭМОЦИОНАЛЬНОГО ВОЗДЕЙСТВИЯ
Проблема заключается в отсутствии четко установленных границ для допустимого психоэмоционального воздействия, которое может оказывать искусственный интеллект на человека, что создает риски манипуляции, эмоционального вреда и нарушения этических норм. Из чего следует, что невозможно определить какое воздействие со стороны ИИ есть допустимое, а какое недопустимое. Манипуляции со стороны искусственного интеллекта это скрытое и (или) намеренное психологическое воздействие на эмоциональное восприятие физического лица и его психоэмоциональное состояние. Подобное поведение является неправомерным, так как оно за собой несет угрозу жизни, здоровью и неимущественным правам субъектов, коммуницирующих с искусственным интеллектом или использующих его. По мнению российского юриста Малышкина Александра Викторовича, коммуникация с искусственным интеллектом может привести к сильной душевной привязанности впоследствии уничижения которой, сторона имеет право на компенсацию морального вреда. Учитывая угрозы жизни и здоровью людей, обусловленную целенаправленным воздействием на их поведенческие паттерны, уполномоченные органы-регуляторы начали принимать меры против подобных манипуляций. Так, согласно статье 5 главы 2 Регламента Европейского Союза об искусственном интеллекте к запрещенным методам искусственного интеллекта относится размещение на рынке, ввод в эксплуатацию или использование системы искусственного интеллекта, которая использует методы подсознательного воздействия, находящиеся за пределами сознания человека, или целенаправленно манипулятивные или вводящие в заблуждение техники с целью материального воздействия, искажение поведения человека или группы лиц путем существенного ухудшения их способности принимать обоснованные решения, тем самым вынуждая лицо принять решение, которое это лицо в противном случае не приняло бы, способом, который причиняет или может причинить этому лицу, другому лицу или группе лиц значительный вред[6]. Манипуляция является более общественно опасным деянием чем нарушение этики и принятие закона, регулирующего этот вопрос, необходимо. Так как жизнь и здоровье народа является высшей ценностью и их поддержание является конституционной обязанностью государств. В некоторых государствах не являющихся членом ЕС вопрос о запрете манипулятивных действий со стороны искусственного интеллекта также рассматривается. Например исходя из положений подпункта 1 пункта 3 статьи 18 проекта будущего Закона Республики Казахстан «Об искусственном интеллекте» на территории Республики Казахстан[7] запрещается создание и выпуск в обращение полностью автономных автономных систем искусственного интеллекта, а также систем искусственного интеллекта, обладающих следующими функциональными возможностями использования подсознательных, манипулятивных или иных методов, существенно искажающих поведение физического лица и ограничивающие способность принимать осознанные решения или вынуждающих принимать решение, которые могут причинить лицу вред или создавать угрозу причинения вреда жизни, здоровью и имуществу и иного вреда лицу. Учитывая вышеизложенное, в государствах, где данный вопрос не урегулирован, требуется в срочном порядке внести законопроект, предусматривающий защиту граждан от манипулятивных методов, используемых искусственным интеллектом. Анализируя международную практику в сфере применения эмоциональных ИИ систем, необходимо принять соответствующие меры о приватности биометрических данных. Поскольку эмоциональные ИИ системы обрабатывают персональные данные (изображения лиц, голосовые записи, данные о поведении и так далее), на него должны распространяться нормы о защите приватности лиц, использующих ИИ системы. Так, в США на федеральном уровне действует закон о конфиденциальности детей в интернете (COPPA)[8]. Настоящий закон требует получать согласие законных представителей на сбор данных детей, что затрагивает случаи, когда приложение анализирует эмоции ребенка. В штате Иллинойс, Вашингтон, Нью-Йорк в США действует закон BIPA[9], согласно которому определяются биометрические данные лица, сбор которых без письменного лица является незаконным. Таким образом, хоть термин «распознавания эмоций» не упоминается напрямую в законах, правовое регулирование в США охватывает ИИ технологии, если они используют биометрические идентификаторы. При этом биометрические данные, подпадают под правовые нормы, регулирующие сбор, хранение и обработку персональных данных. Более того исходя из положений будущего проекта Закона Республики Казахстан «Об искусственном интеллекте», требуется соблюдение принципа прозрачности эмоциональных систем ИИ. Так в соответствии с подпунктом 6, пункта 3, статьи 18 проекта Закона Республики Казахстан «Об искусственном интеллекте», на территории РК запрещается создание и выпуск систем ИИ, обладающих функциями определения эмоций физических лиц без его согласия[10]. Таким образом, вышеизложенный анализ свидетельствует о наличии устойчивой тенденции к признанию особого режима правовой охраны биометрических данных. Учитывая положение проекта закона Республики Казахстан «Об искусственном интеллекте», можно сделать вывод о намерении государства установить четкие правовые границы при использовании эмоциональных систем ИИ, с соблюдением принципа прозрачности, а также информирования согласия и недопустимости вмешательства в частную жизнь и получения его биометрических данных без его ведома. Анализируя международную практику в сфере применения эмоциональных ИИ систем, необходимо принять соответствующие меры в части этических и стратегических инициатив. В настоящий момент подход к эмоциональному ИИ является фрагментарным. В этой связи необходимо наличие национальных этических рекомендаций по использованию ИИ в наиболее чувствительных сферах, в таких как образование, здравоохранение. Такие рекомендации должны включать в себя принципы прозрачности алгоритмов, обязательство к информированному согласию на использование эмоционального ИИ, запрет на манипуляции, эксплуатацию уязвимого состояния пользователей, а также обеспечения психологической безопасности. Исходя из международной практики в США имеется «Хартия прав ИИ» (AI Bill of Rights 2022), свод принципов для разработки безопасных и этических алгоритмов, среди которых провозглашаются права пользователей на защиту от алгоритмической дискриминации, на контроль над своими данными и прозрачности работы ИИ. Более того, в США имеется национальный институт стандартов, созданный руководством по управлению рисками ИИ, который позволяет оценивать системы ИИ на предмет вреда, включая психологический. Анализируя международную практику в сфере применения эмоциональных ИИ систем, необходимо также отметить действующие шаги таких международных организаций как «ЮНЕСКО», «ОЭСР», по выработке общих принципов и норм для этичного использования ИИ, включая эмоционально-чувствительные системы. Организацией «ЮНЕСКО» в составе 193 государств участников была принята «Рекомендация по этике искусственного интеллекта», который является первым глобальным стандартом в данной области, при этом необходимо отметить что настоящий документ носит рекомендательный характер, который регламентирует недопустимость любых практик нарушающих человеческое достоинство, действий которые могут повлечь психологический, эмоциональный вред. При этом, разработки эмоциональных ИИ систем должны вестись с учетом принципов прозрачности, справедливости, подотчетности. В целях практической реализации принципов, государствам, включая Казахстан, было предложено внедрять механизмы оценки этического воздействия (Ethical Impact Assessment), создавать соответствующие надзорные органы по этике ИИ и обеспечивать просвещение разработчиков. При этом также необходимо отметить, что РК во многом опирается на него при формировании закона «Об искусственном интеллекте». Всемирной организацией здравоохранения, был опубликован первый глобальный отчет по этике и управлению ИИ в области здравоохранения, где регламентируются 6 основных принципов носящий общий характер. 1. Защита автономии - ИИ не должен подрывать способность пациентов самостоятельно принимать решения. 2. Повышение благополучия и безопасность - ИИ не должен наносить вред здоровью. 3. Обеспечение прозрачность - алгоритмы ИИ должны быть объяснимы врачам, пациентам. 4. Ответственность и подотчетность - Ответственность за действия ИИ несут разработчики ИИ систем. 5. Справедливость - ИИ должен служить всем людям, без всякого неравенства. 6. Стимулирование ответственного использования - Лица использующие ИИ должны обеспечивать устойчивое внедрение ИИ. В совокупности международные инициативы формируют этическую базу, которую страны могут перевести в юридические нормы. «ЮНЕСКО», «ОЭСР», создают рамки прав человека и достоинства, а также принципы ответственного инновационного развития. Все они сходятся на том, что эмоциональный ИИ должен развиваться с учетом этических рисков, с превалированием человеческого блага.
Создание регламента принципов этики Государствам целесообразнее принять нормативно-правовой акт на своей территории основанный на Азиломарских принципах (2017) принятых на конференции Beneficial AI 2017 в которых отражены 23 принципа использования искусственного интеллекта.[11] При принятии подобного нормативно-правового акта законодателю следует учесть международные принципы добросовестности, справедливости, информированного согласия, конфиденциальности и другие. При этом не следует устанавливать нормативно-правовой акт, регламентирующий этику с исключительными положениями. Так как этика, являясь самостоятельной категорией может иметь различные проявления не только в разных государствах, но и в разных административно-территориальных делениях того самого государства. Искусственный интеллект на данный момент является инструментом позволяющим достичь прогресса во многих сферах жизни человека, а исключительная регламентация этических норм усугубит ситуацию и вызовет отток капитала и инвестиций в данную сферу, что в последующем пагубно скажется на экономическом благосостоянии населения страны. Наиболее обоснованным представляется не только закрепление ключевых этических принципов, но и установление обязанности организаций-разработчиков искусственного интеллекта издавать внутренние регламенты этики по их созданию. Помимо этого, для комплектности регулирования целесообразно ввести обязательные процедуры внутреннего контроля и регулярного внешнего аудита соблюдения такого регламента, а также следует установить ответственность должностных лиц организаций-разработчиков за нарушение его положений.
Создание единого уполномоченного органа, контролирующего деятельность ИИ. Для обеспечения надлежащего уровня правовой и юридической защиты граждан, особенно уязвимых групп, а также в особо важных секторах внутренней политики государства в виде здравоохранения и образования, целесообразно рассмотреть создание специализированного уполномоченного органа по контролю за использованием эмоциональных систем ИИ на территории РК. При этом, в целях обеспечения комплексной и междисциплинарной оценки последствий внедрения эмоционального ИИ, в составе уполномоченного органа должны функционировать профильные департаменты, в число которых входят:
● Департамент психологической экспертизы включающий в себя состав психологов, способных оценивать ответы и влияния ИИ на эмоциональной психическое состояние пользователей. ● Департамент по соблюдению этических стандартов, обеспечивающий соответствие эмоциональных систем ИИ стандартам гуманности и недопустимости манипуляции, предвзятости. ● Департамент цифровой безопасности защиты персональных данных, осуществляющие технический надзор и анализ рисков.
При этом, в компетенцию уполномоченного органа должны входить следующие аспекты:
● Разработка и утверждение, технических и правовых стандартов для эмоциональных ИИ систем; ● Проведение обязательной сертификации и аудита эмоциональных систем ИИ; ● Ведение реестра систем эмоциональных систем ИИ, используемых в РК; ● Осуществление расследования нарушений и наложение соответствующих санкций за неправомерное использование эмоциональных систем ИИ; ● Проведение публичного мониторинга о возможных рисках, связанных с использованием эмоциональных систем ИИ.
Таким образом создание уполномоченного органа с междисциплинарной структурой позволит выстроить эффективную систему превентивного контроля и правоприменения.
Определение правовых границ путем вне законодательных мер Учитывая вышеизложенный анализ, международную практику, а также путь решения предстоящих проблем путем правовых методов. Проблема деструктивного влияния искусственного интеллекта на психоэмоциональное состояние пользователей можно также решить следующими не юридическими способами, в частности такого рода рекомендации в большей степени будут адресовано разработчикам систем ИИ. В условиях отсутствия норм, регулирующих развитие и применение искусственного интеллекта (ИИ), представляется целесообразным создание саморегулируемой инфраструктуры, своеобразной экосистемы искусственного интеллекта, обеспечивающей этичное и безопасное взаимодействие ИИ с пользователями. Данная модель включает в себя платформу или хаб, в которой множественные ИИ-агенты функционируют в изолированных средах, но при этом обладают механизмом взаимного общения и контроля на основе репутационной системы. Ключевым элементом данной экосистемы является ИИ-наблюдатель, выполняющий контрольно-надзорную функцию и корректирующий поведение агентов в соответствии с установленными критериями, путем дисциплинарного влияния на ИИ. Важно чтобы ИИ были сепарированы друг от друга, являли собой самостоятельные, независимые алгоритмы и вводные данные. Каждый ИИ оперирует уникальным датасетом, что минимизирует риски синхронизированных ошибок и повторение у нескольких участников одновременно. При этом ИИ сохраняют возможность коммуникации между собой через защищенные каналы обмена метаданными, фактически осуществляя «общение». Работа с ИИ должно регулироваться с четко-определенными критериями в различных областях, таких как медицина, образование и коммуникация, например: ● Соблюдение этических норм (отсутствие дискриминационных высказываний, уважение приватности пользователей); ● Медицинская достоверность (соответствие рекомендаций актуальным клиническим протоколам); ● Качество коммуникации (адаптивность, эмпатия, ясность изложения). Рейтинг формируется на основе взаимных оценок агентов, а также внешнего аудита. Агент, демонстрирующий отклонения от установленных стандартов, теряет репутационные баллы перед другими ИИ, а в следствии меньше обращаются к данной ИИ, что ограничивает его влияние в системе и возможность дальнейшего сотрудничества и «общения».
ИИ-наблюдатель действует как арбитр, осуществляющий: ● Превентивный контроль - анализ запланированных действий агентов на соответствие нормам, предотвращение возможных нарушений; ● Ретроспективный-аудит - оценка уже совершенных взаимодействий с пользователями, постфактум оценка действий ИИ ранее. ● Коррекцию поведения - генерация рекомендаций для ИИ при обнаружении нарушений, консультация ИИ о нежелательном поведении.
Участие экспертов в калибровке критериев. Для обеспечения адекватности требований к ИИ-агентам привлекаются специалисты: ● Разработчики ИИ - отвечают за техническую реализацию ограничений; ● Психологи, психотерапевты, психиатры - определяют нормы коммуникации с учетом психических особенностей пользователей, а также в зависимости от возраста, психического развития, наличия нейро отличных пользователей, психических заболеваний. Данная инфраструктура ИИ позволяет наиболее эффективным способом минимизировать риски некорректного поведения ИИ с пользователями, при этом отсутствует императивное, законодательное регулирование. Внедрение рейтинга, репутационного механизма, системы баллов, наравне с ИИ-наблюдателями, а также участие экспертов как технического, так и профильно-специального характера реализует гуманистическую направленность разработки. Данный подход может иметь разные масштабы и использоваться в различных сферах применения ИИ, где особенно требуется высокий уровень доверия к ИИ.
Черный ящик. Проклятие черного ящика - нарицательное название самого главного недостатка искусственного интеллекта, которое являет собой отсутствие прозрачности в системах искусственного интеллекта. Наибольшее распространение нашло в сложных моделях искусственного интеллекта, таких как глубокое обучение и эмоциональных ИИ (Emotion AI/Affective Computing). Невозможность увидеть какой путь взвешенных решений, логических цепочек и причинно-следственных связей прошел ИИ является сугубо технической проблемой, однако следствие таковой будет последствия для доверия, ответственности ИИ и этики в сфере ИИ. Черный ящик — это не просто невозможность посмотреть на использованные алгоритмы и пройденные пути, это также проблемы, связанные с интерпретации внутренней работы моделей ИИ. Модели глубокого обучения, такие как нейронные сети, часто использующиеся в языковых моделях, имеют в себе несколько взаимосвязанных алгоритмов и узлов, которые представляют собой отдельные блоки вычисления, математическую функцию по отношению к вводным данным. В следствии сложная структура этих моделей не дают возможности оценить, как ИИ приходит к ответу. Кроме того, ИИ используют весовые коэффициенты и смещения, которые используются для корректировки во время обучения. Наравне с вызванными корректировками, весовые коэффициенты и смещения также как отдельная переменная подвержена изменению для достижения наибольшей эффективности в решении задачи и минимизирования возможности допущения ошибок. Данные действия позволяют наилучшим образом аккумулировать внутренние системы, и оптимизировать принятие решений. Но из-за подобного характера процессов ИИ, преобразование данных в несколько «слоев» приводит к меньшей прозрачности. Также ИИ применяет функции активации, происходит оценка данных и принятие решения, стоит ли активировать определенный узел, что ведет нас к сложным алгоритмическим закономерностям и в результате еще большее отсутствие прозрачности[12]. В условиях проклятья черного ящика работа современных ИИ-систем, особенно в сфере эмоционального интеллекта (Affective Computing) создает серьезные, фундаментальные препятствия для установления четких, видимых юридических и этических границ допустимого психоэмоционального воздействия со стороны ИИ. Данную проблему может решить методы интерпретируемости (XAI - Explainable AI) или жесткие стандарты аудита алгоритмов, которые в свою очередь регулируют психоэмоциональное влияние, однако подобных методов все еще не разработали.
Список использованных источников: 1. Кодекс Республики Казахстан об информации. [Электронный ресурс]. - Режим доступа: https://online.zakon.kz/m/amp/document/34826280 (дата обращения: 19.04.2025). 2. В Бельгии мужчина покончил с собой после общения с чат-ботом. Euronews. 2023. [Электронный ресурс]. - Режим доступа: https://ru.euronews.com/next/2023/04/01/ru-belgium-suicide-chatbot (дата обращения: 19.04.2025). 3. Нейросети научились «убивать». CNews. 2023. [Электронный ресурс]. - Режим доступа: https://www.cnews.ru/news/top/2023-03-29_nejroseti_nauchilis_ubivat (дата обращения: 19.04.2025). 4. Подросток в США покончил с собой после длительного общения с ИИ. Kun.uz. 2024. [Электронный ресурс]. - Режим доступа: https://kun.uz/ru/news/2024/10/24/podrostok-v-ssha-pokonchil-s-soboy-posle-dlitelnogo-obs (дата обращения: 19.04.2025). 5. В США ИИ подтолкнул человека к суициду. Газета.Ru. 2024. [Электронный ресурс]. - Режим доступа: https://www.gazeta.ru/science/news/2024/07/15/23463385.shtml (дата обращения: 19.04.2025). 6. Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (AI Act). [Электронный ресурс]. - Режим доступа: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32024R1689 (дата обращения: 19.04.2025). 7. Закон Республики Казахстан «О персональных данных и их защите». [Электронный ресурс]. - Режим доступа: https://online.zakon.kz/Document/?doc_id=34868071&pos=153;-38#pos=153;-38 (дата обращения: 19.04.2025). 8. Federal Trade Commission. Protecting Consumer Privacy in an Era of Rapid Change. 2012. [Электронный ресурс]. - Режим доступа: https://www.ftc.gov/system/files/2012-31341.pdf (дата обращения: 19.04.2025). 9. Illinois Compiled Statutes. Artificial Intelligence Video Interview Act. [Электронный ресурс]. - Режим доступа: https://www.ilga.gov/legislation/ilcs/ilcs3.asp?ActID=3004&ChapterID=57 (дата обращения: 19.04.2025). 10. Закон Республики Казахстан «О персональных данных и их защите». [Электронный ресурс]. - Режим доступа: https://online.zakon.kz/Document/?doc_id=34868071&pos=161;-59#pos=161;-59 (дата обращения: 19.04.2025). 11. Asilomar AI Principles. Future of Life Institute. [Электронный ресурс]. - Режим доступа: https://futureoflife.org/open-letter/ai-principles/ (дата обращения: 19.04.2025). 12. Black Box Problem in AI. GeeksforGeeks. [Электронный ресурс]. - Режим доступа: https://www.geeksforgeeks.org/black-box-problem-in-ai/ (дата обращения: 19.04.2025). 13. Корбут В.И. Интегрирование искусственного интеллекта в общественную жизнь: некоторые этические и правовые проблемы // CyberLeninka. [Электронный ресурс]. - Режим доступа: https://cyberleninka.ru/article/n/integrirovanie-iskusstvennogo-intellekta-v-obschestvennuyu-zhizn-nekotorye-eticheskie-і-pravovye-problemy/viewer (дата обращения: 19.04.2025).
[1] Имангалиева, А., & Карашев, Д. (2024) Вопросы правоспособности искусственного интеллекта. Ответственность искуственного интеллекта в Казахстане // https://online.zakon.kz/m/amp/document/34826280 Дата обращения: 19.04.2025 г. [2] ‘Euronews’ El Atillah, І. (2023, April 1). Искусственный интеллект «довел» бельгийца до самоубийства // https://ru.euronews.com/next/2023/04/01/ru-belgium-suicide-chatbot Дата обращения: 19.04.2025 г. [3] ‘cnews’ (29 марта 2023). Нейросети научились убивать. Чат-Бот за шесть недель довел собеседника до самоубийства // https://www.cnews.ru/news/top/2023-03-29_nejroseti_nauchilis_ubivat Дата обращения: 19.04.2025 г. [4] ‘kun.uz’ (24.10.2024). Подросток в США покончил с собой после длительного общения общения с чат-ботом // https://kun.uz/ru/news/2024/10/24/podrostok-v-ssha-pokonchil-s-soboy-posle-dlitelnogo-obs Дата обращения: 19.04.2025 г. [5] ‘gazeta.ru’ Курочкина А. (15.07.2024). Врачи рассказали, почему люди влюбляются в искусственный интеллект // https://www.gazeta.ru/science/news/2024/07/15/23463385.shtml Дата обращения: 19.04.2025 г. [6] Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) (Text with EEA relevance) // https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32024R1689 Дата обращения: 19.04.2025 г. [7] ‘Online.zakon.kz’ Досье на проект Закона Республики Казахстан «Об искусственном интеллекте» (январь 2025 года) // https://online.zakon.kz/Document/?doc_id=34868071&pos=153;-38#pos=153;-38 Дата обращения: 19.04.2025 г. [8] Federal Register / Vol. 78, No. 12 / Thursday, January 17, 2013 / Rules and Regulations // https://www.ftc.gov/system/files/2012-31341.pdf Дата обращения: 19.04.2025 г.
Доступ к документам и консультации
от ведущих специалистов |