| ||||||||||||||||||||
|
|
|
Утверждены Требования к методике оценки опасности систем искусственного интеллекта
Постановление Кабинета Министров Кыргызской Республики от 2 декабря 2025 года № 770 «Об утверждении требований к методике оценки опасности систем искусственного интеллекта, а также требований в отношении систем искусственного интеллекта повышенной опасности» Владельцам систем искусственного интеллекта, применяемым в Кыргызской Республике, независимо от организационно-правовых форм, ведомственной (отраслевой) принадлежности и форм собственности поручено: обеспечить проведение оценки опасности систем искусственного интеллекта на соответствующих стадиях их жизненного цикла по методикам, разработанным и утвержденным самостоятельно, в соответствии с утвержденными постановлением требованиями; в случае отнесения по результатам оценки опасности систем искусственного интеллекта к системам искусственного интеллекта повышенной опасности: - обеспечить их соответствие обязательным требованиям, утвержденным постановлением; - внедрить и на протяжении всего жизненного цикла поддерживать систему управления рисками; - разработать и разместить на своих веб-сайтах техническую документацию для таких систем и обеспечить общедоступность иных требуемых документов в порядке, установленном Цифровым кодексом Кыргызской Республики и постановлением. Все системы искусственного интеллекта, применяемые в Кыргызской Республике, подлежат оценке опасности, которую их применение может создать для охраняемых благ, к которым относятся: 1) жизнь и здоровье людей; 2) права и свободы человека и гражданина; 3) окружающая среда; 4) обороноспособность государства; 5) национальная безопасность государства; 6) общественный порядок. Целями проведения оценки опасности систем искусственного интеллекта являются: 1) выявление оснований, позволяющих отнести оцениваемые системы искусственного интеллекта к системам искусственного интеллекта повышенной опасности, подпадающих под обязательные требования, установленные Цифровым кодексом Кыргызской Республики; 2) определение рисков причинения вреда охраняемым благам, которые могут возникнуть в результате применения оцениваемых систем искусственного интеллекта; 3) оценка вероятности наступления и размера причинения вреда охраняемым благам, которые могут возникнуть в результате применения оцениваемых систем искусственного интеллекта. Оценка опасности осуществляется владельцами систем искусственного интеллекта: 1) на этапе проектирования систем искусственного интеллекта или планирования изменений в них; 2) по завершении разработки и до начала применения систем искусственного интеллекта или внесенных в них запланированных изменений; 3) при любых незапланированных изменениях, произошедших в системах искусственного интеллекта или в среде их применения, которые стали известны владельцам или пользователям систем и могут повлиять на результат оценки их опасности. Кроме того, постановлением утверждены: 1) Требования к управлению рисками в отношении систем искусственного интеллекта повышенной опасности; 2) Требования к характеристикам систем искусственного интеллекта повышенной опасности, обеспечивающим открытость, объяснимость, подконтрольность, точность, надежность и цифровую устойчивость таких систем; 3) Требования к качеству цифровых данных для систем искусственного интеллекта повышенной опасности; 4) Требования к технической документации на системы искусственного интеллекта повышенной опасности. Постановление вступает в силу по истечении пятнадцати дней со дня вступления в силу Цифрового кодекса Кыргызской Республики.
Доступ к документам и консультации
от ведущих специалистов |