Исследовательский потенациал молодых ученых: взгляд в будущее - 2024

161 Нужно понимать, что источником риска выступает субъект действий, а не объ- ект, и в этом случае субъектом рисков ИИ является не сама машина, а человек, который задает алгоритмы этой машине. При том, что настройка алгоритмов происходит как раз-таки по принципу дилеммы вагонетки, где искусственный интеллект должен выбрать наименьшее из зол [3]. Регулирование вопросов этической алгоритмизации имеет несколько видов: 1. Соблюдение этических принципов является добровольным делом; 2. Этическое регулирование существует, нормативно закреплено, но имеет характер умеренного правового регулирования – поощрение разработок, их кор- ректировка без противоречий прибыли для бизнеса; 3. Строгое регламентирование применения искусственного интеллекта и ра- боты с ним, включая запреты и строгий контроль. Наибольшее количество издания регламентирующих деятельность искусст- венного интеллектов документов зафиксировано в 2017–2019 годы. По мнению ученых, данный факт связан с желанием всех связанных с искусственным интел- лектом пролоббировать выбор первых двух видов регулирования. [7] Так, евро- комиссия предложила правовую базу в области искусственного интеллекта, ко- торая устраняет риски, связанные с искусственным интеллектом. В ней про- писаны запрещающие виды практики искусственного интеллекта. Например, вводить и применять системы ИИ, которые: а) искажают поведение человека таким образом, что причиняют ему психо- логический и/или физический вред; б) используют персональные/биометрические данные и/или прочие данные, которые являются конфиденциальными и преднамеренно их искажают; в) государственными органами или от их лица собирают данные о лице для оценки и классификации его благонадежности на основе социального поведения или известных и/или прогнозируемых личностных характеристик [10]. Стоит упомянуть Азиломарские принципы искусственного интеллекта, в которых вольно или невольно закрепилось уподобление поведения ИИ поведе- нию человека [11]. В России в 2021 году также был принят кодекс этики для сферы ИИ. Согласно этому кодексу, основными этическими принципами и цен- тральным этическим критерием оценки субъектов в сфере ИИ является гумани- стический и человеко-ориентированный подход [9]. Кто и как контролирует соблюдение названных принципов? Как будет осу- ществляться мониторинг соблюдения принципов? Эти вопросы пока остаются открытыми. В принятых декларациях и кодексах вопрос о механизмах контроля и наказания вообще фактически отсутствует. Появившийся термин «Этический искусственный интеллект» означает, что разработчики самостоятельно определяют и декларируют определенную си- стему принципов, которой они руководствуются при создании технологий. Тем самым демонстрируется добрая воля создателей, заявляющих в качестве своих целей «содействие прогрессу общества и человеческой цивилизации, устойчи-

RkJQdWJsaXNoZXIy ODQ5NTQ=