Гуманитарные ведомости. Вып. 2 (46) 2023 г

Гуманитарные ведомости ТГПУ им. Л. Н. Толстого № 2 (46), июль 2023 г. 40 Этика искусственного интеллекта (далее – этика ИИ) концентрируется вокруг распространения и влияния технологий ИИ на будущее человечества, что придает проблеме особую актуальность в условиях существующей глобальной напряженности. При рассмотрении этики ИИ отдельное внимание следует уделить самому определению «искусственный интеллект». С правовой точки зрения ИИ предстает как «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма)» [1]. Определения ИИ в философской (этической) литературе заостряют внимание на именно тех его функциях, которые так или иначе могут быть связаны с этическими и аксиологическими рисками [2; 3; 4]. Содержание этики ИИ описывается на основании определения ИИ как субъекта или объекта этических исследований [2]. При рассмотрении ИИ как объекта этического анализа описываются такие этические проблемы, как текущие риски воздействия систем ИИ на личность, общество, экономику, политику, культуру. Как субъект этических исследований ИИ анализируется как автономная система – именно такой подход к этике ИИ ставит на первый план проблему этического прогнозирования проблем ИИ [2]. Обзор философских исследований и этико-правовых документов по ИИ позволил сделать вывод, что актуальные проблемы ИИ можно структурировать в зависимости от определенных моделей интерпретации искусственного интеллекта . Нами были выделены следующие такие модели: 1. Либерально-утилитаристская модель интерпретации ИИ. 2. Этико-антропологическая модель интерпретации ИИ. 3. Социально-прогностическая модель интерпретации ИИ. Либерально-утилитаристская модель интерпретации ИИ. Используя подход С. С. Баженова к анализу этики ИИ [5], либерально-утилитаристскую модель можно разделить на два направления – деонтологическое и консеквенциальное. Пример консеквенциального направления этой модели можно найти в различных международных этико-правовых документах по регулированию технологий ИИ: Organisation for Economic Cooperation and Development, OECD; Принципы «Группы 20» (G20) по ИИ; Этические рекомендации по применению ИИ и робототехнике в Европейском парламенте, рекомендации ЮНЕСКО по этике ИИ. На данный момент эти документы подвергаются критике по причине политизации и коммерциализации проблемы [2; 6]. Либерально-утилитаристская модель предлагает достаточно ограниченную зону этической рефлексии, не выходящую за рамки либерального социально-политического устройства. С другой стороны, эта модель интерпретации ИИ, концентрирует внимание на политической и экономической сферах, и такой подход продвигает, в первую очередь, интересы международных корпораций и разработчиков ИИ. Примером этических проблем ИИ, обозначенных в рамках либерально-утилитаристской модели, являются дилеммы этики ИИ, выделенные, как наиболее значимые, в ходе Международного экономического форума [7]. Деонтологический подход в

RkJQdWJsaXNoZXIy ODQ5NTQ=