Гуманитарные ведомости. Вып. 2 (46) 2023 г

Гуманитарные ведомости ТГПУ им. Л. Н. Толстого № 2 (46), июль 2023 г. 41 либерально-утилитаристской модели интерпретации этики ИИ представлен известным исследователем цифровой этики Л. Флориди, который отмечает, что прогнозирование последствий ИИ может не иметь смысла, необходимо решать текущие проблемы, которые создает не ИИ, а сам человек [8]. Отношение к ИИ как к средству решения текущих проблем, о чем говорит Л. Флориди, можно интерпретировать достаточно широко, ведь, если текущая проблема предполагает, например, ограничение свободы ради блага всех, то ИИ станет средством ограничения свободы. Этико-антропологическая модель интерпретации ИИ. Эта модель учитывает не столько сам факт существования ИИ, сколько этические проблемы человека в цифровом обществе: вопрос об этической категории ответственности, как в сфере прикладной этики (этика науки), так и профессиональной (этика разработчиков ИИ) [9]; вопрос о недопустимости дегуманизации цифрового общества и создание «гибридной модели человек- ИИ» [10]; вопрос о трансформации морали индивида в цифровой среде, при пользовании системами ИИ [11]. Необходимо отметить, что именно этико- философская модель интерпретации ИИ преобладает в научных исследованиях российских специалистов по философии. Одной из причин этого может быть сложившаяся в русской философии академическая традиция рассмотрения прикладной этики без отрыва от нравственной философии , в отличие от западных научных школ, многие из которых выделяют прикладную этику как отдельное направление в современной философии. Социально-прогностическая модель интерпретации ИИ. В рамках такой модели этический анализ основан на рассмотрении возможных последствий ИИ для человека. Общая характеристика таких вопросов представлена в Стэнфордской философской энциклопедии, и касаются следующих сфер: 1) сфера свободы человека от ИИ (манипуляция ИИ человеческим поведением; навязывание решений; разрушение приватности человека); 2) сфера власти (ИИ может стать инструментом неограниченной власти для корпораций и политиков) [2]. Кроме того, к этой модели можно отнести и этическое прогнозирование долгосрочных проблем ИИ. Так, известный исследователь философии ИИ Н. Бостром предполагает, что ИИ в будущем может развиться в глобальный Сверхразум, что повлечет формирование «сверхэтики», полностью перевернув представления о роли человека и традиционной аксиологии, и морали [12]. Рамон Лопес де Мантарас подчеркивает опасность неконтролируемого развития ИИ, описывая важность своевременного этического ограничения развития ИИ [13]. Часто при описании этических рисков ИИ используется словосочетание «кафкианское будущее»: ИИ представляется как механизм глобальной политической машины, не учитывающий интересы наименее защищенных социальных слоев и ограничивающий свободы и права человека [14]. Этические дилеммы будущего в сфере ИИ. 1. В этико-правовом поле регулирования ИИ на данный момент преобладает либерально-политическая модель интерпретации, что

RkJQdWJsaXNoZXIy ODQ5NTQ=