Гуманитарные ведомости. Вып. 2 (46) 2023 г

Гуманитарные ведомости ТГПУ им. Л. Н. Толстого № 2 (46), июль 2023 г. 42 потенциально грозит недооценкой этических последствий развития ИИ. Это формирует дилемму целей и средств, которую можно сформулировать следующим образом : ««ИИ является средством достижения всеобщего блага» – «ИИ является целью общества и всеобщим благом» [15]. Опасность либерально-политической интерпретации заключается в том, что ИИ может стать средством управления и контроля, подавлять свободу выбора и свободную волю. Ситуация будет парадоксальной, так как свобода – один из основных принципов философии либерализма В данном случае проблема кроется именно в распространенности ИИ, в степени его влияния; так, для минимизации этических рисков необходимо ограничить влияние ИИ на политику, экономику, социальную сферу и т.п. Очевидно, что на данный момент, это влияние только усиливается. 2. Этико-философская интерпретация ИИ предполагает, в первую очередь, дилемму ответственности , раскрывающуюся, с одной стороны с точки зрения ответственности разработчиков и владельцев ИИ, и, с другой – с точки зрения его потребителей: ««К ИИ не могут быть применимы моральные критерии, и поэтому никто не является ответственным за возможные решения ИИ» – «К ИИ не могут быть применимы моральные критерии, и поэтому ИИ должен быть областью внимательного этического контроля; все, так или иначе связанные с ИИ должны нести за него этическую ответственность» [15]. Проблема этико-философской интерпретации заключается в том, что философы, в основном, смутно представляют технологии ИИ и не могут предположить реальных последствий, опираясь на теоретические умозаключения. С другой стороны, этика ответственности может предложить некий этический минимум, который будет выражаться, скорее всего, в создании алгоритмов морали , внедряемых в программы ИИ. Идея технологизации морали в сфере ИИ сама по себе формирует этические вопросы, главный из которых – если в основании морали стоит сознательный выбор между добром и злом в сторону добра, есть ли смысл в ее технологизации, ведь в правовом смысле ИИ – это всего лишь имитация когнитивных функций человека? Значит ли это, что в данном случае произойдет имитация морали ? 3. Социально-прогностическая модель интерпретации часто критикуется за то, что она связана с воображаемой технологией, а не с ИИ [2]. Данная модель предполагает широкий спектр дилемм, например: «Дилемма обезличивания (вопрос об обезличивании персональных данных в рамках технологий ИИ); Дилемма приватности (вопрос о цифровой прозрачности персональных данных); Дилемма творчества (что эффективнее – творческий подход к проблеме или заданный ИИ алгоритм); Дилемма туннеля (когда человек не видит иных решений, чем те, что предлагает ИИ); Дилемма справедливости (связана с использованием ИИ в судебной практике); Дилемма виртуальности (когда многие сферы жизни переходят в виртуальную плоскость); Дилемма зависимости (когда от ИИ начинают зависеть большинство сфер социальной жизни)» [15]. Однако основная опасность, которую видят философы, придерживающиеся данной модели интерпретации последствий ИИ, заключается в представлении об утрате контроля над ИИ.

RkJQdWJsaXNoZXIy ODQ5NTQ=