Гуманитарные ведомости. Выпуск 2 (34). 2020 г

Гуманитарные ведомости ТГПУ им. Л. Н. Толстого № 2 (34), октябрь 2020 г. 19 М. Таддео и Л. Флориди отмечают, что распространенность ИИ, а также привычка к ИИ в повседневной жизни создают еще одну фундаментальную этическую проблему: влияние ИИ на принятие человеком решений, что опять подводит к вопросу об этике ответственности, являющимся основным в этике ИИ. Несмотря на то, что в разных областях ИИ, как отмечают исследователи, приоритетными становятся разные этические принципы (например, доверие и открытость имеют решающее значение при внедрении ИИ-решений в домах, школах или больницах, тогда как равенство, справедливость и защита творческих способностей и прав сотрудников важны для интеграции ИИ на рабочем месте), основным этическим принципом применения ИИ остается принцип ответственности [10; c. 751-752]. Вопрос о правом статусе ИИ и его правовом регулировании определяет содержание этики ИИ; в то же самое время, этическое прогнозирование проблем с ИИ может определять правовой статус ИИ и правовое регулирование. Так, в этико-нормативном смысле, ИИ связан с проблемой ответственности за технологические результаты и принятие ИИ решений. В этом случае, как с правовой, так и с моральной точек зрения, ответственность ложится на разработчиков конкретной программы ИИ (Д. В. Огородов): «В рамках правовой системы РФ заметная часть вопросов этики ИИ имеет прямое юридическое значение. Так, в проекте «Машина морали» была смоделирована моральная дилемма траектории беспилотного автомобиля при неожиданном появлении препятствия: продолжать движение прямо, жертвуя пассажирами ради спасения пешеходов; либо свернуть в сторону и пожертвовать пешеходами ради спасения пассажиров. Автопроизводитель Mercedes-Benz в 2016 году намеревался решать эту дилемму в пользу пассажиров, позже дезавуировав свое заявление под шквалом критики» [6, 174- 175]. Выводы: Этика ИИ является частью цифровой этики – областью прикладной этики, рассматривающей моральные проблемы формирующегося цифрового общества, где ИИ является одной из таких проблем. Этические проблемы ИИ могут быть осмыслены при помощи синтеза подходов философской и прикладной этики. Этика ИИ находится на границах с другими видами прикладной этики, которые могут расширяться и дополняться вместе с развитием технологий. На данный момент можно говорить о том, что этика ИИ связана с: инженерной этикой, военной этикой; этикой права; этикой образования; политической этикой; экономической этикой; биомедицинской этикой. Поэтому можно сделать вывод, что этика ИИ ситуативна по своей природе: в каждой сфере ИИ на границах с каждым из перечисленных видов этики действуют не одинаковые нравственные ценности и нормы. Важным остается вопрос о приемлемости применения привычных моральных норм к ИИ, что ставит перед цифровым обществом ряд вопросов: кто должен нести ответственность за решения ИИ? Должен ли быть в поведении ИИ заложен некий моральный алгоритм , и, наконец, самый

RkJQdWJsaXNoZXIy ODQ5NTQ=