Гуманитарные ведомости. Выпуск 4 (36). 2020 г

Гуманитарные ведомости ТГПУ им. Л. Н. Толстого № 4 (36), декабрь 2020 г. 28 В то же время анализ исследований по ИИ, проводимых в Лаборатории цифровой этики Оксфордского университета показывает следующие актуальные (на 2019 год) вопросы ИИ [6]: как ИИ определяется, объясняется и этически обосновывается теми, кто его разрабатывает и внедряет? Каковы преимущества и недостатки сотрудничества между гражданским обществом, некоммерческими организациями, научными кругами, промышленностью и правительством в разработке успешного ИИ? Каковы риски утечки конфиденциальных данных? Каковы последствия применения ИИ для разных мест и групп населения? Как цифровые технологии влияют на разные культурные и социальные группы? Какие этические принципы, кодексы или передовые практики должны использоваться при разработке и внедрении ИИ? Каким образом использование цифровых технологий в сферах занятости или образования может повлиять на личность? В чем заключаются этические правила использования цифрового следа? Представляют ли цифровые информационные технологии новую форму колониализма и эксплуатации? Этические дилеммы ИИ можно реконструировать, принимая во внимание вышеизложенные исследования и точки зрения. Этическая дилемма выражает: а) парадоксальность ситуации; б) ситуативность решения; в) уникальность каждой проблемы, относящейся к такой дилемме. Дилемма целей и средств. «ИИ является средством достижения всеобщего блага» – «ИИ является целью общества и всеобщим благом». Эта дилемма может породить различные точки зрения на природу ИИ, его цели и задачи в широком смысле, его влиянии на общество, культуру, политику, экономику, в частности, на рынок труда и занятость. Кроме того, эта дилемма может быть связана с вопросом об оборонном назначении ИИ для государства. Дилемма свободной воли. «ИИ выражает интересы общества (в этическом смысле – определяет содержание всеобщего блага), поэтому его решения изначально морально безупречны» – «ИИ выражает интересы общества, поэтому ИИ выступает как замена свободной воли человека, предлагая готовые решения, которые могут вступать в противоречие с моральными принципами конкретного индивидуума». Сразу же возникает вопрос – какие критерии можно использовать при определении содержания во- первых, всеобщего блага, и, во-вторых, кто должен определять эти критерии при разработке ИИ? Этот вопрос порождает следующую дилемму – дилемму ответственности. Дилемма ответственности. «К ИИ не могут быть применимы моральные критерии, и поэтому никто не является ответственным за возможные решения ИИ» – «К ИИ не могут быть применимы моральные критерии, и поэтому ИИ должен быть областью внимательного этического контроля; все, так или иначе связанные с ИИ должны нести за него этическую ответственность». В этой связи возникает вопрос об этическом статусе ИИ, который выражается в дилемме технологизации морали. Дилемма технологизации морали . «ИИ должен быть запрограммирован на определенный минимум морали, для обеспечения надежности и

RkJQdWJsaXNoZXIy ODQ5NTQ=