Гуманитарные ведомости. Выпуск 4 (36). 2020 г

Гуманитарные ведомости ТГПУ им. Л. Н. Толстого № 4 (36), декабрь 2020 г. 27 Нидерландов, Норвегии и Эстонии [10]. Такой масштаб обсуждения проблемы говорит о ее исключительной важности. В этой связи на первый план в этике ИИ выходят принципы надежности и предсказуемости технологий, о которых, например, упоминают разработчики кодекса этики для ИИ в Сбере (утверждается, что это один из первых документов по этике ИИ на русском языке [8]). Возникает вопрос – каким должен быть этический идеал ИИ? А. Разин в статье «Этика искусственного интеллекта» [3, c. 57-73] отмечает, что на данный момент наиболее технологически сложным и этически неоднозначным является создание такого ИИ, который будет автономно оценивать не учтенные в его алгоритме ситуации. Автор также обращает внимание на то, что в ИИ должны быть изначально заложены определенные этические ограничения и аналог нравственной рефлексии, возможность оценки рисков, критерии индивидуального опыта, понимание и оценка сделанных ошибок и допустимая степень ошибочности принятия решений [3, c. 57-73]. Возникает дилемма технологизации морали: если ИИ является имитацией когнитивных функций, то допустимо ли, чтобы он был имитацией нравственной рефлексии? Кто будет определять необходимый этический минимум ИИ? В чем заключается содержание этого минимума? В какой области этики должен находится этот минимум – в области философской этики или в области прикладной, или профессиональной этики? Так, авторы статьи «Об этике и системах искусственного интеллекта» [1, c. 85-102] (Карпов В. Э., Готовцев П. М., Ройзензон Г. В.), утверждают, что этика ИИ по своей сути отличается, например, от других видов этики науки, так как «в искусственном интеллекте этические вопросы ближе к пониманию этики в философском или социогуманитарном смысле, и связаны эти этические аспекты, прежде всего, с тем, что они касаются вопросов поведения и принятия решений» [1, c. 85] ( курсив – Ю. Н., А. К.) , и отмечают, что этическое программирование в принципе возможно, однако главной проблемой на этой пути является этическая верификация: «эта верификация заключается в комплексе тестов, способных определить «степень этичности» интеллектуальной системы. При этом, судя по всему, иного способа определения этой степени, кроме наблюдений за реакциями и поведением исследуемой ИИС, не существует» [1, c. 102]. Какие именно сферы применения ИИ должны подлежать этической технологизации? Анализ упоминаемого выше открытого письма «Приоритеты исследований в области надежного и эффективного искусственного интеллекта» [7] позволил выделить следующие сферы, где необходим этический контроль: военные технологии; беспилотные транспортные средства; вопросы конфиденциальности, в аспекте кибербезопасности, а также в условиях кибервойн; вопрос о роли профессиональной этики в процессе разработки ИИ технологий; вопросы политической этики при применении ИИ в политических целях.

RkJQdWJsaXNoZXIy ODQ5NTQ=