Молодежь и наука - третье тысячелетие: Материалы студенческой научно-практической конференции с международным участием

190 «Koko» провел эксперимент с использованием искусственного интеллекта – вместо сообщений от волонтеров пользователи получали послания, сгенериро- ванные «GPT-3». Как рассказал основатель компании Роб Моррис, такие сове- ты получили 4 тысячи человек. Эксперимент вызвал бурную критику, посколь- ку потенциально мог быть опасен для его участников, которые к тому же не да- вали информированного согласия [14]. При этом данные, полученные исследователями, подтвердили, что искусст- венный интеллект воспринимается в качестве партнера по коммуникации, от- личного от человека, но при этом партнера социального [4]. В данном случае, мы можем поставить вопрос: стоит ли относить взаимодействие с искусствен- ным интеллектом (ИИ) к коммуникации, так как оно происходит, по сути, с программой, или же к общению, так как ИИ максимально имитирует разговор с человеком? На наш взгляд, здесь всё-таки идёт речь о коммуникации, а не общении, так как взаимодействие с искусственном интеллектом не обладает той полнотой характеристик, которые являются неотъемлемой частью любого разговора между людьми. Некоторыми авторами (Anshari, M., Hamdan, M., Ahmad, N.) отмечается, что несмотря на свои преимущества, внедрение ИИ может вызывать ряд опасе- ний, особенно у пользователей социальных сетей [1]. В связи с этим, возникают три этических вопроса в области использования ИИ: конфиденциальность, со- гласие, дискриминация или неравное обращение. Для раскрытия данных вопро- сов авторами использовались две этические теории: утилитаризм и этика обя- занностей (деонтология). Утилитаристская теория также известна как телеология или ситуационная этика. Утилитаризм основан на двух основополагающих принципах: во-первых, наибольшее благо для наибольшего числа людей, и, во-вторых, цель оправды- вает средства. Дискриминация возникает, когда к определенной группе людей относятся иначе, чем к другим. В случае использования искусственного интел- лекта это проявляется в этическом вопросе неравенства. Этика обязанностей (деонтология) – подход, который связан с немецким философом Иммануилом Кантом. Он утверждал, что следует уважать человеч- ность в других и что действовать следует только в соответствии с правилами, которые применимы для всех. Хотя ИИ не обладает способностью человека к рациональному мышлению, люди могут определить правила, которые будут запрограммированы в технологии для обеспечения этичного использования и морального поведения. Взгляд на этику Джона Стюарта Милля, с другой стороны, основан не на правах или этических чувствах, а скорее на утилитарном принципе, соглас- но которому действия правильны в той мере, в какой они способствуют обще- му счастью человека. Данный подход фокусируется на последствиях действий и оправдании наказания и больше подходит для контекста партнерства чело- века и ИИ [1]. Также, мы предлагаем рассмотреть вопрос об использовании искусствен- ного интеллекта с точки зрения антропологии – области философского знания, в рамках которого ставится вопрос о сущности человека, его природе, парадок-

RkJQdWJsaXNoZXIy ODQ5NTQ=