Исследование показало, что люди считают умных помощников с искусственным интеллектом ответственными за результаты

Как показывает новое исследование, даже когда люди рассматривают помощников на основе искусственного интеллекта исключительно как инструменты, они возлагают на них частичную ответственность за принимаемые решения.

Будущие системы, основанные на искусственном интеллекте, могут управлять автономными транспортными средствами в условиях дорожного движения без участия человека. Исследования показали, что люди считают такие футуристические системы искусственного интеллекта такими же ответственными, как и люди, когда они принимают автономные решения о дорожном движении. Однако реальные помощники с искусственным интеллектом далеки от такого рода автономии. Они предоставляют пользователям-людям вспомогательную информацию, такую как навигационные средства и средства управления автомобилем.

Итак, кто несет ответственность в этих реальных случаях, когда что-то идет правильно или неправильно? Пользователь-человек? Или ассистент с искусственным интеллектом? Команда под руководством Луиса Лонгина с кафедры философии сознания в настоящее время исследовала, как люди оценивают ответственность в таких случаях. Их результаты опубликованы в журнале iScience.

“У всех нас в карманах есть умные помощники”, – говорит Лонгин. “Тем не менее, многие экспериментальные данные, которыми мы располагаем о пробелах в ответственности, сосредоточены на роботах или автономных транспортных средствах, где искусственный интеллект буквально сидит за рулем и принимает решения за нас. Важно расследовать случаи, когда мы все еще принимаем окончательное решение, но используем искусственный интеллект скорее как сложный инструмент”.

Философ, специализирующийся на взаимодействии между людьми и искусственным интеллектом, Лонгин, работающий в сотрудничестве со своим коллегой доктором Бахадором Бахрами и проф. Офелия Дерой, заведующая кафедрой философии разума, исследовала, как 940 участников оценивали водителя-человека, используя либо интеллектуального вербального помощника на базе искусственного интеллекта, либо интеллектуального тактильного помощника на базе искусственного интеллекта, либо навигационный прибор без искусственного интеллекта. Участники также указали, считают ли они навигационное средство ответственным и в какой степени оно является инструментом.

Двойственный статус умных помощников

Результаты демонстрируют двойственность: участники решительно утверждали, что умные помощники были всего лишь инструментами, однако они считали их частично ответственными за успех или неудачи водителей-людей, которые консультировались с ними. Для прибора, не работающего на базе искусственного интеллекта, такого разделения ответственности не произошло.

Не менее удивительным для авторов было то, что умные помощники также считались более ответственными за положительные, а не отрицательные результаты.

“Люди могут применять разные моральные стандарты для похвалы и порицания. Когда авария предотвращена и никакого вреда не причинено, стандарты смягчаются, что позволяет людям легче приписывать заслуги, а не вину нечеловеческим системам”, – предполагает доктор Бахрами, который является экспертом по коллективной ответственности.
Роль языка не имеет значения

В ходе исследования авторы не обнаружили разницы между умными помощниками, которые использовали язык, и теми, которые тревожили своих пользователей тактильной вибрацией колеса.

“В данном случае они оба предоставили одну и ту же информацию: “Эй, осторожно, что-то впереди”, но, конечно, ChatGPT на практике дает гораздо больше информации”, – говорит Офелия Дерой, чье исследование изучает наше противоречивое отношение к искусственному интеллекту как к форме анимистских убеждений. Что касается дополнительной информации, предоставляемой новыми языковыми системами искусственного интеллекта, такими как ChatGPT, Дерой добавляет: “Чем богаче взаимодействие, тем легче его антропоморфизировать”.

“Подводя итог, наши результаты подтверждают идею о том, что помощники с искусственным интеллектом рассматриваются как нечто большее, чем просто инструменты рекомендаций, но, тем не менее, остаются далекими от человеческих стандартов”, – говорит Лонгин.

Авторы полагают, что результаты нового исследования окажут далеко идущее влияние на дизайн и социальный дискурс вокруг помощников с искусственным интеллектом: “Организациям, которые разрабатывают и выпускают умных помощников, следует подумать о том, как это влияет на социальные и моральные нормы”, – заключает Лонгин.