Может ли ИИ быть моральным советчиком — выяснилось в эксперименте

Может ли ИИ быть моральным советчиком — выяснилось в эксперименте
© Naukatv.ru

ИИ-разработки все чаще проникают в сферы, связанные с этикой и моралью. Однако новое исследование, опубликованное в Cognition учеными Университета Кента (Англия), показывает, что люди с недоверием относятся к искусственным консультантам, даже если их советы идентичны советам людей.

Почему люди не доверяют моральному ИИ?

AMA – это системы на основе искусственного интеллекта, разработанные для помощи в принятии моральных решений. Они анализируют этические принципы и предлагают рекомендации без предвзятости. Однако исследование показало, что люди не хотят доверять ИИ в решении моральных дилемм, особенно если его советы основаны на утилитаризме (максимизация пользы для большинства).

Эксперимент продемонстрировал, что:

Люди отвергают моральные советы ИИ чаще, чем советы людей, даже если они совпадают. Советы, основанные на четких моральных правилах (например, «нельзя причинять вред»), вызывают больше доверия, чем те, которые предлагают жертвовать интересами одних ради блага большинства. Даже если человек соглашается с советом ИИ, он все равно ожидает разногласий в будущем, что говорит о глубоком скептицизме.

По мере развития технологий AMA могут начать применять в сфере медицины, права и управления и для психологической помощи. Однако доверие к моральному ИИ – не только вопрос точности, но и соответствия человеческим ценностям.

Исследователи считаю, что разработчики ИИ должны учитывать восприятие людьми моральных решений, иначе даже самые рациональные алгоритмы останутся невостребованными.

Что такое парадокс Джевонса и как он прогнозирует влияние ИИ на человечество

Может ли искусственный интеллект испытывать «боль» — эксперимент