Войти в почту

Стоит ли вы доверить вашему ИИ-близнецу думать так же, как вы — обсудил эксперт

Джорджио Фацио, креативный директор, сочетающий искусство и технологии, начавший свою деятельность в далеком 1995 году, в своей недавней статье для HackerNoon предложил представить читателям версию самого себя, работающую на основе искусственного интеллекта и способную подражать личности, предпочтениям и принятию решений. Для справки: недавнее исследование Стэнфордского университета и Google DeepMind показало, что ИИ-клоны могут достигать 85% сходства с поведением и взглядами искомого человека, что вызывает определенные этические сомнения.

Стоит ли вы доверить вашему ИИ-близнецу думать так же, как вы — обсудил эксперт
© Ferra.ru

Команда под руководством Джун Сунг Парка опросила 1 000 участников, чтобы создать «ИИ-агентов», которые могли бы имитировать их, фиксируя «индивидуальные процессы принятия решений». Эти цифровые двойники, хотя и не совершенные, могут стать ценными инструментами в социальных исследованиях и даже сложных симуляциях, считают учёные.

Однако, как и в случае с любой новой технологией, возникают серьезные этические дилеммы. Цифровые двойники могут быть использованы для несанкционированного одобрения или распространения дезинформации. Точность воспроизведения личности также имеет свои ограничения: агенты ИИ будут быть неточны при оценке их некоторых поведенческих характеристик, например «справедливости» в принятии решений.

Несмотря на эти проблемы, исследование открывает многообещающее будущее, в котором цифровые копии могут помочь в принятии решений, проведении исследований и выполнении задач, сокращая время и нагрузку на данные, которые требуются в настоящее время, пишут эксперты.