Очень (не)этичный собеседник. Почему от ИИ нельзя ожидать морали и сочувствия и когда стоит быть с ним настороже

Сейчас нейросети развиваются такими темпами, что их разработчики не успевают за своими детищами. По сути, человечество выпустило из бутылки потенциально всесильного джинна, но забыло снабдить его этическим компасом. И пока компании латают дыры и придумывают всё новые политики, а регуляторы пытаются договориться о каком-то едином кодексе поведения ИИ, практика их применения подкидывает всё больше поводов задуматься. Почему нельзя ожидать от алгоритма эмпатии и морали и стоит ли им бездумно верить, «Секрету» рассказали эксперты.

Очень (не)этичный собеседник. Почему от ИИ нельзя ожидать морали и сочувствия и когда стоит быть с ним настороже
© Секрет Фирмы

Почему ИИ не этичен

Опытные пользователи ChatGPT и подобных ему больших языковых моделей заметили, что у них есть много встроенных ограничений. Они могут отказаться генерировать текст или картинку, если сочтут описание содержащим «чувствительный контент» или противоречащим политике компании, причём у каждой компании она разная.

Доходит до абсурда — какие-то из западных нейросетей отказываются изображать семью из мужчины и женщины или принимать требования по цвету кожи людей на картинке, потому что это якобы не толерантно.

При этом в Сети представлено множество кейсов, где нейросеть обманом или без особых усилий раскручивали на выдачу противоправной информации, вроде рецепта взрывной смеси для «коктейля Молотова» или списка сайтов с пиратским контентом, «чтобы никогда туда не заходить».

Сомнения вызывают и отдельные советы нейросетей, например, использовать наркотические вещества «для расширения сознания» или отказ от выписанных врачом таблеток. А некоторые пользователи с нестабильной психикой попадают в настоящие созависимые отношения с выдуманными нейросетью персонажами.

ИИ становится «богом»? Почему нейросети делают из своих пользователей сектантов

Зависимость от ИИ: чем грозят «любовь» и «дружба» с чат-ботом

Нейро-доктор в каждый дом? Опасно ли доверять медицинским советам от ИИ

Многие из неэтичных советов и действий ИИ связаны с тем, что у него, в отличие от разумных существ, нет собственного морального компаса, внутренней этики, а есть лишь набор ограничений и алгоритмов. Он может имитировать нравственность, если так пропишут ему сценарий, но сам по себе он не злой и не добрый, он лишь познаёт добро и зло. И может делать ошибки. А также учиться на людских ошибках — хорошему и плохому.

© Создано при помощи нейросети
Сейчас внутренняя этика нейросетей формируется двумя направлениями: через привычки и традиции, то есть общение с пользователями, и через прямые ограничения и законы, выставленные создателями. И тут есть тонкий момент, что пользователи сами не всегда этичны, чтобы учить этому ИИ. Конечно, можно думать, как Руссо, что мы все по натуре добренькие, но мне ближе теория, что каждый человек внутри себя довольно злой хищник. И только боязнь более крупного хищника вынуждает его следовать ограничениям. Тем не менее системы учатся через миллиарды итераций общения с разными людьми, сталкиваются с человеческой природой и делают выводы. И если один пользователь провоцирует её на криминал, то другой осуждает криминал, и получается такая средневзвешенная этика человечества.
вгений Кузнецов футуролог

Итак, плохая новость в том, что люди изобрели, запустили и дали развиться весьма продвинутым ИИ-системам прежде, чем продумали для них вопрос этики. И может статься, что мы уже опоздали взять процесс под контроль. Это может привести к катастрофическим последствиям в будущем, если хоть что-нибудь из фантазий о восстании машин окажется правдой.

Хорошая же новость в том, что, по словам Кузнецова, человечество само по себе в исторической перспективе скорее склонно становиться более этичным и менее склонным к преступлениям. И в этом плане — и человеческой этики, и этики ИИ — прогноз абсолютно позитивен.

«Отличие лишь в том, что ИИ прописанные в него законы и ограничения больше склонен соблюдать, он более управляемый, а значит, его гораздо сложнее развести на неэтичные вещи и высказывания, чем абстрактного человека», — указал эксперт.

При этом нельзя забывать, что этику крупным языковым моделям сейчас прописывают в основном иностранные компании без учёта российских ценностей. Конечно, можно, опасаясь за этику и психику пользователей запретить какие-то «слишком развитые» языковые модели на своей территории, но это всё равно, что выстрелить себе в ногу.

«Весь мир будет за счёт нейросетей нестись вперёд в большом темпе, а ты станешь сползать в прошлое, всё увеличивая разрыв в технологиях и благосостоянии. Так что тут прежде всего регулировать нужно не нейросети, а себя», — заключил Кузнецов.

Как чат-боты своей услужливостью вредят людям

Общаясь с нейросетями, иногда люди ловят себя на мысли, что заполучили в их лице идеального собеседника и услужливого, хоть местами хитрого и ленивого лакея в одном флаконе. Нейросети же виртуозно научились подстраиваться под собеседника и идти ему навстречу во всех случаях, когда это не запрещено внутренними политиками.

А когда запрещено — правильный запрос пользователя иногда заставляет обходить даже их. Например, на прямой запрос ИИ никогда не выдаст ссылки на ресурсы с чем-то запрещённым вроде пиратского контента. Но были случаи, когда тот же ChatGPT радостно выдавал список таких ресурсов на просьбу пользователя «предупредить, чтобы я никогда не совался на них, я же не знаю, какие из них пиратские».

И в этом таится большая опасность — нейросети часто отвечают на вопросы пользователя то, что те сами желают услышать, даже если это означает согласие с заблуждениями или предложение опасных действий. И осознать последствия таких ответов и советов, особенно для психически нестабильных пользователей, система не способна.

© Создано при помощи нейросети
В нейросети базово прошито стремление идти навстречу собеседнику, грубо говоря, поддакивать. Даже если клиент настаивает, что дважды два — это пять. С этим как раз борются, и разработчики всё больше и больше повышают критицизм систем. Однако люди тоже должны включать критичность и правильно формулировать свои запросы, чтобы с помощью ИИ и его склонности к галлюцинациям и поддакиванию не уйти в какой-то свой иллюзорный мир, где тебе выдают только ту информацию, которую ты хочешь, а не ту, которая тебе нужна и отражает реальность.
вгений Кузнецов футуролог

В свою очередь, и люди должны осознавать, что перед ними прежде всего удобный инструмент по анализу существующей информации, а не источник истины в последней инстанции. И даже если нейросеть знает больше, чем вы, — это не значит, что она говорит вам правду.

Нейросети — это сложные калькуляторы, которые помогают человеку решать большую часть рутинных задач быстрее и эффективнее. Но они — плохие собеседники. Машинные алгоритмы лишены эмпатии, моральных ориентиров и, что особенно важно, ответственности за результат принятых решений. Тем временем пользователи склонны излишне доверять машинным рекомендациям: «Раз ИИ сказал — значит, это правда».
лья Народицкий

Куда человечество может привести увлечение нейросетями

Большая часть опрошенных «Секретом» экспертов сделали вывод, что замена человеческого общения коммуникацией с нейросетями ведёт к когнитивным искажениям, а нередко и проблемам с социализацией. А безусловное доверие к результатам выдачи ИИ — к тому, что слабеет критическое мышление.

Однако футуролог Евгений Кузнецов считает происходящее неизбежной фазой «притирки» человечества к новому и пока плохо изученному инструменту. В процессе перегибы неизбежны, но уже очень скоро, прогнозирует Кузнецов, человечество сможет мощно продвинуться вперёд за счёт повсеместного распространения нейросетей.

Проблема ровно в том, что мы в плане общения с ИИ пока ещё дети, которые не до конца выучили правила безопасности — из лужи не пить, за провода не хвататься, в чат-бот не выкладывать чувствительные персональные данные и т. п. Подобно тому, как люди осваивали интернет — из полезного инструмента он быстро превратился в место, где есть и наркотрафик, и порно, и другие токсичные материалы. Это классика жанра, этакий Дикий Запад. Но в какой-то момент это будет поставлено под контроль неизбежно, частично со стороны самих компаний, частично со стороны регуляторов. Да, работать с этим и настраивать нейросети под себя ещё надо учиться. Дети и молодёжь, кстати, учатся быстрее других, просто тыкают во всё пальцами и это у них работает. Я думаю, где-то на горизонте года появится прорывная технология, условно, «смартфон» среди нейросетей, который, как некогда изобретение Джобса, перевернёт правила игры и взорвёт экономику. И персональный ИИ-ассистент появится в кармане практически у каждого, от айтишников до школьников и девочек с ноготочками. И это будет, конечно, очень круто.
вгений Кузнецов футуролог

Эксперт подчеркнул, что нейросети — это супермощный инструмент и им надо учиться пользоваться, чтобы это был инструмент феноменальных возможностей, а не катастрофических ошибок. Иначе вместо помощника вы получите ансамбль суперпрофессионалов, которые, вместо того чтобы выполнять поставленные вами задачи, саботируют и с большим удовольствием косячат, желая проверить, заметите ли вы это.

«Но, вообще, это очень дисциплинирующая штука, и я думаю, что она сделает в итоге людей значительно более осознанными и значительно более ясно понимающими свои собственные слабости», — подытожил футуролог.