Искусственный интеллект оказался иллюзией
Исследователи из Apple Computer Company заявили, что ответы, даваемые крупными языковыми моделями (LLM), такими как ChatGPT, создают иллюзию интеллекта, не будучи результатом настоящего логического рассуждения. Статья с результатами исследования опубликована на сервере препринтов arXiv.
Команда ученых сосредоточилась на способности разумных существ, в том числе людей, различать важную и несущественную информацию в ситуациях, требующих логического анализа. Исследователи предположили, что истинный интеллект подразумевает понимание, позволяющее игнорировать ненужные данные и сосредотачиваться на сути вопроса, как это происходит в случае человеческого мышления.
Чтобы протестировать эту гипотезу, исследователи включили в свои вопросы для LLM небольшое количество лишней информации. Они задавали сотни вопросов, ранее используемых для проверки языковых моделей, добавляя дополнительные данные, не относящиеся к теме. Задача заключалась в том, чтобы определить, смогут ли LLM игнорировать неуместную информацию и дать корректный ответ.
Результаты эксперимента показали, что LLM часто сбиваются на ненужных деталях, что приводило к неправильным или бессмысленным ответам на те же вопросы, на которые модели ранее отвечали правильно. Это, по мнению исследователей, указывает на отсутствие у LLM способности к настоящему пониманию и рациональному мышлению.
В ходе исследования было замечено, что LLM склонны выдавать правдоподобные на первый взгляд ответы, которые при внимательном рассмотрении оказываются неверными. Например, когда LLM задаются вопросы, что они «чувствуют», модели дают ответы, предполагающие наличие у них сознательных ощущений, что является неправдой, так как они не обладают чувственными способностями.
На основании этих данных исследователи сделали вывод, что современные языковые модели не обладают истинным интеллектом, а лишь выявляют шаблоны в текстах и строят ответы на основе статистической обработки данных, а не реального понимания сути заданных вопросов.