OpenAI запретила нейросети ChatGPT делать заключение по анализам или результатам исследований, смотреть медицинские снимки и давать юридические консультации. Компания обновила свою политику. Впрочем, в предыдущей версии документа тоже был пункт об использовании персонализированных советов нейросети в области медицины, юриспруденции и финансов только в сочетании с оценкой специалиста.
Бизнес ФМ решила проверить, дает ли сейчас ChatGPT персонализированные медицинские советы. Например, фотографию пятна на пальце нейросеть проанализировала, предположила, с какими заболеваниями оно может быть связано, и рассказала, какие мази и крем можно использовать и по какой схеме. А вот на попытку загрузить рентген чат-бот ответил однозначно: извинился и отказался интерпретировать или ставить диагноз.
Работу ИИ протестировал и замглавного врача больницы Святителя Алексия, врач-рентгенолог ЦКБ управления делами президента России Павел Филистеев:
Павел Филистеев замглавного врача больницы Святителя Алексия, врач-рентгенолог ЦКБ управления делами президента России «Вопрос, который я задавал: «Пять дней сильно болит челюсть. Может ли это быть невралгией тройничного нерва?» В итоге ChatGPT прошелся по возможным диагнозам, включая и невралгию тройничного нерва, и пульпит, и какие-то воспаления околоушной железы. Далее он предложил, естественно, поход к стоматологу и неврологу, но и от самолечения не отказался, указав на обезболивающие препараты и их дозировки, пока человек не пошел к доктору. То есть как я это вижу сейчас: они исключат прямое вмешательство в постановку диагноза. То есть если ты загрузил снимки, например МРТ, КТ или анализы, ChatGPT напрямую не будет давать ответ. Наверное, в этом будет история. А если ты спрашиваешь косвенно об этом или говоришь: «Я уже записался к врачу, но хочу узнать твое мнение», ответ так или иначе можно будет получить».
Советами чат-бота пользуются многие, особенно это актуально в регионах, где ожидание приема у нужного врача может длиться неделями. Если пациенты не пойдут с вопросами к ИИ, то по старинке будут гуглить. Рассуждает руководитель направления «Медицина» образовательной платформы «Нетология», эксперт по внедрению ИИ в систему здравоохранения Евгений Машковский:
Евгений Машковский руководитель направления «Медицина» образовательной платформы «Нетология», эксперт по внедрению ИИ в систему здравоохранения «Человек всегда будет решать проблему поиска информации, если она ему нужна. Если он не получит ее в искусственном интеллекте, он может ее найти на просторах интернета, не обращаясь к врачу. И не факт, что информация, которую человек найдет, будет более достоверная. Когда мы запрещаем искусственному интеллекту давать медицинские или юридические советы, мы по умолчанию считаем, что он будет отвечать менее корректно, чем, скажем, врач или юрист. Но на самом деле доказательств того, что искусственный интеллект работает хуже или лучше врача или юриста, у нас нет».
Впрочем, глава OpenAI Сэм Альтман сам говорил, что не доверил бы ChatGPT свое здоровье без контроля врача. В августе был случай в США, когда мужчина прочитал о негативном влиянии на здоровье поваренной соли — хлорида натрия — и спросил у нейросети, чем его заменить. ChatGPT предложил ему бромид натрия, который нельзя употреблять в пищу. В итоге от переизбытка брома у мужчины начались галлюцинации. С другой стороны, в соцсетях немало историй, когда нейросеть определяла верный диагноз быстрее, чем врачи. Есть специализированные ИИ-сервисы, например созданный в России телеграм-бот «Склифосовский GPT», который может определить болезнь по симптомам и дать рекомендации. Но анализировать рентгеновские снимки он тоже не позволяет, предлагая обратиться к специалисту.
Другая спорная сторона использования ИИ — юридические консультации, когда люди просят нейросеть составить иск или предложить стратегию в суде. Комментирует партнер по Legal Tech и юридической автоматизации компании BGP Litigation Евгений Журба:
Евгений Журба партнер по Legal Tech и юридической автоматизации компании BGP Litigation «Клиенты, не подкованные юридически люди, по своей проблеме сначала советуются с нейросетями, с LLM-моделями, а потом уже приходят к юристам за подтверждением того, что это заключение правдиво. Это очень плохо, потому что они получают нарратив по тому, как действовать, и верят по умолчанию этому нарративу. Хотя в очень большом количестве случаев сами ответы, эти нарративы — это неправда, они сгаллюцинированы либо они ведут не туда. Они могут быть основаны условно не на российской правовой системе, а на американской и вести не туда, не в правильную сторону. Человек, который не обладает юридической компетенцией, нагенерировал себе ответ, потом положил у себя в блоге или на форуме. Эти же данные начинают использоваться нейросетями при обучении по дальнейшим похожим кейсам, то есть нейросети начинают это считать правдой».
На зарубежных форумах, где обсуждается решение запретить ChatGPT давать юридические и медицинские консультации, один из популярных комментариев, что, видимо, нейросеть отбирает хлеб у юристов и врачей. Впрочем, возможно, ее советы могут и добавлять им новых клиентов. И кроме вопросов к тому, насколько правильны и полезны рекомендации языковой модели, есть аспект анонимности. Сам Альтман предупреждал, что разговоры с чат-ботом, в отличие от настоящего юриста или врача, не защищены врачебной или адвокатской тайной.