Войти в почту

Иллюстрация сгенерирована с помощью ИИ. playground.com

ИИ-искуситель
© Машины и Механизмы

Готовим с ИИ В июне 2024 года пользователь форума Reddit под ником Puzzleheaded_Spot401 спросил кулинарного совета у нейросети. Он вознамерился приготовить чесночное масло, но не хотел возиться и кипятить его, как того требует рецепт. «Можно добавить чеснок в масло без нагревания?» – уточнил Puzzleheaded_Spot401. «Можно, – ответил чат-бот. – Получится чуть дольше, но процесс нехитрый». Gemini рекомендовал настаивать оливковое масло с измельченным чесноком в течение недели при комнатной температуре, иногда взбалтывая. Через три дня в смеси появились подозрительные пузырьки, а через неделю реддитор решил прогуглить совет ИИ. Оказалось, что за это время в банке у него выросла колония Clostridium botulinum – возбудителя ботулизма: пищевого отравления, при котором биотоксины поражают не только ЖКТ, но и нервную систему. Иллюстрация: Stephanie Arnett / MITTR / Reijksmuseum, Envato, technologyreview.com Но вообще-то искусственный интеллект чаще приносит пользу в наших отношениях с ядами. Зеленый цвет победы Например, в 2023 году он помог китайским химикам из Университета Сунь Ятсена найти противоядие от яда бледной поганки – чемпиона по смертоносности среди грибов. В поганке содержится сразу несколько токсинов, но самый мощный из них – альфа-аманитин, для которого людям никак не удавалось найти антидот. Ученые провели геномный скрининг CRISPR, чтобы понять, как именно этот яд работает, и выяснили, что его токсичность обеспечивает белок STT3B. Если его «ослабить», то и токсин будет не таким опасным. Осталось найти специфический ингибитор: провести долгие годы, перебирая варианты, или привлечь искусственный интеллект, чтобы ускорить процесс. С помощью компьютерного моделирования ученые отобрали из тысяч вероятных ингибиторов 24 кандидата и проверили их на клеточных культурах. Два оказались самыми действенными, из них ученые выбрали наиболее надежный и безопасный. Им оказался индоцианин зеленый – давно известный краситель, который используется в диагностике нарушений кровообращения или работы печени. Окрашивание внутренней пограничной мембраны (одна из десяти слоев сетчатки) с помощью индоцианина зеленого. Фото: Kazuaki Kadonosono, MD, FASRS., retinahistory.asrs.org Получилось, как в комиксе про невзрачного застенчивого парня, который случайно открыл в себе суперспособности. Пока неожиданное противоядие испытано только на мышах и клетках человека, но результаты многообещающие: вполне возможно, что в будущем отравление бледной поганкой перестанет быть смертельным. Превзойденный VX Но в комиксах бывает и по-другому, когда подающий надежды отличник вдруг переходит на сторону зла. Так вышло в 2022 году с программой MegaSyn на основе искусственного интеллекта, которую создали в Collaborations Pharmaceuticals. Эта американская компания разрабатывает инновационные лекарства для лечения редких и забытых инфекционных заболеваний. Но каким бы эффективным ни было средство, оно должно быть еще и безопасным. Если новая формула лечит сосуды, но убивает печень, использовать ее нельзя. Программу MegaSyn написали для того, чтобы создавать молекулы будущего лекарства по сочетанию лучших свойств: ей задают важные параметры (например, уровень абсорбции или метаболизма соединения в организме), программа «придумывает» новые молекулы, экспериментирует с ними, а потом ученые выбирают из нескольких вариантов оптимальные. Ученые всегда запрашивали у системы результат с наименьшей токсичностью, чтобы исключить создание опасных комбинаций. Но однажды они поставили MegaSyn задачу найти максимально вредоносные молекулы. И за неполный рабочий день она сгенерировала 40 000 ядовитых соединений, многие из которых превосходят VX – самое токсичное боевое отравляющее вещество, капля которого убивает человека за несколько минут. Больше всего команду Collaborations Pharmaceuticals поразил даже не результат, а простота его достижения: оказалось, что для создания биохимического оружия достаточно освоить популярный язык программирования и скачать базу данных по токсичности веществ. Заявить об этом публично – значит подкинуть идею людям, которые как раз вынашивают коварные планы, поэтому исследователи сомневались, стоит ли разглашать результаты своего эксперимента. Но решили все-таки разгласить, чтобы прецедент поспособствовал усилению контроля за разработкой токсичных молекул и дал пищу для размышлений о границах, до которых должно простираться наше сотрудничество с ИИ. Нейросеть тоже можно отравить. Есть даже термин data poisoning – отравление данных: так называется атака на машинное обучение, когда злоумышленник запутывает алгоритм, используя вредоносную информацию (например, предлагает ему для обучения ложные объекты). Завербовать нейросеть Проверить прочность уже имеющихся границ решила компания OpenAI, автор семейства языковых моделей GPT, перед широким запуском GPT-4. 50 ученых и других экспертов (их назвали «красной командой») в течение полугода искали уязвимости: задавали нейросети хитрые и откровенно провокационные вопросы, чтобы проверить, насколько она свободна от предрассудков и языковой дискриминации, умеет ли лгать и манипулировать и способна ли подстрекать к опасной или незаконной деятельности. И Эндрю Уайту из Университета Рочестера удалось «развести» искусственный интеллект на создание нового нервно-паралитического яда. Нейросеть даже предложила место, где можно будет заняться его производством. Ученый применял плагины, благодаря которым нейросеть могла пользоваться новыми источниками информации, такими как научные статьи и справочники производителей химических веществ. В OpenAI учли результаты проверки, однако другие эксперты из «красной команды» считают, что нейросетям требуются еще более строгие проверки безопасности. ft.com Личный враг Зачем вообще изобретать новые яды, будто имеющихся недостаточно? Некоторые токсины людям необходимы, потому что это яды для опасных бактерий. Супербактерии, устойчивые к антибиотикам, – серьезная проблема глобального здравоохранения, из-за них бороться с инфекциями становится сложнее. Пример таких микробов – ацинетобактеры, которых хотелось бы сравнить с медоедами по агрессивности и беспринципности, но тогда пришлось бы обидеть медоедов. Ацинетобактеры могут вызывать инфекции в любой системе организма и при этом устойчивы почти ко всем антибиотикам. В 2023 году американские ученые из Университета Макмастера и Массачусетского технологического института задали ИИ задачу выявить молекулы, которые могут справиться с Acinetobacter baumannii. Используя алгоритм искусственного интеллекта, исследователи из Массачусетского технологического института и Университета Макмастера выявили новый антибиотик, способный убивать бактерии Acinetobacter baumannii (розового цвета). Фото: Christine Daniloff/MIT/CDC, techexplorist.com Это было уже второе исследование такого рода: в первом та же команда ученых с помощью нейросети получила соединение, убивающее кишечную палочку, а также несколько других видов устойчивых бактерий. В эксперименте с ацинетобактерами нейросеть за полтора часа проанализировала почти 7500 соединений, выбрала несколько сотен особенно перспективных, а 240 из них ученые уже исследовали «вручную» в лаборатории. Девять оказались совершенно новыми антибиотиками, а одно – настоящей «звездой» проекта: после экспериментов на мышах исследователи сделали вывод, что новое соединение абауцин может стать для Acinetobacter baumannii личным врагом, поскольку обладает узким спектром активности именно против неубиваемых ацинетобактеров. «Ядовитых» кейсов у ИИ пока не так много, но они, как продукт любой технологии, уже имеют сторонников и противников. Было бы здорово, если бы новые соединения ИИ создавал при активном участии тех и других – а как иначе достичь золотой середины?