В США запустили ИИ-инструмент, блокирующий разработку химического оружия

Биотехнологическая компания Lunai Bioworks объявила о развертывании Sentinel — системы защиты на основе трансформерной архитектуры для предотвращения генерации новых химических агентов большими языковыми моделями и научными ИИ-системами. Технология встраивается непосредственно в базовые модели для проверки молекулярных результатов в режиме реального времени и функционирует как «иммунная система для научного ИИ».

Генеральный директор Lunai Bioworks Дэвид Вайнштейн заявил: «По мере того как ИИ-модели становятся мощнее, безопасность должна приближаться к их ядру. Sentinel работает внутри ИИ-систем, а не вне их, останавливая опасные химические разработки до того, как они будут созданы». Запуск произошел на фоне растущей обеспокоенности рисками двойного назначения передового ИИ в химии и биологии, при этом крупные компании предупреждают, что мощные модели могут помочь злоумышленникам в разработке биологических и химических угроз.

В отличие от обычных фильтров по ключевым словам или систем проверки на основе правил, Sentinel использует молекулярные кодировщики на основе трансформеров. Они обучены распознавать структурные и механистические признаки, связанные с токсикологической активностью и активностью, характерной для химического оружия. Система построена на базе примерно 550 миллионов общедоступных химических структур и дообучена с использованием собственных биологических и токсикологических данных компании Lunai.

Когда система искусственного интеллекта пытается спроектировать, проанализировать или предложить молекулу, Sentinel оценивает запрос в пространстве молекулярных эмбеддингов и может отметить или заблокировать результаты, связанные с нейротоксичными, цитотоксичными или другими опасными механизмами. В компании заявили, что это позволяет выявлять «скрытые риски в новых молекулярных структурах» даже при отсутствии общедоступной информации о токсичности.

О рисках для биобезопасности говорят все чаще. Так, генеральный директор Anthropic Дарио Амодеи недавно предупредил, что в течение нескольких лет ИИ может стать способным автономно создавать биологические агенты или оружие. В OpenAI классифицировали новейшие агентные инструменты ИИ как представляющие «высокий» уровень биориска. Это означает, что они могут оказать существенную помощь неопытным субъектам, пытающимся создать биологические или химические угрозы.

В октябре 2025 года исследователи продемонстрировали, что инструменты ИИ для проектирования белков могут генерировать тысячи синтетических вариантов известных токсинов, способных обходить системы ДНК-скрининга, используемые компаниями по синтезу. Исследовательская группа охарактеризовала эту уязвимость как угрозу «нулевого дня» в области биобезопасности.

В релизе Lunai отмечается, что современное химическое оружие все чаще разрабатывается как «кратковременное, локализованное и сохраняющее инфраструктуру». Компания заявила, что Sentinel предназначен для разработчиков ИИ, стремящихся к интегрированной защите биобезопасности, государственных агентств и платформ наук о жизни, требующих безопасных сред для молекулярного проектирования.

Поддержать работу блога донатом можно по ссылке.


Больше на Сто растений, которые нас убили

Подпишитесь, чтобы получать последние записи по электронной почте.