Искусственный интеллект способен сделать вероятность глобальной пандемии в 5 раз выше, предупреждают авторы нового отчёта Rand Corporation, сообщает iXBT.
Их выводы основаны на моделировании сценариев биотерроризма и утечек из лабораторий, усиленных генеративными ИИ-технологиями. Исследование заказано Агентством перспективных оборонных исследований США (DARPA) и напрямую касается этики и регулирования развития больших языковых моделей.
Модели вроде ChatGPT могут значительно упростить процесс проектирования и распространения биологического оружия. Авторы указывают, что ИИ способен помочь в выборе патогена, синтезе ДНК, подборе условий хранения и доставки, а также в обходе существующих мер контроля. Исследование основано на оценке гипотетических злоумышленников, получивших доступ к ИИ-системам с открытым API, обученным на материалах из научных публикаций. Даже при ограниченном уровне технической подготовки у них появлялись пошаговые инструкции по созданию опасных агентов — например, вируса оспы.
Ключевой риск заключается в том, что ИИ может снижать «барьер доступа» к биологическим атакам. Ранее такие действия требовали высокой квалификации и значительных ресурсов, но теперь ИИ-подсказки могут компенсировать нехватку знаний. Особенно опасна возможность автоматической генерации и проверки вариантов биологических агентов с оптимизированными характеристиками заразности и устойчивости. Отдельные LLM уже сейчас способны подбирать материалы и методы, имитирующие научные эксперименты.
Rand подчёркивает: речь идёт не только о террористических группировках, но и о случайных ошибках. Лаборатории, использующие ИИ для ускорения исследований, могут непреднамеренно создать и выпустить в окружающую среду опасный патоген. Влияние таких утечек может оказаться масштабнее COVID-19, особенно при отсутствии должного контроля и этических ограничений.
Отдельное внимание в докладе уделено необходимости регулирования: учёные призывают ввести запреты на доступ к биотехнической информации в LLM, внедрить фильтры на «биоопасный» контент, а также обеспечить аудит моделей, используемых в научных разработках. Кроме того, важно пересмотреть принципы публикации биологических данных в открытом доступе.
В отчёте нет однозначного сценария, но его общий вывод: если развитие ИИ продолжится без учёта биологических рисков, то вероятность новой пандемии в ближайшие десятилетия вырастет кратно. При этом технологии, которые должны помогать в лечении и профилактике, могут непреднамеренно стать катализатором биологических угроз.
Олимпийские Игры 2026
Паралимпийцы снова победили олимпийцев: почему так происходит
Пенсия 2026
Где и как казахстанцы смогут посмотреть свои пенсионные отчисления
Налоговый кодекс РК 2026
Работал на упрощёнке, оказался на общем: как одна пропущенная галочка может превратиться в миллионные долги
АЭС
В Казахстане утвердили место для строительства второй АЭС
Алматы
На аль-Фараби в Алматы насмерть сбили женщину
МРП 2026
Штрафы подросли: за какие нарушения казахстанцам придётся платить до 130 тыс. тенге
Землетрясение
Землетрясение произошло в Алматинской области
Бокс
Казахстанские боксеры завершили турнир Futures Cup с четырьмя золотыми медалями
Футбол
МВД Казахстана предупреждает родителей: дети могут передать пароли от аккаунтов мошенникам в интернете
Астана
В Астане успешно прошли тестовые заезды поездов LRT
Азербайджан
Беспилотные летательные аппараты из Ирана упали в Азербайджане
Шымкент
26-27 марта частично перекроют дороги Шымкента
Иран
У США и Ирана объявлено пятидневное перемирие
Нефть
Иран обозначил условия для открытия Ормузского пролива
Закон
В Казахстане примут новый Конституционный закон о статусе столицы
Война
Война у Каспия: может ли конфликт вокруг Ирана затронуть Казахстан напрямую
Туризм
За рубежом неспокойно: могут ли казахстанцы хорошо отдохнуть внутри страны этой весной
Медицина
Список бесплатных лекарств в Казахстане пополнится новым препаратом