Вы здесь

ИИ активно участвует в войне с Ираном

В ходе массированных атак на иранские объекты американские военные, по имеющимся данным, задействовали модель ИИ Claude от компании Anthropic. Главная ценность этой технологии заключается в беспрецедентном сокращении так называемой «цепочки поражения» - ИИ берет на себя весь цикл: от мгновенного обнаружения цели до прохождения проверок и финальной команды на запуск ракеты.

Масштабы применения впечатляют: всего за первые 12 часов операции США и Израиль нанесли около 900 ударов по целям в Иране. В результате одной из таких высокоточных атак израильскими ракетами был ликвидирован верховный лидер Ирана аятолла Али Хаменеи. 

Эксперты выражают серьезную обеспокоенность феноменом, который называют «сжатием принятия решений». Благодаря ИИ время, необходимое для планирования сложнейших комбинированных ударов, сокращается до минимума. Существует риск, что военные и юристы, обязанные контролировать процесс, не допуская нарушения “законов войны” и международных конвенций, превратятся в простых статистов, которые будут лишь механически подписывать планы, полностью сформированные алгоритмами.

В 2024 году компания Anthropic внедрила свои модели в работу Министерства войны США и других структур нацбезопасности для ускорения стратегического планирования. Модель Claude стала ключевым элементом системы, созданной компанией Palantir совместно с Пентагоном. Целью этого партнерства стало кардинальное улучшение анализа разведданных и поддержка чиновников в критические моменты.

По словам Крейга Джонса из Университета Ньюкасла, ИИ генерирует рекомендации по выбору целей со скоростью, которая в ряде случаев «быстрее мысли». Это позволяет одновременно проводить точечные ликвидации лидеров и подавлять способность режима к ответному удару баллистическими ракетами. То, что раньше требовало дней или недель подготовки, теперь происходит мгновенно.

Современные системы способны за секунды обрабатывать колоссальные объемы информации: видео с беспилотников и данные радиоперехвата, сведения от агентурной разведки, а система Palantir не только находит цели, но и устанавливает их приоритет, подбирает оптимальное оружие на основе складских запасов и статистики прошлых ударов. Автоматизированные алгоритмы даже проводят предварительную юридическую оценку правомерности каждой атаки.

Профессор Дэвид Лесли из Лондонского университета королевы Марии предупреждает о побочном эффекте - «когнитивной разгрузке». Когда всю аналитическую работу делает машина, человек, принимающий окончательное решение об ударе, может чувствовать себя эмоционально и морально отстраненным от последствий своих действий.

При этом в США наблюдаются трения: администрация планировала отказаться от услуг Anthropic из-за их отказа работать над полностью автономным оружием и системами слежки. 

Президент Дональд Трамп приказал всем американским правительственным учреждениям постепенно отказаться от использования Anthropic, которая была объявлена ​​Министерством обороны угрозой для цепочки поставок, что может низвести ее до статуса изгоя. Вслед за этим в понедельник министр финансов Скотт Бессент заявил в сообщении на X, что его ведомство прекращает любое использование продуктов Anthropic, включая Claude. Министерство здравоохранения и социальных служб также уведомило своих сотрудников и призвало их использовать другие платформы искусственного интеллекта, такие как ChatGPT и Gemini.

Однако пока система с ИИ Claude остается в строю, а конкуренты из OpenAI уже поспешили занять нишу, подписав собственный контракт с Пентагоном.

Ольга Божкова