Министерство обороны США хочет использовать нейросеть Claude для всех «законных целей». Однако Anthropic потребовала гарантий того, что ее модель не будет применяться для автономного управления оружием и массовой слежки за гражданами Америки. В ответ ведомство назвало попытку ограничить сценарии использования «недемократичной».
По словам неназванного сотрудника Пентагона, глава министерства рассматривает возможность признать Anthropic ненадежным поставщиком для оборонных контрактов. Если такое решение будет принято, все компании, сотрудничающие с Пентагоном, будут обязаны отказаться от продуктов Anthropic. Статус ненадежного поставщика обычно присваивается компаниям из враждебных государств — например, китайским или российским, в числе которых «Лаборатория Касперского».
Напряженность между сторонами усилилась на фоне сообщений о том, что Claude применялся в ходе операции по похищению Николаса Мадуро из Венесуэлы, повлекшей человеческие жертвы. По данным источников, эта информация вызвала серьезное недовольство внутри компании.
Между тем Пентагон уже заключил контракты с другими игроками на рынке ИИ — Alphabet (материнской компанией Google), OpenAI и xAI.
Почему это важно?
Модели ИИ давно применяются в военных целях, однако появление и стремительное развитие больших языковых моделей открывают принципиально новые сценарии. В частности, LLM способны действовать как автономные агенты: самостоятельно анализировать обстановку и принимать решения без участия человека. Бесконтрольное внедрение таких систем в военные операции несет серьезные риски: от ошибочных ударов до эскалации конфликтов по сценариям, которые никто не закладывал.
Исход конфликта между Anthropic и Министерством обороны США станет проверкой для всей отрасли: готовы ли ведущие ИИ-компании на практике отстаивать принципы безопасной и ответственной разработки — или эти принципы останутся декларациями.