Анонс новых инструментов искусственного интеллекта от Anthropic вызвал резкую негативную реакцию на американском фондовом рынке. Представленный сервис автоматического анализа программного кода на базе чат-бота Claude спровоцировал масштабную распродажу акций компаний, работающих в сфере кибербезопасности.
Сильнее всего пострадали публичные игроки отрасли. Бумаги CrowdStrike и Zscaler подешевели примерно на 10%, тогда как акции Netskope и Tenable потеряли около 12%. Инвесторы опасаются, что автоматизация анализа кода с помощью ИИ может снизить спрос на традиционные решения в области защиты данных.
Генеральный директор CrowdStrike Джордж Куртц попытался стабилизировать ситуацию, подчеркнув, что автоматическое сканирование не способно заменить комплексные платформы информационной безопасности. Однако его комментарии не смогли остановить падение: отраслевые фонды iShares Cybersecurity и Global X Cybersecurity опустились до минимальных значений за последние месяцы.
Волна распродаж быстро вышла за пределы киберсектора. Давление испытали и другие разработчики корпоративного ПО — акции Salesforce, ServiceNow и Oracle снизились примерно на 4%. Особенно болезненным стало падение IBM, чьи бумаги за два дня потеряли около 13%, показав худшую динамику за десятилетия. Это уже второй случай в феврале, когда презентация ИИ-решений приводит к масштабной коррекции в ИТ-секторе.
Дополнительное давление на рынок оказали заявления главы Franklin Templeton Дженни Джонсон, которая предупредила, что из-за нейросетей корпоративное программное обеспечение может превратиться в дешёвый «ширпотреб». На этом фоне под удар попали и крупные инвестфонды — Blackstone, Apollo и KKR, активно финансирующие ИТ-компании.
Несмотря на более сдержанную позицию Bank of America, который считает угрозу со стороны Anthropic ограниченной нишевыми платформами вроде GitLab и JFrog, сама Anthropic столкнулась с новыми рисками. По данным Financial Times, компания обвинила китайские ИИ-лаборатории DeepSeek, Moonshot и MiniMax в масштабных атаках на свои модели.
По утверждению стартапа, злоумышленники использовали десятки тысяч фейковых аккаунтов для так называемой дистилляции — извлечения данных и логики работы нейросетей с целью обучения собственных систем в обход американских ограничений на поставки ускорителей Nvidia H200. В Anthropic подчёркивают, что подобные действия несут не только коммерческие, но и серьёзные риски безопасности, поскольку «клонированные» модели могут не иметь встроенных защитных механизмов против создания биологического оружия или кибератак.