Разное

Новые ИИ-инструменты Anthropic спровоцировали обвал акций компаний кибербезопасности

Анонс новых инструментов искусственного интеллекта от Anthropic вызвал резкую негативную реакцию на американском фондовом рынке. Представленный сервис автоматического анализа программного кода на базе чат-бота Claude спровоцировал масштабную распродажу акций компаний, работающих в сфере кибербезопасности.

Сильнее всего пострадали публичные игроки отрасли. Бумаги CrowdStrike и Zscaler подешевели примерно на 10%, тогда как акции Netskope и Tenable потеряли около 12%. Инвесторы опасаются, что автоматизация анализа кода с помощью ИИ может снизить спрос на традиционные решения в области защиты данных.

Генеральный директор CrowdStrike Джордж Куртц попытался стабилизировать ситуацию, подчеркнув, что автоматическое сканирование не способно заменить комплексные платформы информационной безопасности. Однако его комментарии не смогли остановить падение: отраслевые фонды iShares Cybersecurity и Global X Cybersecurity опустились до минимальных значений за последние месяцы.

Волна распродаж быстро вышла за пределы киберсектора. Давление испытали и другие разработчики корпоративного ПО — акции Salesforce, ServiceNow и Oracle снизились примерно на 4%. Особенно болезненным стало падение IBM, чьи бумаги за два дня потеряли около 13%, показав худшую динамику за десятилетия. Это уже второй случай в феврале, когда презентация ИИ-решений приводит к масштабной коррекции в ИТ-секторе.

Дополнительное давление на рынок оказали заявления главы Franklin Templeton Дженни Джонсон, которая предупредила, что из-за нейросетей корпоративное программное обеспечение может превратиться в дешёвый «ширпотреб». На этом фоне под удар попали и крупные инвестфонды — Blackstone, Apollo и KKR, активно финансирующие ИТ-компании.

Несмотря на более сдержанную позицию Bank of America, который считает угрозу со стороны Anthropic ограниченной нишевыми платформами вроде GitLab и JFrog, сама Anthropic столкнулась с новыми рисками. По данным Financial Times, компания обвинила китайские ИИ-лаборатории DeepSeek, Moonshot и MiniMax в масштабных атаках на свои модели.

По утверждению стартапа, злоумышленники использовали десятки тысяч фейковых аккаунтов для так называемой дистилляции — извлечения данных и логики работы нейросетей с целью обучения собственных систем в обход американских ограничений на поставки ускорителей Nvidia H200. В Anthropic подчёркивают, что подобные действия несут не только коммерческие, но и серьёзные риски безопасности, поскольку «клонированные» модели могут не иметь встроенных защитных механизмов против создания биологического оружия или кибератак.