Разное

Свято место пусто не бывает: ChatGPT будет использоваться правительством вместо Claude

В американском технологическом сообществе набирает обороты волна критики в адрес OpenAI после сообщений о заключении соглашения с Министерством обороны США. Поводом для резонанса стало то, что компания Anthropic, разработчик модели Claude, публично отказалась предоставлять свои технологии для использования в автономных вооружениях и системах массового наблюдения, после чего была исключена из числа поставщиков для государственных структур.

Anthropic заявила, что придерживается двух принципиальных ограничений: её ИИ не должен применяться в автономном оружии и в проектах, связанных с массовым наблюдением за гражданами США. Вскоре после этого компания была признана «риском для цепочки поставок» и лишена доступа к государственным контрактам. Решение вызвало дискуссии о границах сотрудничества частных ИИ-компаний с государством и об этической стороне подобных проектов.

На фоне отказа Anthropic глава OpenAI Сэм Альтман подтвердил готовность предоставить технологии ChatGPT для работы с государственными структурами. Он заявил, что модели компании не будут использоваться для массового наблюдения. Однако представители правительства уточнили, что технологии могут применяться «в рамках всех законных средств», что вновь подняло вопросы о трактовке законодательства, включая положения, принятые после событий 11 сентября.

Новость вызвала активную реакцию в социальных сетях и на профильных форумах. На Reddit и других платформах появились обсуждения с призывами к отмене подписок на сервисы OpenAI. Пользователи выражают обеспокоенность потенциальным использованием ИИ в государственных программах, особенно в контексте вопросов конфиденциальности и гражданских свобод.