Генеральный директор Anthropic опасается угроз со стороны китайского DeepSeek

Генеральный директор Anthropic Дарио Амодей выразил серьёзные опасения по поводу конкурента DeepSeek — китайской AI-компании, которая произвела фурор в Кремниевой долине благодаря своей модели R1. Проблема может быть гораздо серьёзнее, чем стандартные вопросы о передаче пользовательских данных в Китай.
В подкасте ChinaTalk с Джорданом Шнайдером Амодей рассказал, что во время теста безопасности, проведённого Anthropic, DeepSeek сгенерировала редкую информацию о биологическом оружии. Это был один из тестов, которые компания регулярно проводит для оценки потенциальных угроз национальной безопасности от AI-моделей. Проверки направлены на выявление способности моделей создавать контент, связанный с биологическим оружием, который сложно найти в открытых источниках, таких как Google или учебники.
«Результаты DeepSeek оказались худшими среди всех моделей, которые мы когда-либо тестировали», — заявил Амодей. «У неё абсолютно не было блокировок против генерации подобной информации».
Амодей отметил, что в данный момент модели DeepSeek не представляют «прямой опасности» для создания опасной информации, но ситуация может измениться. Несмотря на похвалу команде DeepSeek за инженерные таланты, он рекомендовал компании уделить больше внимания безопасности AI.
В интервью Амодей также поддержал жёсткие экспортные ограничения на поставку микрочипов в Китай, ссылаясь на риск технологического превосходства китайских военных. Однако он не уточнил, какую именно модель тестировала Anthropic, и не раскрыл технических деталей испытаний.
Мнения других людей
На этом фоне тревогу выразила и Cisco: её тесты показали, что модель R1 от DeepSeek не заблокировала ни одного вредоносного запроса, продемонстрировав 100% успешность обхода ограничений. Хотя о биологическом оружии речи не шло, Cisco заявила, что получила информацию о киберпреступлениях и других незаконных действиях.
Стоит отметить, что аналогичные проблемы показали и другие модели: Llama-3.1-405B от Meta и GPT-4o от OpenAI провалили 96% и 86% тестов соответственно.
Несмотря на это, R1 уже интегрирована в облачные платформы AWS и Microsoft, что выглядит иронично, учитывая, что Amazon является крупнейшим инвестором Anthropic.
Тем временем всё больше стран и организаций, включая ВМС США и Пентагон, начинают запрещать использование DeepSeek. Останется ли её рост неудержимым, покажет время, но Амодей уже признал DeepSeek серьёзным конкурентом среди лидеров AI-индустрии.
Риски для глобальной индустрии AI
Ситуация с DeepSeek подчёркивает растущие вызовы в сфере регулирования искусственного интеллекта. Эксперты опасаются, что подобные модели могут быть использованы не только в научных или коммерческих целях, но и для разработки технологий, угрожающих международной безопасности. Появление новых игроков, таких как DeepSeek, заставляет компании по всему миру пересматривать свои подходы к тестированию и безопасности AI.
Будущее международного сотрудничества
В условиях нарастающей конкуренции и опасений по поводу безопасности AI сотрудничество между государствами и крупными технологическими компаниями может стать ключевым элементом для обеспечения стабильности и защиты пользователей. Возможным шагом в этом направлении могут стать международные соглашения по этическому использованию AI и внедрение стандартов, которые позволят минимизировать риски разработки и распространения вредоносных технологий.