BTC
ETH
HTX
SOL
BNB
Xem thị trường
简中
繁中
English
日本語
한국어
ภาษาไทย
Tiếng Việt

Lời tối hậu thư từ Lầu Năm Góc: 72 giờ sinh tử của Anthropic

深潮TechFlow
特邀专栏作者
2026-02-27 08:14
Bài viết này có khoảng 3995 từ, đọc toàn bộ bài viết mất khoảng 6 phút
Điểm kết thúc của khủng hoảng danh tính, thường là sự biến mất của chính danh tính đó.
Tóm tắt AI
Mở rộng
  • Quan điểm cốt lõi: Anthropic đang đối mặt với cuộc khủng hoảng nghiêm trọng về danh tính và thương mại. Lời hứa xây dựng thương hiệu "AI có trách nhiệm" mà họ đã tự hào lâu nay đang nhanh chóng sụp đổ dưới sức ép từ chính phủ, cạnh tranh thị trường và nhu cầu phát triển của chính họ, dẫn đến nhiều mâu thuẫn trong hành vi của công ty.
  • Yếu tố then chốt:
    1. Lầu Năm Góc đã đưa ra tối hậu thư, yêu cầu Anthropic gỡ bỏ các hạn chế về ứng dụng quân sự đối với Claude (bao gồm cả việc ngắm bắn vũ khí tự động), nếu không sẽ hủy bỏ hợp đồng trị giá 200 triệu USD và có thể đưa họ vào danh sách đen "rủi ro chuỗi cung ứng".
    2. Anthropic đã công bố phiên bản mới của "Chính sách Mở rộng Có trách nhiệm" (RSP 3.0), loại bỏ cam kết cốt lõi "tạm dừng đào tạo các mô hình mạnh hơn nếu các biện pháp an toàn chưa đầy đủ", chuyển sang một khuôn khổ linh hoạt hơn.
    3. Công ty đã công khai cáo buộc ba công ty AI Trung Quốc thực hiện "cuộc tấn công chưng cất cấp công nghiệp" vào Claude, nhưng chính họ lại phải trả 1,5 tỷ USD tiền dàn xếp vì sử dụng dữ liệu sách vi phạm bản quyền để huấn luyện, bị chỉ trích là áp dụng tiêu chuẩn kép.
    4. Trong khi đạt được định giá cao 380 tỷ USD và huy động được lượng vốn khổng lồ, câu chuyện an toàn của họ đang từ "lợi thế khác biệt" trượt dần thành "tài sản chính trị tiêu cực", đối mặt với xung đột gay gắt giữa thương hiệu và thực tế thương mại.
    5. Logic hành vi của công ty mâu thuẫn: vừa từ chối một số yêu cầu của quân đội và cáo buộc các mối đe dọa từ nước khác với lý do an toàn, lại vừa xóa bỏ các rào cản an toàn quan trọng của chính mình để cạnh tranh, phơi bày bản chất thương hiệu thương mại của câu chuyện "an toàn".

Tác giả gốc: Ada, Shenchao TechFlow

Thứ Ba, ngày 24 tháng 2. Washington, Lầu Năm Góc.

CEO của Anthropic, Dario Amodei, ngồi đối diện Bộ trưởng Quốc phòng Pete Hegseth. Theo nhiều nguồn tin từ NPR và CNN dẫn nguồn giấu tên, bầu không khí cuộc gặp "lịch sự", nhưng nội dung thì hoàn toàn không nhẹ nhàng.

Hegseth đưa ra cho anh ta một tối hậu thư: Trước 5:01 chiều thứ Sáu, gỡ bỏ các hạn chế sử dụng quân sự đối với Claude, cho phép Lầu Năm Góc sử dụng nó cho "tất cả các mục đích hợp pháp", bao gồm nhắm mục tiêu vũ khí tự động và giám sát quy mô lớn trong nước.

Nếu không, hủy hợp đồng 200 triệu USD. Kích hoạt Đạo luật Sản xuất Quốc phòng, trưng dụng cưỡng chế. Liệt Anthropic vào danh sách "rủi ro chuỗi cung ứng", điều này tương đương với việc đưa nó vào danh sách đen cùng với các thực thể thù địch của Nga và Trung Quốc.

Cùng ngày, Anthropic đã phát hành phiên bản thứ ba của "Chính sách Mở rộng Có trách nhiệm" (RSP 3.0), lặng lẽ xóa bỏ một cam kết cốt lõi nhất kể từ khi thành lập công ty: nếu không thể đảm bảo các biện pháp an toàn được áp dụng, sẽ không huấn luyện các mô hình mạnh hơn.

Cũng trong ngày hôm đó, Elon Musk đăng bài trên X nói: "Anthropic đánh cắp dữ liệu huấn luyện quy mô lớn, đó là sự thật." Đồng thời, ghi chú cộng đồng của X bổ sung thông tin về việc Anthropic đã chi 1,5 tỷ USD để dàn xếp vụ kiện liên quan đến việc sử dụng sách vi phạm bản quyền để huấn luyện Claude.

Trong vòng bảy mươi hai giờ, công ty AI tự nhận là có "linh hồn" này, đồng thời đóng ba vai trò: kẻ tử vì đạo an toàn, kẻ trộm sở hữu trí tuệ, kẻ phản bội của Lầu Năm Góc.

Đâu mới là sự thật?

Có lẽ tất cả đều đúng.

Lựa chọn "Tuân theo hoặc Biến đi" của Lầu Năm Góc

Lớp đầu tiên của câu chuyện rất đơn giản.

Anthropic là công ty AI đầu tiên có được quyền truy cập cấp độ mật của Bộ Quốc phòng Hoa Kỳ. Hợp đồng được ký vào mùa hè năm ngoái, giá trị tối đa 200 triệu USD. OpenAI, Google, xAI sau đó cũng đã nhận được các hợp đồng có quy mô tương đương.

Theo Al Jazeera đưa tin, Claude đã được sử dụng trong một hoạt động của quân đội Mỹ vào tháng 1 năm nay. Báo cáo cho biết hoạt động này liên quan đến vụ bắt cóc Tổng thống Venezuela Maduro.

Nhưng Anthropic đã vạch ra hai ranh giới đỏ: không hỗ trợ nhắm mục tiêu vũ khí hoàn toàn tự động, không hỗ trợ giám sát quy mô lớn đối với công dân Mỹ. Anthropic cho rằng độ tin cậy của trí tuệ nhân tạo là không đủ để điều khiển vũ khí, và hiện chưa có bất kỳ luật pháp hay quy định nào điều chỉnh việc ứng dụng AI trong giám sát quy mô lớn.

Lầu Năm Góc không chấp nhận.

Cố vấn AI của Nhà Trắng, David Sacks, đã công khai cáo buộc Anthropic trên X vào tháng 10 năm ngoái rằng "sử dụng nỗi sợ hãi làm vũ khí, thực hiện bắt giữ quy định".

Các đối thủ cạnh tranh đã quỳ gối. OpenAI, Google, xAI đều đồng ý để quân đội sử dụng AI của họ cho "tất cả các kịch bản hợp pháp". Grok của Musk vừa được phê duyệt vào hệ thống mật trong tuần này.

Anthropic là người cuối cùng còn đứng vững.

Tính đến thời điểm đăng bài, Anthropic trong tuyên bố mới nhất đã cho biết họ không có ý định nhượng bộ. Nhưng hạn chót 5:01 chiều thứ Sáu, đã ở ngay trước mắt.

Một cựu liên lạc viên ẩn danh giữa Bộ Tư pháp và Bộ Quốc phòng đã bày tỏ sự bối rối với CNN: "Làm sao bạn có thể đồng thời tuyên bố một công ty là 'rủi ro chuỗi cung ứng', lại ép buộc công ty đó làm việc cho quân đội của bạn?"

Câu hỏi hay, nhưng điều đó không nằm trong phạm vi xem xét của Lầu Năm Góc. Họ quan tâm là, nếu Anthropic không thỏa hiệp, sẽ áp dụng biện pháp cưỡng chế, hoặc, trở thành kẻ bị bỏ rơi ở Washington.

"Tấn công Chưng cất": Một cáo buộc mang tính tát vào mặt

Ngày 23 tháng 2, Anthropic đã đăng một bài blog với ngôn từ gay gắt, cáo buộc ba công ty AI Trung Quốc đã thực hiện "cuộc tấn công chưng cất cấp độ công nghiệp" nhắm vào Claude.

Bị cáo là DeepSeek, Moonshot AI, MiniMax.

Anthropic cáo buộc họ thông qua 24.000 tài khoản giả mạo, đã khởi động hơn 16 triệu lượt tương tác với Claude, nhắm mục tiêu trích xuất khả năng cốt lõi của Claude trong lập luận tác nhân, gọi công cụ và lập trình.

Anthropic định tính sự việc này là mối đe dọa an ninh quốc gia, tuyên bố rằng mô hình sau khi chưng cất "khó có khả năng giữ lại các rào chắn an toàn", có thể bị chính phủ chuyên quyền sử dụng cho các cuộc tấn công mạng, thông tin sai lệch và giám sát quy mô lớn.

Cách kể chuyện hoàn hảo, thời điểm cũng hoàn hảo.

Đúng vào lúc chính quyền Trump vừa nới lỏng kiểm soát xuất khẩu chip sang Trung Quốc, đúng vào lúc Anthropic cần tìm đạn dược cho lập trường vận động hành lang về kiểm soát xuất khẩu chip của chính mình.

Nhưng Musk đã nổ một phát súng: "Anthropic đánh cắp dữ liệu huấn luyện quy mô lớn, và đã trả hàng chục tỷ USD để dàn xếp. Đó là sự thật."

image

Đồng sáng lập công ty cơ sở hạ tầng AI IO.Net, Tory Green, cho biết: "Các bạn dùng dữ liệu toàn mạng để huấn luyện mô hình của mình, rồi người khác dùng API công khai của các bạn để học hỏi các bạn, thì gọi là 'tấn công chưng cất' sao?"

Anthropic gọi việc chưng cất là "tấn công", nhưng việc này trong ngành AI là chuyện thường ngày. OpenAI dùng nó để nén GPT-4, Google dùng nó để tối ưu hóa Gemini, ngay cả chính Anthropic cũng đang làm. Điểm khác biệt duy nhất là, lần này bị chưng cất là chính nó.

Theo Giáo sư AI Erik Cambria từ Đại học Công nghệ Nanyang Singapore cho CNBC biết: "Ranh giới giữa sử dụng hợp pháp và khai thác độc hại thường rất mờ nhạt."

Trớ trêu hơn, Anthropic vừa trả 1,5 tỷ USD để dàn xếp vụ sử dụng sách vi phạm bản quyền để huấn luyện Claude. Nó dùng dữ liệu toàn mạng để huấn luyện mô hình, rồi cáo buộc người khác dùng API công khai của nó để học hỏi nó. Đây không phải là hai tiêu chuẩn, mà là ba tiêu chuẩn.

Anthropic vốn định đóng vai nạn nhân, kết quả bị lột trần thành bị cáo.

Tháo dỡ Cam kết An toàn: RSP 3.0

Ngay trong ngày đối đầu với Lầu Năm Góc và đấu khẩu với Thung lũng Silicon, Anthropic đã phát hành phiên bản thứ ba của Chính sách Mở rộng Có trách nhiệm.

Nhà khoa học trưởng của Anthropic, Jared Kaplan, trong một cuộc phỏng vấn với truyền thông cho biết: "Chúng tôi cảm thấy việc dừng huấn luyện các mô hình AI không giúp ích gì cho bất kỳ ai. Trong bối cảnh AI phát triển nhanh chóng, đơn phương đưa ra cam kết... trong khi đối thủ cạnh tranh đang tiến lên hết tốc lực, điều đó không có ý nghĩa."

Nói cách khác, người khác không giữ đạo đức, chúng tôi cũng không giả vờ nữa.

Cốt lõi của RSP 1.0 và 2.0 là một cam kết cứng rắn: nếu khả năng của mô hình vượt quá phạm vi bao phủ của các biện pháp an toàn, thì tạm dừng huấn luyện. Cam kết này đã mang lại cho Anthropic danh tiếng độc nhất vô nhị trong giới an toàn AI.

Nhưng phiên bản 3.0 đã xóa nó.

Thay vào đó là một khuôn khổ "linh hoạt" hơn, tức là chia các biện pháp an toàn mà Anthropic tự có thể làm và các khuyến nghị an toàn cần sự hợp tác toàn ngành thành hai đường ray. Cứ 3-6 tháng phát hành một báo cáo rủi ro. Mời chuyên gia bên ngoài xem xét.

Nghe có vẻ có trách nhiệm?

Nhà xem xét độc lập Chris Painter từ tổ chức phi lợi nhuận METR, sau khi xem bản dự thảo sớm của chính sách, đã nói với: "Điều này cho thấy Anthropic cho rằng cần phải vào 'chế độ phân loại', vì phương pháp đánh giá và giảm thiểu rủi ro không theo kịp tốc độ tăng trưởng năng lực. Điều này chứng minh nhiều hơn rằng xã hội chưa sẵn sàng cho những rủi ro thảm khốc tiềm ẩn của AI."

Theo TIME đưa tin, Anthropic đã dành gần một năm để thảo luận nội bộ về lần viết lại này, CEO Amodei và hội đồng quản trị đã thông qua với số phiếu tuyệt đối. Lời giải thích chính thức là, chính sách ban đầu được thiết kế với mục đích thúc đẩy sự đồng thuận trong ngành, nhưng kết quả là ngành hoàn toàn không theo kịp. Chính quyền Trump đã có thái độ buông lỏng đối với sự phát triển của trí tuệ nhân tạo, thậm chí cố gắng bãi bỏ các quy định liên quan của các bang. Luật pháp liên bang về AI còn xa vời. Mặc dù vào năm 2023, việc thiết lập một khuôn khổ quản trị toàn cầu dường như vẫn còn khả thi, nhưng ba năm đã trôi qua, cánh cửa đó rõ ràng đã đóng lại.

Một nhà nghiên cứu ẩn danh theo dõi lâu dài về quản trị AI nói thẳng thắn hơn: "RSP là tài sản thương hiệu có giá trị nhất của Anthropic. Xóa bỏ cam kết tạm dừng huấn luyện, giống như một công ty thực phẩm hữu cơ lặng lẽ xé hai chữ 'hữu cơ' trên bao bì, rồi nói với bạn rằng việc kiểm tra của họ bây giờ minh bạch hơn."

Sự xé rách bản sắc dưới định giá 3800 tỷ

AI
Chào mừng tham gia cộng đồng chính thức của Odaily
Nhóm đăng ký
https://t.me/Odaily_News
Nhóm trò chuyện
https://t.me/Odaily_CryptoPunk
Tài khoản chính thức
https://twitter.com/OdailyChina
Nhóm trò chuyện
https://t.me/Odaily_CryptoPunk
Tìm kiếm
Mục lục bài viết
Tải ứng dụng Odaily Nhật Báo Hành Tinh
Hãy để một số người hiểu Web3.0 trước
IOS
Android