Điều gì khiến GPT và Claude nắm tay nhau, là cùng phản đối Lầu Năm Góc?
- Quan điểm cốt lõi: Bài viết này tiết lộ những khó khăn về đạo đức và thương mại mà các công ty AI phải đối mặt khi hợp tác với chính phủ Mỹ. Lấy ví dụ Anthropic bị Bộ Quốc phòng trừng phạt vì kiên trì các nguyên tắc sử dụng AI cụ thể, trong khi OpenAI ký kết hợp đồng suôn sẻ, cho thấy rằng trước các vấn đề an ninh quốc gia, lập trường nguyên tắc của các công ty công nghệ có thể dẫn đến hậu quả hoàn toàn khác nhau do tư thế chính trị và chiến lược đàm phán khác biệt. Cốt lõi là chính phủ sử dụng quyền lực tiếp cận thị trường để thiết lập quyền chủ đạo quy tắc.
- Yếu tố then chốt:
- Nguyên nhân sự việc: Anthropic bị Bộ Quốc phòng từ chối và đưa ra tối hậu thư vì kiên trì hai "vạch đỏ" trong hợp đồng 200 triệu USD với quân đội Mỹ: "cấm giám sát hàng loạt công dân" và "cấm vũ khí hoàn toàn tự chủ", đồng thời chủ trương bịt các lỗ hổng pháp lý.
- Phân hóa lập trường và liên minh ngắn ngủi: Sau khi Anthropic từ chối thỏa hiệp, nhân viên OpenAI từng lên tiếng ủng hộ, CEO của họ cũng tuyên bố có cùng vạch đỏ, cho thấy sự đoàn kết ban đầu của ngành về vấn đề đạo đức.
- Trừng phạt leo thang: Sau khi từ chối ký, Anthropic bị Bộ Quốc phòng liệt vào danh sách "rủi ro an ninh chuỗi cung ứng" (tương tự như cách đối xử với Huawei), và bị cựu Tổng thống Trump công khai chỉ trích, đối mặt với nguy cơ bị loại khỏi toàn bộ chuỗi cung ứng liên bang.
- Đối thủ cạnh tranh hưởng lợi: OpenAI nhanh chóng đạt được thỏa thuận với Lầu Năm Góc, tiếp quản khoảng trống mà Anthropic để lại, nhưng các điều kiện họ chấp nhận không bao gồm điều khoản "bịt lỗ hổng pháp lý" mà Anthropic kiên trì.
- Yếu tố chính trị và hệ tư tưởng: Bài viết chỉ ra, Anthropic bị một số quan chức chỉ trích là "AI tỉnh thức", khuynh hướng chính trị của CEO (không tham dự lễ nhậm chức của Trump) có thể đã ảnh hưởng đến kết quả đàm phán, cho thấy tranh cãi vượt ra ngoài phạm vi thuần túy thương mại hay kỹ thuật.
- Tín hiệu cảnh báo ngành: Ảnh hưởng cốt lõi của sự kiện này nằm ở việc "giết gà dọa khỉ", thông qua việc trừng phạt Anthropic để xác định rõ thẩm quyền của chính phủ, buộc các công ty AI khác phải thực hiện tính toán thương mại "hợp lý" khi đối mặt với lựa chọn tương tự trong tương lai, có thể kìm hãm sự phản kháng đạo đức của ngành.
Tác giả gốc: Kuli, Shenchao TechFlow
Mấy ngày trước có một bức ảnh rất nổi trên mạng.
Ấn Độ tổ chức một hội nghị thượng đỉnh về AI, Thủ tướng Modi đứng trên sân khấu, hai bên là một hàng các ông lớn Thung lũng Silicon. Trong phần chụp ảnh, Modi nắm tay người bên cạnh giơ cao qua đầu, những người khác cũng nắm tay nhau, khung cảnh rất đoàn kết.
Nhưng, chỉ có hai người không nắm tay.

CEO của OpenAI và CEO của Anthropic, tức là hai ông chủ đứng sau ChatGPT và Claude, đứng cạnh nhau, mỗi người giơ một nắm đấm.
Không nắm tay, không nhìn nhau, giống như hai kẻ thù được cô giáo xếp ngồi cùng bàn.
Hai công ty này trong vài năm qua đánh nhau không phân thắng bại, Claude được tạo ra bởi đội ngũ rời bỏ OpenAI, hai bên tranh giành người dùng, khách hàng doanh nghiệp, tài trợ, trong Super Bowl năm nay Anthropic còn đặc biệt chi tiền mua quảng cáo chế giễu ChatGPT sắp có quảng cáo.
Vì vậy không nắm tay, là bình thường.
Tuy nhiên, hôm nay họ đã nắm tay nhau. Vì Lầu Năm Góc.
Chuyện là như thế này.
Anthropic, công ty đứng sau Claude, năm ngoái đã ký một hợp đồng trị giá tối đa 200 triệu USD với Bộ Quốc phòng Mỹ. Claude là mô hình AI đầu tiên được triển khai vào mạng lưới mật của quân đội Mỹ, hỗ trợ xử lý các công việc như phân tích tình báo, lập kế hoạch nhiệm vụ.
Nhưng Anthropic đã vẽ hai đường đỏ trong hợp đồng:
Claude không thể được sử dụng để giám sát hàng loạt công dân Mỹ, cũng không thể được sử dụng cho vũ khí tự động không có sự tham gia của con người. (Tham khảo: 72 giờ khủng hoảng danh tính của Anthropic)
Chỉ là, Lầu Năm Góc không chấp nhận.
Yêu cầu của họ là bốn chữ: không bị hạn chế. Mua công cụ thì nên được sử dụng tùy ý, một công ty công nghệ như anh có quyền gì nói với quân đội Mỹ cái gì được làm cái gì không.
Thứ Ba tuần trước, Bộ trưởng Quốc phòng Hegseth đã trực tiếp ra tối hậu thư cho CEO của Anthropic: Đồng ý trước 5:01 chiều Thứ Sáu, nếu không tự chịu hậu quả.
Anthropic đã không đồng ý.
CEO của họ đã đưa ra một tuyên bố công khai, đại ý là: Chúng tôi hiểu rõ tầm quan trọng của AI đối với quốc phòng Mỹ, nhưng trong một số ít trường hợp, AI sẽ làm tổn hại thay vì bảo vệ các giá trị dân chủ. Chúng tôi không thể bằng lương tâm chấp nhận yêu cầu này.

Đại diện đàm phán của Lầu Năm Góc, Thứ trưởng Bộ Quốc phòng Emil Michael sau đó đã chửi anh ta là kẻ nói dối trên mạng xã hội, nói anh ta có mặc cảm thượng đế, đùa giỡn với an ninh quốc gia.
Cái nắm tay ngắn ngủi
Sau đó, điều không ngờ tới đã xảy ra.
Nhân viên của OpenAI và Google, tổng cộng hơn 400 người đã ký một bức thư ngỏ chung, tiêu đề là "Chúng tôi sẽ không bị chia rẽ".
Trong thư nói, Lầu Năm Góc đang lần lượt đàm phán với các công ty AI, muốn những người khác đồng ý với điều kiện mà Anthropic không chịu đồng ý, dùng nỗi sợ hãi để chia rẽ từng công ty.
CEO của OpenAI cũng gửi thư nội bộ cho toàn thể nhân viên, nói rằng OpenAI có cùng đường đỏ với Anthropic:
Không thực hiện giám sát hàng loạt, không tạo vũ khí sát thương tự động.

Hai công ty chỉ vài ngày trước còn không chịu nắm tay, đột nhiên vì Lầu Năm Góc mà đứng về cùng một phía.
Nhưng sự đoàn kết này, có lẽ chỉ kéo dài vài giờ.
5:01 chiều Thứ Sáu, tối hậu thư của Lầu Năm Góc hết hạn. Anthropic đã không ký.
Một công ty công nghệ Mỹ định giá 380 tỷ USD, đối mặt với rủi ro hủy hợp đồng 200 triệu USD, đã từ chối Bộ Quốc phòng Mỹ. Đặt trong quá khứ, chuyện này nhiều lắm là hủy hợp đồng đổi nhà cung cấp. Nhưng lần này phản ứng của Washington hoàn toàn không ở cấp độ thương mại.
Trump khoảng một giờ sau đã đăng bài trên Truth Social, gọi Anthropic là "bọn điên cánh tả", nói họ cố gắng đứng trên hiến pháp, đùa giỡn với mạng sống của quân nhân Mỹ.
Ông yêu cầu tất cả cơ quan liên bang ngay lập tức ngừng sử dụng công nghệ của Anthropic.
Tiếp theo, Bộ trưởng Quốc phòng Mỹ Hegseth tuyên bố xếp Anthropic vào danh sách "rủi ro an ninh chuỗi cung ứng". Nhãn dán này thường dành cho các công ty như Huawei. Ý rất rõ ràng, tất cả nhà thầu làm ăn với quân đội Mỹ, đều không được động vào sản phẩm của Anthropic.

Anthropic nói họ sẽ kiện.
Và cùng đêm đó, OpenAI trước đó còn giữ lập trường thống nhất, lại ký thỏa thuận với Lầu Năm Góc.
Vấn đề hệ tư tưởng
OpenAI nhận được gì?
Vị trí mà Claude bị đá ra để lại: nhà cung cấp AI cho mạng lưới mật của quân đội Mỹ. Tuy nhiên OpenAI đã đưa ra ba điều kiện với Lầu Năm Góc, không thực hiện giám sát hàng loạt, không tạo vũ khí tự động, quyết định rủi ro cao phải có sự tham gia của con người.
Lầu Năm Góc nói, được.
Bạn không nhìn nhầm đâu. Điều kiện mà Anthropic mài mấy tuần không chịu chấp nhận, đổi một công ty khác đưa ra, vài ngày đã thỏa thuận xong?
Tất nhiên, phương án hai bên không hoàn toàn giống nhau.
Anthropic đòi hỏi thêm một tầng: họ cho rằng luật pháp hiện tại không theo kịp năng lực của AI, ví dụ AI có thể mua dữ liệu định vị, lịch sử duyệt web, thông tin mạng xã hội của bạn một cách hợp pháp, tổng hợp hợp pháp, cuối cùng hiệu quả tương đương giám sát, nhưng mỗi bước đều không vi phạm pháp luật.
Anthropic nói anh chỉ viết bốn chữ "không giám sát" là vô dụng, lỗ hổng này phải bịt lại. OpenAI không kiên trì điểm này, họ chấp nhận cách nói của Lầu Năm Góc, luật hiện hành là đủ dùng rồi.
Nhưng nếu bạn nghĩ đây chỉ là một bất đồng điều khoản, thì quá ngây thơ. Cuộc đàm phán này ngay từ đầu không chỉ là đàm phán điều khoản.
Sa hoàng AI của Nhà Trắng David Sacks từ lâu đã công khai chỉ trích Anthropic làm "woke AI" (hệ tư tưởng đi trước, làm mấy trò chính trị đúng đắn đó); Lầu Năm Góc có quan chức cấp cao nói với truyền thông, vấn đề của Dario là do hệ tư tưởng thúc đẩy, "chúng tôi biết chúng tôi đang đối phó với ai".
xAI của Elon Musk, bản thân là đối thủ cạnh tranh trực tiếp của Anthropic, tuần này ông ta liên tục tấn công Anthropic trên X, nói công ty này "ghét văn minh phương Tây".
Và CEO của Anthropic năm ngoái đã không tham dự lễ nhậm chức của Trump. CEO của OpenAI đã đi.

Giết gà dọa khỉ
Vì vậy chúng ta hãy tổng kết lại chuyện gì đã xảy ra.
Nguyên tắc giống nhau, đường đỏ giống nhau, Anthropic vì đòi hỏi thêm một tầng bảo đảm, đứng sai đội, bày tư thế sai, bị đánh dấu thành mối đe dọa an ninh quốc gia Mỹ được cho là cùng cấp với Huawei.
OpenAI đòi hỏi ít hơn một tầng, quan hệ xử lý tốt, nhận được hợp đồng. Bạn nói đây là chiến thắng của nguyên tắc, hay định giá của nguyên tắc?
Hợp đồng của Lầu Năm Góc bị tẩy chay, thực ra cũng không phải lần đầu.
Năm 2018, Google có hơn 4000 nhân viên ký đơn kiến nghị, mười mấy người từ chức, phản đối công ty tham gia một dự án của Lầu Năm Góc tên là Project Maven. Dự án đó dùng AI phân tích video do máy bay không người lái quay, giúp quân đội nhận diện mục tiêu nhanh hơn.
Google cuối cùng đã rút lui. Không gia hạn rời đi. Nhân viên thắng.
8 năm trôi qua, tranh cãi tương tự lại đến một vòng nữa. Nhưng lần này quy tắc hoàn toàn thay đổi. Một công ty Mỹ nói tôi có thể làm ăn với quân đội, nhưng có hai việc không thể làm. Phản ứng của chính phủ Mỹ là đá nó ra khỏi toàn bộ hệ thống liên bang.
Và sức sát thương của nhãn dán "rủi ro an ninh chuỗi cung ứng" này xa hơn nhiều so với mất một hợp đồng 200 triệu USD.
Doanh thu năm nay của Anthropic khoảng 14 tỷ USD, hợp đồng 2 tỷ thậm chí không bằng số lẻ. Nhưng ý của nhãn dán này là, bất kỳ công ty nào có quan hệ làm ăn với quân đội Mỹ, đều không thể dùng Claude.
Những công ty này không cần đồng tình với lập trường của Lầu Năm Góc, họ chỉ cần làm một bài đánh giá rủi ro: tiếp tục dùng Claude, có thể mất hợp đồng chính phủ; đổi một mô hình khác, chẳng có chuyện gì.
Lựa chọn rất dễ dàng. Đây mới là tín hiệu thực sự của việc này.
Anthropic ch


