網頁

2026-03-02

有關Anthropic拒絕提供美國戰爭部Claude服務的討論 Why Anthropic Is Refusing the DoW — and Is It Justified?

有關Anthropic拒絕提供美國戰爭部Claude服務的討論

【雙魚之論】
Anthropic has refused to provide its Claude AI service to the U.S. Department of War (formerly Defense), citing highly moral and principled reasons: preventing mass surveillance of American citizens and blocking the use of AI in fully autonomous weapons systems that independently select and kill targets—uses that would bypass congressional oversight and human-in-the-loop decision-making.

However, the fundamental geopolitical reality is this: the very human rights and democratic red lines that Anthropic prioritizes—such as opposition to mass surveillance and the requirement for democratic oversight—are already being fully and routinely implemented by adversaries like China and Russia against their own populations and foreign nationals around the world. Their technological advancement in these areas has not slowed down because of it. This situation automatically turns the dilemma into: by unilaterally tying its own hands, the principled side inevitably hands victory to the enemy. Once the enemy wins, those same red-line principles will become everyday practice imposed on the original country's people and government—ultimately amounting to nothing.
This is an eternal, intractable problem—one that naive leftists, commonly derided as “left-glue” (or “woke left” in a pejorative sense), deliberately choose to ignore when assessing the strategic environment. Indeed, they do not apply the principles they so fervently champion in a universal, consistent way to all parties; their application is highly selective. They show particular leniency and tolerance toward enemies who openly proclaim their intent to wipe them off the face of the Earth.
The brutal truth is: the world will not be saved from destruction merely because naive leftists cling to their principles.

Anthropic拒絕提供美國戰爭部Claude的服務,理由是監控美國人民、由AI自主決定擊殺目標,包括脫離國會審查,都是很有道德與原則的理由。
但基本環境條件是:Anthropic所在乎的人權或民主紅線,包括監視、民主審查等,敵人中俄已經對其國民與全球各地外國國民全面實施了,且技術發展並未因此停手。如此,問題就自動變成:自縛手腳的必然結果是,敵人取得勝利,從而紅線原則也變成家常便飯。到頭一場空。
這是亙古難題——天真左派,或通稱為「左膠」的人選擇忽視環境條件。對的,他們並非一體適用自己所堅持的原則到所有對象,而是選擇性的適用他們對聲稱要將自己消滅於地球上的敵人特別寬容
殘酷的真相是:世界也不會因為天真左派的原則,不讓人類因此踏上毀滅之途

    @PalmerLuckey

 20260302

五角大廈並非要求你協助建造「天網」,而是要求你不要對一支民主問責的軍隊如何使用其購買的工具擁有否決權。他們所說的「所有合法用途」其實才是正確的制度界線:軍隊在法律、文職控制和國會監督下運作

@Indian_Bronson 20260228

我請Claude查一下當前情況,然後寫份報告。

@DarioAmodei

Dario,我以朋友的身份告訴你:你犯了一個災難性的戰略錯誤,而你背後的邏輯根本經不起現實的考驗。你的兩條紅線——禁止對美國公民進行大規模監控禁止在無人操控的情況下研發自主武器——乍聽之下似乎很有道理。但你並非生活在真空之中。你身處的世界裡,解放軍正在毫無顧忌地將人工智慧融入其殺傷鏈的每一個環節;在這個世界裡,中國軍方的人工智慧研發沒有機構審查委員會,沒有國會監督,沒有美國公民自由聯盟(ACLU)的干預,也沒有Dario Amodei這樣的人來要求他們遵守相關條款。你的立場帶來的實際後果並非阻止了自主武器的研發。它們依然在研發——中國、俄羅斯,以及任何不受你那套道德框架約束的國家都在研發。實際後果是,唯一一支真正擁有民主問責制、文官監督、法院、新聞自由和有效監察長的軍隊,卻將在下一場戰爭中使用更糟糕的武器。你並沒有阻止反烏托邦的到來。你這樣做等於是在確保,如果反烏托邦真的到來,那將是由那些從未與你進行過任何談判的勢力強加於你的。想想這其中的邏輯:
1.
你把Claude從機密系統中移除。
2.
五角大廈緊急啟用GrokGemini-所有人都承認,包括國防部內部人員在內,這些都是性能較差的型號
3.
在人工智慧至關重要的領域,例如網路空間、情報、監視與偵察整合、目標定位和後勤優化,美中之間的能力差距進一步擴大
4.
成功保衛台灣或威懾對台行動的可能性降低
5.
你聲稱珍惜的自由民主秩序失去了其安全保障

你曾親口告訴我,你認為前沿人工智慧是人類史上最具影響力的技術之一。如果你真的這麼認為,你如何能為確保美國軍隊——自由民主與其對手之間唯一的屏障——使用次優人工智慧辯護?這在道德上說得通嗎?五角大廈並沒有要求你幫忙建造天網。他們只是要求你不要對一支民主問責的軍隊如何使用其購買的工具擁有否決權。他們關於「所有合法用途」的觀點實際上是正確的制度界限:軍隊在法律、文職控制和國會監督下運作你們的「可接受使用政策」其實是讓一家私人公司用自己的判斷取代整個民主軍事治理體系。這才是真正的上帝情結。在這種情況下,監控的擔憂完全是轉移視線。美國國家安全局(NSA)已經擁有遠超ClaudeClaude)所能提供的監控權限和工具。你們扣留Claude並不能阻止大規模監控——你們只是確保政府用於這些目的的任何人工智慧都比你們的更不安全、更難審計、更不合規。同樣的邏輯也適用於自主武器。自主系統無論如何都會出現。問題在於,它們的建造基礎是融入了你們的安全研究成果,還是由國防承包商拼湊而成,完全沒有你們的合規工作。你們正在選擇最糟糕的結果。我知道你們現在正受到那些你們預料之中的人的讚揚。當策略平衡發生轉變,無人能保護維繫像Anthropic這樣的公司生存的體系時,這些讚譽就毫無意義你以這些原則之名,犧牲了支撐你原則的文明的安全

 

Dario Amodei的理由    Fomo研究院 20260301

就在美國國防部長Pete Hegseth正式將 Anthropic 列為「國家安全供應鏈風險」、禁止軍事承包商與其往來後的幾個小時,Anthropic CEO Dario Amodei,坐到了鏡頭前。

這場風暴的核心,是Anthropic劃下的兩條不可逾越的「紅線」。當五角大廈要求獲得 Anthropic AI 模型的完全使用權時,Amodei 的回答是:

這兩條紅線是:「國內大規模監控」「全自動武器系統」

他的邏輯是基於,AI 模型本質上是「隨機性」(Stochastic)的,它會幻覺、會出錯Amodei 認為,AI 在試算表上犯錯,頂多是個麻煩;但在無人機蜂群上犯錯,那就是一場戰爭罪

Anthropic 正在將自己塑造成「安全第一」的標竿。在 AI 可以秒速處理數百萬筆私人數據的時代,拒絕大規模監控,本質上是在數位邊境保衛美國憲法第四修正案(保護隱私權)。他們認為,人類做不到的大規模監控,不代表應該交給 AI 來完成

「三日最後通牒」

當談判陷入僵局,衝突達到了頂點。

美國政府向 Anthropic 發出了最後通牒:72小時內簽署協議,否則將被公開標記為國家安全威脅。

Amodei 揭露,政府看似讓步的合約中,充滿了法律的後門。條款中充斥著諸如「若五角大廈認為合適」或「在符合法律的情況下」這樣的語句。

Amodei看來,所謂的「合法」,在 AI 時代是一個巨大的陷阱。例如,如果政府從第三方數據商那裡「合法」購買了你的私人數據,那麼分析這些數據在技術上也是「合法」的,即使這完全違背了隱私的初衷。

政府要求的,實質上是一張「空白支票」,一張允許他們在「自己認為合適」時,隨時無視 Anthropic 安全紅線的通行證。

政府想要的是一個可以隨時關閉的「安全開關」,而 Anthropic 想要的,是寫死在程式碼與合約裡的「永久性保險」

誰來決定未來?

採訪者提出了一個問題:波音公司從不告訴軍方如何駕駛它的戰機,為何你一個私人公司的CEO,卻要教五角大廈如何使用AI

Amodei 的回答是:AI 的進化速度,是人類文明從未見過的

他引用了數據:「模型所需的算力,每四個月就翻一倍。」這意味著什麼?用數學公式來看,一年後,AI的能力是年初的8 倍;兩年後,是 64 倍。

他承認,制定規則最終是國會的工作,「但國會不是世界上行動最快的機構」。在此之前,「我們這些身處第一線、親眼目睹這項技術的人」,有道德義務成為「暫時的守門人」。

這是一個極具爭議的立場,因為這讓一位私人公司的 CEO 擁有了凌駕於民選官員之上的權力。

美國政府祭出的「核武級」行政手段

將一家「美國本土公司」列為供應鏈風險,這在歷史上幾乎沒有先例。這種待遇通常是留給卡巴斯基(俄羅斯)或華為(中國)的。

這不僅僅是「政府不買你的產品」那麼簡單。一旦被列入名單,所有與軍方有業務往來的巨頭(如 AmazonPalantirRaytheon)都將被迫與 Anthropic 切斷聯繫。

Amodei認為,政府在用 Anthropic 作為樣板,警告矽谷所有的AI公司(包括 OpenAI Google):如果你們不提供無限制的訪問權,我們就有行政工具讓你在美國經濟中「被消失」。

99%的合作與1%的靈魂之爭

在專訪的最後,Amodei 強調,Anthropic 並非「反軍方」。他們已經在協助五角大廈處理 99% 的任務,從翻譯文件、分析衛星圖像到網路防禦。雙方爭執不下的,只是那危險的 1%:自主殺戮與大規模監控。

他將這場衝突,上升至一場「價值 vs. 勝利」(Value vs. Victory)的權衡。

他反問,如果美國為了贏得與獨裁對手的競爭,而採用了和他們一樣的壓迫性手段,那麼這場勝利的意義何在?

Amodei 認為,美國必須透過「變得更好」來獲勝,而不是透過「變得更無底線」來獲勝。

初心、強權與商業的生存遊戲

觀察這場風暴,我認為 Anthropic 的選擇其實極其「一致」。

這並非 Amodei 一時興起。別忘了,Anthropic 的創始團隊當年正是因為不滿 OpenAI 逐漸走向商業化、忽視安全原則,才選擇分道揚鑣。這次對抗五角大廈,不過是他們將「安全高於一切」的創始基因,從商業領域延伸到了地緣政治領域。

但下個問題就是在目前的全球環境下,「價值觀」與「最強力量」孰輕孰重?這永遠是一個無解的辯論。

如果你的對手毫無底線地使用 AI 武器,而你卻因為「技術良知」束手束腳,這是否會導致最終的失敗?

Amodei看來,他相信美國的優勢在於其民主價值一旦放棄價值,美國就已經輸了。

最有趣的是商業層面。最近 Claude Code 簡直是在「屠殺」各類 SaaS 公司,展現了極強的商業侵略性。(註:Software as a Service,「軟體即服務」是一種透過雲端交付軟體的模式)

這種「寧死不屈」的隱私與安全品牌形象,究竟會否讓 Anthropic 在極度重視數據主權的企業級市場(如金融、法律、醫療)獲得更高的信任度,還是相反?

OpenAI 越來越像一個實用主義的科技巨頭,Anthropic 則選擇成為那個「有脾氣的守門人」。這場硬碰硬的結果,將決定未來十年 AI 發展的底色:是成為國家的利刃,還是人類文明的護欄?

 

 

沒有留言:

張貼留言

請網友務必留下一致且可辨識的稱謂
顧及閱讀舒適性,段與段間請空一行