打破语言的 A.T. Field

← Return to List

Anthropic CEO回应特朗普行政令与五角大楼争议

/ 25:54 / 约 14 分钟阅读
中文音频 SOUND ONLY
0:00 / 25:54
EN 英文原版 SOUND ONLY
0:00

摘要

Anthropic公司首席执行官Dario Amodei在访谈中阐述了公司对与美国政府及军方合作的基本立场。Anthropic在人工智能公司与政府合作方面表现积极,已率先将模型部署于机密云平台,并为国家安全目的定制模型,应用于网络作战等任务。公司支持国防部98%-99%的用例,但坚持两项例外:国内大规模监控和全自主武器系统。 Amodei认为,国内大规模监控虽可能合法,但人工智能技术已超越现有法律框架,存在滥用风险;全自主武器则存在技术可靠性不足和人类监督缺失的问题。公司希望就此进行民主讨论,并认为国会应介入设立规范。然而,国防部给出三天期限的最后通牒,要求无条件接受所有合法用途,否则将把Anthropic列为供应链风险。公司认为相关条款措辞模糊,未做出实质性让步。 Amodei强调,Anthropic作为私营企业,有权根据自身原则提供产品,国防部本可选择其他供应商,但目前措施却试图惩罚性地限制其在其他政府部门的合同,这种将美国公司比作外国对手的定性是前所未有的。他重申公司立场爱国,旨在捍卫美国价值观,并愿意在符合红线原则下继续支持国家安全。目前公司尚未收到正式禁令,若收到将依法应对。Amodei表示,技术发展速度远超立法进程,但企业需在国会行动前坚守原则,以正确方式维护国家安全。

详细内容

目录

  1. Anthropic与美国政府在AI军事应用上的合作原则与分歧
  2. AI技术特性与军事应用可靠性的伦理考量
  3. 私营企业在国家安全事务中的角色与权利争议
  4. 对“意识形态驱动决策”指控的回应与公司立场澄清
  5. 事件的法律与政治博弈维度
  6. 未来展望:寻求立法解决方案与行业责任

主题一:Anthropic与美国政府在AI军事应用上的合作原则与分歧

核心观点: Anthropic积极与美国政府及军方合作,支持绝大多数国家安全用例,但基于对民主价值观的捍卫和对技术可靠性的判断,坚持对国内大规模监控和全自主武器系统两类应用设定红线,拒绝妥协。

关键论据: 1. 积极主动的合作基础: Anthropic是首家将大型语言模型部署到机密云平台(如AWS GovCloud)并为国家安全目的定制模型的公司。其技术已实际应用于情报界和军方的网络作战、战斗支援、后勤规划、情报分析等任务,表明其合作态度是务实且深入的。 2. 明确划定的两条合作红线: * 国内大规模监控: 特指政府从私营数据经纪人处购买海量公民数据(如位置、消费记录),并利用AI进行大规模关联分析。Anthropic认为,这种技术能力已经超越了现有法律框架(如对宪法第四修正案的传统解释)的约束,构成了对公民隐私和自由的潜在系统性威胁。 * 全自主武器系统: 指完全无需人类干预即可识别、选择和攻击目标的武器系统。Anthropic基于当前AI技术存在“基本不确定性”的判断,认为其可靠性不足以承担此类生死决策,且社会尚未就人类监督和问责机制进行充分讨论。 3. 与国防部的核心分歧与施压手段: 以国防部发言人肖恩·帕内尔为代表的军方立场是“只允许一切合法用途”,并未在实质上接受Anthropic的例外条款。在合同谈判中,国防部提供了措辞模糊的条款(如“若五角大楼认为合适”),并发出为期三天的最后通牒,威胁若Anthropic不签署,将启动供应链风险认定或动用《国防生产法》权力进行强制干预。 4. 对政府报复性措施的指控: Anthropic认为国防部长赫格塞斯通过社交媒体发布的供应链限制令存在不实表述。该限制令意图禁止任何与国防部有合同的企业使用Anthropic技术,这超出了法律(《国防授权法》第848条)的实际授权范围(法律仅限制在履行军方合同时不得使用其技术)。公司视此举为惩罚性和报复性的,且未收到正式通知,表示若收到正式行动通知,将在法庭上提出质疑。

结论: Anthropic的立场是,愿意在符合其设定的两条红线原则的前提下,继续广泛支持美国国家安全任务,并提供技术方案以确保现有服务不中断。然而,公司明确表示不会在这两项核心原则上让步。Anthropic认为,长期的、稳定的解决方案需要国会介入,通过立法设立明确的技术与伦理“防护栏”。但在国会采取行动之前,作为技术开发者,公司有责任基于其专业判断划清界限。

主题二:AI技术特性与军事应用可靠性的伦理考量

核心观点: AI技术发展迅猛且存在固有不确定性,因此在涉及生命和关键权利的军事应用中,必须严格评估其可靠性,并警惕技术发展超越法律和伦理框架所带来的风险。

关键论据: 1. 技术迭代速度超越法律与决策周期: AI领域的发展呈指数级速度,例如训练最先进模型所需的计算量大约每四个月翻一番。这种创新速度使得传统的立法程序(如国会立法)和官僚决策框架难以有效跟进和监管。 2. 技术存在“基本不确定性”: 从纯技术角度看,当前的大型语言模型等AI系统在推理、事实一致性、对抗性攻击面前仍存在不可预测的缺陷。这种不确定性尚未得到根本解决,因此认为其可靠性不足以支持“发射后不管”的全自主武器系统,担心会导致错误锁定、误伤平民或友军等灾难性后果。 3. 引发监督与问责机制缺失: 全自主武器系统不仅关乎技术可靠性,更引发深刻的伦理与治理问题。如果由一支庞大的无人军队在没有人类士兵参与决策的情况下运作,将导致责任链条断裂(无法追究具体责任方)和致命武力的使用决策权过度集中,这需要广泛的社会讨论来确立新的规范。 4. 技术能力实质性改变法律实践: 国内大规模监控的案例生动说明,AI技术如何使原本合法但因成本和技术限制而低效的大规模数据收集与分析变得极其强大和高效。这实质上绕过了立法保护隐私的初衷(例如,无需搜查令即可进行“数字”全景监控),表明技术已走在了法律解释和更新的前面。

结论: Anthropic基于其对技术前沿和可靠性边界的专业理解,主张在AI军事化应用的两个具体领域(全自主武器和国内大规模监控)必须设立限制。这一立场并非完全反对技术进步或军事领域的AI应用,而是强调在技术可靠性得到充分验证、以及相应的法律与伦理问责机制建立健全之前,需要采取审慎的“防护栏”措施,以防范不可控的风险。

主题三:私营企业在国家安全事务中的角色与权利争议

核心观点: 作为私营企业,Anthropic有权基于自身原则和专业知识决定产品用途,这是自由市场的特点;而政府通过供应链风险认定等手段施压,是对私营经济的前所未有的干预,可能带有惩罚性。

关键论据: 1. 主张市场化的解决路径: Anthropic认为,私营公司有权根据自身原则选择客户和产品用途,政府如果不认同其原则,完全可以选择其他供应商。这是自由市场处理此类商业分歧的常规方式。 2. 指控政府干预越界且具惩罚性: 公司认为国防部将商业合同分歧扩大化,通过供应链风险认定试图禁止任何与军方有合同的企业(包括庞大的承包商体系)使用Anthropic技术。这远远超出了国防部自身的采购范畴,干预了私营企业与其他商业实体之间的正常交易,其性质被认为是惩罚性的。 3. 强调制裁手段的“史无前例”: Anthropic指出,供应链限制以往主要用于应对外国对手公司(如俄罗斯的卡巴斯基、中国的某些芯片供应商)。将其应用于一家积极服务美国国家安全、且总部位于美国的公司,是前所未有的,公司认为这种做法不恰当且危险。 4. 援引宪法权利捍卫发声立场: 公司强调,其公开表达与政府的不同立场,是在行使宪法第一修正案所保障的言论自由权利。Anthropic将这种行为定义为“美国式的爱国行为”,旨在捍卫其认为的国家核心价值观。 5. 回应“谁更有发言权”的质疑: 针对“私营公司比五角大楼更有发言权”的批评,Anthropic回应称,其专业优势在于深刻理解AI技术的当前能力、局限性及可靠性边界,以及技术如何领先于法律。公司同时承认,从长远和制度上看,最终应由国会通过民主立法程序来设定规则,而非由私营公司。

结论: Anthropic认为,当前争议的核心之一是政府行政权力与私营企业自主权之间的边界问题。公司坚持其作为一家爱国企业,在积极支持国家安全的同时,有权坚守不违背其认定的美国核心价值观(如隐私、问责)的商业原则,并应抵制其认为越权且带有报复性质的政府施压。

主题四:对“意识形态驱动决策”指控的回应与公司立场澄清

核心观点: Anthropic否认其决定受左翼意识形态驱动,强调公司在AI政策上基于专业知识发声,但在一般政治议题上保持中立,并致力于与两党合作。

关键论据: 1. 直接否认意识形态指控: 针对前总统特朗普称其为“左翼觉醒公司”的指控,公司首席执行官达里奥·阿马代明确否认其决策受意识形态驱动。 2. 阐明“基于专业,保持中立”的立场: 公司声称,仅在AI政策、安全与伦理等其专业领域内积极发声,而在广泛的、一般性的政治议题上保持中立。为了证明这一点,公司举例曾与前总统特朗普、参议员麦考密克等不同政治人物共同参与活动,讨论能源与AI等议题。 3. 展示广泛合作意愿: Anthropic表示赞同美国政府AI行动计划中的大部分内容,并致力于利用AI促进公共福祉(如医疗健康),以此证明其根本上是合作与建设性的。 4. 区分“可控行为”与“他人看法”: 公司承认无法控制他人(包括政治人物)对其的标签化看法,但表示能控制自身保持理性、基于事实,并为所信之事(基于技术伦理的原则)发声。

结论: Anthropic试图将其立场从“党派政治”或“文化战争”的叙事中剥离出来,重新框定为基于技术伦理、国家安全现实和宪法原则的理性、专业选择。此举旨在维护其决策的正当性、客观性,以及公司作为负责任技术开发者的公共形象。

主题五:事件的法律与政治博弈维度

核心观点: 此次分歧不仅是商业合同谈判,更升级为一场涉及法律解释、行政权力运用和政治表态的复杂博弈。

关键论据: 1. 法律条款的解释冲突: 争议焦点在于对《国防授权法》第848条的不同解释。国防部的扩大化应用(限制所有承包商)与Anthropic所理解的狭义应用(仅限履行军方合同时)产生直接冲突,为潜在的法律诉讼埋下伏笔。 2. 行政权力的威慑性运用: 国防部在谈判中提及《国防生产法》,该法案授予总统在国家安全紧急状态下指导工业生产的广泛权力。将其作为谈判筹码,显示了政府试图以非常规的行政强制力来迫使科技公司就范。 3. 政治层面的舆论交锋: 前总统特朗普的公开批评将事件推入全国政治舆论场,使得技术伦理讨论容易被简化为政治站队。Anthropic的回应策略是尽量“去政治化”,强调技术专业性,以避免卷入更深的党派漩涡。 4. “最后通牒”式的谈判策略: 国防部给出的三天期限,是一种高压谈判策略,意在利用Anthropic对服务中断和客户关系的担忧,迫使其在压力下放弃原则性条款。

结论: 这场争端已超越简单的商业伦理讨论,演变为一个关于在AI时代,政府如何依法监管新兴技术、行政权力的边界在哪里,以及科技巨头如何在政治压力下保持独立性的典型案例。法律条文的具体解释和适用,将成为下一阶段可能的法律对抗的核心。

主题六:未来展望:寻求立法解决方案与行业责任

核心观点: Anthropic认为公司自行设定红线的做法是临时性的,长期稳定方案需要国会立法;同时,科技行业有责任在技术能力超越社会规范时主动进行约束。

关键论据: 1. 呼吁国会立法设立“防护栏”: Anthropic明确表示,公司自我约束并非长久之计。最理想的解决方案是由美国国会通过立法,为AI的军事和监控应用设立清晰、具有法律约束力的技术与伦理边界(即“防护栏”),使所有企业都在同一规则下运作。 2. 强调企业在“立法空窗期”的责任: 公司认为,在国会行动迟缓、法律滞后于技术的“空窗期”,开发前沿技术的企业不能无所作为。基于其专业知识和预见性,主动限制技术的某些用途,是一种负责任的体现,旨在防范不可逆的风险。 3. 提供“技术延续性”作为负责任过渡方案: 即使在坚持红线、面临制裁风险的情况下,Anthropic仍承诺为现有政府用户提供技术延续性方案,避免对国家安全工作造成突然中断,这体现了其在原则性与责任感之间的平衡。 4. 将争议定位为对美国价值观的考验: 公司将自身立场与捍卫隐私、问责、言论自由等美国核心价值观联系起来,将这场博弈描绘成关于“美国在AI时代希望成为什么样国家”的早期测试。

结论: Anthropic将其当前行动视为一个更宏大进程的组成部分:即推动社会(最终通过立法机构)就AI的深远影响形成共识和规则。在规则确立之前,公司认为自己有临时性的“守门人”责任。其最终目标是促使建立明确的、民主程序产生的法律框架,而非由企业或单一政府部门永久性地决定技术使用的伦理边界。

总结结论

本播客详细剖析了AI公司Anthropic与美国国防部在AI军事化应用上产生的原则性分歧。核心矛盾在于:Anthropic在积极合作支持绝大多数国家安全任务的同时,基于技术可靠性和公民权利保护,坚决为“国内大规模监控”与“全自主武器系统”两类应用设定红线。国防部则坚持“一切合法用途”皆可的立场,并动用供应链风险认定等行政手段施压。

争议的本质是多维度的: 1. 技术伦理层面: 它关乎在AI存在“基本不确定性”、且发展速度超越法律的情况下,如何在军事应用中界定可靠性与问责制。 2. 政企关系层面: 它触及了私营企业在国家安全事务中的自主权边界,以及政府行政权力干预市场的合理限度。 3. 法律政治层面: 它涉及对现有法律的解释冲突、行政威慑力的运用,以及技术议题被政治标签化的风险。

Anthropic将自身立场塑造为基于专业判断、捍卫宪法价值的理性选择,否认受意识形态驱动。公司视当前自我约束为“立法空窗期”的临时责任,最终呼吁由国会立法建立长期规则。这一事件标志着AI巨头与政府之间,围绕谁有权为强大且危险的新技术设定使用边界,展开了首次公开且激烈的博弈,其结果将为AI时代的治理模式提供重要先例。

← 返回列表