[译苑雅集Vol. 38]AI 政策幻觉:特朗普“解放日”关税背后的算法治理真相
2025 年“解放日”关税风波暴露出一个危险趋势:AI 正在以“看起来合理”的方式,悄然参与国家政策制定。从企鹅岛征税到公式化的关税逻辑,这背后或许不是外交策略,而是大模型生成的“氛围治理”。本文深入剖析 AI 如何助推表面一致性、掩盖判断缺失,并最终重塑权力结构。
作者:Grace Shao & Natalia Cote-Munoz
时间:2025年04月08日
原文:
企鹅、关税,以及那个统治我们的算法
本周,特朗普政府宣布对老挝征收48%的关税,对越南征收46%,对欧盟征收20%——甚至连赫德与麦克唐纳群岛(一块企鹅遍地、却与美国无任何贸易往来的澳大利亚属地)也不放过。
理由?一个所谓的“解放日”,旨在夺回美国的经济独立。
手段?这就开始变得诡异了。
因为这些关税不像是外交行为,也不像战略安排。
更像是有人凌晨两点在聊天机器人里输入:
“给我一个简单、公平听起来合理的公式,用关税来解决美国的贸易逆差。”
然后把结果直接粘贴进了官方政策里。
我写这个博客的初衷,是想探索当我们让AI来思考——在地缘政治、贸易、文化甚至战争等领域发言时,会发生什么。我没想到,美国政府也这么干了。
但现实就是如此:不仅仅是人工智能的探索,更像是人工智能的直接落地。
这篇文章就是关于这一点:解放日如何变成了AI胡编乱造的现场案例,以及它揭示了一种新型治国方式:快速、美观、浮于表面——由大型语言模型决定“氛围Vibe”的治理。
什么是 AI 泥浆?
“AI泥浆”是指当机器生成的输出未经批判性思考就被直接套用到复杂问题上时,所产生的混乱、不自然的残留物。它的表现是:政策或内容看上去像是直接从聊天机器人里复制出来的——公式化的逻辑、表面的对称、肤浅的细节、完全不检查上下文。
你在别的地方也见过它:法律备忘录句子不通、新闻稿像自动填充、招聘启事像用逻辑引擎写出来的。在设计里,是一只多长出来的手指;在地缘政治里,是对一座无人居住的企鹅岛征收10%关税。
AI 是怎么可能影响关税的?
解放日的关税存在某种模式,而且整齐得很可疑。
根据《新闻周刊》和 Followin 等引用的分析师与科技观察者,许多公布的关税比例都符合一个清晰的公式:
关税率 ≈(贸易逆差 ÷ 美国进口额)÷ 2
这不是猜测——数据几乎完美吻合:
欧盟:约2356亿美元逆差 / 6058亿美元进口 ≈ 39% → 实际关税:20%
印度尼西亚:约179亿 / 281亿 ≈ 64% → 实际关税:32%
日本:680亿 / 1440亿 ≈ 47% → 实际关税:24%
越南?92% → 关税46%
老挝?48% 柬埔寨?49%
就连毫无贸易的赫德与麦克唐纳群岛都被列入清单。这不是谈判,这是电子表格。贸易逻辑被压扁成代码,没人回过头去看算法究竟怎么来的。
你可以想象是有人让模型输出:
“给我一个简单、对等的关税公式,用来消除美国的贸易逆差。”
然后就照着做了。
一些经济学家已经指出,这些根本不是什么“对等”关税,它们只是针对那些对美出口多于进口的国家,完全违反了最惠国待遇和世贸组织的基本规则。
这不是贸易政策的制定方式,而是无人审校的人造对称。
要么是有人手动复刻了这个逻辑,要么就是有人用LLM生成了结果,觉得语气对,就贴进政策文件里了。
经济学家兼软件工程师 Rohit Krishnan(Substack:Strange Loop Canon)甚至复原了可能的提示语,并喂给多个AI模型——结果和“解放日”关税惊人地相似。
AI 参与政策制定意味着什么?
问题的关键不在于AI是否真的参与了贸易政策设计,而在于整个逻辑读起来就像AI写的——因为它迎合了这届政府真正关心的东西:速度、视觉冲击、表面上的合理。
到底是AI生成的,还是人类胡写的?我们也许永远不会知道。但在某些情境下,这种行为已经到了“应该切腹谢罪”的程度。
特朗普政府一贯依靠速度、破坏性、视觉统治力生存。从清晨的推特风暴,到模糊的行政命令,再到夸张的新闻发布会,他们的沟通策略始终偏好快速、简单、非黑即白的表述。AI在这其中不是战略工具,而是偷懒武器。
这揭示了一个更深层的风险:AI可以让事情看起来合理,但本质是经过美化的胡言乱语。像 ChatGPT 这样的工具,恰好能提供他们想要的:即刻响应、一眼看上去有逻辑、表面合理。
它能在几分钟内生成政策文件,整理数字却毫无实际逻辑,并让矛盾显得“整洁”。
换句话说:它极擅于制造技术合理性的幻觉,但毫无问责机制。
这不是“我们要建一个由AI领导的贸易体系”,而是:“我们要快,看上去强硬,并让人觉得我们干了件大事。”
AI不仅仅是润滑剂,它是放大器。它将混乱打包成语法结构看上去像战略的东西——而它完成这些只需几秒钟。
这就是为什么我们会觉得这种感觉如此熟悉:因为 AI 泥浆不仅带来速度,还带来情绪氛围。而情绪,正是这届政府擅长武器化的东西。
AI泥浆与“氛围治理”
听起来靠谱的胡扯不是缺陷,而是功能。它不仅在政策上有用,还能产生情绪共鸣。它与特朗普的统治风格完美契合:一种正在被网友称为“氛围治理”(vibe governance)的方式——政治行为不是基于制度流程,而是基于情绪冲击。不是“这会带来什么后果?”,而是“听起来有冲击力吗?”
在本例中,氛围就是:“美国被不公平对待了。我们要用数学来解决。AI 数学。互惠数学。”
“氛围治理”听起来像是2020年代的梗,但它其实有深厚的政治传统。从尼克松的“法律与秩序”秀场,到贝卢斯科尼的媒体霸权,靠“感觉”而不是“事实”来治国,并不新鲜。
AI 时代的区别在于,它把氛围编码成形式。语言模型不仅反映情绪,它还固化情绪。它不仅模拟一致性,还会抚平矛盾、合成意识形态,制造出“共识感”,即便根本没有共识。
它还带来了前所未有的偷懒出口。过去,胡说八道得花点力气,现在三秒钟生成一整页胡话。
这正是当下最危险的地方。这不只是糟糕的政策,而是“治理模拟”的正式化——衡量成功的标准不是“是否有效”,而是“是否看起来有效”。换句话说,AI 不仅能制造民粹,它还能自动化生产,并用“看起来理性”的包装来漂白它。
简而言之,AI 是民粹领导者的完美搭档。它不在乎真假,它只在乎“像不像真”。
一旦 AI 成为治理的幕后合作者——即使是非正式的——它就悄悄重塑了权力的运作方式。不仅影响“做什么决策”,也影响“怎么构建、怎么包装、怎么正当化这些决策”。
AI泥浆释放了什么样的权力?
AI 并没有自己制定政策。但它正在改变权力的运行方式:决策如何被构思、如何被包装、如何被强行通过。不是取代人类,而是重新格式化治理逻辑。
这种权力的表现形式包括:
代理式权力(Power by Proxy) 无需请教贸易经济学家,无需跨部门协调。只要给模型提个“假设问题”,看看输出。AI 成为第一稿、脚手架、伪专家,无人质疑。政策制定者无需承担分析的责任——只要认领成果就行。
结果不是协作,而是无署名的授权。
幻觉式权力(Power by Illusion) 一个听起来“公平”的关税计划。一张看起来数学上说得通的图表。一份看上去有人认真思考的政策。GPT生成的逻辑带来结构却无深度,有对称却无责任。它“听起来”合理,而在一个充满危机的系统里,这就足以让它通过。
这是一种“格式化治理”:格式优先, deliberation靠边。它具有极强的说服力。
无护栏权力(Power Without Guardrails) 没有披露要求、没有提示词日志、没有模型审计。我们根本不知道哪些是AI生成的,哪些不是——这不是意外,而是故意为之。
结构的缺失不是bug,而是武器。
更可怕的是,没有界限。没人说,“AI可以用于这,但不能用于那。”没有人划出那条线。
因为划线就等于承认:这条线早被跨了。
既然这条线模糊甚至不可见,那我们该怎么划?AI用于真实世界政策的“合理门槛”到底在哪?如果我们永远不划线,会发生什么?
门槛,以及接下来该怎么办
那么,合理的门槛该怎么定?什么时候可以用AI参与政策制定?什么时候它就成了“泥浆”?
这不是简单的是或否问题。大型语言模型可以很有用:起草政策选项、总结利益相关者立场、测试假设结果。这些都属于“结构性任务”,AI很擅长。
但AI不擅长决策,更不擅长判断力。如果没有外科手术级别的提示词和真人审核,它永远只会输出表面逻辑——听起来对,而不是真的对。
因此,这个门槛不应是“AI是否参与”,而应是“这件事的后果有多严重”,以及“是否有配套机制弥补模型的盲区”。外交政策、贸易谈判、国家安全——这些不是能用自动对称和氛围治理来凑合的。
如果 AI 参与了政策制定,我们应该知道。公布提示词,公开过程,使之可审计。否则我们做的不是治国,而是与看不见的合作者一起演戏。
如果泥浆成为主导模式——如果模拟彻底取代了战略——那我们就真的麻烦了。你会看到30分钟写出来的政策,格式像白皮书,却被当成深思熟虑的成果;你会看到看起来有共识的新闻稿,实则毫无意义;你会看到真实的后果——经济冲击、外交反弹——却是被毫无现实感知的模型架构出来的。
当你想追责时,没人站出来。
企鹅还在盯着我们。说实话,它们现在问的问题比我们还好。
因为问题不在于AI写了政策,而在于我们居然这么快就觉得:“这样就够了。”