tradingkey.logo
搜索

“人工智能安全”能否被用作全球霸权的工具?

Cryptopolitan2026年3月13日 15:50

Vitalik Buterin对企业和政府越来越多地使用“人工智能安全”这一理论概念表示担忧,认为这种做法存在争议

人工智能领域的领先公司不能规定哪些措施适合或不适合安全,因为会导致规则由强者tron。

“人工智能安全”能否被用作全球霸权的工具?

Vitalik Buterin 最近在社交媒体平台 X 上分享了他对人工智能安全概念被大型企业和国家利益集团挪用

例如, Anthropic最近因拒绝允许美国福利部 (DoW) 或其他政府实体使用其 Claude 型号进行大规模监视或完全自主武器而受到赞扬。

然而,该公司也取消了其暂停风险安全承诺,该承诺规定,如果该公司开发出的 AI 模型的能力超过了该公司证明该模型安全性的能力,则该公司必须无条件停止所有培训和部署,直到安全措施跟上为止。

Vitalik指出,Anthropic 此前批评竞争对手从 Claude 的输出中学习,引发了批评者的强烈反弹,尤其是在中国,批评者认为 Claude 本身就是利用互联网上庞大的公共知识来训练其模型的。

Anthropic 声称其与开源竞争对手之间的问题是,这些竞争对手缺乏必要的安全防护措施,会带来风险,但为什么Anthropic可以决定哪些安全措施是合适的呢?

Buterin 表示,Anthropic 的行为表明,这是一个“tron制定规则”的体系。

他表达了这样的担忧:如果人工智能安全与“我们公司/我们国家理应统治世界”的心态变得无法区分,将会创造一个更加危险的世界。.

他认为,如果安全法规不可避免地豁免国家安全机构,那么这些法规就会变得不堪一击。这一点尤其值得关注,因为最近的新闻证实,大型人工智能实验室正越来越多地寻求与国防trac建立数十亿美元的合作关系,以提供用于军事用途的安全人工智能环境。.

限制人工智能是否危险?

多年前,维塔利克就成为了未来生命研究所(FLI)最大的捐赠者之一。2021年,他从 Shiba Inu(SHIB)代币的创建者那里获赠了一大批SHIB代币。在狗狗币泡沫达到顶峰时,SHIB的账面价值超过10亿美元。维塔利克赶在利率下降之前将这笔资金捐赠给了FLI,捐赠了价值约5亿美元的 SHIB 。.

当时,FLI 关注的是生物威胁和核战争等风险。然而,此后 FLI 的重心转向了积极的政治行动和游说,经常推动一些维塔利克认为令人担忧的监管措施。具体来说,他不同意 FLI 的做法,即在人工智能模型中加入“防护机制”,使其拒绝“有害内容”。

Vitalik认为这些限制措施是脆弱的解决方案,因为它们很容易通过越狱或微调来绕过。

更重要的是,他担心这些策略会导致开源人工智能被禁止,以维持“好人”垄断的局面。.

维塔利克则提倡一种名为防御加速主义(d/acc)的系统。这种理念认为,处理危险技术的最佳方法是先构建并开源防护罩。.

他最近拨款 4000 万美元用于安全硬件、生物防御和网络安全等项目,以支持他的意识形态。

安全的硬件使计算机芯片无法被黑客入侵,从而避免被用于大规模间谍活动。生物防御包括开发先进的空气过滤技术和被动式PCR检测方法,以便及早发现并阻止疫情蔓延。对网络安全的投资将提高软件的可验证性,使人工智能驱动的攻击难以轻易摧毁关键基础设施。.

不要只是阅读加密货币新闻,要理解它。订阅我们的新闻简报,完全免费。

免责声明:本网站提供的信息仅供教育和参考之用,不应视为财务或投资建议。
Tradingkey

推荐文章

Tradingkey
KeyAI