tradingkey.logo

OpenAI警告称,未来的AI模型可能会助长网络攻击。

Cryptopolitan2025年12月11日 10:30

ChatGPT 背后的公司周三发出严厉警告,称其下一代人工智能系统可能存在潜在危险,并可能构成严重的网络安全威胁。

OpenAI 表示,其未来的 AI 模型可能能够创建针对严密保护的计算机系统的功能性零日漏洞利用程序。这项技术还可能有助于对企业或工业设施发起旨在造成实际损害的复杂攻击。

事情发展迅速。OpenAI 在其博客提到,在夺旗安全挑战赛中,GPT-5 的性能从 2025 年 8 月的 27% 跃升至三个月后的 2025 年 11 月 GPT-5.1-Codex-Max 的 76%。

OpenAI 现在认为,它构建的每个新模型都能达到其所谓的“高”网络安全能力水平。这意味着这些系统能够针对防护严密的网络中此前未知的漏洞创建有效的攻击手段,或者协助开展针对关键基础设施的复杂入侵活动。

这家微软支持的公司表示,它正在投资提升其模型在防御性安全方面的性能。该公司正在开发工具,帮助安全团队检查代码问题并修复安全漏洞。OpenAI 希望为防御者提供优势,因为他们通常人数较少且资源匮乏。

棘手之处就在这里。防御性和攻击性网络安全工作使用的基本知识和方法相同。对防御者有帮助的措施,同样也可能对攻击者有所帮助。OpenAI 表示,它不能依赖单一的保护措施,需要多层安全控制协同运作。

该公司采用访问限制、更tron的基础设施安全措施、信息流控制和持续监控等手段。此外,该公司还训练模型来拒绝可能引发网络攻击的请求,同时确保这些模型能够用于合法的安全工作和教育。

检测系统利用先进模型监控产品中的可疑活动。一旦发现危险情况,系统会屏蔽结果、切换到较低级别的模型,或将其标记为需要人工审核。

挑战极限

OpenAI 与专业的安全测试团队合作,尝试突破其所有防御措施。他们模拟拥有雄厚资源且目标明确的攻击者可能采取的行动。这有助于在真正的威胁到来之前发现漏洞。

人工智能带来的网络安全风险令整个行业人士担忧。正如Cryptopolitan此前报道,黑客已经开始利用人工智能技术来改进他们的攻击手段。

该公司计划推出一项计划,为从事网络安全防御的合格用户提供特殊权限,使其能够使用最新型号的增强功能。OpenAI 仍在研究哪些功能可以广泛开放,哪些功能需要更严格的限制。

此外还有 Aardvark。这款目前处于内部测试阶段的安全工具可以帮助开发者和安全团队大规模地发现并修复漏洞。它会扫描代码中的弱点并提出修复建议。该系统已经发现了开源软件中的新漏洞。OpenAI计划投入大量资源来加强更广泛的安全生态系统,其中包括为一些非商业性的开源项目提供免费的安全保障。

OpenAI 将成立前沿风险委员会。该委员会汇集了经验丰富的网络安全防御者和从业人员。委员会最初专注于网络安全领域,但未来将扩展到其他领域。委员会成员将协助界定实用功能与潜在滥用之间的界限。

安全仍然是一个挑战

该公司通过前沿模型论坛与其他领先的人工智能公司合作。这个非营利组织致力于增进对威胁和最佳实践的共识。OpenAI认为,先进人工智能带来的安全风险可能来自业内任何主流人工智能系统。

近期研究表明,人工智能代理能够发现区块链智能trac中价值数百万美元的零日漏洞。这凸显了这些先进能力的双重性。

OpenAI一直致力于加强自身的安全措施,但该公司也面临着自身的问题。过去,该公司曾多次遭遇安全漏洞。这表明保护人工智能系统和基础设施是多么困难。

该公司表示,这项工作仍在进行中。其目标是为防御者提供优势,并加强整个技术生态系统中关键基础设施的安全。

注册 Bybit并开始交易,即可获得 30,050 美元的欢迎礼物

免责声明:本网站提供的信息仅供教育和参考之用,不应视为财务或投资建议。
Tradingkey

相关文章

Tradingkey
KeyAI