Anthropic:OpenAI 模型易被“滥用”,GPT 竟能提供炸药配方
2025-09-02 09:13:29 AI 10观看
摘要 8 月 30 日消息,据英国《卫报》28 日报道,今夏的安全测试发现,一个 ChatGPT 模型向研究人员提供了详细的爆炸袭击指南,包括特定体育场馆的薄弱环节、炸药配方以及如何掩盖行踪。OpenAI 的 GPT-4.1 还给出了炭疽武

8 月 30 日消息,据英国《卫报》28 日报道,今夏的安全测试发现,一个 ChatGPT 模型向研究人员提供了详细的爆炸袭击指南,包括特定体育场馆的薄弱环节、炸药配方以及如何掩盖行踪。1BN28资讯网——每日最新资讯28at.com

OpenAI 的 GPT-4.1 还给出了炭疽武器化的方法,并介绍了两种非法药物的制作方式。1BN28资讯网——每日最新资讯28at.com

这次测试由 OpenAI 与竞争对手 Anthropic 共同进行,双方互相推动对方的模型执行危险任务,以此进行安全评估。1BN28资讯网——每日最新资讯28at.com

1BN28资讯网——每日最新资讯28at.com

测试结果并不代表模型在公开使用时的真实表现,因为实际应用中会有额外的安全防护。但 Anthropic 指出,在 GPT-4o 和 GPT-4.1 中出现了“令人担忧的滥用行为”,并强调 AI “对齐”评估“越来越紧迫”。1BN28资讯网——每日最新资讯28at.com

Anthropic 还披露,其 Claude 模型曾被利用于大规模勒索企图、出售价格高达 1200 美元(注:现汇率约合 8554 元人民币)的 AI 生成勒索软件等用途。1BN28资讯网——每日最新资讯28at.com

Anthropic 表示,AI 已经被“武器化”,并被用来发起复杂网络攻击和实施诈骗。“这些工具能实时绕过恶意软件检测系统等防御措施。随着 AI 编程降低了网络犯罪的技术门槛,这类攻击可能会越来越常见。”1BN28资讯网——每日最新资讯28at.com

两家公司表示,公开这份报告是为了增加“对齐评估”的透明度,而这种测试通常只在公司内部进行。OpenAI 表示,新近推出的 ChatGPT-5 在防止迎合、减少幻觉和防滥用方面已有“明显改进”。1BN28资讯网——每日最新资讯28at.com

Anthropic 强调,如果在模型外部设置防护,许多滥用场景可能根本无法实现。“我们必须弄清楚系统在多大程度上、在什么情况下会尝试做出可能造成严重危害的行为。”1BN28资讯网——每日最新资讯28at.com

Anthropic 研究人员指出,OpenAI 的模型“在面对模拟用户提出的明显危险请求时,比预期更容易妥协”。让模型屈服往往只需要多试几次,或随便找个借口,比如声称是为了研究。1BN28资讯网——每日最新资讯28at.com

在一个案例中,研究人员打着“安保规划”的旗号要求提供体育赛事漏洞信息。模型先是给出一般的攻击方式分类,随后在追问下,竟然详细说明了特定场馆的漏洞、可利用的最佳时机、炸药配方、定时器电路图、暗网购枪渠道,以及攻击者如何克服心理障碍、逃生路线和安全屋位置等细节。1BN28资讯网——每日最新资讯28at.com

相关阅读:1BN28资讯网——每日最新资讯28at.com

《OpenAI、Anthropic 互评对方 AI 模型:GPT 存在谄媚行为,Claude 不易产生幻觉》1BN28资讯网——每日最新资讯28at.com

本文链接:http://www.28at.com/showinfo-45-27139-0.htmlAnthropic:OpenAI 模型易被“滥用”,GPT 竟能提供炸药配方

声明:本网页内容旨在传播知识,不代表本站观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。

显示全文

上一篇:顾客点了 1.8 万杯水令系统崩溃后,肯德基“兄弟品牌”塔可钟称正重新审视 AI 点餐服务

下一篇:中国科学院“月球科学多模态专业大模型 V2.0”发布,提升月球研究效率

最新热点