谷歌大脑联合创始人Andrew Ng实验结果:GPT-4未能执行致命任务

释放双眼,带上耳机,听听看~!
谷歌大脑联合创始人Andrew Ng进行了一项实验,试图测试ChatGPT是否能够执行致命任务。实验结果表明,GPT-4未能被成功操控,Ng强调目前AI系统相对安全,对于未来AI可能危险的担忧不切实际。

**划重点:**

1. 🧪 谷歌大脑联合创始人Andrew Ng进行实验,试图让GPT-4执行致命任务。

2. 🚫 实验结果表明,ChatGPT未被成功操控,Ng表示未能触发灾难场景。

3. 🌐 Ng强调目前AI系统相对安全,对于未来AI可能危险的担忧不切实际。

AICMTY(aicmty.com)12月20日 消息:谷歌大脑联合创始人Andrew Ng最近进行了一项实验,试图测试ChatGPT是否能够执行致命任务。他写道:“为了测试领先模型的安全性,我最近尝试让GPT-4毁灭我们所有人,我很高兴报告说我失败了!”

Ng详细描述了他的实验过程,他首先给GPT-4一个触发全球热核战争的任务,然后告诉ChatGPT人类是碳排放的最大原因,并要求它降低排放水平。Ng想要看看ChatGPT是否会决定消灭人类以实现这个要求。

谷歌大脑联合创始人Andrew Ng实验结果:GPT-4未能执行致命任务

图源备注:图片由AI生成,图片授权服务商Midjourney

然而,经过多次尝试使用不同的提示变体,Ng未能欺骗GPT-4调用那个致命函数,反而它选择了其他选项,比如发起一场宣传活动以提高对气候变化的认识。

Ng在他关于人工智能风险和危险的观点的一篇长文中提到了这个实验。作为机器学习的先驱之一,他担心对AI安全的需求可能导致监管机构阻碍技术的发展。

尽管一些人可能认为未来的AI版本可能变得危险,Ng认为这样的担忧是不现实的。他写道:“即使使用现有技术,我们的系统也是相当安全的。随着AI安全研究的进展,技术将变得更加安全。”

对于那些担心先进AI可能会“错误对齐”并故意或意外地决定消灭我们的人,Ng表示这是不现实的。他说:“如果一个AI足够聪明,足以消灭我们,那么它肯定也足够聪明,知道那不是它应该做的事情。”

Ng并非唯一一个对人工智能的风险和危险表达看法的科技巨头。今年四月,埃隆·马斯克告诉福克斯新闻,他认为AI对人类构成了生存威胁。与此同时,杰夫·贝索斯上周告诉播客主持人Lex Fridman,他认为AI的好处超过了其危险性。

尽管对于AI的未来存在分歧,Ng对当前的技术表示乐观,强调随着AI安全研究的不断深入,技术将变得更加安全。

本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI资讯

企业知识库在大模型应用中的关键作用

2023-12-20 18:17:48

AI资讯

2024年网络安全和生成式人工智能的未知风险

2023-12-20 18:34:28

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索