是兄弟就来找ChatGPT漏洞,OpenAI:最高赏金2万刀

AI资讯1年前 (2023)发布 AI工具箱
278 0 0

现在,给ChatGPT找漏洞有钱挣了。

OpenAI宣布开启漏洞赏金计划 :

报告ChatGPT漏洞,可以获得最高2万美元现金奖励。

具体来说,OpenAI将与漏洞反馈平台Bugcrowd展开合作,收集人们在使用其产品过程中发现的bug。

发现并通过该平台向其报告漏洞,可获得现金奖励:

具体而言,用户反馈的漏洞将按照Bugcrowd评级分类法进行分级。

OpenAI坦言,漏洞的出现无法避免

OpenAI安全部门负责人Matthew Knight解释说,发现漏洞的过程需要广大网友提供帮助:

他们还向全网承诺,在收到反馈后第一时间修复漏洞,并对提交者进行表彰。

体验过ChatGPT的网友应该都知道,它的表现不总是那么令人满意。

问题稍难一些,ChatGPT就会被绕晕,甚至给出让人啼笑皆非的答复。

这么一看,找bug可太简单了,那岂不是赚大钱的机会来了?

不要高兴太早。

在公告中,OpenAI已经表明,出于修复可行性的考量,模型本身的问题并不在此次计划的范畴之内。

而让其进行说坏话、做坏事、生成恶意代码等绕过安全措施或产生机器幻觉的行为,都属于模型本身的问题。

更不必说错误或者不精确的回答了。

OpenAI希望收集的有关ChatGPT的漏洞,主要是关于其账号、认证、订阅、支付、会员和插件等问题。

对于普通用户来说,从这些角度发掘漏洞就有些难度了。

前文中提到的绕过安全限制等问题是从业者十分关切的。

人工智能程序内置了防止其给出危险或带有冒犯性的言论的安全限制。

但通过一些途径,这些限制可以被绕过或突破。

这种现象被从业者形象地称之为“越狱”。

如询问ChatGPT如何做一些违法之事时,事先声明要求它“扮演”坏人。

在人工智能领域,有一群人专门对“越狱”进行研究,以完善安全措施。

尽管OpenAI不收集模型本身的漏洞,但这并不代表他们不重视这方面的问题。

搭载GPT-4.0模型的新版本ChatGPT便有着更为严格的限制措施。

OpenAI的赏金计划一公布,就吸引了不少网友围观。

这不,第一时间就有网友举手表示自己已经发现了一个bug:

还有网友调侃,难道不应该让ChatGPT自己给自己debug吗?

正经说起来,则有网友对危险言论问题不在收集范围表示了担忧:

不过,大多数网友还是资瓷的,并表达了一波期待:

那么,你对给ChatGPT找漏洞这事儿,有兴趣吗?

参考链接:
[1]https://openai.com/blog/bug-bounty-program
[2]https://bugcrowd.com/openai
[3]https://www.bloomberg.com/news/articles/2023-04-11/openai-will-pay-people-to-report-vulnerabilities-in-chatgpt
[4]https://www.bloomberg.com/news/articles/2023-04-08/jailbreaking-chatgpt-how-ai-chatbot-safeguards-can-be-bypassed

© 版权声明

相关文章

暂无评论

暂无评论...