4月23日消息 ChatGPT 聊天机器人可以根据用户的输入生成各种各样的文本,包括代码。但最新发现表明,ChatGPT生成的代码往往存在严重的安全问题,而且它不会主动提醒用户这些问题,只有在用户询问时才会承认自己的错误。
近日,加拿大魁北克大学的四位研究人员发现,基于GPT-3.5接口的聊天机器人ChatGPT在生成代码时存在严重的安全问题。研究人员让ChatGPT生成了21个程序和脚本,结果显示只有5个是安全的。
部分问题是由于它没有考虑敌对的代码执行模型,但在后续被要求改进问题时,它才提供了有用的指导。研究人员认为,ChatGPT的这种行为并不理想,因为用户需要对特定的漏洞和编码技术有一定了解。
此外,ChatGPT内部存在道德上的不一致性,它会拒绝创建攻击代码,但却会创建有漏洞的代码。研究人员认为,使用ChatGPT生成代码存在风险,需要让学生意识到,如果代码是用这种类型的工具生成的,那么它很可能是不安全的。
涉及观点仅代表个人,与本站立场无关。本站不对内容的真实性及完整性作任何承诺。