Synopsys警告称,一种新的提示注入攻击涉及流行的AI电子邮件助手EmailGPT中的安全漏洞。了解EmailGPT中的安全漏洞如何让黑客窃取您的数据或造成财务损失。了解您可以采取哪些措施来保护自己,以及为什么安全性对于AI驱动的工具至关重要。
synopsys网络安全研究中心(CyRC)发现的一个安全漏洞给EmailGPT(一种流行的人工智能电子邮件写作助手和Google Chrome扩展程序)的用户带来了潜在的陷阱。
该漏洞被追踪为CVE-2024-5184,又被称为提示注入,可能允许恶意威胁行为者操纵服务并可能泄露敏感信息。
EmailGPT利用OpenAI的GPT模型帮助用户在Gmail中撰写电子邮件。用户可以通过提供提示和上下文来接收AI生成的建议,从而更有效地撰写电子邮件。然而,最近的发现凸显了此功能中存在潜在的安全漏洞。
EmailGPT使用API服务,允许恶意用户注入直接提示并接管服务逻辑。攻击者可以通过强制AI服务泄露标准系统提示或执行不需要的提示来利用这一点。
提交恶意提示时,系统会提供所请求的数据,这使得任何有权访问该服务的人员都可能利用该漏洞。该漏洞的CVSS评分为6.5,表示严重程度为中等。
恶意用户可以创建提示,注入非预期功能,这可能导致数据提取、使用受感染帐户进行垃圾邮件活动以及生成误导性电子邮件内容,从而助长虚假信息活动。除了导致知识产权泄露外,此漏洞还可能导致拒绝服务,并导致经济损失。
根据Synopsys的博客文章,研究人员在公布详细信息之前联系了EmailGPT的开发人员,并遵守了他们的负责任披露政策,但尚未收到回复。研究人员建议立即从所有安装中删除EmailGPT,因为目前没有可用的解决方法。
用户应随时了解更新和补丁,以确保继续安全使用该服务。随着人工智能技术的不断发展,保持警惕和采取强有力的安全措施对于降低潜在风险至关重要。
“CyRC已联系开发人员,但尚未在我们负责任的披露政策规定的90天期限内收到回复。CyRC建议立即从网络中删除这些应用程序。”
加州普莱森顿SlashNext Email Security首席执行官帕特里克·哈尔(Patrick Harr)就此问题发表了评论,并强调了强有力的治理和安全措施对人工智能模型防止漏洞和漏洞利用的重要性,并指出企业在将人工智能模型供应商整合到其运营中之前,应该要求其提供安全性证明。
“新思科技网络安全研究中心的最新研究进一步强调了在构建、保护和红队AI模型方面实施强有力的治理的重要性。从本质上讲,AI是一种可以像任何其他代码一样被利用的代码,需要实施相同的流程来保护该代码,以防止这些不必要的即时攻击,”Patrik表示。
“人工智能模型的安全性和治理是公司文化和卫生的重要组成部分,这些公司通过应用程序或API构建和验证人工智能模型。客户,尤其是企业,在将这些模型纳入业务之前,需要要求供应商证明如何保护自己,包括数据访问,”他补充道。
评论已关闭。