微软人工智能研究人员在GitHub上发布一桶开源训练数据时,意外暴露了38TB的私人数据,其中包括两名员工工作站的磁盘备份。
作为针对云托管数据意外泄露的持续研究的一部分,Wiz研究团队扫描了互联网以查找配置错误的存储容器。在这个过程中,他们找到了微软组织下的一个名为robust-models-transfer的GitHub存储库。该存储库属于微软人工智能研究部门,其目的是提供用于图像识别的开源代码和人工智能模型。
进一步挖掘后发现,微软AI研究人员在GitHub上发布一桶开源训练数据时,意外泄露了38TB的私人数据,其中包括两名员工工作站的磁盘备份。备份包括机密、私钥、密码和30000多条内部Microsoft Teams消息。
然而,存储库的URL不仅仅允许访问开源模型。它被配置为授予整个存储帐户的权限,从而错误地暴露了其他私人数据。
Wiz扫描显示该帐户包含38TB的额外数据,其中包括Microsoft员工的个人计算机备份。这些备份包含敏感的个人数据,包括Microsoft服务的密码、密钥以及来自359名Microsoft员工的30000多条内部Microsoft Teams消息。
在威胁行为者手中,这些数据可能对这家科技巨头来说是毁灭性的,特别是考虑到当前的情况。微软最近透露,恶意分子如何渴望利用Microsoft Teams来实施勒索软件攻击。
根据Wiz的博客文章,除了过于宽松的访问范围之外,令牌还被错误配置为允许“完全控制”权限而不是只读权限。这意味着攻击者不仅可以查看存储帐户中的所有文件,还可以删除和覆盖现有文件。
考虑到存储库的最初目的:提供用于训练代码的人工智能模型,这一点特别有趣。该存储库指示用户从SAS链接下载模型数据文件并将其输入脚本中。
该文件的格式为ckpt,这是TensorFlow库生成的格式。它使用Python的pickle格式化程序进行格式化,该格式化程序很容易在设计上执行任意代码。这意味着攻击者可能已将恶意代码注入到该存储帐户中的所有AI模型中,并且每个信任Microsoft GitHub存储库的用户都会受到它的感染。
挪威网络安全公司Promon的高级技术总监Andrew Whaley在回应这一消息时表示:“微软可能是人工智能竞赛中的领跑者之一,但很难相信在网络安全方面确实如此。近年来,这家科技巨头在技术上取得了长足的进步。然而,这一事件提醒我们,即使是善意的项目也可能会无意中暴露敏感信息。”
“如果不小心管理,共享访问签名(SAS)会带来重大的网络安全风险。尽管它们无疑是协作和共享数据的宝贵工具,但如果配置错误或处理不当,它们也可能成为一把双刃剑。当发行过于宽松的SAS令牌或无意中暴露它们时,就像心甘情愿地将前门钥匙交给窃贼一样,”Andrew警告说。
他强调说:“如果微软实施更严格的访问控制,定期审核和撤销未使用的令牌,并彻底教育员工了解保护这些凭据的重要性,他们很可能能够防止这种违规行为。此外,持续监控和自动化工具来检测过于宽松的SAS令牌也可以避免这种错误。”
这并不是微软第一次暴露此类敏感数据。2020年7月,微软Bing服务器无意中暴露了用户搜索查询和位置数据,包括与谋杀和虐待儿童内容相关的令人痛苦的搜索词。”
尽管如此,Wiz研究人员于2023年6月22日向微软通报了数据泄露事件,这家科技巨头在2023年8月16日之前确保了数据泄露的安全。研究人员在确保暴露服务器的所有安全方面均已得到解决后,于今天早些时候发布了他们的报告。已解决。
评论已关闭。