近半年来,ChatGPT风靡全球,仅1月份的访问量就达到5.9亿。AI绘画、AI写文案、AI生产视频……甚至AI写代码等生成式AI,也随之爆炸式发展。各行各业厂商纷纷将AI应用到自身业务中去,以此塑造竞争优势。
但AI+风靡的同时,也暴露出众多安全隐患——
01/ 神话一般的AI,也有软肋
曾有研究员发现:ChatGPT 存在严重的 Web 缓存欺骗漏洞,黑客可利用该漏洞窃取其他用户的 ChatGPT 帐户……
除了存在系统漏洞之外,还有数据泄露风险:今年3月20日,ChatGPT Plus 用户发现其使用界面上出现了其他用户的敏感信息,包括姓名、电子邮箱、地址和聊天记录等等。
经过调查,发现是其客户端开源库出现问题,导致部分用户请求被错误返回给其他用户……
AI虽然是新兴技术产物,但究其根本,采用的仍旧是传统的开发模式。根据EndorLabs上个月发布的《2023软件依赖管理状态报告》显示:开源在AI技术堆栈中发挥着越来越重要的作用,且超过半数的人工智能开源项目,引用了存在安全漏洞的软件包。
所以,AI与其他任何IT系统一样,同样也难以避免,会存在开源安全风险。
同时,更值得警惕的是,生成式AI如今应用范围之广、与各行业业务运转融合度之强,导致其很大可能性收集到大量敏感隐私信息。一旦被入侵,后果将不堪设想。由此可见,AI安全风险防范迫在眉睫。
02/ 如何让AI“安全”地助你塑造竞争优势?
1、源代码安全检测
通过自动化检测加人工审查的方式,对AI应用中编写和引用的源代码进行全面的检测和分析,发现源代码中的脆弱性并提供修复建议。从代码源头筑牢AI应用安全性,降低源代码带来的安全风险。
2、开源组件成分分析
通过开源组件安全漏洞检测、开源组件使用合规性审计功能、开源组件许可证审计等,全方位识别AI应用系统所引用组件存在的安全合规风险,获取改善建议,有效降低软件组件级安全风险,提升AI应用系统安全性。
还原AI应用内部成分信息之间层次、依赖关系,以及软件基本信息与安全信息之间的关联关系,绘制可视化关系图表。
采集软件安全分析所需的各类静态和动态数据,对软件资产信息和安全信息进行关联与分析,形成统一的软件资产风险视图。
提高AI应用内部组成成分的安全态势可视化、透明程度。协助企业在安全问题来临时,进行安全风险传导路径分析,快速溯源,圈定影响范围。
以上,就是本期推送的全部内容。