近日,Kordia委托Perceptive开展的一项独立调查显示,超过一半的Z世代新西兰员工正在使用像ChatGPT或DalleE这样的生成式AI工具,其中超过四分之一的人表示已经将其用于工作。然而值得注意的是,只有五分之一的受访者意识到AI使用存在网络安全或隐私风险。
Aura信息安全公司的首席顾问阿拉斯泰尔·米勒(Alastair Miller)表示,尽管AI具有潜力,但关于生成AI工具的许多问题企业简单地忽视了。他认为,企业领导人需要提高对AI的认识,确保员工了解可接受的使用方式以及不当使用生成AI可能带来的风险。
米勒指出,理解公共和私人生成式AI工具之间的区别对于领导者来说尤为重要。他举出了三星的例子,员工在使用公共ChatGPT工具总结信息时,无意中泄露了源代码和内部会议记录。进入公共AI工具的数据将成为训练数据池的一部分,而企业无法控制谁可能访问它。因此,企业需要确保生成AI得到适当使用,任何敏感数据或个人信息远离这些工具。
此外,调查的其他结果表明,各年龄段的新西兰人对使用生成式AI工具的其他问题知之甚少。仅五分之一的受访者担心生成AI可能产生有偏见的输出,三分之一的人担心它可能产生不准确的信息或被用于信息误导活动。
米勒表示,生成式AI的缺点之一是其容易出现“幻觉”。它像一个聪明的富有想象力的孩子,在某些情况下会制造与源相矛盾或在事实外观下制造事实错误的内容。已经有记录的生成AI幻觉事件给组织带来问题。一家美国律师事务所因使用ChatGPT搜索支持客户案件的法律先例而面临制裁,这导致伪造的材料被提交法院。
米勒称,某些数据绝不能委托给公共生成式AI工具。财务信息或商业敏感信息不应暴露于ChatGPT等公共AI工具,否则可能泄露商业优势或甚至违反市场法规。与客户数据或个人信息如健康记录、凭据或联系方式也是如此。
私人AI工具可能可以与敏感数据一起使用,但米勒仍表示应谨慎行事。即使是私人AI工具,在委托公司数据给它之前,也应进行安全评估,以确保有防护控制到位,从而获得任何好处而不受后果影响。
米勒说,尽管存在风险,企业不应该回避AI。作为创新和生产力的伟大工具,许多主要软件公司正在将AI融入日常业务技术,例如Microsoft365Copilot或Bing搜索。与任何新技术一样,不要盲目采用,而是定义想要实现的价值或结果,这样才能有效和安全地在组织中实现它。
文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。
奥维云网(AVC)推总数据显示,2024年1-9月明火炊具线上零售额94.2亿元,同比增加3.1%,其中抖音渠道表现优异,同比有14%的涨幅,传统电商略有下滑,同比降低2.3%。
“以前都要去窗口办,一套流程下来都要半个月了,现在方便多了!”打开“重庆公积金”微信小程序,按照提示流程提交相关材料,仅几秒钟,重庆市民曾某的账户就打进了21600元。
华硕ProArt创艺27 Pro PA279CRV显示器,凭借其优秀的性能配置和精准的色彩呈现能力,为您的创作工作带来实质性的帮助,双十一期间低至2799元,性价比很高,简直是创作者们的首选。