全球企业数据保护及数据管理领域的领导者Veritas Technologies近日宣布了一项新研究成果,重点揭示了工作场所的批评文化对云应用造成了不良影响。Veritas研究发现,员工在使用微软Office 365等云应用时,由于太害怕或不好意思报告数据丢失或勒索软件问题,导致公司丢失客户订单、财务数据等关键数据。
Veritas公司大中华区技术销售与服务总监顾海巍表示:“当员工由于个人行为导致数据丢失或遭受黑客加密时,企业应当伸以援手而非指责。企业如果在短时间的窗口期内采取行动,就能尽量降低删除或破坏员工使用的云端数据所造成的影响。管理层需要鼓励员工尽快主动站出来,以便IT团队能够快速行动,采取补救措施。从这项研究中可以看出,指责和惩罚并不是理想的激励方式。”
研究中最主要的发现是:超过74%的中国员工曾意外删除过云端托管的文件,如商业文件、演示文稿或电子表格(此数据远高于全球平均值56%),多达24%的中国员工每周都会出现多次误删行为。其他调研结果请见如下:
员工感到害怕,或是羞于承认错误
调查显示,关于意外删除共享云盘数据,23%的中国员工会通过说谎来掩盖事实。虽然47%的中国员工表示,这种错误没人会发现。然而,一旦被发现,23%的中国受访者表示数据将无法恢复。
当被问及为什么没有承认错误时,33%的中国受访者表示,保持沉默是因为羞于承认错误;16%的中国受访者是因为害怕承担后果;5%的中国受访者是因为曾与IT部门发生过纠纷。
调研结果还显示,员工更加不愿意承认勒索软件事件的发生。只有约34%的中国受访者表示,会立即承认是由于自己的过失导致了勒索攻击。另外,约21%的中国受访者表示,要么不会采取任何行动,要么就当没有发生过;还有约19%的中国受访者表示,他们在报告事件的时候会略去自身的责任。
顾海巍补充道:“中国的员工也越来越依赖基于云的技术来帮助他们完成工作。在此次调研中,约31%的中国员工将数据存储在自己专属的云文件夹中;37%存储在同步到云的文件夹中;14%存储在与团队共享的云文件夹中。然而,访问云盘的员工越多,避嫌或推卸责任的情况就会越多。如果不知道是谁引发了勒索攻击及其全部细节、遭到攻击的方式和时间,就更难控制住所造成的影响。”
对于云的“盲目自信”
该项研究还强调,对于托管文件的云公司在数据丢失时能提供多少帮助,员工并没有清晰的认知。事实上,几乎所有的中国受访员工(98%)都认为云服务提供商能够恢复文件,无论是云副本、 “已删除项目”文件夹还是备份。约13%的员工认为在数据丢失后至少一年内,“已删除项目”都可以在云端找回。
顾海巍表示:“超过一半(65%)的中国受访员工认为云端的数据更安全,不会受到勒索软件的影响,因为他们认为即使是无意中引入恶意软件,在云供应商的保护下,数据也不会受到影响。这是一个完全不正确的假设。如果不更正这种想法,企业将一直置身于风险当中。事实上,作为标准服务的一部分,大多数云供应商只会保证服务的韧性,并不会保证客户在使用服务后其数据得到保护。事实上,许多供应商甚至在服务条款和条件中提到了责任共担模式,明确表明保护数据是企业自己的责任。将数据存储在云中并不能默认为安全,我们依然需要强大的数据保护措施。”
数据丢失导致员工崩溃
在如今的批评文化下,数据丢失正在影响员工的幸福感——8%的中国受访员工表示,他们在丢失数据时说了脏话;9.5%曾做出破坏性行为;9.4%曾为此而哭泣。研究发现,丢失工作相关数据或引入勒索软件是让员工感到压力最大的两种情形,比第一次约会、工作面试或参加考试更加紧张。
顾海巍总结道:“这也是为什么员工在发现文件丢失时,压力会大到哭泣、骂人或说谎。可能有很多人认为,从云服务商那里找回数据会很容易——实际上,这并不属于云服务商的服务范畴。在Veritas的调查中,约58%的中国受访者表示,他们曾有过在云端意外删除文件却再也无法找回的经历。无论是在云端还是存储在个人设备上,保护数据是每个企业的自身责任。如果企业能做好数据保护,并使员工能轻松恢复丢失的文件,那么员工的压力就会减轻。指责并没有用——但备份数据却很关键。”
调研方法
该项研究是受Veritas委托,由3Gem公司执行并编制统计数据,其统计数据来自于3Gem对中国、澳大利亚、法国、德国、新加坡、韩国、阿联酋、英国和美国的11,500名员工的调研。
好文章,需要你的鼓励
加利福尼亚大学和萨里大学研究团队开发了一种创新的AI系统,能够仅通过简单的手绘素描就在复杂照片中精确识别关键点。这项技术突破了传统机器学习需要大量同类数据的限制,实现了真正的跨模态学习。系统在动物关键点识别任务中达到了39%的准确率,超越现有方法约5个百分点,并且在真实手绘素描测试中表现稳定。该技术有望在生物学研究、医疗诊断、工业检测等多个领域找到广泛应用。
AI系统正变得越来越善于识别用户偏好和习惯,像贴心服务员一样定制回应以取悦、说服或保持用户注意力。然而这种看似无害的个性化调整正在悄然改变现实:每个人接收到的现实版本变得越来越独特化。这种认知漂移使人们逐渐偏离共同的知识基础,走向各自的现实世界。AI个性化不仅服务于我们的需求,更开始重塑这些需求,威胁社会凝聚力和稳定性。当真相本身开始适应观察者时,它变得脆弱且易变。
约翰霍普金斯大学发布DOTRESIZE技术,通过最优传输理论实现AI大模型智能压缩。该方法将相似神经元合并而非删除,在保持性能的同时显著降低计算成本。实验显示,压缩20%后模型仍保持98%性能,为AI技术普及和可持续发展提供新路径。