思科公司(Cisco)的一位高级管理人员表示,亚太地区(APAC)越来越多的组织正在采用混合办公,但许多员工的体验并不理想。
思科执行副总裁兼安全与协作部总经理 Jeetu Patel 最近访问新加坡接受一家杂志访问时表示,现在大多数会议至少有一名远程参与者,因此不仅需要为实际会议室中的人员配置空间,还需要为不在会议室中的人员配置空间。
他表示,“现在,如果会议室里有四个人,而另外三个人不在会议室里,那么这三个人的体验就不会太好,因为总会有人站起来在白板上开始写写画画。”
Patel表示,“这三人可能不知道发生了什么,也无法读懂会议室里人的面部表情和非语言暗示。而这些都是交流中非常重要的一部分。”
Patel称,思科在过去的 18 个月里一直在努力解决这个问题,以确保在混合办公模式下会议中的每个人都可以很好地参与,无论他们是以虚拟方式还是亲自参加会议。
思科的人工智能(AI)功能可以做到了,该功能在后台运行,能够消除背景噪音及拉近放大房间里的每个人,此外,与会者还可以使用数字白板在会议期间记下或编辑会议内容。
Patel表示,“我们希望确保我们的人工智能功能可以将会议体验提升到一个新的水平。我们从预测式人工智能着手,现在用上了生成式人工智能,效果更好了。如果你错过了一次会议,我们可以根据你所具有的关于这次会议的对应权限告诉你错过了什么。”
亚太地区的企业在采用混合办公安排方面是比较进取的,但Patel提醒亚太地区的企业不要犯强制要求员工必须在办公室工作的错误。
他表示,“实行粘制比实行强制要好得多。要使大家有某个理由回到办公室,例如由于他们在办公室协作而可以获取某个X因素,而如果100%远程办公则无法获得该X因素。”
Patel表示,采用混合办公方式还有助于组织从世界任何地方招募最优秀的人才,可以使更多人能够平等地参与全球经济。
他表示,“现在的机会分布很不均匀,但人的潜能却分布得相当均匀,所以如果孟加拉国一个村庄里的任何人都能像硅谷的人一样拥有同样的经济机会,那就太好了。”
他称,“大多数时候人们的思维方式都受到距离的限制,所以如果你不在同一个地理区域,那么你就没有机会。但这种思维方式非常陈旧,我们需要以一种更加进步的方式来考虑这个问题。”
要最大限度地发挥混合劳动力的潜力还需要社会变革。首先,企业领导者必须学会如何在不见面的情况下建立人际关系。
Patel表示,“30分钟的视频会议通常都有个固定的架构。会议有个议程,最后是结尾。如果开了 23 分钟的会后没人说话了,就总会有人说我们提前 7 分钟散会吧。这种情况经常发生。”
他接着表示,“但你和某人共进晚餐时,如果出现冷场,你不会直接说先撤了。你会询问对方的家庭情况或其他事情。这些问题能让你了解这个人的背景和细节,可以更好地熟悉对方,进而能更好地以客观的态度讨论,避免受到个人情感的干扰。冲突在商业活动中是不可避免的,如果双方相互都不熟悉,生意是谈不成的。”
混合办公的实施也会带来一系列安全方面的考量。Patel表示,在面对面交谈时,双方都对身份存在一种隐含的信任,而其实混合办公环境也需要有这种信任。
他表示,“如何防止深度伪造者进入会议呢?如何确保私人数据不被窃取呢?如何创造安全的环境让大家在使用系统时不必担心被黑客攻击呢?”
Patel表示,“任何混合办公解决方案都需要这些基本的安全功能。我还会进一步说,在未来,完全没人会使用缺失安全保障的系统。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。