众所周知,IT外企近几年在中国的生意有较大变化,和惠普及思科的中国策略不一样,戴尔在融入本地生态系统方面有其特别之处。
几个月前,戴尔宣布进入中国4.0时代,并在9月份发布了戴尔中国4.0战略,一系列重大事项的宣布,无疑向官方和市场释放出了巨大积极的信号,这个信号说明戴尔对中国市场的投入是长期和深入的。拿其中一个方面来举例,戴尔声称将在今后5年在中国市场投入1250亿美元,这个巨额资金足以让很多人兴奋。
在戴尔中国4.0战略发布会上,戴尔公司董事长兼首席执行官迈克尔·戴尔现身上海,并对戴尔中国未来策略进行了一番解读,戴尔企业级解决方案销售和战略总裁Brian Humphries近日在接受媒体采访时称,“迈克尔·戴尔先生来到中国,这已经是重视中国最有力的证明,因为中国是除美国以外最重要的市场。”
其实对Brian Humphries的采访是在迈克尔·戴尔到中国的两个星期后,除了Brian Humphries,在戴尔大中华区企业级解决方案总经理曹志平的陪同下,还有戴尔负责企业级解决方案的全球各产品线的老大,包括戴尔服务器解决方案副总裁兼总经理Ashley Gorakhpurwalla,戴尔存储副总裁兼总经理Alan Atkinson,戴尔网络副总裁兼总经理Tom Burns,戴尔工程解决方案与云业务副总裁兼总经理Jim Ganthier,这基本聚齐了戴尔企业级解决方案这条业务线的全部高层,他们一同到访北京并接受媒体采访并不多见。
也许,各个老大的发言并没有多大料,但这样的举动同样是在说明,戴尔对中国市场是“认真”的,特别是企业级解决方案这条尤为重要的业务线。
说到一众高管来华的目的,曹志平解释称,“他们是来商讨中国企业级业务发展策略,包括今后几年的一些业务方向的重点,以及一些投资方面的策略。同时也跟一些比较重要的合作伙伴和客户进行了沟通。”
Brian Humphries在回答中表示,“业界已经清晰的看到来自戴尔对中国的承诺,这种承诺一定会使我们在中国的业务变得更为成功。”从他的话中,我们也许能听出这样一种弦外之音,承诺发出了,但如何履行和履行好这些承诺,这些工作是个细致活,这也就是其来华的重要目的。
可见,在戴尔对中国战略的重新标定后,戴尔企业级解决方案首当其冲,要把中国业务做得有模有样,即使在IT外企在中国处于变化的环境中。
其实戴尔中国的本土化工作已经做了很多,在各高管的发言中我们都听到了这些一致的消息:戴尔创投基金进入中国,推动“大众创业,万众创新”中国经济发展新引擎;戴尔全力支持和拥抱“互联网+”的国家战略,并与金山云公司签署战略合作伙伴协议,加强与本地合作伙伴的大数据和云战略合作;与中国各个部委和当地的政府进行全方位的合作,与贵阳签署的合作协议已经成为非常好的注解;还包括与中国科学院和清华同方的合作等等。这些无不在践行着戴尔“在中国,为中国”的策略。
对于同行们在中国市场的策略制定,曹志平表示,“我们并不关心友商在做些什么,而是更关心自己在做什么,怎样更好地为客户服务。立足客户,我们才能更好地发展业务,在中国把我们企业级解决方案的交付能力得到整体提升。”
曹志平还指出,除了上面已经做出的本土化合作,“陆陆续续你们还会听到更多戴尔与本土合作伙伴之间擦出的一些火花,我们也会做出一些其他策略的调整,来支持整个戴尔企业级解决方案在中国的发展策略。”
当然,有了战略制定,戴尔如何在能力上支撑战略的成功,各产品线的高管则更多的强调了戴尔端到端解决方案,无论在服务器、存储、网络还是云,戴尔都具备领先的IT能力,并强调这些端到端解决方案将结合其贯穿基础设施全生命周期的规划、设计、建设、运维领域的技术实力,以及在IT全生命周期领域的先进、开放、经验证的成熟的技术方案服务中国客户。Jim Ganthier表示,“戴尔一直提供的是端到端企业级解决方案,这已经成为戴尔与其他竞争对手非常显著的差异化竞争优势。”
并且,在戴尔并购EMC的消息即将明朗之际,戴尔企业级解决方案无疑如虎添翼!
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。