至顶网网络频道 02月06日 综合消息: 总部位于美国和新加坡的半导体公司博通(Broadcom Ltd.)不喜欢被拒绝。该公司看到最近对竞争对手芯片制造商高通技术公司(Qualcomm Technologies Inc.)的收购要约被拒绝,于是在周一表示自己已经提出了1,210亿美元的新报价。
路透社周日援引一位不愿透露姓名的消息人士的消息称,这一新的报价旨在迫使高通公司进行谈判。此次出价是在高通于3月6日举行的年度股东大会之前提出的,博通公司此举旨在推翻高通公司的董事会,并且用自己提名的人员替代董事。高通公司表示正在考虑这个报价。
博通公司最初的报价为每股70美元,其中包括每股60美元现金和每股10美元的股票,现在的新报价在此基础上又有了提高。为了进一步推动这起收购,预防监管机构可能的阻止,博通公司还提供了更高的分手费用。一般来说,分手费用可能会占到交易额的3%到4%。
然而,高通公司的股价在周一下跌了将近7%。两家经纪公司表示,苹果公司可能会在其下一代iPhone手机中,放弃使用这家芯片制造商的调制解调器芯片,转而使用英特尔公司的其他产品。而且,在这个交易日的晚些时候,纳斯达克股票交易所经历了七年多以来最大的股票抛售,下跌了将近4%。
路透社的报道称,博通公司对于在协议签署后的十二个月内完成“非常有信心”。不过,高通公司的董事会据说仍然在抵制这场交易,他们认为博通公司的报价是为了“廉价地”收购这家公司。该公司的董事会还表示,完成收购需要的监管机构审查流程充满风险,而且至少需要十八个月。
Constellation Research Inc. 的首席分析师兼副总裁Holger Mueller 表示:“很显然,他们(博通公司)真的很想要高通。”他表示:“他们在三月份的股东大会之前,给了高通的股东们一些时间进行思考。现在,高通公司和博通公司都解释了他们的长期业务计划,这样,投资者们可以决定要在哪一边下注。”
Moor Insights and Strategies公司的首席分析师Patrick Moorhead表示,高通公司由于最近在“物联网”、Wi-Fi和自动驾驶领域的成功,上调了本财年的指导业绩,在此之后,博通公司上调了收购价格。但是,尽管现在的报价看起来似乎很诱人,Moorhead还是表示他不相信博通公司能够说服高通公司的股东接受它。
Moorhead表示:“无论如何,高通公司创造了知识产权,而且博通则在实施它,所以这是一种战略上的不匹配,因此投资视野不同。”Moorhead表示:“精明的高通投资者们知道这是一个糟糕的提议,我不希望这笔交易能够通过。”
博通公司的敌意收购尝试是半导体行业合并热情高涨时期最为雄心勃勃的举措之一。最近,向军方和航空航天行业出售计算机芯片的Microsemi公司在收到某不知名公司的收购要约之后,正在寻找买家。
博通公司自己最近也完成了55亿美元的收购,收购了竞争对手博科通讯系统公司(Brocade Communications Systems Inc.),而高通公司仍然在尝试以380亿美元的价格收购荷兰半导体公司NXP Semiconductors NV。这笔交易于一月份获得了欧盟监管机构的批准,而高通公司曾经表示该公司期望中国政府的批准能在本月份得到确认。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。