至顶网网络频道 07月16日 北京报道:提起连云港,很多人首先会想到一座美丽的沿海城市。连云港古称“海州”,因面向连岛、背靠云台山,又为海港,因此而得名。作为中国首批沿海开放城市,连云港始终肩负着新亚欧大陆桥东方桥头堡的重要使命。
今天的连云港不仅是一座山、海、港、城相依相连的国际性港口城市,更是一座国内新型智慧城市建设的典范。
如今,连云港正在经历着快速发展与变迁,在全国建设新型智慧城市的背景下,连云港市紧紧围绕“高质发展、后发先至”的主线,全面贯彻“创新、协调、绿色、开放、共享”的发展理念。依托云计算、大数据、物联网和人工智能等新一代信息技术,以政务信息资源整合共享为抓手和突破口,加快构建数字政府,并统筹推进城市大数据中心及城市运营管理中心(“城市大脑”),以信息化驱动创新发展,全面打造“经济强”、“百姓富”、“环境美”、“社会文明程度高”的新港城。
高质发展 云慧港城
为了能够更好的实现新型智慧城市建设的目标,连云港市与紫光云展开了深入合作,凭借江苏沿海开发战略机遇,把数字政府建设作为提升连云港市新型智慧城市治理水平、改善营商环境的重要战略举措,从而推动以数据为核心的,基于“互联网+”的新型智慧城市建设。
7月18日,主题为“高质发展 云慧港城”——紫光云IMPACT峰会连云港站将在连云港市隆重召开。届时,各级政府领导、信息化专家、产业专家及企业代表将齐聚一堂,共同探讨数字经济时代下的港口城市建设、产业发展及经济创新,为更好地把连云港市打造成为具备港口代表性的新型智慧城市典范献言献策。
聚合生态 产城融合
在完善产业生态建设及打造有力营商环境方面,紫光云立足新城市运营平台,坚持“平台+生态”战略,不断聚合合作伙伴,并助力产城相互融合。以连云港市重点产业为核心,通过华东节点支撑连云港信息化产业发展,建设智能制造示范项目,助推企业上云和智能化改造,并将连云港市打造成为区域工业互联网平台应用示范基地,进一步加快连云港智慧城市建设的进程。
2018年12月,连云港智慧城市运营中心(城市大脑)正式投入使用,这一项目由紫光云统一部署实施并提供服务。连云港政务服务、经济运行分析、民生舆情调研等众多智慧城市服务将与之深入结合,城市深化放管服改革、优化营商环境等工作也有了强有力的支撑。
今年5月,在连云港市政府及政务服务办公室的指导下,紫光云主导研发的“我的连云港”APP正式上线。“我的连云港”APP围绕“便民”、“亲民”的产品设计理念,可以变“群众跑腿”为“掌上办事”,让市民能够享受“一部手机办事通”的便利。截至目前,可提供各类服务事项172项,其中可实现办理类服务事项58项,查询类服务事项114项,进一步助力连云港打造成为“大平台、大数据、大系统、大服务”的数字政府。
巍巍高山,延绵不绝;茫茫大海,广阔无边;山海连云,纵横无界。
智慧港城,与世界相连,与万物互联。我们已经能够感受到连云港市必将以海纳百川的胸怀傲立于新亚欧大陆桥东方桥头堡的地位。而紫光云也将全面赋能连云港的创新与发展,全力推动连云港智慧城市建设,共筑高质发展、后发先至的战略数字港。
连云港作为新型智慧城市建设中海港型城市的典型代表,其发展与变迁又将给我们带来怎样的启示呢?让我们拭目以待“高质发展 云慧港城”——紫光云IMPACT峰会连云港站的精彩内容吧!
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。