3月15日的上午,北京电视台《北京时间》和北京朝阳医院在其远程会诊中心进行网络直播的骨科手术引起了大家的关注,已经背负三年木板背背佳三年多,脊柱弯曲90度的14岁云南少年小应今天在朝阳医院接受脊柱矫正手术,有望像正常人一样挺直胸膛,重回学堂。
在整个直播的接近两个小时的时间里,朝阳医院远程会诊中心临时扮演成 交互集成式“演播室”, 与手术室进行着密切的互动。三块70寸的高清屏幕,将演播室的主持人、骨科专家介绍、有条不紊的手术现场、细部操作图像、主刀医生的现场说明,乃至相关小应的采访故事、小应病历的分析,科学知识的普及内容,都转换地游刃有余,让网友平日很难亲眼目睹的大型手术,高科技的手术设备、高超的医术、整洁条理的手术现场在会诊中心的屏幕上一览无余,还可听到来自手术室里的主刀医生的清晰介绍,接受脊柱健康教育。有网友感叹科技有了温度,每一次的治疗和沟通就更加有意义。
照片选自北京电视台《北京时间》
相信很多人会对这个视野开阔,展示、协作效果极佳的“演播室”非常感兴趣,这里就让小编来为您介绍一二。它的大名叫做远程会诊中心,说起它来,不得不提到恢宏的十三五卫生事业发展规划,国家《十三五卫生与健康规划》中将分级诊疗明确为“十三五”时期医疗卫生改革的首要任务,随着众多三甲综合医院的职能也将变成主要承担疑难重症和科研,而在解决一般疾病的时候,远程会诊就成为这些医院与下级医院联络的重要通道,推动优质医疗资源下沉,实现远程医疗的一个重要体现。
如果您正在思考如何建立或如何最大化发挥远程医疗会诊中心的作用,让我们带着您的问题为您图说思科的创新远程会诊中心。
今天木板男孩的手术直播,就类似手术示教的形式了,更有意义的是,它还可以实现全部过程实时录音录像便于回放,遗憾没参与到现场的盆友岂不是很有福?
围绕思科协作平台,集成各医疗应用平台,通过思科优质的合作伙伴生态系统,让管理部门与医疗机构之间、医疗机构于医疗机构之间、医疗机构与家庭之间、医生患者之间的远程协作一切皆有可能。
当然根据自身情况,以使用目的为导向,兼顾预算,同时考虑未来的业务发展。
远程会诊中心 通过与社区卫生服务中心、分布在各地乃至海外等各种类型的医疗机构,实现远程预约与双向转诊、远程医学培训、远程疑难病例讨论与教学、远程医学影像诊断、远程医疗会诊等业务,打开医院围墙,把优势专科与专家医疗资源辐射到社区、全国边疆及边远省份基层医疗机构,促进分级诊疗的落实,惠及当地百姓。
相信随着医疗侧供给改革的深入,还会有更多远程医疗会诊中心会出现,在医联体、在专科联盟、远程医疗中发挥着其核心的价值。像“木板男孩”所在的云南偏远地区的医疗机构也能够享受到来自一线城市三甲医院专家资源的支持和共享,让百姓看病难问题再也不难。
更多远程会诊中心信息图,请点击阅读原文 http://www.cisco.com/c/dam/global/zh_cn/solutions/healthcare/pdfs/healthcare_ciscotelemedicineconsultationcentersolutioninfographic_infographic_sc.pdf
北京电视台《北京时间》北京朝阳医院 ”木板男孩”手术直播链接
http://item.btime.com/51g3sj57if994oqlm3cu7r23i3r&from=groupmessage&isappinstalled=0
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。