1、光纤接续
(1)光纤接续。光纤接续应遵循的原则是:芯数相等时,要同束管内的对应色光纤对接,芯数不同时,按顺序先接芯数大的,再接芯数小的。
(2)光纤接续的方法有:熔接、活动连接、机械连接三种。在工程中大都采用熔接法。采用这种熔接方法的接点损耗小,反射损耗大,可靠性高。
(3)光纤接续的过程和步骤:
①开剥光缆,并将光缆固定到接续盒内。注意不要伤到束管,开剥长度取1m左右,用卫生纸将油膏擦拭干净,将光缆穿入接续盒,固定钢丝时一定要压紧,不能有松动。否则,有可能造成光缆打滚折断纤芯。
②分纤将光纤穿过热缩管。将不同束管,不同颜色的光纤分开,穿过热缩管。剥去涂覆层的光纤很脆弱,使用热缩管,可以保护光纤熔接头。
③打开古河S176熔接机电源,采用预置的42种程式进行熔接,并在使用中和使用后及时去除熔接机中的灰尘,特别是夹具,各镜面和V型槽内的粉尘和 光纤碎未。CATV使用的光纤有常规型单模光纤和色散位移单模光纤,工作波长也有1310nm和1550nm两种。所以,熔接前要根据系统使用的光纤和工 作波长来选择合适的熔接程序。如没有特殊情况,一般都选用自动熔接程序。
④制作光纤端面。光纤端面制作的好坏将直接影响接续质量,所以在熔接前一定要做好合格的端面。用专用的剥线钳剥去涂覆层,再用沾酒精的清洁棉在裸纤 上擦拭几次,用力要适度,然后用精密光纤切割刀切割光纤,对0.25mm(外涂层)光纤,切割长度为8mm-16mm,对0.9mm(外涂层)光纤,切割 长度只能是16mm。切割好后将光纤小心置入熔接机的V型槽内,关上防风罩,按下熔接机的放电键.即可自动完成熔接,只需11秒。
⑥移出光纤用加热炉加热热缩管。打开防风罩,把光纤从熔接机上取出,再将热缩管放在裸纤中心,放到加热炉中加热。加热器可使用20mm微型热缩套管和40mm及60mm一般热缩套管,20mm热缩管需40秒,60mm热缩管为85秒。
⑦盘纤固定。将接续好的光纤盘到光纤收容盘上,在盘纤时,盘圈的半径越大,弧度越大,整个线路的损耗越小。所以一定要保持一定的半径,使激光在纤芯里传输时,避免产生一些不必要的损耗。
⑧密封和挂起。野外接续盒一定要密封好,防止进水。熔接盒进水后,由于光纤及光纤熔接点长期浸泡在水中,可能会
2、光纤测试
光纤在架设,熔接完工后就是测试工作,使用的仪器主要是OTDR测试仪或光源光功率计,用加拿大EXFO公司的FTB-100B便携式中文彩色触摸 屏OTDR测试仪(动态范围有32/31、37.5/35、40/38、45/43db),可以测试,光纤断点的位置;光纤链路的全程损耗;了解沿光纤长 度的损耗分布;光纤接续点的接头损耗。
为了测试准确,OTDR测试仪的脉冲大小和宽度要适当选择,按照厂方给出的折射率n值的指标设定。在判断故障点时,如果光缆长度预先不知道,可先放 在自动OTDR,找出故障点的大体地点,然后放在高级OTDR。将脉冲大小和宽度选择小一点,但要与光缆长度相对应,盲区减小直至与坐标线重合,脉宽越小 越精确,当然脉冲太小后曲线显示出现噪波,要恰到好处。再就是加接探纤盘,目的是为了防止近处有盲区不易发觉。关于判断断点时,如果断点不在接续盒处,将 就近处接续盒打开,接上OTDR测试仪,测试故障点距离测试点的准确距离,利用光缆上的米标就很容易找出故障点。利用米标查找故障时,对层绞式光缆还有一 个绞合率问题,那就是光缆的长度和光纤的长度并不相等,光纤的长度大约是光缆长度的1.005倍,利用上述方法可成功排除多处断点和高损耗点。
好文章,需要你的鼓励
前谷歌资深工程师David Petrou创立的AI初创公司Continua宣布完成800万美元种子轮融资,由GV领投。该公司开发AI智能体技术,可加入SMS、iMessage和Discord等群聊平台,为用户协作提供智能支持。Continua能够在群聊中自动设置提醒、发起投票、添加日历邀请或生成待办清单,解决群聊混乱问题。公司通过微调技术让AI理解群聊动态,具备社交智能,只在需要时提供帮助。
艾伦人工智能研究院开发的MolmoAct是首个开源的机器人空间推理模型,通过"看懂-规划-执行"三步思考法让机器人具备类人的空间理解能力。它不仅在多项基准测试中表现优异,还支持直观的视觉轨迹调教,用户可直接在屏幕上画线指导机器人行为。研究团队完全开源了模型、代码和数据集,为全球机器人研究提供强大基础平台。
Anthropic宣布为企业客户增加Claude单次提示词的信息处理量,以吸引更多开发者使用其AI编程模型。Claude Sonnet 4现支持100万token上下文窗口,可处理75万词或7.5万行代码的请求,是此前限制的5倍,超过OpenAI GPT-5的40万token。该功能也将通过Amazon Bedrock和Google Cloud等云合作伙伴提供。更大的上下文窗口有助于AI模型更好地处理软件工程问题和长期自主编程任务。
这项由北京大学和清华大学联合完成的研究首次提出时间自奖励语言模型,通过"锚定拒绝"和"未来引导选择"策略解决了AI自学习中的梯度消失问题。该方法让AI既能从过去的低水平样本中学习反面教材,又能向未来的高水平样本学习正面目标,成功维持了清晰的学习对比信号,在多个基准测试中显著优于传统自奖励方法。