母送来锦旗,却没有再提AI的事。林默带着新入职的医生查房时,会先让他们独立分析病例,最后才打开“医镜”系统比对。有实习生问:“既然要人工复核,那AI还有什么用?”
周明指着电脑屏幕上的影像报告,AI用不同颜色标注出可疑区域,但最终的诊断结论栏是空的,等待医生填写。“它就像显微镜,”老医生说,“能帮我们看到更细微的东西,但决定怎么治疗、怎么用药的,永远得是人。”
星瀚科技也根据规则做了系统升级。陈锐在一次行业会议上展示新功能:当医生试图在急诊场景单独使用AI诊断时,系统会自动弹出警告窗口;每一份诊断报告的末尾,都新增了“数据局限性说明”,列出可能遗漏的临床信息。“以前我们总想着追求更高的准确率,”他坦言,“现在才明白,告诉用户AI‘不能做什么’,比吹嘘‘能做什么’更重要。”
赵磊偶尔会去医院调研。他见过医生在AI报告上密密麻麻的批注,见过患者拿着打印出来的追溯数据咨询,也见过研发团队和临床医生一起修改算法参数。有一次,他在儿科门诊看到林默,她正对着一份AI诊断为“普通感冒”的报告皱眉——系统没注意到孩子眼睑轻微水肿,而这是肾炎的早期信号。
“规则不是为了限制AI,”赵磊后来在一次访谈中说,“而是为了让技术守住生命的底线。当算法的刻度遇上生命的温度,我们要做的,是让冰冷的数据,始终服务于滚烫的生命。”
那天傍晚,林默完成最后一份诊疗记录,关闭“医镜”系统时,屏幕上弹出一行提示:“今日共辅助诊断32例,人工修正4例,已生成差错分析报告。”她点开报告,仔细看完每一条修正理由,然后在笔记本上写下:“明天晨会,和团队讨论如何优化儿童肾病的AI识别特征。”
窗外的晚霞透过窗户,洒在办公桌上。那份《AI辅助诊疗伦理责任规则》被压在病历夹最上面,边角已经有些磨损,但每一条规则下面,都有她用红笔标注的临床案例——那些曾经的失误、争议与反思,正化作让技术更安全的基石,在每一次诊疗中,守护着生命的尊严。
hai