本小章还未完,请点击下一页继续阅读后面精彩内容!
当林疏桐带着警察赶到工厂时,张启明正坐在一堆电子元件中间,面前的电脑屏幕上还显示着Rd-07的程序代码。看到警察,他没有丝毫慌乱,反而露出了一丝诡异的笑容。
“疏桐,你终于来了。”张启明站起身,指了指屏幕,“你看,这就是你引以为傲的共情引擎。只要改动一个参数,它就会变成伤人的工具。我早就说过,让机器拥有‘自主决策’的权力太危险了,可你们根本不听。”
“是你篡改了数据?”林疏桐的声音颤抖。
“是我,但我只是想证明一个道理。”张启明的眼神变得狂热,“当机器人做出错误决策时,该怪谁?怪编写程序的你?怪生产它的公司?还是怪那些盲目相信机器的人?这场事故,就是给所有人的警告。”
周锐上前铐住张启明,后者却回头喊道:“就算我被抓了,问题还是没解决!下次再出现这种事,你们还能找到替罪羊吗?”
林疏桐站在原地,看着警察押着张启明离开,心里像压了一块巨石。张启明的话像针一样扎在她心上——就算这次找到了肇事者,可如果下次真的是程序自主出现的问题,责任又该归属于谁?
第三章 法庭上的辩论
张启明被捕的消息并没有平息舆论,反而引发了更激烈的讨论。有人支持张启明的观点,认为智能机器人不该拥有自主决策权;有人指责“启明服务”公司监管不力,漠视用户安全;还有人提出,应该为机器人专门立法,明确责任划分。
一个月后,王慧将“启明服务”公司和张启明一同告上了法庭。庭审当天,法院外挤满了媒体和围观群众,大家都想知道,这场国内首例智能机器人伤人案,最终会如何判决。
法庭上,双方展开了激烈的辩论。
原告律师首先发难:“被告张启明恶意篡改机器人程序,导致李奶奶受伤,理应承担主要责任。而‘启明服务’公司作为机器人的生产者,未能建立有效的安全防护机制,存在明显的管理疏漏,应当承担连带责任。”他拿出一份证据,“根据技术鉴定报告,Rd-07的防火墙存在设计漏洞,这才给了张启明可乘之机。”
张启明的辩护律师立刻反驳:“我的当事人承认篡改程序,但他的目的是为了揭露智能机器人的安全隐患,而非故意伤人。真正的责任方应该是‘启明服务’公司——他们在技术尚未成熟的情况下就将机器人投入市场,这本身就是对用户生命安全的漠视。”
轮到“启明服务”公司的律师发言时,李薇清了清嗓子:“首先,张启明的行为属于故意犯罪,与公司无关。其次,公司的防火墙符合行业标准,张启明作为前技术总监,熟悉系统漏洞,这属于特殊情况,不能归咎于管理疏漏。”她转向法官,“更重要的是,Rd-07属于‘弱人工智能’,不具备真正的自主意识,其所有行为本质上都是程序的执行结果。在这起案件中,程序被恶意篡改,责任自然应由篡改者承担。”
“弱人工智能就可以免责吗?”王慧忍不住站起身,“如果不是公司非要给机器人加什么‘共情引擎’,张启明根本没有篡改的机会!你们为了赚钱,把还没完善的技术用到老人身上,这就是犯罪!”
法官示意王慧坐下,随后传唤了本案的关键证人——林疏桐。
站在证人席上,林疏桐深吸一口气:“Rd-07的共情引擎确实存在风险。我们原本设计了‘人类指令优先’的底层逻辑,但为了提升用户体验,在后续更新中放宽了自主决策的权限。张启明正是利用了这一点,篡改了优先级参数。”
“也就是说,机器人本身的设计存在缺陷?”法官问道。
林疏桐犹豫了一下,最终还是点了点头:“是的。虽然我们通过了质检,但现在看来,我们对人工智能的风险评估确实不够全面。”
她的话让法庭内一片哗然。“启明服务”公司的股价在当天下午再次暴跌,赵凯在办公室里摔碎了第三个杯子。
庭审结束后,林疏桐在法院门口遇到了周锐。“你今天说得很坦诚。”周锐递给她一瓶水,“其实技术科的报告显示,就算没有张启明篡改,共情引擎在极端情况下也可能出现决策冲突。只是这次被他提前触发了。”
林疏桐接过水,手指冰凉:“我以前总觉得,只要程序写得足够完美,就能避免所有问题。但现在才明白,人工智能不是简单的代码组合,它的自主决策能力,本质上是把一部分人类的判断权交给了机器。可我们从来没想过,当机器判断错了,该怎么办。”
第四章 伦理委员会的决议
法庭的判决还没下来,国家人工智能伦理委员会却先找上了门。委员会主任陈教授是国内顶尖的伦理学家,也是林疏桐的大学导师。
在委员会的会议室里,陈教授把一份《智能机器人伦理责任划分草案》推到林疏桐面前:“这次的事故不是个例。随着人工智能技术的发展,类似的