RubinReflects™

为什么人工智能在医学领域的未来取决于新的问责合同
鲁宾·皮莱
人工智能在医疗保健领域的应用发展速度远超政策、知识普及、文化和法律的跟进速度。欧洲最新发布的世卫组织报告凸显了问责机制方面的明显缺陷——但美国作为全球人工智能创新中心,同样对算法误诊、误建议或误导性决策的后果准备不足。
-
我们已经造好了火箭。
-
我们已经给火箭加满了燃料。
-
我们把病人绑进了火箭里。
-
但是,如果火箭发射失败,责任归属尚未达成一致意见。

🇪🇺 欧洲还没准备好……美国也没准备好。
世卫组织欧洲区域办事处的调查结果令人震惊:
-
目前只有 4 个国家制定了人工智能在医疗保健领域的责任标准。
-
与此同时,66% 的人已经在诊断中使用人工智能,50% 的人使用人工智能聊天机器人。
欧洲的差距显而易见。
但美国的差距更为微妙,而且可以说更危险。
因为美国在没有统一的国家框架的情况下大规模部署人工智能。
我们所拥有的是:
-
FDA监管姿态的快速变化
-
各州医疗事故判例法的拼凑
-
含糊不清的判例法
-
一种规避风险的临床文化
-
蓬勃发展的医疗保健人工智能初创企业生态系统
-
而且,对于事情败露时谁应承担责任,也没有达成共识。
世界卫生组织警告的“责任差距”是什么?
在美国,那不是一个缝隙,而是一个峡谷。
⚖️ 美国的问题:模糊监管
在美国,人工智能的责任可能属于以下任何一种情况,具体取决于法官、所在州、软件、医院以及星期几:
1. 产品责任(人工智能开发商)
但前提是该模型被视为产品,而不是服务。
而对于自适应学习系统来说,这种分类变得模糊不清。
2. 医疗事故(临床医生)
医生是否偏离了标准诊疗规范?
但是,当人工智能是新兴技术、未经证实的技术或存在相互矛盾的技术时,“护理标准”是什么?
3. 企业过失(医院或医疗系统)
医院是否对人工智能进行了适当的验证、监控或管理?
4. FDA执法
如果该工具获得 FDA 批准,责任可能会转移。
但是当模型自我更新时会发生什么?
如果它漂移了怎么办?
如果医院进行微调呢?
没有明确的答案。
在一个诉讼盛行的国家,含糊不清会变得非常有害。
