ルビンリフレクト™

医療におけるAIの未来は新たな説明責任契約にかかっている理由
ルビン・ピレイ
医療分野におけるAIの拡大は、政策、リテラシー、文化、そして法律の対応が追いつかないほどの速さで進んでいます。欧州における最新のWHO報告書は、説明責任における明白な欠陥を浮き彫りにしています。しかし、AIイノベーションの世界的な中心地である米国も、アルゴリズムが誤診、誤った示唆、あるいは誤った誘導を行った場合に何が起こるかについて、同様に備えができていません。
-
ロケットを製作しました。
-
ロケットに燃料を補給しました。
-
患者をロケットの中に縛り付けました。
-
しかし、ロケットが不発になった場合、誰が責任を負うかについては誰も合意していない。

🇪🇺 ヨーロッパはまだ準備ができていない…そしてアメリカも
WHOヨーロッパの調査結果は衝撃的だ。
-
医療における AI に関する責任基準を設けている国は 4 か国のみです。
-
一方、66% がすでに診断に AI を使用しており、50% が AI チャットボットを使用しています。
ヨーロッパの格差は明らかだ。
しかし、米国の格差はより微妙であり、おそらくより危険だ。
なぜなら、米国は統一された国家的枠組みなしに AI を大規模に導入しているからです。
私たちが持っているものは次のとおりです。
-
急速に進化するFDAの規制姿勢
-
州の医療過誤法理の寄せ集め
-
曖昧な判例
-
リスク回避型の臨床文化
-
急成長を遂げるヘルスケアAIスタートアップエコシステム
-
物事が崩壊したときに誰が責任を負うのかというコンセンサスがない
WHOが警告する「責任のギャップ」とは?
アメリカでは、それは隙間ではなく、峡谷です。
⚖️ 米国の問題:曖昧さによる規制
米国では、AI の責任は、裁判官、州、ソフトウェア、病院、曜日に応じて、次のいずれかに分類されます。
1. 製品責任(AI開発者)
ただし、モデルがサービスではなく製品とみなされる場合のみです。
適応型の学習システムでは、この分類は曖昧になります。
2. 医療過誤(医師)
医師は標準的な治療から逸脱しましたか?
しかし、AI が新しい、実証されていない、または矛盾している場合、「ケアの標準」とは何でしょうか?
3. 企業の過失(病院または医療制度)
病院は AI を適切に検証、監視、または管理しましたか?
4. FDAの執行
このツールが FDA の承認を得た場合、責任が移転する可能性があります。
しかし、モデル自体が更新されると何が起こるでしょうか?
漂ってしまったらどうなるのでしょうか?
病院側が微調整したらどうなるでしょうか?
明確な答えはありません。
そして、訴訟が国民的スポーツとなっている国では、曖昧さは有害となる。
