医療機関での生成AI利用に関する法律的課題と対策

お世話になっております。
医療機関(病院や一般開業医、法人開業医など)における生成AI利用における法律的な障壁についてご相談させていただければと投稿させていただきました。
上記医療機関にて、chatGPTやGeminiを代表とした生成AIを用いた業務効率化を図ろうかと考えております。しかし、医療機関にて使用する際には医療情報や個人情報の取り扱いの面から、多くの障壁があるかと存じます。
つきましては、医療機関で生成AIを使用するにあたって、法律的に配慮するべき点やその対応策をご教示いただけますと幸いです。

1. 個人情報の取扱いに関する法的配慮点
医療機関が取り扱う患者の診療情報や健康に関する情報は、個人情報保護法上の「要配慮個人情報」に該当し、特に慎重な取扱いが求められます。

2. 業法規制に関する法的配慮点
医療機器プログラム該当性
生成AIの利用目的や機能によっては、そのAIが「医療機器プログラム」に該当する可能性があります。その場合、「プログラム医療機器該当性に関するガイドライン」などを遵守する必要があるため、開発・提供前に該当性を十分に確認する必要があります。

医師法との関係
厚生労働省の見解によれば、AIを用いて診断や治療の支援を行うプログラムを利用する場合であっても、診断・治療を行う主体はあくまで医師であり、最終的な判断の責任は医師が負うことになります。

3. 具体的な対応策
上記のリスクを踏まえ、医療機関が生成AIを安全に利用するためには、以下の対応策を講じることが重要です。

院内ガイドラインの策定と体制整備
職員が遵守すべきルールを明確にするため、院内ガイドラインを策定することが不可欠です。ガイドラインには、以下の事項を盛り込むことが望ましいです。

利用可能なサービスの特定: 入力した情報が機械学習に利用されないことを利用規約等で明記しているサービスを選定する。

入力情報の範囲の明確化: 患者の個人情報や院内の機密情報など、原則としてプロンプトに入力してはならない情報を具体的に定める。

利用規約の確認: 生成AIサービスを利用する際は、利用規約やプライバシーポリシーを十分に確認することを義務付ける。
また、職員からの相談に対応する窓口を設置したり、リスク評価を行う体制を構築したりすることも重要です。

職員への教育・周知徹底
生成AIの特性、リスク、院内ガイドラインの内容について、全職員を対象とした研修を実施し、適切な利用に関するリテラシーの向上とルールの周知徹底を図る必要があります。

患者への説明
生成AIを診療の補助などに利用する場合、その利用目的、取り扱う情報の範囲、安全管理措置などについて、患者に丁寧に説明することが重要です。これは、インフォームド・コンセントの観点からも、患者の自己決定権を尊重するために求められる対応と考えられます。