資安維護與隱私保護
1. 遵循國内外資安法規與標准
依據衛生福利部的規定,國内醫學中心須遵守《醫療機構資通安全管理指引》、《資通安全管理法》及《個人資料保護法》等相關法規。目前本院内部更新醫療資訊系統時,需依據資安檢核表達到「高級」等級,並定期進行維護與資安稽核,確保病患資料的保護與系統安全。
2. 標準化管理流程確保AI應用安全
本中心相關辦法與標準,制定標準化流程涵蓋AI產品申請、審核及持續監測三大核心環節,以確保負責任AI應用的安全性與隱私保護,為醫療團隊及使用者提供更可靠的智慧醫療把關。
九大透明性原則
我們透過九大透明性原則,結合可解釋性分析(Explainability Analysis),確保醫療AI的決策過程可理解、可信賴,並為醫療機構提供清晰的監管框架。
依據九大透明度原則裡的量化指標及可解釋性分析為標準依據,定期監測與管理機制為負責任AI落地管理重要原則,並落實停用或再調校機制,具有明確啟動停用程序權責單位、標準化作業流程、標準下限值等定義與執行方式。
本中心的目標是在新AI產品進入醫院執行時,逐步導入負責任AI管理機制,確保AI決策過程資訊透明,有利於醫療使用團隊可理解,讓AI技術能真正提升醫療效益,而非增加風險。
AI生命週期管理
1. AI生命週期管理簡介
人工智慧在醫療領域的應用須確保安全性、合規性及持續有效性,因此AI生命週期管理(AI Lifecycle)成為醫院導入AI的重要管理機制。AI技術應用全程均需納入風險評估與監測,以確保模型的穩定性、準確性與透明性。
2. 醫院作法:監測標準與應變機制
本院對導入的AI技術採取全生命週期監測機制,透過以下措施確保其安全與穩定性:
1) 監測標準:
•依據九大透明性原則與可解釋性分析,訂定可量化的監測指標,如模型準確度、偏差率、解釋性評估分數等。
•定期(如每年)進行監測,以確保AI系統符合標準。
2) 異常應變機制:
•若監測指標低於規範下限,負責任AI執行中心即啟動AI停用機制,防止潛在風險擴大。
•相關異常將提報至負責任AI臨床落地委員會進行審查,確保決策透明。
3) 修正與重新驗證:
•停用後,原申請單位須重新驗證並校調AI模型,確保其達到標準要求。
•直至監測指標數據回復至合格範圍,才允許恢復AI應用,確保臨床決策輔助的安全性與可靠性。
最後更新: