Some images has been designed using resources from Unsplash & Pixabay & Pexels & Freepik and some icons from Flaticon
跳到主要內容
:::
:::

三大落地實施策略

資安維護與隱私保護

1. 遵循國内外資安法規與標准

依據衛生福利部的規定,國内醫學中心須遵守《醫療機構資通安全管理指引》、《資通安全管理法》及《個人資料保護法》等相關法規。目前本院内部更新醫療資訊系統時,需依據資安檢核表達到「高級」等級,並定期進行維護與資安稽核,確保病患資料的保護與系統安全。

2. 標準化管理流程確保AI應用安全

本中心相關辦法與標準,制定標準化流程涵蓋AI產品申請、審核及持續監測三大核心環節,以確保負責任AI應用的安全性與隱私保護,為醫療團隊及使用者提供更可靠的智慧醫療把關。

 

 

 

九大透明性原則

我們透過九大透明性原則,結合可解釋性分析(Explainability Analysis),確保醫療AI的決策過程可理解、可信賴,並為醫療機構提供清晰的監管框架。

依據九大透明度原則裡的量化指標及可解釋性分析為標準依據,定期監測與管理機制為負責任AI落地管理重要原則,並落實停用或再調校機制,具有明確啟動停用程序權責單位、標準化作業流程、標準下限值等定義與執行方式。

本中心的目標是在新AI產品進入醫院執行時,逐步導入負責任AI管理機制,確保AI決策過程資訊透明,有利於醫療使用團隊可理解,讓AI技術能真正提升醫療效益,而非增加風險。

 

 

 

AI生命週期管理

1. AI生命週期管理簡介

人工智慧在醫療領域的應用須確保安全性、合規性及持續有效性,因此AI生命週期管理(AI Lifecycle)成為醫院導入AI的重要管理機制。AI技術應用全程均需納入風險評估與監測,以確保模型的穩定性、準確性與透明性。

2. 醫院作法:監測標準與應變機制

本院對導入的AI技術採取全生命週期監測機制,透過以下措施確保其安全與穩定性:

1)  監測標準:

•依據九大透明性原則與可解釋性分析,訂定可量化的監測指標,如模型準確度、偏差率、解釋性評估分數等。

•定期(如每年)進行監測,以確保AI系統符合標準。

2)  異常應變機制:

•若監測指標低於規範下限,負責任AI執行中心即啟動AI停用機制,防止潛在風險擴大。

•相關異常將提報至負責任AI臨床落地委員會進行審查,確保決策透明。

3)  修正與重新驗證:

•停用後,原申請單位須重新驗證並校調AI模型,確保其達到標準要求。

•直至監測指標數據回復至合格範圍,才允許恢復AI應用,確保臨床決策輔助的安全性與可靠性。

 

 

最後更新: