20 November 2019
 
人工智慧的科技治理-從演算法開始探索隱私權與假新聞的旅程
陳奕甫 經理
AI乃運用電腦程式來呈現人類智慧的技術,通常包含感測(Sensing)、學習(Learning)、推論(Inference)與推理(Reasoning)四個環節,在某些領域上已超越人類的水準。AI演算法是由開發人員或是機器學習,透過資料分析或持續運行過程產生的;如果開發有缺陷或資料有問題,演算法必然受到影響,甚至被汙染。  
搜尋引擎、廣告平台與人才招募…等AI應用產出的決策、預測與分析結果會被人工智慧帶來的偏誤所影響。演算法可能侵害隱私甚至影響人的生命;新興科技需要先被信任才可被廣泛使用,根本上我們的人生能用電腦程式來決定嗎?運用人工智慧與機器學習技術的新產品、服務,可能會引發或加劇與道德、技術、法律或其他方面的困境。演算法使用前應充分了解運行邏輯,並持續進行資料輸入/輸出的驗證;不斷檢視所設計的演算法是用來做什麼的?演算法符合我們的法規、道德、價值嗎?有依照預期運作嗎?能持續符合嗎?
新興科技已被廣泛採用,卻普遍未納入組織風險評估的範圍,此將造成逸脫控管並將組織暴露在更高的資安與資料外洩風險上。先要理解風險才能真正管理風險,從哪些算是「新興科技」到其採用程度、潛力與風險,目前均無決定性的清單。不應期待有一個萬用解決方案套在所有科技上,而應進行評估與治理,從遵循已知控制出發,確保組織支持新興科技治理,方能有效投入資源因應科技變革。
  人工智慧的科技治理-從演算法開始探索隱私權與假新聞的旅程
課後QA
張宏賓律師、 陳奕甫經理
馬尼拉中介者原則
陳奕甫 經理
網際網路環境係在服務供應商、社交網路和搜尋引擎等中介者多方協力下開展,基於數據治理或資安保護等需求對於資訊內容進行管制,必將涉及用戶使用端的言論自由、結社自由和隱私權等基本權利。馬尼拉中介者原則是由網路世界公民社會團體共同合作自主提出的倡議,希望在符合國際法及其他法律框架基礎上,建立一個具操作性、調和各方利益、既可以促進創新又尊重用戶權利的責任制度。
 
財團法人理律文教基金會著作權所有,非經同意不得翻印轉載或以任何方式重製. 
© Lee and Li Foundation., All rights reserved.
訂閱理律學堂影音報   取消收閱理律學堂影音報