數據隱私 📑05 - 3個關鍵原因,系統了解公司組織合規使用個人數據的底層邏輯,開啟對機器學習隱私的意識覺察

2023/01/17閱讀時間約 3 分鐘
數據隱私 📑05 - 3個關鍵原因,系統了解公司組織合規使用個人數據的底層邏輯,開啟對機器學習隱私的意識覺察
你好,我是王啟樺,目前在加州大學洛杉磯分校(UCLA)擔任統計機器學習方向的博士後研究員。
你有想過,公司組織使用個人數據時,該如何保護隱私嗎?
這篇文章是《紫式書齋》的第三主題〈數據隱私〉的第05篇。這篇文章想分享給你,在機器學習 (Machine Learning)應用中,隱私之所以重要的三大原因。了解這三個原因,可以幫助我們更有意思地思考,使用AI於公司組織的應用中,什麼是該重視要持續推動的。
因此,這篇文章想系統地介紹給你,公司組織使用AI與機器學習,需要重視隱私的三個關鍵原因:
  • 原因 #1 法律合規:服從國家隱私律法中,對個人數據收集,使用,儲存的規範。
  • 原因 #2 倫理考量:保護隱私,避免機器學習演算法對特定族群差別待遇。
  • 原因 #3 商業利益:用戶更願意分享個人數據給嚴肅對待隱私問題的公司。
如果你是數據產業與機器學習相關從業者,對如何合規使用個人數據感到興趣,歡迎閱讀以下內容,了解隱私之所以重要的三個底層原因:

原因 #1 :法律合規 - 訓練AI,需服從個人資料保護相關法規

公司與組織必須確定,其對機器學習與人工智慧的使用,有合規於相關的法律與規範。
  • 通用數據保護條例 (General Data Protection Regulation; GDPR)是歐盟的隱私律法。此律法規定了公司在收集使用儲存個人數據,要或用戶積極同意之外,用戶也要能要求刪除數據。
  • 加州消費者隱私保護法(California Consumer Privacy Act; CCPA) 是美國的隱私律法。是一般性之個人資料保護法。
只要公司組織符合這些數據安全隱私的標準,那就不會吃上罰款,并有限度的使用用戶的個人數據。
關於台灣個人資料保護律法,請見國家發展委員會裡面的「個人資料保護專案辦公室」的相關進展。

原因 #2 :倫理考量 - 使用AI,不應該對特定族群差別待遇

有偏誤的數據集,是指在數據集中,特定族群的代表性嚴重不夠。
當利用有偏誤的數據集,來執行機器學習以訓練AI,就有可能造成AI對特定族群的差別待遇。例如,一些面部辨識科技,對特定膚色與性別的照片,會做出較不利的判斷。如果放任不管,那麼許多存在與社會的不公平會被放大。
保護隱私,公司組織可以避免這些倫理問題發生的機率,讓AI的使用更加可以信任,更加可靠。

原因 #3 :商業利益 - 保護隱私,避免數據洩漏並培養顧客忠誠度

現代社會裡,顧客會更願意與嚴肅保護隱私的公司組織往來。
顧客持續往來,也就是顧客忠誠度,是公司組織持續經營的根本。公司組織如果不嚴肅保護隱私,那麼會有更高的數據洩漏 (Data Breach)風險。數據洩漏會嚴重損害公司組織的名聲,並造成顯著的財務損失。
保護隱私,公司組織可以降低數據洩漏的風險,保持顧客忠誠度,是事業發展的正向循環。
你覺得哪個關鍵原因最有道理呢?
如果想進一步讓我的內容幫助到你,你可以
謝謝你閱讀到這邊,我們下一封電子報見。
為什麼會看到廣告
348會員
707內容數
Outline as Content
留言0
查看全部
發表第一個留言支持創作者!