如何避免生成式AI虛構事實的問題

2023/11/01閱讀時間約 3 分鐘

生成式人工智慧(Generative AI,也被稱為生成式AI)正在徹底改變多個行業的價值創造方式。然而,儘管用戶能夠享受便利,他們也必須應對虛構事實、隱私和智慧財產權等問題。(如圖一)

一篇發表於2023年11月《哈佛商業評論》上的文章《如何利用生成式人工智慧》提供了解決這些問題的建議。

首先,在虛構事實方面,文章提供了三種解決方式:

圖1 如何避免生成式AI虛構

圖1 如何避免生成式AI虛構

1.建立使用規範,或整合其他系統

企業可以透過技術建立使用標準,自動判斷是否適合使用生成式AI,降低虛構的可能性。同時,可以與其他系統結合,例如克里斯塔(Cresta)新創公司的智慧客服系統,在接收客戶問題後,能根據語意從企業手冊或文件中提取答案,確保回應內容的正確性。

2.結合人工審核

行銷人員可以審查生成文案是否通順,軟體工程師可以確認生成代碼是否正確,進行品質確認。例如,一位醫生可以使用生成式AI自動化總結患者的就診報告,將原本需要2小時的任務縮減到20分鐘,醫生只需進行最終審核確認,有更多時間用於病人服務。

3.不使用大型語言模型

該篇文章的其中一位作者在用ChatGPT整理參考文獻時,發現一些文獻是錯的。當他向ChatGPT提供一篇文章的URL時,有時會產生錯誤的標題、錯誤的日期、甚至是錯誤的作者。他發現手動建立參考文獻,可能比逐條審查生成的參考文獻(包括標題、出版日期、作者等)更加迅速。

此外,在使用生成式AI時,企業必須制定明確的隱私政策,明確規範哪些員工有權存取資料,並避免使用機密資料進行訓練,以免在生成過程中產生機密洩露的風險。例如,三星(Samsung)引入ChatGPT後不久,就發生了良率和測量數據等機密外洩事件。

同時,在智慧財產權方面,由於生成式AI的內容主要來自網路上眾多的訓練資料,其知識產權歸屬尚未明確定義。許多組織仍在等待法院的判決結果。為了鼓勵使用,一些系統供應商選擇自行承擔法律風險。例如,Adobe宣布將賠償其旗下圖像生成軟體Firefly的法律索賠。

最後,該文章指出,為了避免生成式AI產生偏見,必須在訓練時提供完整的、高品質的資料,以避免「垃圾進,垃圾出」的問題。例如,如果一家企業只招聘研究所畢業生作為產品經理,那麼使用這樣的就業歷史資料來訓練招聘決策系統,可能會導致拒絕沒有研究所學歷的求職者。

總之,在採用生成式AI技術的同時,企業務必慎重評估其使用,同時制定嚴格的使用標準。

黃揚博(政大企管碩士,識商創辦人)、羅凱揚(台科大兼任助理教授)

資料來源:McAfee, A., Rock, D., & Brynjolfsson, E. (2023). How to Capitalize on Generative AI. Harvard Business Review, 101(6), 42–48.

--

識商IG:https://www.instagram.com/bizsense2023/
識商Line交流社群:
https://line.me/ti/g2/a2QRj--XfM3FRZBOZpB4rdJGravtdpVOeSLBpQ?utm_source=invitation&utm_medium=link_copy&utm_campaign=default

16會員
72內容數
AI轉型策略、AI商業思維,帶你從宏觀的角度看AI
留言0
查看全部
發表第一個留言支持創作者!