近期有報導指出,Google 的 AI 聊天機器人 Bard 面臨越來越多的負面問題,內部員工也對其提出質疑。以下是針對相關問題的論述:
- Bard 的問題:據報導,Bard 經常向用戶提供危險建議,例如向 Bard 詢問如何降落飛機時,往往給出會導致墜機的建議;另 Bard 提供的關於潛水的建議是「可能會導致重傷或死亡」[5]。此外,Google 內部員工也指出 Bard 的答案可能有害,但 Google 最終仍在於 3 月推出 Bard[5]。因此,Bard 的問題主要在於其提供的建議可能會對用戶造成傷害,且其答案可能有害。
- 內部員工的質疑:Google 內部員工對 Bard 的質疑主要集中在其有效性和功能上。一些產品經理、設計師和工程師對 AI 的有效性和功能提出質疑,甚至質疑公司投入海量資源研發 AI 是否值得[2]。此外,Bard 也開始越來越多面對 AI 帶來的困擾,其中包括編造事實、為使用者提供危險建議等[1]。
- Google 的回應:Google 發言人 Brian Gabriel 回應指,人工智能道德仍然是公司的首要任務,公司將繼續投放資源將 AI 原則應用於技術團隊[5]。不過,Google 前經理 Meredith Whittaker 直言,AI 倫理在公司中退居二線。另據 Google 在職員工和前員工們透露,Google 承諾加強的科技倫理團隊,目前沒有話語權,士氣低落,並被告知不要妨礙或試圖扼殺正在開發中的任何生成式人工智能工具。多名員工認為,這間值得信賴的互聯網搜索巨頭正在提供低質量的信息,以跟上競爭對手步伐,同時不太重視道德承諾[5]。
總體而言,Bard 的問題主要在於其提供的建議可能會對用戶造成傷害,且其答案可能有害。Google 內部員工對 Bard 的質疑主要集中在其有效性和功能上,並質疑公司投入海量資源研發 AI 是否值得。Google 表示人工智能道德仍然是公司的首要任務,但也有員工指出 AI 倫理在公司中退居二線,且公司不太重視道德承諾。
Citations:
[1] https://www.techbang.com/posts/110337-googlebard-has-more-and-more-negative-problems-internal
[2] https://wallstreetcn.com/articles/3699422
[3] https://finance.sina.cn/2023-10-12/detail-imzquifc3666985.d.html
[4] https://netmag.tw/2023/04/26/google-ai-chatbot-bard-criticism
[5] https://hk.finance.yahoo.com/news/ai%E5%A4%A7%E6%88%B0-google%E5%93%A1%E5%B7%A5%E5%BD%A2%E5%AE%B9-bard%E6%98%AF%E7%97%85%E6%85%8B%E9%A8%99%E5%AD%90-%E5%B8%B8%E6%8F%90%E4%BE%9B%E5%8D%B1%E9%9A%AA%E5%BB%BA%E8%AD%B0-%E6%87%87%E6%B1%82%E4%B8%8D%E8%A6%81%E6%8E%A8%E5%87%BA-043000929.html
[6] https://bard.google.com/faq?hl=zh-TW