更新於 2024/03/10閱讀時間約 3 分鐘

大型語言模型真的會改變我們的工作方式嗎?


大型語言模型 (LLM) 在最近幾年取得了重大進展,並引起了人們對生成式AI將如何影響工作方式的廣泛重視。雖然 LLM 具有強大的文本生成、翻譯和理解能力,但它們對工作的影響仍然是一個複雜且充滿爭議的話題。


就有一篇 MIT 史隆商業評論的撰文針對上述的問題進行分析,這篇文章引述了多篇研究進行分析,並提出對於組織管理者在使用生成式AI上的建議。這篇文章很值得預備採納生成式AI進入組織的管理者參考,因此,分享給大家。


做好三件事情為導入LLM做好準備

作者認為組織要做三件事情為大型語言模型做好準備工作。

第一,組織內應該制訂並且發布可接受的使用標準(Acceptable Use Standard)

即便目前幾乎無法阻止員工嘗試使用大型語言模型,但是在現階段就建立使用基本規則是很重要的。例如企業應禁止將「專有數據(影像、文字、文件、數據等關鍵資訊)」上傳到第三方大型語言模型,以及需要揭露共享文件檔案時,應該載明「是否」以及「如何」使用大型語言模型。另一種方法是使用諸如 Amazon Q 之類的工具,這是一種生成式人工智能聊天機器人,可以根據組織的可接受使用策略進行客製化,例如誰可以訪問大型語言模型,可以使用哪些數據等等。


第二,創建中央辦公室來生成所有應用LLM所產出的輸出

這個做法可以幫助組織遵守「可接受的使用標準」並管理「數據污染」等問題。中央辦公室可以提供創建「提示詞」和「解釋答案可變性」的指引。還提供了規模經濟的機會。畢竟,讓一名數據管理員負責所有可用於分析的公司數據,比讓每個可能的使用者自己管理數據要高效得多,也更容易管理。同時,在最初,制定規則時需要召開一個任務編組,其中包括來自 IT 部門、法遵部門和可能的使用者部門。任務編組和後來的中央辦公室可以幫助解決來自「阻礙機器學習」和數據分析使用的「數據管理」的挑戰。


第三,培訓使用大型語言模型的工作人員

任何可能需要大型語言模型或需要使用它們的人員都應該接受簡單的培訓,以瞭解這些工具的「問題」(尤其是它們產生幻覺的現象)以及如何評估人工智能生成的文檔和報告。下一步是對員工進行「提示詞設計」和「改進方面的培訓」。在使用大型語言模型輸出之前,闡明和傳達一個標準同樣重要,該標準構成“足夠好”的標準。中央辦公室可以促進最適合組織的培訓。


更深一層的管理問題

企業主是否應該改變未來工作的招聘標準或開始計劃裁員?

大衆媒體上關於人工智慧將消除大量工作的大量說法會給投資者和利益相關者帶來壓力,要求進行裁員。提醒他們其他預測的不準確性可能會有所幫助;例如,此前預測卡車司機將被機器人司機大量取代的預測並沒有成真。從長遠來看,一旦我們弄清楚大型語言模型可以用於工作的不同方式,我們就可以看看是否可以重新組織任務以提高效率。現在就開始修改與供應商的合同或裁員將是輕率的。歷史表明,從長遠來看,新技術創造的工作崗位比淘汰的要多。關於 IT 創新(尤其是人工智慧)導致大規模失業的預測尚未實現。改變工作分配的技術發展通常會緩慢發生。


大型語言模型是否會普遍被使用?但是能夠裁員嗎?

  1. 作者認為大型語言模型的使用會很普遍,但即使廣泛使用大型語言模型,工作崗位的流失也會相對較少。認爲這些工具可以大量取代工作崗位的想法必須面對這樣一個現實:
  2. 大型語言模型已經在某種程度上實現了自動化。但是可以透過LLM所完成的最重要任務中,還會產生新的任務,並且在現有員工之間能夠重新安排工作,並找到可以裁掉的冗餘職位並不太容易。

技術決定論——技術變革是塑造社會的主要因素這一觀念——在創造技術的人們眼中很流行,但在研究技術的人眼中卻缺乏可信度。

資料來源:MIT Sloan Management Review



分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.