大型語言模型 (LLM) 在最近幾年取得了重大進展,並引起了人們對生成式AI將如何影響工作方式的廣泛重視。雖然 LLM 具有強大的文本生成、翻譯和理解能力,但它們對工作的影響仍然是一個複雜且充滿爭議的話題。
就有一篇 MIT 史隆商業評論的撰文針對上述的問題進行分析,這篇文章引述了多篇研究進行分析,並提出對於組織管理者在使用生成式AI上的建議。這篇文章很值得預備採納生成式AI進入組織的管理者參考,因此,分享給大家。
作者認為組織要做三件事情為大型語言模型做好準備工作。
即便目前幾乎無法阻止員工嘗試使用大型語言模型,但是在現階段就建立使用基本規則是很重要的。例如企業應禁止將「專有數據(影像、文字、文件、數據等關鍵資訊)」上傳到第三方大型語言模型,以及需要揭露共享文件檔案時,應該載明「是否」以及「如何」使用大型語言模型。另一種方法是使用諸如 Amazon Q 之類的工具,這是一種生成式人工智能聊天機器人,可以根據組織的可接受使用策略進行客製化,例如誰可以訪問大型語言模型,可以使用哪些數據等等。
這個做法可以幫助組織遵守「可接受的使用標準」並管理「數據污染」等問題。中央辦公室可以提供創建「提示詞」和「解釋答案可變性」的指引。還提供了規模經濟的機會。畢竟,讓一名數據管理員負責所有可用於分析的公司數據,比讓每個可能的使用者自己管理數據要高效得多,也更容易管理。同時,在最初,制定規則時需要召開一個任務編組,其中包括來自 IT 部門、法遵部門和可能的使用者部門。任務編組和後來的中央辦公室可以幫助解決來自「阻礙機器學習」和數據分析使用的「數據管理」的挑戰。
任何可能需要大型語言模型或需要使用它們的人員都應該接受簡單的培訓,以瞭解這些工具的「問題」(尤其是它們產生幻覺的現象)以及如何評估人工智能生成的文檔和報告。下一步是對員工進行「提示詞設計」和「改進方面的培訓」。在使用大型語言模型輸出之前,闡明和傳達一個標準同樣重要,該標準構成“足夠好”的標準。中央辦公室可以促進最適合組織的培訓。
大衆媒體上關於人工智慧將消除大量工作的大量說法會給投資者和利益相關者帶來壓力,要求進行裁員。提醒他們其他預測的不準確性可能會有所幫助;例如,此前預測卡車司機將被機器人司機大量取代的預測並沒有成真。從長遠來看,一旦我們弄清楚大型語言模型可以用於工作的不同方式,我們就可以看看是否可以重新組織任務以提高效率。現在就開始修改與供應商的合同或裁員將是輕率的。歷史表明,從長遠來看,新技術創造的工作崗位比淘汰的要多。關於 IT 創新(尤其是人工智慧)導致大規模失業的預測尚未實現。改變工作分配的技術發展通常會緩慢發生。
技術決定論——技術變革是塑造社會的主要因素這一觀念——在創造技術的人們眼中很流行,但在研究技術的人眼中卻缺乏可信度。
資料來源:MIT Sloan Management Review