更新於 2024/10/24閱讀時間約 5 分鐘

搞懂大語言模型(LLM) 告別錯誤期待

在現今科技日新月異的時代,像ChatGPT這樣的大語言模型(LLM)已經成為許多人日常生活和工作的輔助工具。然而,隨著這些技術的普及,對於它們的誤解也層出不窮,這使得一些使用者對這些工具的期待與實際效果脫節,最近在網路上看到兩個實際案例,藉此分享一下一般常見的誤解。

案例一:錯誤期待AI的功能範疇

我在AI社團裡看到一個使用者非常不滿地說:「要停止訂閱ChatGPT了,能力根本不行」。原來使用者給ChatGPT一張黑白、中式古建築的照片,請它協助「上色」。結果ChatGPT生成了一張彩色類似的建築圖片,而非將原來的黑白照片進行上色。這位使用者因此大為不滿,認為ChatGPT無法完成這項任務。

這裡的問題在於使用者對ChatGPT的功能期待錯誤。ChatGPT是一個文字生成模型,擅長處理語言和文字相關的任務,例如對話、回答問題、生成文章等。它並不具備處理圖像或圖像編輯的專業能力,只能輔助你完成任務,例如詢問有什麼工具或是功能,它可以給你相關建議。若想進行圖片的上色,應該尋找專門針對圖像處理的AI工具,例如專門的自動圖像上色工具,這類工具可以根據圖像數據進行分析並上色。

使用者在使用ChatGPT時,應先瞭解其設計目的與核心功能。它適合處理文字相關的工作,像是生成文案、語言翻譯、問答分析等。當需要圖像處理或其他技術性工作時,則應該尋找對應的專門工具或人員處理。

ChatGPT不能幫你上色,但可以幫你生成情境式意圖


案例二:錯誤期待AI能解決人際關係問題

另一個例子是,一位建商面臨工程緊急狀況,他預計隔天早上需要完成某項工程,但此時已經是下午五點,而不但現場工班進度落後,同時也有其他案場的進度在趕工。這位建商請ChatGPT提供解決方案,但當ChatGPT給出了理性的建議後,他卻抱怨這些建議沒有實際的幫助,因為最後問題的解決還是靠他自己找工班請吃飯,搏感情請他們通宵加班完成。

這個案例顯示了兩個問題,第一個是期待LLM能即時提供解決方案,甚至替代人類解決現場實際操作問題。事實上,ChatGPT能夠提供的是邏輯性、結構化的建議,幫助人們做出更理性的決策,但它並無法處理具體的實際操作。ChatGPT無法替你聯絡工班,協調工作,也不能參與實際的施工流程。這類緊急現場的問題,更多是依賴人際關係、現場管理與應變能力。

第二個則是給的資訊過少就希望得到最適合的解法,例如工班可以加班、喜歡菸酒檳榔、義氣相挺等這些資訊,ChatGPT不會有這些預設資料,只有當使用者提供足夠多的背景資料,ChatGPT才能給出更貼近實際情況的合理建議。因此,當得到不滿意的回覆時,問題有時候反而在於提問的方式是否清楚、具體。

ChatGPT可以是決策參考工具,但不應期望它替代人的實際操作或現場管理。遇到緊急情況,AI提供的更多是方向性的建議,例如安排優先順序、提供應對策略等,而具體的執行仍需依賴人際協調與現場經驗。

以四格漫畫呈現案例二情境


結論:正確認識與使用LLM的本質

這兩個案例反映了大語言模型(LLM)常見的誤用,LLM的核心價值在於文字處理和語言理解,而非圖像處理或實際問題的即時解決。當使用者抱持不切實際的期望時,可能會對AI產生誤解,認為其無法滿足需求,就像你買了氣炸烤箱,然後用它來煮飯,再來抱怨氣炸烤箱不能煮飯或是煮出來很難吃。事實上,像ChatGPT這樣的LLM工具,能在適當的範疇內極大地提高效率與產出質量,但使用者必須先清楚它的功能邊界。

正確使用LLM的建議:

  1. 瞭解工具功能:在使用LLM之前,瞭解它的設計目的與適用範圍。
  2. 提出清晰問題:LLM最擅長的是解答明確的問題或生成具體的文字輸出,因此在使用時,應提出具體、精確的問題。
  3. 合理設定期待:不要期望LLM能替代人類的現場經驗或操作,這類工具更適合用來輔助決策或提供思路,而非解決所有問題。

總而言之,正確認識LLM的本質,並將其用於適合的場景中,才能真正發揮它的最大潛力,例如這篇文章的內容有90%都是ChatGPT生成的。

分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.