我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
生成式人工智慧模糊了雲端平台、框架、函式庫、語言和模型之間的界線,以下展開幾項事實:
- OpenAI 部署了一個Transformer API,幾乎不需要程式設計。
- Hugging Face提供Cloud Library服務,裡面的模型是無窮無盡的。
- Microsoft 365 和 Google Workspace 現在擁有由最先進的Transformer提供支援的生成式 AI 工具,因此,每個 Microsoft 365 和 Google Workspace 使用者都可以輕鬆掌握 AI。
選擇用於實作 NLP Transformer的資源至關重要,這是一個專案的生存問題。想像一下,您正在與您未來的雇主、您的雇主、您的團隊或客戶交談:
- 您使用有關Hugging Face的實作以展開簡報,您可能會收到經理的負面反應,他說:「抱歉,我們在這裡使用 Google Cloud AI 來處理此類項目,而不是 Hugging Face,請問您可以實施 Google Cloud AI 嗎?
- 專注於Google Cloud AI也可能會出現同樣的問題,您可能會得到經理的反應,他想要使用 OpenAI 的 ChatGPT/GPT-4 模型以及 API,但無需開發。
- 如果您專注於具有 API 的 OpenAI GPT 引擎且無需開發,那麼您可能會遇到更喜歡 Hugging Face 的 AutoML 或 HuggingGPT 的專案經理或客戶。
上述情境帶來的啟發是:
- 如果您只專注於您喜歡的解決方案,那麼您很可能會在某個時刻與船一起沉沒。
- 專注於您需要的系統,而不是您喜歡的系統。
因此建議做法是:嘗試一到幾個 NLP 模型,看看哪一個適合您的需求:是否開源、是否 API、本地安裝、雲端平台以及專案的其他限制。