我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
幾點要點需要納入考慮:
- 問題評估:首先要徹底理解問題,主要挑戰是什麼?您正在處理什麼規模的資料?
- 技能評估:團隊的熟練程度是多少?熟悉某些平台可能會加速開發。
- 可擴展性:考慮成長性,所選的解決方案會隨著資料的成長或問題複雜性的增加而擴展嗎?
- 社群和支援:具有活躍社群的工具和模型可能會有所幫助。
- 互通性:解決方案與現有系統或未來潛在工具的整合程度如何?
我們現在已經進入人工智慧產業化時代,Microsoft Azure、Google Cloud、Amazon Web Services (AWS) 和 IBM 等提供的 AI 服務是任何開發人員或開發團隊都無法比擬的,科技巨頭擁有價值數百萬美元的超級計算機,擁有大量資料集來訓練Transformer Model和一般人工智慧模型。
大型科技巨頭擁有許多已經使用其雲端服務的企業客戶,因此,與任何其他解決方案相比,向現有雲端架構添加Transformer API 所需的工作量更少。
小公司甚至個人都可以透過 API 存取最強大的 Transformer 模型,而幾乎不需要開發投資,無需成為工程師或擁有博士學位。
例如,OpenAI 平台現在擁有適用於市場上一些最有效的 Transformer 模型的 Software as a Service (SaaS) API。