我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
在實施雲端平台上的 LLM 之前,我們需要檢查隱私政策並進行網路安全檢查,為了減輕風險,我們探討了一些可能的工具,我們為內容審核模型增加了規則庫,知識庫可以創建一個相對封閉的生態系統,限制開放且無控制的對話,系統可以通過在提示中添加資訊性消息來引導。此外管理 Token 總數是控制使用者使用情況和 LLM 系統整體成本的極佳方式。
從 AI說書 - 從0開始 - 441 | 第十五章引言 到 AI說書 - 從0開始 - 480 | 為 ChatGPT 建立知識庫的結果檢視,我們完成書籍:Transformers for Natural Language Processing and Computer Vision, Denis Rothman, 2024 第十五章說明。
以下附上參考項目:
- GPT-4 Technical Report, OpenAI, March 27, 2023: https://arxiv.org/pdf/2303.08774.pdf
- Bommansani et al. 2023, Ecosystem Graphs: The Social Footprint of Foundation Models: https://arxiv.org/abs/2303.15772
- OpenAI research: https://openai.com/research
- Google Generative AI: https://github.com/GoogleCloudPlatform/generative-ai/blob/main/language/prompts/intro_prompt_design.ipynb
- BIG-bench platform: https://github.com/google/BIG-bench/blob/main/bigbench/benchmark_tasks/README.md
以下附上額外閱讀項目:
- Anderljung et al., 2023, Frontier AI Regulation: Managing Emerging Risks to Public Safety: https://arxiv.org/abs/2307.03718
- GDPR compliance: https://gdpr.eu/
- SOC 2 compliance: https://www.imperva.com/learn/data-security/soc-2-compliance/
- Stanford Ecosystem Graphs, which attempts to have a solid inventory of Foundation Models and resources: https://crfm.stanford.edu/ecosystem-graphs/index.html?mode=home
- Stanford University’s Center for Research on Foundation Models: https://crfm.stanford.edu/



















