🧱 環境建置準備
在開始實作前,請先確保你的執行環境具備以下條件:
1) Ollama 本地 LLM 服務
請先安裝 Ollama 並能正常啟動服務(預設 API 位置為 http://127.0.0.1:11434)。
同時需下載支援中日語理解的模型(例如 gpt-oss:20b、llama3.1:8b-instruct、qwen2.5:7b-instruct 等)。
確保程式中的 LLM_MODEL 與實際下載的模型名稱一致。
2) Python 環境
請使用 Python 3.10 ~ 3.12 版本,並已安裝必要工具(pip、venv)。
3) 虛擬環境(env)
建議在專案目錄中建立獨立虛擬環境(python -m venv env),
並在執行前啟用(source env/bin/activate 或相同效果的指令)。
4) ffmpeg
請確認系統已安裝 ffmpeg,以供 Whisper 處理音訊轉檔。
可執行 ffmpeg -version 確認是否可用。
5) pip 套件清單
以下是本專案所需的最小安裝套件(requirements.txt):
numpy
scipy
sounddevice
openai-whisper
langchain
langchain-ollama
tqdm
numba
若使用 GPU,可依平台額外安裝對應的 torch 版本。
✅ 完成以上環境條件後,即可執行 Whisper + LLM 的即時語音轉文字與日文翻譯系統。
- 以下 A→G 七段程式碼為同一專案的分段;請保持順序 貼上。















