YOLOv12使用教學
YOLOv12是一個最新的物件偵測模型,具有創新的注意力機制架構,顯著提升了速度和準確性。以下是使用YOLOv12的基本步驟和指導。
1. 環境準備
在開始使用YOLOv12之前,您需要確保您的計算環境已經準備好。這包括安裝必要的軟體和庫:
安裝CUDA和cuDNN:這些是NVIDIA的工具,能夠加速深度學習模型的訓練和推理。您可以從NVIDIA的官網下載相應版本。
安裝Python:建議使用Anaconda來管理您的Python環境,這樣可以避免不同項目之間的依賴衝突。
安裝PyTorch:根據您的CUDA版本,從PyTorch的官網下載並安裝相應的版本。
2. 安裝YOLOv12
您可以從GitHub上下載YOLOv12的代碼庫。使用以下命令來克隆代碼庫:
git clone https://github.com/ultralytics/ultralytics.git
cd ultralytics
pip install -r requirements.txt
3. 數據集準備
在訓練YOLOv12模型之前,您需要準備好數據集。數據集應該包括:
圖片:存放在一個資料夾中。
標註文件:每張圖片應該有對應的標註文件,標註格式需符合YOLO的要求。
您可以使用工具如LabelImg來生成標註文件。
4. 訓練模型
一旦數據集準備好,您可以開始訓練模型。
使用以下命令來訓練YOLOv12模型:
yolo detect train data=data.yaml model=yolov12n.pt epochs=100 imgsz=640 device=0
這裡的data.yaml文件應該包含訓練、驗證和測試數據的路徑。
5. 模型推理
訓練完成後,您可以使用訓練好的模型進行推理。使用以下命令來進行物件偵測:
yolo detect predict source=your_image.jpg model=yolov12n.pt
這將在指定的圖片上進行物件偵測,並顯示結果。
6. 性能評估
YOLOv12在多個基準測試中表現出色,具有高達40.6%的mAP(mean Average Precision)和低於2毫秒的推理延遲,這使其成為實時物件偵測的理想選擇。
透過這些步驟,您可以順利地使用YOLOv12進行物件偵測任務。隨著技術的進步,YOLOv12的應用範圍也在不斷擴大,適用於各種計算平台,包括邊緣設備和雲端API。