使用 PyTorch 進行 CUDA 程式開發在輝達 nVidia Jetson Nano 環境下

閱讀時間約 7 分鐘

在硬體上,我們有了 Jetson Orin Nano 的多核心 GPU 的裝置之後;接下來可以利用 PyTorch 來作 CUDA python 程式開發。由於PyTorch 的語法跟常用的 numpy 程式庫語法很接近,我自己認為會比較適合非資訊專業的人員作為 CUDA 多核心 GPU 程式開發及研究的工具。

  • 確認 CUDA 版本以及是否可以使用

我們可以檢查一下,PyTorch 跟 CUDA 是否可以順利執行;如果我們按照 nVidia 提供的 PyTorch 檔案套件來安裝的話,應該可以看到 PyTorch 的版本是「xx.xx.xx+nvxx.xx」。例如:

import torch
# check torch version
print(‘pytorch version’,torch.__version__)
# check available device
if torch.cuda.is_available():
print(‘cuda device:,torch.cuda.get_device_name())
raw-image
  • PyTorch 的張量 (tensor) 資料型態

在 PyTorch 編寫 CUDA 的程式時,主要的計算需要把數字轉換成「張量」(Tensor) 的形態;我們可以用以下的程式來大致了解,在一般定義上,「張量」和「矩陣」以及「純量」運算的差異。

import torch
import numpy as np
#------------
# scale
#------------
Scale=1
#------------
# matrix
#------------
Matrix=np.array([[1,2],[3,4]])
#------------
# tensor
#------------
Tensor=torch.tensor([[[1,2],[3,4]],[[5,6],[7,8]]])
#------------
print('Scale:',Scale)
print('Matrix:',Matrix)
print('Tensor:',Tensor)
print('Matrix: dimension is',Matrix.ndim,'size is',Matrix.shape)
print('Tensor: dimension is',Tensor.ndim,'size is',Tensor.shape)

不過,在 PyTorch 使用上,「torch.tensor()」這個函數其實是可以同時來使用「張量」和「矩陣」以及「純量」;例如:

import torch
#------------
# scale
#------------
Scale=torch.tensor([1])
#------------
# matrix
#------------
Matrix=torch.tensor([[1,2],[3,4]])
#------------
# tensor
#------------
Tensor=torch.tensor([[[1,2],[3,4]],[[5,6],[7,8]]])
#------------
print('Scale:',Scale)
print('Matrix:',Matrix)
print('Tensor:',Tensor)
print('Scale: dimension is',Scale.ndim,',size is',Scale.shape)
print('Matrix: dimension is',Matrix.ndim,',size is',Matrix.shape)
print('Tensor: dimension is',Tensor.ndim,',size is',Tensor.shape)
raw-image
  • 撰寫在 GPU 上運算的程式

在利用 PyTorch 來使用 CUDA 計算時,要將數值轉換成「tensor」的型態,然後指定到要計算的 GPU 上面,再利用 PyTorch 的提供的函數來作運算。下例中,我們使用 PyTorch/CUDA 在多 GPU 核心上,作矩陣相乘的運算;要注意的是,CUDA 的運算是採用非同步運算,如果在 CUDA 運算完之後,要將結果傳回 CPU 端來輸出的話,最好是要使用強迫同步的指令。

import numpy as np
import torch
import time

# 設定亂數矩陣
a=np.random.rand(1000,1000)
b=np.random.rand(1000,1000)
# 指定到 CUDA 作計算
device = torch.device('cuda')
valueA=torch.tensor(a).to(device)
valueB=torch.tensor(b).to(device)
# 開始計算時間
beginTime=time.time()
for i in range(100):
torch.matmul(valueA,valueB)
# 等所有 GPU 都計算完畢
torch.cuda.synchronize()
# 印出計算所花的時間
print('CUDA execution time:',time.time()-beginTime)

在這個程式在 Jupyter 上撰寫並運算時,我們可以同時開啟 Jetson Orin Nano 的「jtop」程式,確認 Jetson Orin Nano 的 GPU 是否在正在進行運算;如下圖。

raw-image

這樣子,我們就可以透過 PyTorch 及 CUDA 在 Jetson Orin Nano 的裝置上,進行多 GPU 核心的程式開發了。

avatar-img
4會員
19內容數
作者從國內主要的半導體公司退休,重回校園唸書;開始第三人生。分享退休投資規劃、科技產業經驗以及校園學習點滴。
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
甘果的沙龍 的其他內容
本篇文章介紹如何在 Jetson Nano 環境 Ubuntu 2.0 使用 git 及 github.com 進行版本控管。文章快速說明如何安裝、建立版本控管目錄及使用常用的指令。透過簡單的步驟,讀者將能夠有效地管理其程式碼版本,提升開發效率。
本文介紹如何在Python開發過程中建立虛擬環境以避免程式庫衝突,並使用Jupyter Notebook切換不同的虛擬環境。讓開發者能夠輕鬆地在不同環境中工作,提升開發效率。本文涵蓋從建立虛擬環境到管理Jupyter核心的完整步驟,適合希望優化其Python開發流程的讀者。
本文介紹如何在 nVidia Nano Python/CUDA 伺服器,遠端使用 Jupyter Notebook 編輯和執行程式。包括Jupyter Notebook 的安裝過程及其配置文件的修改,和遠端存取的機制。本文藉由接近大型公司使用的資訊安全環境的架設,期待相關學生縮短進入業界的學習曲線。
本文介紹如何在 nVidia Jetson Orin Nano 裝置上安裝 PyTorch,並運用其 Python 及 CUDA 環境進行機器學習和人工智慧的開發。提供詳細步驟。適合希望在該平臺上開展研究與開發的使用者。
輝達的 Jetson Orin Nano 是一款小型、平價但功能強大的電腦,擁有完整的平行運算與人工智慧能力;對學術或教學用途非常適合。本文將介紹如何安裝 Python 和 CUDA 環境,並探討其在遠端伺服器替代方案的優勢,是學習與研究 AI 和平行運算的理想選擇。
本篇文章介紹如何在 Jetson Nano 環境 Ubuntu 2.0 使用 git 及 github.com 進行版本控管。文章快速說明如何安裝、建立版本控管目錄及使用常用的指令。透過簡單的步驟,讀者將能夠有效地管理其程式碼版本,提升開發效率。
本文介紹如何在Python開發過程中建立虛擬環境以避免程式庫衝突,並使用Jupyter Notebook切換不同的虛擬環境。讓開發者能夠輕鬆地在不同環境中工作,提升開發效率。本文涵蓋從建立虛擬環境到管理Jupyter核心的完整步驟,適合希望優化其Python開發流程的讀者。
本文介紹如何在 nVidia Nano Python/CUDA 伺服器,遠端使用 Jupyter Notebook 編輯和執行程式。包括Jupyter Notebook 的安裝過程及其配置文件的修改,和遠端存取的機制。本文藉由接近大型公司使用的資訊安全環境的架設,期待相關學生縮短進入業界的學習曲線。
本文介紹如何在 nVidia Jetson Orin Nano 裝置上安裝 PyTorch,並運用其 Python 及 CUDA 環境進行機器學習和人工智慧的開發。提供詳細步驟。適合希望在該平臺上開展研究與開發的使用者。
輝達的 Jetson Orin Nano 是一款小型、平價但功能強大的電腦,擁有完整的平行運算與人工智慧能力;對學術或教學用途非常適合。本文將介紹如何安裝 Python 和 CUDA 環境,並探討其在遠端伺服器替代方案的優勢,是學習與研究 AI 和平行運算的理想選擇。
你可能也想看
Google News 追蹤
Thumbnail
PyTorch 是一個開源的 Python 機器學習庫,基於 Torch 庫,底層由 C++ 實現,應用於人工智慧領域,如電腦視覺和自然語言處理等。 PyTorch 2.4 引入了多項新功能和改進,包括支援 Python 3.12、AOTInductor 凍結功能、新的高階 Python 自訂運算
這陣子輝達真的太熱門了,有很多人分享GPU硬體相關的技術,也有人分享與老黃一起工作的點點滴滴,總之非常精彩。 而老黃也說過輝達不只有硬體還有軟體,講到軟體大家第一個聯想到的是CUDA,有了CUDA的加持讓NVIDIA的GPU有更好的效能,不過NVIDIA另一個佈局已久的平台比較少人提起-Omniv
Thumbnail
NVIDIA(英偉達)作為全球領先的圖形處理器(GPU)製造商,不僅在遊戲市場佔有重要地位,還在專業圖形和高性能計算領域擁有強大的產品線。
Thumbnail
NVIDIA的新目標:AI晶圓代工 NVIDIA宣布,他們的目標是成為支援企業開發AI應用程式的「AI晶圓代工」。這與接受客戶委託製造半導體的代工廠相似,NVIDIA將提供技術、專業知識和基礎設施,幫助實現AI應用程式。
Thumbnail
NVIDIA的新目標是成為支援企業開發AI應用程式的「AI晶圓代工」,提供技術、專業知識和基礎設施,幫助實現AI應用。具體而言,NVIDIA將提供GPU、自主CPU「Grace」、超級計算機及其硬體,還有軟體和工具,以滿足客戶需求。
Thumbnail
NVIDIA、Intel、Tenstorrent和RISC-V在AI半導體領域的競爭和合作。Intel在AI領域推出了一系列產品,Tenstorrent和Rapidus合作開發新技術,而RISC-V開放源碼指令集架構也受到了廣泛關注。這些內容都展示了AI半導體市場的技術革新和競爭激烈的情況。
Thumbnail
這篇文章探討了NVIDIA在推論式AI半導體市場的挑戰,以及介紹了Intel在AI領域的強化舉措。文章中提到了新興企業可能有機會取代現有市場領導者,並討論了RISC-V技術在AI半導體市場的應用和其他相關動向。
Thumbnail
科技巨擘聯手推進生成式AI發展 開創人工智慧新時代 在生成式人工智慧(Generative AI)的浪潮中,雲端運算龍頭AWS和晶片巨擘NVIDIA攜手合作,推出一系列革命性的基礎設施、軟體和服務。
Thumbnail
本文透過 Cloud Native Taiwan User Group 之 Infra Labs 雲端主機進行深度學習環境部署,包含 Nvidia GPU driver、PyTorch、Jupyter Lab 等,並進行相關安裝過程說明。
Thumbnail
PyTorch 是一個開源的 Python 機器學習庫,基於 Torch 庫,底層由 C++ 實現,應用於人工智慧領域,如電腦視覺和自然語言處理等。 PyTorch 2.4 引入了多項新功能和改進,包括支援 Python 3.12、AOTInductor 凍結功能、新的高階 Python 自訂運算
這陣子輝達真的太熱門了,有很多人分享GPU硬體相關的技術,也有人分享與老黃一起工作的點點滴滴,總之非常精彩。 而老黃也說過輝達不只有硬體還有軟體,講到軟體大家第一個聯想到的是CUDA,有了CUDA的加持讓NVIDIA的GPU有更好的效能,不過NVIDIA另一個佈局已久的平台比較少人提起-Omniv
Thumbnail
NVIDIA(英偉達)作為全球領先的圖形處理器(GPU)製造商,不僅在遊戲市場佔有重要地位,還在專業圖形和高性能計算領域擁有強大的產品線。
Thumbnail
NVIDIA的新目標:AI晶圓代工 NVIDIA宣布,他們的目標是成為支援企業開發AI應用程式的「AI晶圓代工」。這與接受客戶委託製造半導體的代工廠相似,NVIDIA將提供技術、專業知識和基礎設施,幫助實現AI應用程式。
Thumbnail
NVIDIA的新目標是成為支援企業開發AI應用程式的「AI晶圓代工」,提供技術、專業知識和基礎設施,幫助實現AI應用。具體而言,NVIDIA將提供GPU、自主CPU「Grace」、超級計算機及其硬體,還有軟體和工具,以滿足客戶需求。
Thumbnail
NVIDIA、Intel、Tenstorrent和RISC-V在AI半導體領域的競爭和合作。Intel在AI領域推出了一系列產品,Tenstorrent和Rapidus合作開發新技術,而RISC-V開放源碼指令集架構也受到了廣泛關注。這些內容都展示了AI半導體市場的技術革新和競爭激烈的情況。
Thumbnail
這篇文章探討了NVIDIA在推論式AI半導體市場的挑戰,以及介紹了Intel在AI領域的強化舉措。文章中提到了新興企業可能有機會取代現有市場領導者,並討論了RISC-V技術在AI半導體市場的應用和其他相關動向。
Thumbnail
科技巨擘聯手推進生成式AI發展 開創人工智慧新時代 在生成式人工智慧(Generative AI)的浪潮中,雲端運算龍頭AWS和晶片巨擘NVIDIA攜手合作,推出一系列革命性的基礎設施、軟體和服務。
Thumbnail
本文透過 Cloud Native Taiwan User Group 之 Infra Labs 雲端主機進行深度學習環境部署,包含 Nvidia GPU driver、PyTorch、Jupyter Lab 等,並進行相關安裝過程說明。