超簡單! 一文帶你入門DeepSeek R1

更新於 發佈於 閱讀時間約 2 分鐘


本文將帶你快速了解如何使用DeepSeek R1 + 類似ChatGPT的介面可以與大型語言模型互動

raw-image

前言

之前寫過一篇 超簡單! 一文理解如何使用私有大型語言模型LLM - Ollama+Open WebUI篇 ,並且有錄製一段過程影片:200 秒內帶你進入私有LLM大型語言模型的世界 - Ollama + Open WebUI,這篇將教你如何使用最近很紅的DeepSeek R1模型,讓我們來一探究竟!

方法1 使用Ollama 透過終端機互動

先去官方 下載 下載Ollama 最新版本

1.1 使用 終端機 與 DeepSeek R1 互動

ollama run deepseek-r1
raw-image

方法2 Open WebUI

2.1 使用 docker 下載docker

執行 (二擇一):

使用CPU

docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main

使用GPU

docker run -d -p 3000:8080 --gpus all -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:cuda

2.2 打開 http://localhost:3000

2.3 下載模型

如果沒有在ollama安裝過,請點選左下角>管理員後台>設定>模型>從ollama下載輸入deepseek-r1

raw-image

就可以看到成果啦 🎉

raw-image


留言
avatar-img
留言分享你的想法!
avatar-img
Alan Tseng的沙龍
4會員
4內容數
Alan Tseng的沙龍的其他內容
2024/12/14
本文將教你如何安裝pruduction的kubernetes node
Thumbnail
2024/12/14
本文將教你如何安裝pruduction的kubernetes node
Thumbnail
2024/08/03
這篇文章描述了作者在政府機關服務期間,自發性地解決了幾個問題,包括開發公文收發系統和建立政府機關LINE官方帳號。作者使用Python開發公文收發系統,並利用大型語言模型建立LINE官方帳號的智能客服系統。這些應用對於提高政府機關的效率和服務水準具有重要意義。
Thumbnail
2024/08/03
這篇文章描述了作者在政府機關服務期間,自發性地解決了幾個問題,包括開發公文收發系統和建立政府機關LINE官方帳號。作者使用Python開發公文收發系統,並利用大型語言模型建立LINE官方帳號的智能客服系統。這些應用對於提高政府機關的效率和服務水準具有重要意義。
Thumbnail
2024/07/19
本文會教你如何以最簡單方式使用Ollama+Open WebUI
Thumbnail
2024/07/19
本文會教你如何以最簡單方式使用Ollama+Open WebUI
Thumbnail
看更多
你可能也想看
Thumbnail
全球科技產業的焦點,AKA 全村的希望 NVIDIA,於五月底正式發布了他們在今年 2025 第一季的財報 (輝達內部財務年度為 2026 Q1,實際日曆期間為今年二到四月),交出了打敗了市場預期的成績單。然而,在銷售持續高速成長的同時,川普政府加大對於中國的晶片管制......
Thumbnail
全球科技產業的焦點,AKA 全村的希望 NVIDIA,於五月底正式發布了他們在今年 2025 第一季的財報 (輝達內部財務年度為 2026 Q1,實際日曆期間為今年二到四月),交出了打敗了市場預期的成績單。然而,在銷售持續高速成長的同時,川普政府加大對於中國的晶片管制......
Thumbnail
本文參考TensorFlow官網Deep Convolutional Generative Adversarial Network的程式碼來加以實作說明。 示範如何使用深度卷積生成對抗網路(DCGAN) 生成手寫數位影像。
Thumbnail
本文參考TensorFlow官網Deep Convolutional Generative Adversarial Network的程式碼來加以實作說明。 示範如何使用深度卷積生成對抗網路(DCGAN) 生成手寫數位影像。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 32中,展示了OpenAI的API如何使用,儘管 API 可以滿足許多需求,但它們也有其限制,例如,多用途 API 可能在所有任務
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 32中,展示了OpenAI的API如何使用,儘管 API 可以滿足許多需求,但它們也有其限制,例如,多用途 API 可能在所有任務
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 18中,介紹了OpenAI的GPT模型如何利用Inference的Pipeline產生Token。 完整Pipeline可能
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 18中,介紹了OpenAI的GPT模型如何利用Inference的Pipeline產生Token。 完整Pipeline可能
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
前言 前幾篇分享了 IBM Watsonx.ai 平台,以及在平台上使用 LLM 完成客戶體驗分析、與LLM串連處理較複雜的問題。在這一篇中,我們想來嘗試使用檢索增強生成(RAG)的技術,RAG 通過整合外部數據來增強基礎模型的回答能力,這不僅能解決模型訓練數據的局限性問題,還可以提供更精準和相關
Thumbnail
前言 前幾篇分享了 IBM Watsonx.ai 平台,以及在平台上使用 LLM 完成客戶體驗分析、與LLM串連處理較複雜的問題。在這一篇中,我們想來嘗試使用檢索增強生成(RAG)的技術,RAG 通過整合外部數據來增強基礎模型的回答能力,這不僅能解決模型訓練數據的局限性問題,還可以提供更精準和相關
Thumbnail
前言 在先前的文章中,我們探討了 IBM Watsonx 在客戶滿意度分析中的應用。今天,我們將利用 Google 的兩款大型語言模型(LLM)— flan-ul2 和 flan-t5-xxl,展示它們如何串聯起來生成關於特定主題的隨機問題和回答。 在這篇文章中,將使用 SimpleSequen
Thumbnail
前言 在先前的文章中,我們探討了 IBM Watsonx 在客戶滿意度分析中的應用。今天,我們將利用 Google 的兩款大型語言模型(LLM)— flan-ul2 和 flan-t5-xxl,展示它們如何串聯起來生成關於特定主題的隨機問題和回答。 在這篇文章中,將使用 SimpleSequen
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News