Streamlit 製作第一個Data APP

更新 發佈閱讀 3 分鐘

raw-image

Streamlit 是一個開源Python函式庫,可以快速製作Data App。

Streamlit是一個全新的Python框架,旨在快速且簡單地建立交互式的數據科學報告和應用程序。它提供了一系列簡單易用的API,讓用戶可以輕鬆創建美觀和交互式的視覺化效果。此外,Streamlit還內置了大量的插件,以滿足用戶對於數據分析和視覺化的需求。它是非常適合用於數據科學、機器學習等領域,並且可以很容易地與其他數據科學工具(如NumPy、Pandas等)整合。总的来说,Streamlit是一個強大且易於使用的數據科學開發工具,可以大大提高開發效率。

讓機器學習工程師或是資料科學家自己也可以構建一個前端介面並快速部署

下面是一些使用Streamlit的方法:

  1. 數據視覺化:使用Streamlit的視覺化工具,您可以輕鬆地對訓練數據進行可視化,以了解數據的分布和特徵。
  2. 模型評估:您可以使用Streamlit構建可交互的模型評估工具,以方便查看模型的結果和指標。
  3. 模型部署:您可以使用Streamlit將您的機器學習模型部署為交互式Web應用程序,以便更容易地與他人分享您的研究成果。
  4. 數據交互:使用Streamlit的交互元素,您可以讓用戶輕鬆地探索您的數據和模型,並且與您的應用程序進行交互。

建議在安裝streamlit之前先安裝Anaconda,然後在Anaconda環境下安裝streamlit,省掉安裝其他套件的步驟

Anaconda是一個開源的Python和R語言分析環境,可以在Windows、MacOS和Linux操作系統上運行。以下是安裝Anaconda的詳細步驟:

  1. 下載安裝程序:前往Anaconda官方網站(https://www.anaconda.com/products/distribution)下載適用於您的操作系統的安裝程序。
  2. 執行安裝程序:双擊下載的安裝程序並開始安裝。在Windows系統上,可以通過双擊Anaconda安裝程序圖標來啟動安裝程序。
  3. 接受條款:接受許可協議,並選擇安裝路徑。
  4. 選擇安裝類型:選擇“Just Me”或“All Users”,決定是否為整個系統安裝Anaconda。
  5. 安裝選項:選擇需要安裝的項目,並選擇是否安裝Microsoft Visual Studio Code。
  6. 完成安裝:在安裝過程完成後,選擇是否啟動Anaconda Navigator或終止安裝程序。

這些步驟將引導您完成Anaconda的安裝。您可以通過打開命令提示字元或終端窗口並輸入“conda”來驗證安裝是否成功。

安裝

pip install streamlit
streamlit version

啟動範例

streamlit hello

對於一個前端不熟的資料工程師 資料科學家 資料分析師來說

streamlit 可以讓枯燥乏味的程式碼變成美觀實用的App

安裝套件後可以直接從網址啟動服務

streamlit run https://raw.githubusercontent.com/streamlit/demo-uber-nyc-pickups/master/app.py

官方github:

https://github.com/streamlit

官方文件

Streamlit Docs
Streamlit is more than just a way to make data apps, it's also a community of creators that share their apps and ideas…docs.streamlit.io

作者:黃翊鈜 Roy Hwang

經歷:ML engineer , AI engineer

留言
avatar-img
留言分享你的想法!
avatar-img
Roy Hwang的沙龍
1會員
10內容數
你可能也想看
Thumbnail
在小小的租屋房間裡,透過蝦皮購物平臺採購各種黏土、模型、美甲材料等創作素材,打造專屬黏土小宇宙的療癒過程。文中分享多個蝦皮挖寶地圖,並推薦蝦皮分潤計畫。
Thumbnail
在小小的租屋房間裡,透過蝦皮購物平臺採購各種黏土、模型、美甲材料等創作素材,打造專屬黏土小宇宙的療癒過程。文中分享多個蝦皮挖寶地圖,並推薦蝦皮分潤計畫。
Thumbnail
小蝸和小豬因購物習慣不同常起衝突,直到發現蝦皮分潤計畫,讓小豬的購物愛好產生價值,也讓小蝸開始欣賞另一半的興趣。想增加收入或改善伴侶間的購物觀念差異?讓蝦皮分潤計畫成為你們的神隊友吧!
Thumbnail
小蝸和小豬因購物習慣不同常起衝突,直到發現蝦皮分潤計畫,讓小豬的購物愛好產生價值,也讓小蝸開始欣賞另一半的興趣。想增加收入或改善伴侶間的購物觀念差異?讓蝦皮分潤計畫成為你們的神隊友吧!
Thumbnail
本篇文章介紹如何使用PyTorch構建和訓練圖神經網絡(GNN),並使用Cora資料集進行節點分類任務。通過模型架構的逐步優化,包括引入批量標準化和獨立的消息傳遞層,調整Dropout和聚合函數,顯著提高了模型的分類準確率。實驗結果表明,經過優化的GNN模型在處理圖結構數據具有強大的性能和應用潛力。
Thumbnail
本篇文章介紹如何使用PyTorch構建和訓練圖神經網絡(GNN),並使用Cora資料集進行節點分類任務。通過模型架構的逐步優化,包括引入批量標準化和獨立的消息傳遞層,調整Dropout和聚合函數,顯著提高了模型的分類準確率。實驗結果表明,經過優化的GNN模型在處理圖結構數據具有強大的性能和應用潛力。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續xxxx,ChatGPT 產生的程式,我們將它匯入 Colab 執行看看 ( Colab 使用教學見 使用Meta釋出的模型,實作Chat GPT - Part 0
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續xxxx,ChatGPT 產生的程式,我們將它匯入 Colab 執行看看 ( Colab 使用教學見 使用Meta釋出的模型,實作Chat GPT - Part 0
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 18中,介紹了OpenAI的GPT模型如何利用Inference的Pipeline產生Token。 完整Pipeline可能
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 18中,介紹了OpenAI的GPT模型如何利用Inference的Pipeline產生Token。 完整Pipeline可能
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧我們在AI說書 - 從0開始 - 7,已經完成Colab Python環境配置。 針對Attention Layer的程式配置為: start_time =
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧我們在AI說書 - 從0開始 - 7,已經完成Colab Python環境配置。 針對Attention Layer的程式配置為: start_time =
Thumbnail
  這回來介紹 AWS 在目前生成式 AI 各種群魔亂舞下推出的 Bedrock 服務,其官網說明可以快速且傻瓜式的部屬生成式 AI 到你的應用上,看看是不是如其所述的功能強大。
Thumbnail
  這回來介紹 AWS 在目前生成式 AI 各種群魔亂舞下推出的 Bedrock 服務,其官網說明可以快速且傻瓜式的部屬生成式 AI 到你的應用上,看看是不是如其所述的功能強大。
Thumbnail
當我們在開發一個AI應用服務時, 常常會需要載入大模型, But… 我們總不可能每一次的請求就載入一次模型吧! 這樣太沒有效率了, 也非常的浪費資源, 因此我們通常會希望應用程式啟動時就能夠載入模型, 之後每一次的請求只要讓模型進行運算即可, 那麼在FastAPI的框架中究竟要如何使用呢? 首
Thumbnail
當我們在開發一個AI應用服務時, 常常會需要載入大模型, But… 我們總不可能每一次的請求就載入一次模型吧! 這樣太沒有效率了, 也非常的浪費資源, 因此我們通常會希望應用程式啟動時就能夠載入模型, 之後每一次的請求只要讓模型進行運算即可, 那麼在FastAPI的框架中究竟要如何使用呢? 首
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News