從Docker Compose出發的超級新手村 數據分析系列

閱讀時間約 30 分鐘

raw-image

數據分析是當今數字時代的一個關鍵領域,它為企業、學術界和個人提供了深入了解數據的能力。無論數據分析新手還是一位經驗豐富的專家,本系列將深入了解如何從頭開始進行數據分析,而我們的出發點是Docker Compose。

第一部分:什麼是Docker Compose?

在我們深入探討數據分析之前,讓我們先了解一下Docker Compose是什麼以及它對數據分析的重要性。

Doker Compose的基本概念

Docker Compose是一個容器化應用程序的工具,它可以定義和運行多個相關的Docker容器。這聽起來可能有些抽象,但讓我們簡化它。

假設正在進行一個數據分析項目,並且需要使用多個不同的工具和環境,例如數據庫、網絡應用程序和分析工具。傳統上需要手動配置和管理這些環境,這可能非常複雜和耗時。

Docker Compose解決了這個問題。它允許您在一個配置文件中定義所有這些環境,然後一個命令就可以啟動它們。這樣可以輕鬆地將整個數據分析環境打包成一個容器,並在不同的環境中運行它,而不必擔心配置問題。

Docker Compose和數據分析的關聯

或許可能會問,Docker Compose和數據分析之間的聯繫是什麼?事實上,它們之間有著密切的關係。

在數據分析領域,通常需要使用多個工具和軟件包來處理和分析數據。這些工具可能具有不同的依賴性和配置要求。通過使用Docker Compose,可以輕鬆地構建一個包含所有這些工具的環境,並確保它們能夠順利運行,而不必擔心複雜的安裝和配置過程。

此外,Docker Compose還使您能夠在不同的計算機和環境中重複使用相同的數據分析環境,這對協作和部署項目非常有用。

在接下來的數據分析系列中,我們將探討如何使用Docker Compose來建立和管理數據分析環境,並展示如何使用這個強大的工具來簡化您的數據分析工作流程。

raw-image

第二部分:安裝和配置Docker Compose

在數據分析之旅的這一部分,我們將深入研究如何安裝和配置Docker Compose。這是開始使用Docker Compose進行數據分析的第一步。

步驟1:安裝Docker

在安裝Docker Compose之前,需要確保已經安裝了Docker。Docker是一個容器化平台,它允許運行應用程序和服務在獨立的容器中,這對於Docker Compose是必需的。

按照官方Docker文檔的指南來安裝Docker:Docker官方安裝指南

步驟2:安裝Docker Compose

因為是給初學者的指南,所以先選擇教學Windows 作為環境。

檢查系統要求:

  • 確保您的Windows版本支援Docker Desktop。Docker Desktop需要Windows 10 Professional 或 Enterprise版,64位元。
  • 確保虛擬化功能已啟用,並且已關閉Hyper-V(如果已啟用)。

下載Docker Desktop:

  • 前往Docker官方網站下載頁面:https://www.docker.com/products/docker-desktop
  • 點擊”Download for Windows”按鈕,然後您將被重定向到Docker Hub的登錄頁面。如果還沒有帳戶,請創建一個Docker Hub帳戶。

下載並安裝安裝程式:

  • 完成Docker Hub登錄後,將被引導到Docker Desktop for Windows下載頁面。點擊”Get Docker”按鈕,下載安裝程式。
  • 開始下載後,可以選擇安裝選項。預設情況下,選項”Use Windows containers”和”Hyper-V”將被啟用,可以保持它們的選中狀態。

安裝Docker Desktop:

  • 完成下載後,執行安裝程式。根據提示,您可能需要授予程式安裝權限。

啟動Docker Desktop:

  • 安裝完成後,Docker Desktop將被啟動。在Windows工作列中,您將看到Docker圖標。

登錄到Docker Hub帳戶(選擇性):

  • 如果您有Docker Hub帳戶,可以在Docker Desktop中登錄,這樣您可以在Docker Hub上訪問和分享容器映像。
  • 在Docker Desktop中,點擊圖標右上角的設置(齒輪圖標),然後選擇“Sign In / Create Docker ID”。

檢查Docker Desktop安裝:

  • 打開命令提示字元或PowerShell,輸入以下命令檢查Docker是否已成功安裝:
  • docker --version

完成:

  • 現在已成功在Windows上安裝了Docker Desktop,可以開始使用容器化應用程序。

步驟3:創建Docker Compose配置文件

現在,已經安裝了Docker Compose,接下來的步驟是創建一個Docker Compose配置文件。這個配置文件將定義數據分析環境中所需的容器和服務。

使用文本編輯器(例如nano或vim)來創建一個名為docker-compose.yml的文件,並在其中定義您的容器和服務。這個文件將成為您數據分析環境的藍圖。

以下是一個簡單的示例,其中定義了兩個容器:一個用於數據庫,另一個用於Web應用程序。

version: '3'
services:
database:
image: postgres:latest
environment:
POSTGRES_PASSWORD: mypassword
webapp:
image: mywebapp:latest
ports:
- "80:80"
depends_on:
- database

這只是一個簡單的示例,可以根據您的數據分析項目的需求來定義更多容器和服務。

步驟4:運行Docker Compose

一旦定義了Docker Compose配置文件,就可以使用以下命令來啟動您的數據分析環境:

docker-compose up

這將根據配置文件中的定義啟動所有容器和服務。一旦它們都運行起來,就可以開始進行數據分析了。

這就是安裝和配置Docker Compose的基本步驟。在下一節中,我們將深入探討如何使用Docker Compose來建立和管理不同的數據分析工具和環境。請繼續關注我們的數據分析系列,以了解更多信息。

第三部分:使用Docker Compose進行數據分析

在前一部分,我們已經學會了如何安裝和配置Docker Compose。現在,讓我們深入研究如何使用Docker Compose來建立和管理您的數據分析環境。

步驟1:定義數據分析工具

首先,您需要考慮您的數據分析項目需要哪些工具和軟件包。這可能包括數據庫、編程語言、分析工具等等。一旦您確定了這些工具,您可以在Docker Compose配置文件中定義它們。

以下是一個示例,其中包括一個用於Python數據分析的容器和一個用於PostgreSQL數據庫的容器:

version: '3'
services:
data_analysis:
image: python:latest
volumes:
- ./analysis_code:/code
command: python /code/analysis_script.py
database:
image: postgres:latest
environment:
POSTGRES_PASSWORD: mypassword

在這個示例中,data_analysis容器使用Python映像運行,並將數據分析代碼掛載到容器中。它還運行一個Python腳本analysis_script.py來執行數據分析任務。同時,database容器使用PostgreSQL映像運行,並設置了數據庫的密碼。

步驟2:建立環境

一旦定義了數據分析工具和環境,可以使用以下命令來建立這些容器:

docker-compose up

Docker Compose將根據配置文件中的定義,自動建立和啟動這些容器。這樣,就可以輕鬆地構建您的數據分析環境,而不必擔心依賴性和配置問題。

步驟3:開始數據分析

一旦容器建立起來,可以進入data_analysis容器並開始進行數據分析。您可以使用以下命令來進入容器的命令行界面

docker-compose exec data_analysis bash

現在,可以在容器中運行Python腳本或使用您所需的數據分析工具。

步驟4:保存結果

完成數據分析後,可能希望保存結果。可以在容器中將結果保存到指定的目錄,然後將其從容器中複製到本地端。

以下是一個示例命令,將容器中的文件複製到本地:

docker cp data_analysis:/path/to/output/file /local/path/to/save
  1. 容器內部的路徑:這是指您在容器中執行數據分析時,生成或保存結果的路徑。這個路徑位於容器內部的檔案系統中。
  2. 本地端的目的地路徑:這是指您希望將容器內的文件複製到本地端計算機上的目的地路徑。這個路徑位於您的本地計算機上的檔案系統中。

以下是一個示例命令,將容器中的文件複製到本地,並詳細說明這兩個路徑:

docker cp <容器名稱或容器ID>:/容器內部的路徑 /本地端的目的地路徑
  • <容器名稱或容器ID>:這是您要複製文件的容器的名稱或容器ID。您可以使用容器名稱或容器ID來識別容器。
  • /容器內部的路徑:這是容器內部包含要複製文件的路徑。確保您提供的路徑是正確的,並且文件位於該路徑下。
  • /本地端的目的地路徑:這是您希望將文件複製到的本地端目的地路徑。確保您提供的路徑是正確的,並且您有權限在該路徑下保存文件。

以下是一個具體示例,假設您有一個名為 data_analysis 的容器,該容器中包含一個名為 result.txt 的文件,您希望將其複製到本地端的 C:\Users\YourUsername\Documents 目錄下:

docker cp data_analysis:/path/to/result.txt C:\Users\YourUsername\Documents

請確保替換 <容器名稱或容器ID>/容器內部的路徑/本地端的目的地路徑 為您實際使用的容器名稱、容器內部路徑和本地端目的地路徑。這樣,您就可以將容器內的文件成功複製到本地端保存。

步驟5:停止容器

一旦您完成了數據分析任務,您可以使用以下命令來停止所有容器:

docker-compose down

這將停止和刪除所有已經建立的容器,並清理您的環境。

這就是使用Docker Compose進行數據分析的基本步驟。通過這種方式,您可以輕鬆地建立、管理和運行您的數據分析環境,而不必擔心環境配置的複雜性。

raw-image

第四部分:高級數據分析技巧

在前幾部分中,我們已經學會了如何安裝、配置和使用Docker Compose來建立數據分析環境。現在,讓我們深入研究一些高級的數據分析技巧,以幫助您更好地處理和分析數據。

1. 使用Jupyter Notebook

Jupyter Notebook是一個強大的工具,用於交互式數據分析和可視化。您可以在Docker容器中運行Jupyter Notebook,以便更輕鬆地編寫、執行和共享數據分析代碼。

要運行Jupyter Notebook,您可以在docker-compose.yml文件中添加一個新的服務定義,類似於以下示例:

version: '3'
services:
data_analysis:
image: python:latest
volumes:
- ./analysis_code:/code
command: jupyter notebook --ip 0.0.0.0 --no-browser --allow-root
ports:
- "8888:8888"
database:
image: postgres:latest
environment:
POSTGRES_PASSWORD: mypassword

這將在容器中啟動Jupyter Notebook服務,並將其映射到本地端口8888。然後,您可以通過瀏覽器訪問http://localhost:8888來開始使用Jupyter Notebook。

2. 數據可視化工具

數據可視化是數據分析的重要部分。您可以使用各種工具來創建漂亮的圖表和視覺化,以更好地理解數據。

一些流行的數據可視化工具包括:

  • Matplotlib: 用於Python的繪圖庫,用於創建各種類型的圖表和圖形。
  • Seaborn: 基於Matplotlib的Python數據可視化庫,提供更高級的圖形和風格選項。
  • Plotly: 互動性數據可視化工具,支持各種圖表類型。
  • Tableau: 強大的商業智能和數據可視化工具,用於探索和分享數據洞察。

您可以根據您的需求選擇適合的工具,並將其集成到您的數據分析環境中。

3. 數據清理和預處理

在進行數據分析之前,數據清理和預處理是至關重要的步驟。這包括處理缺失數據、去除重複值、進行特徵縮放等等。

您可以使用Python中的庫,如Pandas和NumPy,來執行這些數據處理任務。同時,您也可以使用Docker容器中的這些庫,以確保數據處理的一致性和可重複性。

4. 機器學習和深度學習

如果您的數據分析項目需要預測建模或模式識別,則機器學習和深度學習是不可或缺的技術。您可以使用庫,如Scikit-Learn、TensorFlow和PyTorch,來實施各種機器學習算法和深度神經網絡。

這些庫通常需要大量的計算資源,因此在Docker容器中運行它們可以提供更好的性能和可管理性。

5. 數據存儲和管理

最後,請記住有效的數據存儲和管理是成功的數據分析項目的一個關鍵部分。您可以使用各種數據庫技術,如PostgreSQL、MongoDB或Elasticsearch,來存儲和檢索數據。

同樣地,您可以在Docker容器中運行這些數據庫,以便更好地管理您的數據。

這些高級數據分析技巧和工具將幫助您更好地處理和分析數據,並獲得更有價值的洞察。請繼續關注我們的數據分析系列,以獲得更多有關數據科學和數據分析的實用信息。

(請提供您的反饋和意見,以便我們繼續完善這篇文章的其他部分。)

Docker Compose 實際操作案例

案例一:建立個人的 Web blog

1. 使用 Docker Compose 定義 WordPress 和 MariaDB

Docker Compose 允許您輕鬆定義和運行多容器的應用程序。在您的工作目錄中,創建一個名為 docker-compose.yml 的文件,並添加以下內容:

version: '3'
services:
db:
image: mariadb:10.6.4-focal
command: '--default-authentication-plugin=mysql_native_password'
volumes:
- ./db_data:/var/lib/mysql
restart: always
environment:
- MYSQL_ROOT_PASSWORD=somewordpress
- MYSQL_DATABASE=wordpress
- MYSQL_USER=wordpress
- MYSQL_PASSWORD=wordpress
ports:
- "3306:3306"
wordpress:
image: wordpress:latest
ports:
- "80:80"
restart: always
environment:
- WORDPRESS_DB_HOST=db
- WORDPRESS_DB_USER=wordpress
- WORDPRESS_DB_PASSWORD=wordpress
- WORDPRESS_DB_NAME=wordpress
volumes:
- ./wordpress_html:/var/www/html

這個 docker-compose.yml 文件定義了兩個服務:一個用於 MariaDB 數據庫,另一個用於 WordPress 應用程序。它們之間可以透過 Docker Compose 進行協調和連接。

2. 使用 Docker Compose 啟動 WordPress 應用

在命令行中,運行以下命令以啟動 WordPress 應用:

docker-compose up -d

此命令將根據 docker-compose.yml 文件中的定義,啟動 MariaDB 和 WordPress 容器。WordPress 將運行在端口 80 上。

3. 網站設定和第一篇文章

打開瀏覽器,訪問 http://localhost。按照安裝嚮導的指示完成 WordPress 的安裝和設定。接著,您可以創建和發布第一篇博客文章。

4. 數據持久化

為了確保數據不會因容器重啟而丟失,我們在 docker-compose.yml 文件中使用了卷(volumes)。MariaDB 數據庫的數據將存儲在本地目錄 ./db_data 中,而 WordPress 文件將存儲在 ./wordpress_html 中。這些卷確保數據的持久化和可恢復性。

案例二:開啟 Microsoft SQL Server 容器

1. 使用官方 Microsoft SQL Server 的 Docker 映像

2. 拉取官方映像

docker run -e "ACCEPT_EULA=Y" -e "MSSQL_SA_PASSWORD=yourStrong(!)Password" -e "MSSQL_PID=Evaluation" -p 1433:1433 --name sqlpreview --hostname sqlpreview -v D:\sqlserver:/var/opt/mssql -d mcr.microsoft.com/mssql/server:2022-preview-ubuntu-22.04

這個命令將使用官方的 Microsoft SQL Server 映像來啟動一個 SQL Server 容器。請確保將密碼 "yourStrong(!)Password" 替換為您選擇的強密碼。

容器的數據將持久化保存在本地目錄 D:\sqlserver 中,以確保數據不會在容器重新啟動時丟失。

案例三:建立 Metabase 並串接 SQL Server

1. 使用 docker pull 拉取 Metabase 映像並啟動

在命令行中,運行以下命令:

docker run -d -p 3000:3000 --name metabase metabase/metabase

此命令將使用 Metabase 映像來啟動 Metabase 容器,並將其映射到主機的端口3000上,以便訪問 Metabase 的 Web 界面。

2. 訪問 Metabase 並進行初始化設定

打開瀏覽器,訪問 http://localhost:3000。您將看到 Metabase 的設定嚮導,按照指示完成初始化設定。

3. 在 Metabase 中設置數據源,選擇 SQL Server 並填寫連接詳情

在 Metabase 的主界面:

  • 點擊 “設置” 或 “Admin”。
  • 選擇 “數據庫” 或 “Databases”。
  • 點擊 “添加數據庫” 或 “Add Database”。
  • 選擇 “SQL Server”。
  • 填寫連接詳情:
  • 主機: 容器IP
  • 端口: 1433
  • 數據庫名稱: 您的數據庫名稱
  • 用戶名: sa
  • 密碼: YourStrong!Passw0rd(或在 docker-compose.yml 中設定的密碼)

點擊 “保存” 或 “Save”。

案例四:Docker Compose 啟動 Prometheus 與 Grafana

1. 準備資料夾結構

建立一個包含以下內容的資料夾結構:

  • docker-compose.yaml:用於定義 Prometheus 和 Grafana 的服務。
  • grafana/datasource.yml:用於配置 Grafana 的數據源。
  • prometheus/prometheus.yml:用於配置 Prometheus。

2. 主要設定

使用 docker-compose.yaml 文件定義 Prometheus 和 Grafana 的服務。確保指定正確的版本和連接埠。

3. 啟動服務

在命令行中執行以下命令以啟動 Prometheus 和 Grafana:

docker-compose up -d

此命令將根據 docker-compose.yaml 文件中的定義,啟動 Prometheus 和 Grafana 容器。

4. 檢查結果

使用以下命令檢查服務是否正常運行:

docker ps

確保兩個服務都在運行並且連接埠設定正確。

5. 使用方式

打開瀏覽器:

  • 進入 http://localhost:3000 使用 Grafana(使用 docker-compose.yaml 中設定的帳戶和密碼登入)。
  • 進入 http://localhost:9090 使用 Prometheus。

6. 停止並移除服務

如果需要停止並移除服務,可以使用以下命令:

docker-compose down -v

案例五:Docker Compose 啟動 ELK 數據分析監控平台

1. 準備資料夾結構

只需要一個包含 docker-compose.yaml 文件的資料夾。

2. 主要設定

使用 docker-compose.yaml 文件定義 Elasticsearch、Logstash 和 Kibana 的服務。確保指定正確的版本。

3. 啟動服務

在命令行中執行以下命令以啟動 ELK 服務:

docker-compose up -d

此命令將根據 docker-compose.yaml 文件中的定義,啟動 Elasticsearch、Logstash 和 Kibana 容器。

4. 檢查結果

使用以下命令檢查服務是否正常運行:

docker ps

確保三個服務都在運行並且連接埠設定正確。

5. 使用方式

打開瀏覽器:

  • 進入 http://localhost:9200 查看 Elasticsearch。
  • 進入 http://localhost:9600 查看 Logstash。
  • 進入 http://localhost:5601/api/status 查看 Kibana。

6. 停止並移除服務

如果需要停止並移除服務,可以使用以下命令:

docker-compose down

案例六:Docker Compose 啟動 Apache Kafka 和 Apache ZooKeeper

1. 準備資料夾結構

建立一個包含以下內容的資料夾結構:

  • docker-compose.yaml:用於定義 Apache Kafka 和 Apache ZooKeeper 的服務。

2. 主要設定

使用 docker-compose.yaml 文件定義 Apache Kafka 和 Apache ZooKeeper 的服務。確保指定正確的版本和連接埠。

version: '3'
services:
zookeeper:
image: confluentinc/cp-zookeeper:6.2.0
container_name: zookeeper
ports:
- "2181:2181"
environment:
ZOOKEEPER_CLIENT_PORT: 2181
networks:
- kafka-net
kafka:
image: confluentinc/cp-kafka:6.2.0
container_name: kafka
ports:
- "9092:9092"
environment:
KAFKA_BROKER_ID: 1
KAFKA_ZOOKEEPER_CONNECT: "zookeeper:2181"
KAFKA_ADVERTISED_LISTENERS: "PLAINTEXT://kafka:9092"
KAFKA_LISTENERS: "PLAINTEXT://0.0.0.0:9092"
networks:
- kafka-net
networks:
kafka-net:

3. 啟動服務

在命令行中執行以下命令以啟動 Apache Kafka 和 Apache ZooKeeper:

docker-compose up -d

此命令將根據 docker-compose.yaml 文件中的定義,啟動 Apache Kafka 和 Apache ZooKeeper 容器。

4. 檢查結果

使用以下命令檢查服務是否正常運行:

docker ps

確保兩個服務都在運行並且連接埠設定正確。

5. 使用方式

您可以使用 Apache Kafka 客戶端應用程序來連接到 Kafka 代理,使用以下參數:

  • Broker 位置:localhost:9092(或 Kafka 容器的 IP 和端口)。
  • ZooKeeper 位置:localhost:2181(或 ZooKeeper 容器的 IP 和端口)。

這樣,您可以開始使用 Apache Kafka 進行消息流處理。

6. 停止並移除服務

如果需要停止並移除服務,可以使用以下命令:

docker-compose down

這樣可以確保容器和數據不會留在系統上。

這些案例提供了使用 Docker Compose 建立和管理不同類型的容器化應用程序的實際操作示例,從建立 Web 博客到數據庫,再到數據分析監控平台和消息中間件。希望這些案例能夠幫助您更好地理解 Docker 和容器化應用程序的基本概念。

結論

對於AI工程師和數據分析師來說,學習 Docker Compose 是有價值的,因為它可以幫助他們更有效地管理、部署和運行容器化應用程序,這對於開發、測試和部署AI模型和數據分析工作流程非常重要。以下是為什麼需要學習 Docker Compose 以及如何與 Kubernetes 整合的理由:

為什麼需要學習 Docker Compose?

  1. 容器化開發環境管理:AI工程師和數據分析師通常需要使用不同的工具和軟體套件來進行開發和分析工作。Docker Compose允許您將這些工具和軟體包裝成容器,並在同一環境中運行,從而簡化了開發環境的管理和配置。
  2. 應用程序隔離:Docker容器提供了應用程序隔離,確保每個容器之間不會相互干擾。這對於在同一台機器上運行多個AI模型或數據分析工作流程非常有用,可以避免衝突和資源競爭。
  3. 可重現性:Docker Compose允許您將應用程序和其相依性打包到容器中,確保在不同環境中具有相同的配置。這有助於確保模型訓練、數據分析和應用部署的一致性。
  4. 便於共享:您可以將Docker容器映像共享給團隊中的其他成員,這樣可以確保每個人都在相同的環境中工作,從而降低協作的摩擦。
  5. 快速部署:使用Docker Compose,您可以輕鬆地在不同環境中快速部署和運行應用程序,這對於AI模型的部署和數據分析工作流程的部署非常重要。

如何與Kubernetes整合?

Kubernetes是一個用於自動化容器部署、擴展和管理的容器管理平台。將Docker Compose與Kubernetes整合可以提供更高級的容器管理和調度功能,特別適用於大型和複雜的AI和數據分析應用。

以下是將Docker Compose與Kubernetes整合的步驟和優點:

  1. 將Docker Compose轉換為Kubernetes YAML配置:可以將Docker Compose文件轉換為Kubernetes YAML配置文件,以便在Kubernetes集群上運行應用程序。這通常需要一些修改,因為Kubernetes和Docker Compose之間有一些配置差異。
  2. 使用Kubernetes部署容器:將Docker Compose文件轉換為Kubernetes YAML後,可以使用Kubernetes部署容器,並使用Kubernetes的調度功能來管理容器的位置和資源。
  3. 自動擴展和負載均衡:Kubernetes提供自動擴展和負載均衡功能,這對於需要大量計算資源的AI工作負載和數據分析非常有用。Kubernetes可以根據資源使用情況自動擴展容器。
  4. 高可用性和故障恢復:Kubernetes提供高可用性配置,可以確保應用程序在單個容器或節點故障時保持可用。這對於關鍵的AI工作負載和數據分析非常重要。
  5. 集中式管理:Kubernetes提供一個集中式的控制平台,可以管理多個容器化應用程序,並提供監控、日誌記錄和安全性功能。

學習Docker Compose可以幫助AI工程師和數據分析師更好地管理容器化應用程序,並將其整合到Kubernetes中可以提供更高級的容器管理和調度功能,這在處理大型和複雜的AI和數據分析工作負載時尤其有用。這些技能有助於提高生產力、可擴展性和可靠性,並簡化開發和運營過程。

下一篇:kubernetes在機器學習平台的應用 kubeflow

    1會員
    24內容數
    留言0
    查看全部
    發表第一個留言支持創作者!
    你可能也想看
    Google News 追蹤
    Thumbnail
    這個秋,Chill 嗨嗨!穿搭美美去賞楓,裝備款款去露營⋯⋯你的秋天怎麼過?秋日 To Do List 等你分享! 秋季全站徵文,我們準備了五個創作主題,參賽還有機會獲得「火烤兩用鍋」,一起來看看如何參加吧~
    Thumbnail
    美國總統大選只剩下三天, 我們觀察一整週民調與金融市場的變化(包含賭局), 到本週五下午3:00前為止, 誰是美國總統幾乎大概可以猜到60-70%的機率, 本篇文章就是以大選結局為主軸來討論近期甚至到未來四年美股可能的改變
    Thumbnail
    Faker昨天真的太扯了,中國主播王多多點評的話更是精妙,分享給各位 王多多的點評 「Faker是我們的處境,他是LPL永遠繞不開的一個人和話題,所以我們特別渴望在決賽跟他相遇,去直面我們的處境。 我們曾經稱他為最高的山,最長的河,以為山海就是盡頭,可是Faker用他28歲的年齡...
    Thumbnail
    這篇會從註冊>介面>使用,一次性完整介紹Leonardo.Ai,會持續追蹤官方的更新進度進行修正。(最後更新時間:2023/08/30)
    Thumbnail
    這本書完美的將「故事邏輯」跟「資訊設計」結合,並清楚用圖像呈現舉例,書中的練習量輕且簡單生活化,你不用是設計科系出身,每個主題都能隨時上手,用簡單幾筆畫畫看,透過結構化的主題框架幫助你整理一次自己的人生,從過去經驗、目標夢想到未來行動計畫梳理...
    Thumbnail
    在這個凡事講求速成的年代,我理解大家都很重視投注在閱讀上頭的時間和性價比。但我想說的是與其在乎作者名氣、書籍價格和實用性,更重要的也許是你在閱讀的過程中,是否曾經被書中的某一兩句話所打中?又或者你是否曾反對作者提到的某些觀點?
    Thumbnail
    聊聊新遊戲《超級機器人大戰DD》設計上的優缺,並從遊戲製作者的角度,去看《機戰DD》可行的改良方向。喜歡機戰,想看專業分析的朋友,歡迎來看看唷。
      「我只在必要的時候勇敢,但勇敢不代表你要到處闖禍。」勇敢與闖禍是一提兩面的,闖禍不能算是勇敢,真正的勇敢是比較類似有勇氣。勇敢是在當你遇到逆境時,升起的一股想抵抗或對付而突破困難的勇氣。有些人會有此正向力量或正面思考,而有些人就只會負面思考。而勇敢也只能出現在必要時刻。比如說:一個小孩走路跌倒,
    Thumbnail
    林建鴻,在臺北擔任工程師多年,幾年前決定辭職,返回臺南與姐姐林佩郡共同經營「富穀樂糧行」,在傳統五榖雜糧買賣中走一條與時俱進的路。
    Thumbnail
    <p>整個國家窮人消不了費,富人又裝的不愛消費,但是又愛囤房,經濟體就擺在那邊不動。這樣對嗎?</p>
    Thumbnail
    這個秋,Chill 嗨嗨!穿搭美美去賞楓,裝備款款去露營⋯⋯你的秋天怎麼過?秋日 To Do List 等你分享! 秋季全站徵文,我們準備了五個創作主題,參賽還有機會獲得「火烤兩用鍋」,一起來看看如何參加吧~
    Thumbnail
    美國總統大選只剩下三天, 我們觀察一整週民調與金融市場的變化(包含賭局), 到本週五下午3:00前為止, 誰是美國總統幾乎大概可以猜到60-70%的機率, 本篇文章就是以大選結局為主軸來討論近期甚至到未來四年美股可能的改變
    Thumbnail
    Faker昨天真的太扯了,中國主播王多多點評的話更是精妙,分享給各位 王多多的點評 「Faker是我們的處境,他是LPL永遠繞不開的一個人和話題,所以我們特別渴望在決賽跟他相遇,去直面我們的處境。 我們曾經稱他為最高的山,最長的河,以為山海就是盡頭,可是Faker用他28歲的年齡...
    Thumbnail
    這篇會從註冊>介面>使用,一次性完整介紹Leonardo.Ai,會持續追蹤官方的更新進度進行修正。(最後更新時間:2023/08/30)
    Thumbnail
    這本書完美的將「故事邏輯」跟「資訊設計」結合,並清楚用圖像呈現舉例,書中的練習量輕且簡單生活化,你不用是設計科系出身,每個主題都能隨時上手,用簡單幾筆畫畫看,透過結構化的主題框架幫助你整理一次自己的人生,從過去經驗、目標夢想到未來行動計畫梳理...
    Thumbnail
    在這個凡事講求速成的年代,我理解大家都很重視投注在閱讀上頭的時間和性價比。但我想說的是與其在乎作者名氣、書籍價格和實用性,更重要的也許是你在閱讀的過程中,是否曾經被書中的某一兩句話所打中?又或者你是否曾反對作者提到的某些觀點?
    Thumbnail
    聊聊新遊戲《超級機器人大戰DD》設計上的優缺,並從遊戲製作者的角度,去看《機戰DD》可行的改良方向。喜歡機戰,想看專業分析的朋友,歡迎來看看唷。
      「我只在必要的時候勇敢,但勇敢不代表你要到處闖禍。」勇敢與闖禍是一提兩面的,闖禍不能算是勇敢,真正的勇敢是比較類似有勇氣。勇敢是在當你遇到逆境時,升起的一股想抵抗或對付而突破困難的勇氣。有些人會有此正向力量或正面思考,而有些人就只會負面思考。而勇敢也只能出現在必要時刻。比如說:一個小孩走路跌倒,
    Thumbnail
    林建鴻,在臺北擔任工程師多年,幾年前決定辭職,返回臺南與姐姐林佩郡共同經營「富穀樂糧行」,在傳統五榖雜糧買賣中走一條與時俱進的路。
    Thumbnail
    <p>整個國家窮人消不了費,富人又裝的不愛消費,但是又愛囤房,經濟體就擺在那邊不動。這樣對嗎?</p>