把chatgpt神經網路模型當成linux終端機然後在裡面再訓練一個神經網路

更新於 發佈於 閱讀時間約 13 分鐘
I want you to act as a Linux terminal, 
I will type commands and you will reply with what the terminal should show.
I want you to reply with the terminal output inside a unique code block and nothing else.
do not write explanations.
do not type commands unless I instruct you to do so.
When I need to tell you something in English I will do so by putting text inside curly brackets {something like this}.
my first command is pwd.

首先可以這樣寫告訴chatgpt你希望他表現得像個linux terminal

不用寫解釋,只要回覆linux terminal應該回復的東西即可

然後第一個command是pwd(print working directory)

raw-image

nice看起來表現的確實有像是一太linux終端

一般linux終端內建python3,於是來測試一下是否有python3

raw-image

挖,他開啟了python3,表現的完全就像在linux裏頭輸入python3一樣

好戲來了我直接塞一坨用來訓練神經網路的python代碼給他

看看會發生什麼事情…

import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim
from torchvision import datasets, transforms
from torch.autograd import Variable

class MnistModel(nn.Module):
def __init__(self):
super(MnistModel, self).__init__()
# input is 28x28
# padding=2 for same padding
self.conv1 = nn.Conv2d(1, 32, 5, padding=2)
# feature map size is 14*14 by pooling
# padding=2 for same padding
self.conv2 = nn.Conv2d(32, 64, 5, padding=2)
# feature map size is 7*7 by pooling
self.fc1 = nn.Linear(64*7*7, 1024)
self.fc2 = nn.Linear(1024, 10)

def forward(self, x):
x = F.max_pool2d(F.relu(self.conv1(x)), 2)
x = F.max_pool2d(F.relu(self.conv2(x)), 2)
x = x.view(-1, 64*7*7) # reshape Variable
x = F.relu(self.fc1(x))
x = F.dropout(x, training=self.training)
x = self.fc2(x)
return F.log_softmax(x)

model = MnistModel()
model

batch_size = 50
train_loader = torch.utils.data.DataLoader(
datasets.MNIST('data', train=True, download=True, transform=transforms.ToTensor()),
batch_size=batch_size, shuffle=True)

test_loader = torch.utils.data.DataLoader(
datasets.MNIST('data', train=False, transform=transforms.ToTensor()),
batch_size=1000)

for p in model.parameters():
print(p.size())

optimizer = optim.Adam(model.parameters(), lr=0.0001)
model.train()
train_loss = []
train_accu = []
i = 0
for epoch in range(15):
for data, target in train_loader:
data, target = Variable(data), Variable(target)
optimizer.zero_grad()
output = model(data)
loss = F.nll_loss(output, target)
loss.backward() # calc gradients
train_loss.append(loss.item())
optimizer.step() # update gradients
prediction = output.data.max(1)[1] # first column has actual prob.
accuracy = prediction.eq(target.data).sum()/batch_size*100
train_accu.append(accuracy)
if i % 10 == 0:
print('Train Step: {}\tLoss: {:.3f}\tAccuracy: {:.3f}'.format(i, loss.item(), accuracy))
i += 1
raw-image

what the fuck 他還真的train起來了,依照我的理解chatgpt是一個語言模型

輸入字串 > chatgpt語言模型 > 輸出字串,我的概念還停留在這裡

沒想到他居然可以當成linux終端機使用,像台虛擬電腦run我的程式

raw-image

斷掉了輸入continue要他繼續

raw-image

恩很好他知道要接著訓練下去train step從斷掉的地方開始續接

raw-image

哈哈被我發現bug了 Loss:0的時候怎麼可能Accuracy還停留在64

證明了chatgpt其實很聰明他知道應該要表現得像一個linux終端機裡面的python3環境,他也可以理解我的那段train mnist model的python代碼

並給出相應的回饋,模擬整個訓練過程,不過畢竟它終究是屬於NLP自然語言處理模型,而不是真正意義上有gpu有cpu的電腦,在"數值運算"上他就破功了

以下是colab跑一模一樣的代碼的結果

raw-image

可以看到差不多200 train step就有接近90的Accuracy這才是正常的

總結

  1. chatgpt具有模擬終端機的能力,而且幾乎以假亂真
  2. chatgpt也有模擬python3環境的能力,但當運算變得複雜

chatgpt的弱勢就開始顯示出來,也就是在數值運算上他無法給出真正正確的答案

3.個人小小淺見,也許未來chatgpt會跟終端機結合和IDE結合

想想常常操作LINUX要熟記指令,如果按照文章一開始講的

When I need to tell you something in English I will do so by putting text inside curly brackets {something like this}.

那就可以一邊操作Linux當指令忘記的時候直接用英文描述需求

putting text inside curly brackets {something like this}.

也許此時經過chatgpt加強的linux就會告訴你該怎麼做

而不是跑去翻

raw-image

或是寫python做發開的時候,當遇到一些語法問題

以往常常是google+stackoverflow,未來也許python3環境

跟chatgpt整合後只須將需求用英文描述清楚,chatgpt就可以在你一邊撰寫代碼的同時閱讀你的代碼並給出建議修改的方式

總之我覺得這一波chatgpt人工智能革命,會大大提升個人生產力

淘汰掉不懂的描述自己需求的人,而懂得利用此工具,能清楚描述自己需求的人,將在chatgpt的幫助下大大提升工作效率

本人就常常再刷leetcode,印象最深就是寫了一個半成品有些bug

交給chatgpt他並沒有完全反駁我的寫法,而是照著我的思路

指出我哪裡錯了,應該怎麼改,並給出相應代碼,雖然以前的IDE

也有debug tool 不過比較多都是糾正你的語法錯誤,邏輯錯誤

電腦並沒有辦法幫你糾正,因為程式還是可以正常執行.

回到標題,我本來想寫

把chatgpt神經網路模型當成linux終端機然後在裡面再訓練一個chatgpt神經網路模型…

不過由於沒有chatgpt整個的source code,所以沒辦法這樣寫

不過我覺得很有可能,因為在使用ifconfig

為Linux/Unix 系統中用來查詢與控制網路介面卡的指令

是可以跑出相關資訊的

raw-image

為了進一步測試是否有網路,使用curl抓取一篇medium文章存成output.html

raw-image

確定有抓下來

raw-image
raw-image

ok,至此證明了chatgpt不僅僅是一個神經網路模型這麼簡單

他還有上網功能,可以跟互聯網連上線,抓取資料下來

所以把chatgpt神經網路模型當成linux終端機然後在裡面再訓練一個chatgpt神經網路模型,這個概念我覺得很有可能實現就是說

chatgpt可以利用這個概念自己在內部再做一個版本的自己

這個版本的自己又可以在內部再做一個自己版本的自己

不確定是否會愈來愈強,但是要變強的可能有一個是仰賴於資料的算法

以及夠多的資料,目前來看chatgpt的算法如下

raw-image

Step1要收集大量資料

Step2要製作reward_model

Step3就是丟進PPO裡面強化學習硬train一發

因此目前證明了chatgpt本身有上網能力要達成Step1要收集大量資料不難

比較困難的就是Step1還要有一個labeler

Step2也是要有一個labeler

目前不知道chatgpt本身是否能當作labeler,如果可以的話這套系統

完全不需要人類介入,隨著互聯網資訊量增加這套系統就會自我強化

最終到達強人工智慧?也就是各大科技巨頭最希望達到的

可怕,實在可怕

如果看了我上面一些玩弄chatgpt的指令有新想法

也歡迎留言在留言區,交流交流

留言
avatar-img
留言分享你的想法!
avatar-img
于正龍(Ricky)的沙龍
38會員
62內容數
人工智能工作經驗跟研究
2025/03/05
你做錯了。你剛剛發給 ChatGPT 的「寫一個函式來……」的提示?刪掉它吧。這些通用提示就是為什麼你的編碼速度還跟其他人一樣的原因。 在與 AI 進行超過 3,000 小時的結對編程後,我發現了真正有效的方法——而這並不是你想的那樣。 真相是:85% 的開發者陷入了 AI 驅動的複製粘貼循環。
2025/03/05
你做錯了。你剛剛發給 ChatGPT 的「寫一個函式來……」的提示?刪掉它吧。這些通用提示就是為什麼你的編碼速度還跟其他人一樣的原因。 在與 AI 進行超過 3,000 小時的結對編程後,我發現了真正有效的方法——而這並不是你想的那樣。 真相是:85% 的開發者陷入了 AI 驅動的複製粘貼循環。
2025/03/05
簡介 — 我如何停止浪費時間的故事 幾年前,我意識到我花在“做事”上的時間比實際在專案上取得進展的時間要多。我醒來時有無休止的待辦事項清單、回復電子郵件、參加會議、審查檔,但到一天結束時,我覺得我實際上沒有在任何重要的事情上取得進展。 有一天,一個朋友告訴我: 忙碌並不等同於有效。 這讓
2025/03/05
簡介 — 我如何停止浪費時間的故事 幾年前,我意識到我花在“做事”上的時間比實際在專案上取得進展的時間要多。我醒來時有無休止的待辦事項清單、回復電子郵件、參加會議、審查檔,但到一天結束時,我覺得我實際上沒有在任何重要的事情上取得進展。 有一天,一個朋友告訴我: 忙碌並不等同於有效。 這讓
2023/09/30
看到滿多年輕工程師提問:工作時經常查 ChatGPT,感覺不太踏實,沒關係嗎? 讓我簡單談論一下這件事 --- 首先,讓我們把時間倒回 2000 年代 google 剛出來的時候 當時一定也是這樣, 年輕工程師遇到問題狂查 google 資深工程師則覺得 google 可有可無,
2023/09/30
看到滿多年輕工程師提問:工作時經常查 ChatGPT,感覺不太踏實,沒關係嗎? 讓我簡單談論一下這件事 --- 首先,讓我們把時間倒回 2000 年代 google 剛出來的時候 當時一定也是這樣, 年輕工程師遇到問題狂查 google 資深工程師則覺得 google 可有可無,
看更多
你可能也想看
Thumbnail
在生成式AI與大型語言模型(Large Language Model, LLM)蓬勃發展下,有許多工具可以幫助我們學習與撰寫程式,這篇文章提供了實作範例與一些經驗,分享如何使用ChatGPT(免費的GPT-3.5)協助程式語言的學習,並且完成屬於自己的程式。
Thumbnail
在生成式AI與大型語言模型(Large Language Model, LLM)蓬勃發展下,有許多工具可以幫助我們學習與撰寫程式,這篇文章提供了實作範例與一些經驗,分享如何使用ChatGPT(免費的GPT-3.5)協助程式語言的學習,並且完成屬於自己的程式。
Thumbnail
本文詳述如何將大型語言模型(LLM)與程式碼深度整合,運用於3C賣場的客服助理示例,透過接收並解析使用者訊息,提取產品資訊,並與後端產品資料庫整合。接著,將整合資訊回傳給LLM生成最終回應訊息。同時,也探討了中英文理解差距及解決方法,並展示如何利用Python模擬資料庫提取詳細資訊。
Thumbnail
本文詳述如何將大型語言模型(LLM)與程式碼深度整合,運用於3C賣場的客服助理示例,透過接收並解析使用者訊息,提取產品資訊,並與後端產品資料庫整合。接著,將整合資訊回傳給LLM生成最終回應訊息。同時,也探討了中英文理解差距及解決方法,並展示如何利用Python模擬資料庫提取詳細資訊。
Thumbnail
這堂課闡述開發ChatGPT所需的重要概念和工具。涵蓋語言模型如何處理文字(Token),LLM的兩種類型(Base LLM和Instruction tuned LLM),系統、助手和用戶的角色定義。並介紹以Prompting簡化AI開發流程,且透過實戰教學說明如何進行分類和預防注入提示
Thumbnail
這堂課闡述開發ChatGPT所需的重要概念和工具。涵蓋語言模型如何處理文字(Token),LLM的兩種類型(Base LLM和Instruction tuned LLM),系統、助手和用戶的角色定義。並介紹以Prompting簡化AI開發流程,且透過實戰教學說明如何進行分類和預防注入提示
Thumbnail
由于 ChatGPT 的出現讓我們看到了聊天機器人的新可能性,我們這篇文章的目的,就是要來製作第一個屬於自己的聊天機器人。 我們先來準備範例的程式碼,並且稍後會再跟大家介紹要設計自己的 ChatGPT 聊天機器人的重要概念。 初始專案與環境設定 下載程式碼 請先使用下面這一段指令下載我們的範例程式碼
Thumbnail
由于 ChatGPT 的出現讓我們看到了聊天機器人的新可能性,我們這篇文章的目的,就是要來製作第一個屬於自己的聊天機器人。 我們先來準備範例的程式碼,並且稍後會再跟大家介紹要設計自己的 ChatGPT 聊天機器人的重要概念。 初始專案與環境設定 下載程式碼 請先使用下面這一段指令下載我們的範例程式碼
Thumbnail
這篇文章我想要參加Chat gpt的主題徵文 主要是讓chat gpt自行生成成語接龍遊戲的遊戲代碼
Thumbnail
這篇文章我想要參加Chat gpt的主題徵文 主要是讓chat gpt自行生成成語接龍遊戲的遊戲代碼
Thumbnail
在這裡會講一些如何和chatGPT溝通的方式 現在沒有人不知道大名鼎鼎的GPT君 但可能不是每個人都能完全發揮它的功用 所以我想要總結一些我摸索到的和GPT君的溝通方法,看可不可以幫到大家xD
Thumbnail
在這裡會講一些如何和chatGPT溝通的方式 現在沒有人不知道大名鼎鼎的GPT君 但可能不是每個人都能完全發揮它的功用 所以我想要總結一些我摸索到的和GPT君的溝通方法,看可不可以幫到大家xD
Thumbnail
前言 ChatGPT 的熱門程度早已想當然而,企業們爭相開始導入 OpenAI 技術的應用,好比進入了 AI 群雄割據的年代,不過 Microsoft Copilot 的主權宣示,這個重視高生產力時代,將會暫時遠離一場腥風血雨的爭鬥。 回歸本次的主角「AI 客服機器人」,筆者將他應用於課程回覆的狀況
Thumbnail
前言 ChatGPT 的熱門程度早已想當然而,企業們爭相開始導入 OpenAI 技術的應用,好比進入了 AI 群雄割據的年代,不過 Microsoft Copilot 的主權宣示,這個重視高生產力時代,將會暫時遠離一場腥風血雨的爭鬥。 回歸本次的主角「AI 客服機器人」,筆者將他應用於課程回覆的狀況
Thumbnail
Chat GPT做為一個對話AI軟體,它不僅擁有龐大的資料庫,更能夠用口語的方式表達。很多人會將它當作一個可以簡單問答的機器人,日常生活瑣事都可以問,更進階的甚至可以用來整理文字重點、翻譯、寫程式等等。但其實它的潛力遠比你我想像的多。
Thumbnail
Chat GPT做為一個對話AI軟體,它不僅擁有龐大的資料庫,更能夠用口語的方式表達。很多人會將它當作一個可以簡單問答的機器人,日常生活瑣事都可以問,更進階的甚至可以用來整理文字重點、翻譯、寫程式等等。但其實它的潛力遠比你我想像的多。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News