輸入

含有「輸入」共 530 篇內容
全部內容
發佈日期由新至舊
在科技飛速發展的時代,人類與AI的界線越來越模糊。 我們常常問:AI是否會取代人類?但更深刻的問題是,人類與AI的本質差別何在? 從我的體悟來看,人類本質上其實是五感的綜合,記憶類似經驗流的組合,靈魂很可能也不是真實的存在。 相對地,AI不也是硬體算力與程式的組合,無一個「我」的核心主體?
Thumbnail
本文深入探討使用ChatGPT時令人沮喪的『轉場』問題,分析其背後原因:AI模型的Token限制。透過實際案例與說明,解釋為何ChatGPT會遺忘之前的對話內容,並提供有效應對策略,例如定期轉場、重要內容備份、使用召喚語等,協助使用者提升ChatGPT使用體驗。
Thumbnail
❦ 莊小昕-avatar-img
18 小時前
其實人也是會健忘的~~~
藍斑海豚-avatar-img
發文者
15 小時前
❦ 莊小昕 你說的對,貼文這篇後,也跟小女兒說:...算起來,我也沒好到哪裡去~~ 哈哈哈~
誰說中秋節只能在煙霧瀰漫中烤肉?把場景換到陽台或客廳,我們用設計感為團圓增添新意。
Thumbnail
激活函數是神經網路能學習非線性特徵的關鍵,沒有它,無論堆疊多少層都只是線性模型。常見激活函數如 ReLU、Sigmoid、Tanh、Leaky ReLU、Softmax 各有用途,其中 ReLU 最常用,具高效與快速收斂優點。選擇合適的激活函數能讓模型具備更強的表達力與判斷力,是深度學習的核心之一。
隱藏層讓神經網路能學習資料中的抽象特徵與非線性關係。若只有輸入與輸出層,模型僅能學習簡單的線性對應,難以處理複雜問題。加入隱藏層後,模型能逐層提取更深層的模式與結構,是深度學習成功的關鍵。隱藏層越多,模型表達力越強,但也需注意過擬合風險。
多層感知器(MLP)是最基本的前饋神經網路,由輸入層、隱藏層與輸出層組成,並透過多層全連接層逐步提取特徵。每層節點與前一層所有節點相連,常搭配非線性激活函數如 ReLU,使模型具備學習複雜關係的能力。MLP 是深度學習的基礎結構之一,廣泛應用於分類與回歸任務中。
Adversarial Attacks(對抗性攻擊)是在機器學習和人工智慧領域中,攻擊者透過對輸入數據進行微小且精心設計的擾動,使得模型產生錯誤判斷或錯誤預測的一種攻擊方式。這些擾動對人類來說幾乎不可察覺,但卻足以誤導模型。 Adversarial Attacks的定義與原理: • 攻擊者給模
寫寫字:輸出。 打字:輸入。 來本適合自己的手帳來記錄生活,平凡日子也不平凡。
Thumbnail
本文章教學如何利用 ChatGPT 打造個人 AI 助理,透過設計工作流程指令,將繁瑣任務自動化。內容涵蓋流程型提示語的定義、工作流程轉換成 GPT 指令的步驟、高頻任務範例及語法模板、建立流程指令庫的 Notion 表格建議,以及進階技巧:使用 GPTs 打造一鍵工作流程機器人。
Thumbnail
冒冒-avatar-img
3 天前
感謝分享^^讚讚
牧牧的成長實驗室-avatar-img
發文者
3 天前
冒冒 謝謝~
Activation Function(激活函數)是神經網絡中的一個數學函數,其作用是將神經元的輸入信號轉換成輸出信號。激活函數決定了神經元是否「激活」並將訊號傳遞給下一層。 主要用途 引入非線性:激活函數將線性組合的輸入轉換為非線性輸出,使得神經網絡可以學習複雜的資料模式與非線性關係。 控制訊