Thumbnail
2025/08/19 是圓圓過世後的第七十二天,今天早上請假,要去醫院回診看切片報告,簡單吃完早餐後,就出發去卡位,結果整個醫院繞一圈都沒位置,只好走遠一點,停在一個公車亭旁邊,然後一邊流汗,一邊走去醫院報到,到了插卡機前面,咦,剛好是我的號碼噎,我趕緊插卡,結果跳下一號,我只好繼續等待,這一等不得
Thumbnail
2025/08/18 是圓圓過世後的第七十一天,今天去桃園上班,而且比平常還要早些出門,就為了要去搞高雄出差的請款事宜,已經一個多月了,還是搞不定,一路上天氣很好,就想著圓圓山上陽光明媚的樣子,圓圓是怕冷不怕熱的貓貓,到公司後就開始研究到底要問哪個窗口,原本不讀不回的那個業務承辦人到現在還是不見蹤影
Thumbnail
2025/08/17 是圓圓過世後的第七十天,今天一如往常睡到十點多,然後就有一搭沒一搭邊看電視邊吃早午餐,到了午餐時間,其實也吃不太下,簡單吃幾口之後,哥哥的小孩就抱著 iPad 來說要玩象棋,還真是挺有趣的,跟小孩玩遊戲就是不要有勝負慾,傻傻玩傻傻輸就好,這樣大家都開心。 一直玩到 iPa
Thumbnail
2025/08/16 是圓圓過世後的第六十九天,今天八點就起床了,因為圓圓的事情,加上最近爸爸去開刀,然後我這禮拜又去切片化驗,好像很多事情都不順,所以就一家去祭改,吃完早餐之後就去桃園蘆竹拜拜,順便祭改,拿香拜拜的時候,除了祈求家人健康、事業順利之外,我還說希望幫我傳達我的心聲:圓圓,對不起,是我
Thumbnail
2025/08/15 是圓圓過世後的第六十八天,今天來台北上班,早上到公司後就研究一下怎麼請款,往年的做法已經被修正了,但是修正成怎麼樣也沒人知道,只能在黑暗中摸索,然後對應窗口那個人,也已經不讀不回一週了,公司充滿這種怪物,不動的 NPC,等下週一直接去位置找人吧。 弄這些事情之外,我還在找
Thumbnail
2025/08/14 是圓圓過世後的第六十七天,今天在台北上班,早上的時候和同事聊天,有桃園在辦公室的同事、桃園在醫院健檢的同事、高雄在辦公室的同事,最近因為要等廠商下週一遠端處理設備介接的事情,所以我什麼事都做不了,上班只能聊天、找其他 AI 職缺,等介接完成之後,就又要改程式了,其實都是同樣的功
Thumbnail
2025/08/13 是圓圓過世後的第六十六天,早上進公司前,買咖啡的時候跟高雄同事聊天,他說要去運動,然後我則是要去上班,真是有點難過,北部都沒放到假,剛好今天也有點累累的,就安排比較簡單的工作好了。 到辦公室後,就追蹤一下我去高雄出差的差旅費,這公司真的頗呵,都快一個月了,流程到現在還是卡
Thumbnail
2025/08/12 是圓圓過世後的第六十五天,今天請假沒上班,早上要去看牙醫,時間有點匆忙,所以刷牙的時候比較倉促隨便,結果就是被牙醫問說有沒有用牙線,後來醫生突然很驚訝,說嘴內腔壁處怎麼有白色的斑點,叫我開闔牙齒,看是不是有磨到之類的,我說都沒有勒,當下我沒意識到問題嚴重性,後來看完之後,醫生臉
Thumbnail
2025/08/11 是圓圓過世後的第六十四天,今天早上六點半左右,我就先爬起來要幫我姊掛號,一個多月前就已經要掛號了,但是因為不是初診,所以一直搶不到名額,今天看診日早上六點半還有一波網路名額,所以我就趕緊起來搶,按照之前經驗到七點多都還能搶到,沒想到這次六點半準時搶,竟然搶不到,整個傻眼,我還是
Thumbnail
2025/08/10 是圓圓過世後的第六十三天,今天一如往常睡到十點多,然後就吃早午餐,接著就看電視,剛好看到玩命關頭 6 再重播,就有一搭沒一搭看著,我記得這齣當初還是去電影院看的,現在年紀比較大了,就對去電影院沒什麼興趣了。 接著就是吃午餐,因為早餐很晚才吃,所以午餐也基本上沒什麼吃,
Thumbnail
2025/08/19 是圓圓過世後的第七十二天,今天早上請假,要去醫院回診看切片報告,簡單吃完早餐後,就出發去卡位,結果整個醫院繞一圈都沒位置,只好走遠一點,停在一個公車亭旁邊,然後一邊流汗,一邊走去醫院報到,到了插卡機前面,咦,剛好是我的號碼噎,我趕緊插卡,結果跳下一號,我只好繼續等待,這一等不得
Thumbnail
2025/08/18 是圓圓過世後的第七十一天,今天去桃園上班,而且比平常還要早些出門,就為了要去搞高雄出差的請款事宜,已經一個多月了,還是搞不定,一路上天氣很好,就想著圓圓山上陽光明媚的樣子,圓圓是怕冷不怕熱的貓貓,到公司後就開始研究到底要問哪個窗口,原本不讀不回的那個業務承辦人到現在還是不見蹤影
Thumbnail
2025/08/17 是圓圓過世後的第七十天,今天一如往常睡到十點多,然後就有一搭沒一搭邊看電視邊吃早午餐,到了午餐時間,其實也吃不太下,簡單吃幾口之後,哥哥的小孩就抱著 iPad 來說要玩象棋,還真是挺有趣的,跟小孩玩遊戲就是不要有勝負慾,傻傻玩傻傻輸就好,這樣大家都開心。 一直玩到 iPa
Thumbnail
2025/08/16 是圓圓過世後的第六十九天,今天八點就起床了,因為圓圓的事情,加上最近爸爸去開刀,然後我這禮拜又去切片化驗,好像很多事情都不順,所以就一家去祭改,吃完早餐之後就去桃園蘆竹拜拜,順便祭改,拿香拜拜的時候,除了祈求家人健康、事業順利之外,我還說希望幫我傳達我的心聲:圓圓,對不起,是我
Thumbnail
2025/08/15 是圓圓過世後的第六十八天,今天來台北上班,早上到公司後就研究一下怎麼請款,往年的做法已經被修正了,但是修正成怎麼樣也沒人知道,只能在黑暗中摸索,然後對應窗口那個人,也已經不讀不回一週了,公司充滿這種怪物,不動的 NPC,等下週一直接去位置找人吧。 弄這些事情之外,我還在找
Thumbnail
2025/08/14 是圓圓過世後的第六十七天,今天在台北上班,早上的時候和同事聊天,有桃園在辦公室的同事、桃園在醫院健檢的同事、高雄在辦公室的同事,最近因為要等廠商下週一遠端處理設備介接的事情,所以我什麼事都做不了,上班只能聊天、找其他 AI 職缺,等介接完成之後,就又要改程式了,其實都是同樣的功
Thumbnail
2025/08/13 是圓圓過世後的第六十六天,早上進公司前,買咖啡的時候跟高雄同事聊天,他說要去運動,然後我則是要去上班,真是有點難過,北部都沒放到假,剛好今天也有點累累的,就安排比較簡單的工作好了。 到辦公室後,就追蹤一下我去高雄出差的差旅費,這公司真的頗呵,都快一個月了,流程到現在還是卡
Thumbnail
2025/08/12 是圓圓過世後的第六十五天,今天請假沒上班,早上要去看牙醫,時間有點匆忙,所以刷牙的時候比較倉促隨便,結果就是被牙醫問說有沒有用牙線,後來醫生突然很驚訝,說嘴內腔壁處怎麼有白色的斑點,叫我開闔牙齒,看是不是有磨到之類的,我說都沒有勒,當下我沒意識到問題嚴重性,後來看完之後,醫生臉
Thumbnail
2025/08/11 是圓圓過世後的第六十四天,今天早上六點半左右,我就先爬起來要幫我姊掛號,一個多月前就已經要掛號了,但是因為不是初診,所以一直搶不到名額,今天看診日早上六點半還有一波網路名額,所以我就趕緊起來搶,按照之前經驗到七點多都還能搶到,沒想到這次六點半準時搶,竟然搶不到,整個傻眼,我還是
Thumbnail
2025/08/10 是圓圓過世後的第六十三天,今天一如往常睡到十點多,然後就吃早午餐,接著就看電視,剛好看到玩命關頭 6 再重播,就有一搭沒一搭看著,我記得這齣當初還是去電影院看的,現在年紀比較大了,就對去電影院沒什麼興趣了。 接著就是吃午餐,因為早餐很晚才吃,所以午餐也基本上沒什麼吃,
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 193 | 第七章引言 到 AI說書 - 從0開始 - 222 | GPT 4 & RAG 測試,我們完成書籍:Transformers
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧目前手上有的素材: 依賴的安裝:AI說書 - 從0開始 - 218 | OpenAI GPT 4 & RAG 關鍵字偵測:AI說書 - 從0開始 - 219 |
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧目前手上有的素材: 依賴的安裝:AI說書 - 從0開始 - 218 | OpenAI GPT 4 & RAG 關鍵字偵測:AI說書 - 從0開始 - 219 |
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 218 | OpenAI GPT 4 & RAG 安裝完相關依賴,今天來撰寫一個函數,此函數能執行文章內容檢索: def fetch
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 218 | OpenAI GPT 4 & RAG 安裝完相關依賴,今天來撰寫一個函數,此函數透過使用使用者請求中的關鍵字來選擇 URL
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將建立一個實作 Retrieval Augmented Generation (RAG) 的入門程式,文檔檢索並不是什麼新鮮事,自從幾十年前資料庫查詢出現以來,知識
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 注意 AI說書 - 從0開始 - 215 | OpenAI GPT 4 API 的格式,當中有兩種角色,分別為: System Role User Role 而各
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧我們在 AI說書 - 從0開始 - 215 | OpenAI GPT 4 API 中給出了一段程式做推論,當中不乏很多超參數,我們可以試著調配看看: model
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將開始使用 ChatGPT Plus 和 GPT-4 作為助手,您將看到尖端開發人員如何利用 GPT-4 作為助手來縮短上市時間。 這次我想請 GPT 4 幫
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將開始使用 ChatGPT Plus 和 GPT-4 作為助手,您將看到尖端開發人員如何利用 GPT-4 作為助手來縮短上市時間。 比方說問 ChatGPT
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 193 | 第七章引言 到 AI說書 - 從0開始 - 222 | GPT 4 & RAG 測試,我們完成書籍:Transformers
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧目前手上有的素材: 依賴的安裝:AI說書 - 從0開始 - 218 | OpenAI GPT 4 & RAG 關鍵字偵測:AI說書 - 從0開始 - 219 |
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧目前手上有的素材: 依賴的安裝:AI說書 - 從0開始 - 218 | OpenAI GPT 4 & RAG 關鍵字偵測:AI說書 - 從0開始 - 219 |
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 218 | OpenAI GPT 4 & RAG 安裝完相關依賴,今天來撰寫一個函數,此函數能執行文章內容檢索: def fetch
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 218 | OpenAI GPT 4 & RAG 安裝完相關依賴,今天來撰寫一個函數,此函數透過使用使用者請求中的關鍵字來選擇 URL
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將建立一個實作 Retrieval Augmented Generation (RAG) 的入門程式,文檔檢索並不是什麼新鮮事,自從幾十年前資料庫查詢出現以來,知識
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 注意 AI說書 - 從0開始 - 215 | OpenAI GPT 4 API 的格式,當中有兩種角色,分別為: System Role User Role 而各
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧我們在 AI說書 - 從0開始 - 215 | OpenAI GPT 4 API 中給出了一段程式做推論,當中不乏很多超參數,我們可以試著調配看看: model
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將開始使用 ChatGPT Plus 和 GPT-4 作為助手,您將看到尖端開發人員如何利用 GPT-4 作為助手來縮短上市時間。 這次我想請 GPT 4 幫
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將開始使用 ChatGPT Plus 和 GPT-4 作為助手,您將看到尖端開發人員如何利用 GPT-4 作為助手來縮短上市時間。 比方說問 ChatGPT
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在本章中,我們看到 T5 Transformer 模型如何將原始 Transformer 的編碼器和解碼器堆疊的輸入進行了標準化,原始 Transformer 架構中,
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 395 | 使用 ChatGPT 進行文章總結 中撰寫的 ChatGPT 彙整函數,搭配 AI說書 - 從0開始 - 396 | 使用
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 395 | 使用 ChatGPT 進行文章總結 中撰寫的 ChatGPT 彙整函數,搭配 AI說書 - 從0開始 - 396 | 使用
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 想利用 AI說書 - 從0開始 - 395 | 使用 ChatGPT 進行文章總結 中撰寫的 ChatGPT 彙整函數對文章進行總結功能,以下先載入文章: Text:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 為了後續方面,我們建立一個對話函數,這樣每次只要呼叫該函數即能完成對話: def dialog(uinput): role = "user" line = {"r
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 想要使用 ChatGPT 進行文章總結,首先載入必要依賴: try: import openai from openai import OpenAI exc
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在進行摘要的過程中,選擇 T5 或 ChatGPT(GPT-4)將始終取決於你實施的項目,Hugging Face 的 T5 模型以其文本到文本的方式提供了許多優勢,而
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們也可以用 Hugging Face 上之 T5 模型進行翻譯,實踐方法為: !pip install transformers -qq !pip install
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 387 | Hugging Face T5 模型製作 Summary 函數 中撰寫的彙整函數,搭配以下文本,可以進行文本總結功能:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 387 | Hugging Face T5 模型製作 Summary 函數 中撰寫的彙整函數,搭配以下文本,可以進行文本總結功能:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在本章中,我們看到 T5 Transformer 模型如何將原始 Transformer 的編碼器和解碼器堆疊的輸入進行了標準化,原始 Transformer 架構中,
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 395 | 使用 ChatGPT 進行文章總結 中撰寫的 ChatGPT 彙整函數,搭配 AI說書 - 從0開始 - 396 | 使用
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 395 | 使用 ChatGPT 進行文章總結 中撰寫的 ChatGPT 彙整函數,搭配 AI說書 - 從0開始 - 396 | 使用
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 想利用 AI說書 - 從0開始 - 395 | 使用 ChatGPT 進行文章總結 中撰寫的 ChatGPT 彙整函數對文章進行總結功能,以下先載入文章: Text:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 為了後續方面,我們建立一個對話函數,這樣每次只要呼叫該函數即能完成對話: def dialog(uinput): role = "user" line = {"r
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 想要使用 ChatGPT 進行文章總結,首先載入必要依賴: try: import openai from openai import OpenAI exc
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在進行摘要的過程中,選擇 T5 或 ChatGPT(GPT-4)將始終取決於你實施的項目,Hugging Face 的 T5 模型以其文本到文本的方式提供了許多優勢,而
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們也可以用 Hugging Face 上之 T5 模型進行翻譯,實踐方法為: !pip install transformers -qq !pip install
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 387 | Hugging Face T5 模型製作 Summary 函數 中撰寫的彙整函數,搭配以下文本,可以進行文本總結功能:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 387 | Hugging Face T5 模型製作 Summary 函數 中撰寫的彙整函數,搭配以下文本,可以進行文本總結功能:
Thumbnail
Microsoft Azure AI 900 證照,把準備資料整理分享給大家。 AI 應用程式開發人員可能面臨的一些挑戰和風險,以下是條列與舉例: 偏差可能會影響結果:貸款核准模型因為其訓練資料有偏差而有性別上的差別待遇 錯誤可能造成傷害:自動駕駛汽車遇到系統故障而導致車禍 資料可能遭到
Thumbnail
Microsoft Azure AI 900 證照,把準備資料整理分享給大家。 AI 是可模仿人類行為與能力的軟體,主要的工作包含: 機器學習:這通常是 AI 系統的基礎,且是「指導」電腦模型進行預測並從資料中得出結論的方式 電腦視覺:透過相機、影片和影像,以視覺方式解譯世界的 AI 功能
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 哪兩個場景是自然語言處理工作負載的範例?每個正確答案都代表一個完整的解決方案。 A: 監控機器的溫度,當溫度達到特
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 您需要建立一個可以大聲朗讀食譜說明的應用程序,以支援視力不佳的用戶。您應該使用哪個版本的服務? A: 文字分析
Thumbnail
最近要來考證照,把準備過程跟大家分享 選出正確完成句子的答案。 您有一個資料庫,其中包含員工及其照片的清單。您正在標記員工的新照片。對於以下每個陳述,如果該陳述為真,則選擇“是”。否則,選擇「否」 您需要開發一個行動應用程序,供員工在旅行時掃描和儲存他們的費用。您應該使用哪種類型的
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 對於以下每個語句,如果該語句為真,請選擇「是」。否則,選擇「否」 對於以下每個語句,如果該語句為真,請選擇「是」。否則,選
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 將 AI 工作負載類型與適當的場景相匹配。若要回答,請將適當的工作負載類型從左側列拖曳到右側的場景。每種工作負載類型可以使用一次
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 一家公司僱用了一支客戶服務代理團隊為客戶提供電話和電子郵件支援。該公司開發了一個網路聊天機器人,可以自動回答常見的客戶問題。透過
Thumbnail
Microsoft Azure AI 900 證照,把準備資料整理分享給大家。 AI 應用程式開發人員可能面臨的一些挑戰和風險,以下是條列與舉例: 偏差可能會影響結果:貸款核准模型因為其訓練資料有偏差而有性別上的差別待遇 錯誤可能造成傷害:自動駕駛汽車遇到系統故障而導致車禍 資料可能遭到
Thumbnail
Microsoft Azure AI 900 證照,把準備資料整理分享給大家。 AI 是可模仿人類行為與能力的軟體,主要的工作包含: 機器學習:這通常是 AI 系統的基礎,且是「指導」電腦模型進行預測並從資料中得出結論的方式 電腦視覺:透過相機、影片和影像,以視覺方式解譯世界的 AI 功能
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 哪兩個場景是自然語言處理工作負載的範例?每個正確答案都代表一個完整的解決方案。 A: 監控機器的溫度,當溫度達到特
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 您需要建立一個可以大聲朗讀食譜說明的應用程序,以支援視力不佳的用戶。您應該使用哪個版本的服務? A: 文字分析
Thumbnail
最近要來考證照,把準備過程跟大家分享 選出正確完成句子的答案。 您有一個資料庫,其中包含員工及其照片的清單。您正在標記員工的新照片。對於以下每個陳述,如果該陳述為真,則選擇“是”。否則,選擇「否」 您需要開發一個行動應用程序,供員工在旅行時掃描和儲存他們的費用。您應該使用哪種類型的
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 對於以下每個語句,如果該語句為真,請選擇「是」。否則,選擇「否」 對於以下每個語句,如果該語句為真,請選擇「是」。否則,選
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 將 AI 工作負載類型與適當的場景相匹配。若要回答,請將適當的工作負載類型從左側列拖曳到右側的場景。每種工作負載類型可以使用一次
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 一家公司僱用了一支客戶服務代理團隊為客戶提供電話和電子郵件支援。該公司開發了一個網路聊天機器人,可以自動回答常見的客戶問題。透過
Thumbnail
最近接了一個AI專案,客戶要求以AI方式實現節能功能,以下提供我的專案思考軌跡: 面對這樣的技術,我第一個想到使用Reinforcement Learning技術,然而這裡我思考一件事,這個專案是要幫助客戶賺錢的,在沒有Digital Twin的搭配之下,貿然使用Reinforcement L
Thumbnail
上週發了一篇AI書單推薦 今天來談談,我是怎麼學習的,我總共學了七年AI,自然對於一個小白想入門有更深刻的體悟,更能了解怎麼樣學習才能不至於一次面臨太多困難而放棄 我的建議是這樣: 先花兩年把Machine Learning學完,當中會遇到很多數學問題,這方面可以「在遇到問題時」再去翻
Thumbnail
這篇介紹我看過的AI書籍中,覺得很棒的書單,我按照不同的AI作法來分類: Machine Learning: Pattern Recognition and Machine Learning, Christopher M. Bishop, 2011 The Elements of Statis
Thumbnail
我們知道AI的作法可以分為Supervised Learning、Unsupervised Learning、Reinforcement Learning,整題區分如下圖: 圖片出處:https://www.superannotate.com/blog/supervised-learning-an
Thumbnail
大家在跟Chat GPT互動的時候,會不會覺得常常雞同鴨講 我們梳理了一些提升Chat GPT回答能力的作法 ChatGPT回答不是你要的怎麼辦? 我們也實作了當中的一種方法,叫做RAG於 自己做免錢Chat GPT吧 這篇文章,我們談談其他技巧,稱為Prompt Engineering
Thumbnail
首先定義符號: 因此我們有​ 其中 再定義State Avtion Value.Function、Value Function和Advantage Function分別為: 接著我定義 此外觀察上述定義,能有 因此我有以下展開 這時回顧 因此我有 結合之後得到 移項之後得到 接
Thumbnail
回顧我們的目標是自己做一個免錢Chat GPT 自己做免錢Chat GPT吧 當中,我希望外掛一個外部知識庫,叫做RAG,來提升整體問答的品質,同時又能避免機敏資訊被Chat GPT竊取。 緣由參見 ChatGPT回答不是你要的怎麼辦? 詳細實作於 使用Meta釋出的模型,實作Chat G
Thumbnail
人工智慧中最受歡迎的作法莫過於類神經網路,以當今最受歡迎的大型語言模型 (LLM)也不例外,然而這些持續受到爭議:黑盒子,也就是說我們不知道它內部怎麼運作,只知道給它一段話,它就會輸出一段話來回應。 以下從幾個面向來討論「黑盒子」議題: 透明性 Transparency 以LLM模型的開
Thumbnail
回顧ChatGPT回答不是你要的怎麼辦?這篇文章,Chat GPT回答的結果常常不如人意,因此有個Facebook提出的技術,叫做RAG,它是提升Chat GPT回答品質的方式之一,詳細實作步驟可以參照自己做免錢Chat GPT吧。 這次我們來換個方法,今天要介紹Reinforcement Lea
Thumbnail
當Chat GPT回答的東西不是你想要的,怎麼辦呢? 我們提供想法的思路於:ChatGPT回答不是你要的怎麼辦? 我想自己動手改善,但是我沒有GPU這項資源怎麼辦? 我們提供免費使用方式於:使用Meta釋出的模型,實作Chat GPT - Part 0 有了操作環境,但是我不知道怎麼
Thumbnail
最近接了一個AI專案,客戶要求以AI方式實現節能功能,以下提供我的專案思考軌跡: 面對這樣的技術,我第一個想到使用Reinforcement Learning技術,然而這裡我思考一件事,這個專案是要幫助客戶賺錢的,在沒有Digital Twin的搭配之下,貿然使用Reinforcement L
Thumbnail
上週發了一篇AI書單推薦 今天來談談,我是怎麼學習的,我總共學了七年AI,自然對於一個小白想入門有更深刻的體悟,更能了解怎麼樣學習才能不至於一次面臨太多困難而放棄 我的建議是這樣: 先花兩年把Machine Learning學完,當中會遇到很多數學問題,這方面可以「在遇到問題時」再去翻
Thumbnail
這篇介紹我看過的AI書籍中,覺得很棒的書單,我按照不同的AI作法來分類: Machine Learning: Pattern Recognition and Machine Learning, Christopher M. Bishop, 2011 The Elements of Statis
Thumbnail
我們知道AI的作法可以分為Supervised Learning、Unsupervised Learning、Reinforcement Learning,整題區分如下圖: 圖片出處:https://www.superannotate.com/blog/supervised-learning-an
Thumbnail
大家在跟Chat GPT互動的時候,會不會覺得常常雞同鴨講 我們梳理了一些提升Chat GPT回答能力的作法 ChatGPT回答不是你要的怎麼辦? 我們也實作了當中的一種方法,叫做RAG於 自己做免錢Chat GPT吧 這篇文章,我們談談其他技巧,稱為Prompt Engineering
Thumbnail
首先定義符號: 因此我們有​ 其中 再定義State Avtion Value.Function、Value Function和Advantage Function分別為: 接著我定義 此外觀察上述定義,能有 因此我有以下展開 這時回顧 因此我有 結合之後得到 移項之後得到 接
Thumbnail
回顧我們的目標是自己做一個免錢Chat GPT 自己做免錢Chat GPT吧 當中,我希望外掛一個外部知識庫,叫做RAG,來提升整體問答的品質,同時又能避免機敏資訊被Chat GPT竊取。 緣由參見 ChatGPT回答不是你要的怎麼辦? 詳細實作於 使用Meta釋出的模型,實作Chat G
Thumbnail
人工智慧中最受歡迎的作法莫過於類神經網路,以當今最受歡迎的大型語言模型 (LLM)也不例外,然而這些持續受到爭議:黑盒子,也就是說我們不知道它內部怎麼運作,只知道給它一段話,它就會輸出一段話來回應。 以下從幾個面向來討論「黑盒子」議題: 透明性 Transparency 以LLM模型的開
Thumbnail
回顧ChatGPT回答不是你要的怎麼辦?這篇文章,Chat GPT回答的結果常常不如人意,因此有個Facebook提出的技術,叫做RAG,它是提升Chat GPT回答品質的方式之一,詳細實作步驟可以參照自己做免錢Chat GPT吧。 這次我們來換個方法,今天要介紹Reinforcement Lea
Thumbnail
當Chat GPT回答的東西不是你想要的,怎麼辦呢? 我們提供想法的思路於:ChatGPT回答不是你要的怎麼辦? 我想自己動手改善,但是我沒有GPU這項資源怎麼辦? 我們提供免費使用方式於:使用Meta釋出的模型,實作Chat GPT - Part 0 有了操作環境,但是我不知道怎麼
Thumbnail
大家在跟Chat GPT互動的時候,會不會覺得常常雞同鴨講 我們梳理了一些提升Chat GPT回答能力的作法 ChatGPT回答不是你要的怎麼辦? 我們也實作了當中的一種方法,叫做RAG於 自己做免錢Chat GPT吧 這篇文章,我們談談其他技巧,稱為「透過LoRA執行Fine Tuning」
Thumbnail
工欲善其事,必先利其器,要打造屬於自己的Chat GPT之前,我們先學習怎麼建立Google免費提供的Colab環境,它可以免費使用GPU來加速AI的運算,非常適合沒有錢添購GPU,但又想學習前沿AI技術的人。 第一步:打開Google瀏覽器,並點選右上方的「方格子點點」,接著選擇「雲端硬碟」
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 在第二章會介紹機率相關概念,這也是貫穿整本書的基礎。 2.1.1.2 Probability Distributions
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 在第二章會介紹機率相關概念,這也是貫穿整本書的基礎。 2 Probability Theory 2.1 Motivation
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.4 Historical Notes 這節闡述Probabilistic Graphical Model的崛起歷史,當中尚做了
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.3 Overview and Roadmap 1.3.1 Overview of Chapters 延續上一篇Part 3講
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.3 Overview and Roadmap 1.3.1 Overview of Chapters 延續上一篇Part 2講
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.3 Overview and Roadmap 1.3.1 Overview of Chapters 延續上一篇Part 1講
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.3 Overview and Roadmap 1.3.1 Overview of Chapters We begin in
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.2 Structured Probabilistic Models 既然要融入Uncertainty和Probability
Thumbnail
大家在跟Chat GPT互動的時候,會不會覺得常常雞同鴨講 我們梳理了一些提升Chat GPT回答能力的作法 ChatGPT回答不是你要的怎麼辦? 我們也實作了當中的一種方法,叫做RAG於 自己做免錢Chat GPT吧 這篇文章,我們談談其他技巧,稱為「透過LoRA執行Fine Tuning」
Thumbnail
工欲善其事,必先利其器,要打造屬於自己的Chat GPT之前,我們先學習怎麼建立Google免費提供的Colab環境,它可以免費使用GPU來加速AI的運算,非常適合沒有錢添購GPU,但又想學習前沿AI技術的人。 第一步:打開Google瀏覽器,並點選右上方的「方格子點點」,接著選擇「雲端硬碟」
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 在第二章會介紹機率相關概念,這也是貫穿整本書的基礎。 2.1.1.2 Probability Distributions
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 在第二章會介紹機率相關概念,這也是貫穿整本書的基礎。 2 Probability Theory 2.1 Motivation
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.4 Historical Notes 這節闡述Probabilistic Graphical Model的崛起歷史,當中尚做了
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.3 Overview and Roadmap 1.3.1 Overview of Chapters 延續上一篇Part 3講
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.3 Overview and Roadmap 1.3.1 Overview of Chapters 延續上一篇Part 2講
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.3 Overview and Roadmap 1.3.1 Overview of Chapters 延續上一篇Part 1講
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.3 Overview and Roadmap 1.3.1 Overview of Chapters We begin in
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.2 Structured Probabilistic Models 既然要融入Uncertainty和Probability
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Contrastive Language-Image Pre-Training(CLIP)是一種多模態 Transformer,可用於圖像分類,CLIP 的流程可總結如
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們可以對輸出的 Logit 應用 Temperature、Softmax、Top-K 與 Top-P,以下為應用 Softmax: probs = torch.nn
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們可以窺探 ViT 模型的輸出標籤形狀: print(outputs.logits.shape) 結果為: 也可以看看模型原本配置幾個標籤: mode
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下程式碼顯示 ViT 模型: model 結果為:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下程式碼顯示了特徵提取器的配置,輸出顯示了特徵提取器的配置: 您可以看到特徵提取器如何處理 224 x 224 的影像,包括正規化、重新縮放、調整大小、計算均值
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 預處理後的圖像接著被輸入到 ViT 模型(ViTForImageClassification)中,該模型會輸出 Logits,Logits 是模型最終層對分類任務中每個
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 特徵提取器是模型 Pipeline 的重要組件,它對原始輸入數據(此處為圖像)進行必要的預處理,將其轉換為適合輸入模型的格式,我們來總結一下 ViT 特徵提取器的功能:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 patches_reshaped = patches.permute(0, 2, 3, 1, 4, 5).contiguous().view(-1, 3, patch_si
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在原始的 ViT 論文中,這些區塊在被線性嵌入到適合 Transformer 的維度後,會直接輸入到 Transformer 模型中,亦即,這些區塊就是 Transfo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將建立一個特徵提取器模擬器,以說明圖像如何被分割為區塊並成為 Transformer 的輸入,Vision Transformer(ViT)模型將原始輸入圖像分割成
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Contrastive Language-Image Pre-Training(CLIP)是一種多模態 Transformer,可用於圖像分類,CLIP 的流程可總結如
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們可以對輸出的 Logit 應用 Temperature、Softmax、Top-K 與 Top-P,以下為應用 Softmax: probs = torch.nn
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們可以窺探 ViT 模型的輸出標籤形狀: print(outputs.logits.shape) 結果為: 也可以看看模型原本配置幾個標籤: mode
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下程式碼顯示 ViT 模型: model 結果為:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下程式碼顯示了特徵提取器的配置,輸出顯示了特徵提取器的配置: 您可以看到特徵提取器如何處理 224 x 224 的影像,包括正規化、重新縮放、調整大小、計算均值
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 預處理後的圖像接著被輸入到 ViT 模型(ViTForImageClassification)中,該模型會輸出 Logits,Logits 是模型最終層對分類任務中每個
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 特徵提取器是模型 Pipeline 的重要組件,它對原始輸入數據(此處為圖像)進行必要的預處理,將其轉換為適合輸入模型的格式,我們來總結一下 ViT 特徵提取器的功能:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 patches_reshaped = patches.permute(0, 2, 3, 1, 4, 5).contiguous().view(-1, 3, patch_si
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在原始的 ViT 論文中,這些區塊在被線性嵌入到適合 Transformer 的維度後,會直接輸入到 Transformer 模型中,亦即,這些區塊就是 Transfo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將建立一個特徵提取器模擬器,以說明圖像如何被分割為區塊並成為 Transformer 的輸入,Vision Transformer(ViT)模型將原始輸入圖像分割成
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - Prompt Engineering - 183 | Prompt Chaining
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 架構 Prompt Chaining 的架構本質體現在一系列節點中,每個節點代表鏈中的一個單獨步驟,這
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 應用 Prompt Chaining 在各種場景中都體現了它的有效性,特別是當任務的複雜性和維度超出了
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 定義 Prompt Chaining 是一種結構化的提示框架,它將多個較小、較簡單的提示按順序排列成一
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - Prompt Engineering - 183 | Prompt Chaining
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 架構 Prompt Chaining 的架構本質體現在一系列節點中,每個節點代表鏈中的一個單獨步驟,這
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 應用 Prompt Chaining 在各種場景中都體現了它的有效性,特別是當任務的複雜性和維度超出了
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 定義 Prompt Chaining 是一種結構化的提示框架,它將多個較小、較簡單的提示按順序排列成一