Thumbnail
2025/07/18 是圓圓過世後的第四十天,今天結束高雄出差,要返回台北,早上先睡到九點,然後去飯店三十樓吃早餐,今天運氣不錯,飯店人員安排的位置靠近窗戶,可以看到高雄港,附上早餐與海景照: 吃完早餐後,也不忘再泡最後一次澡,時間稍微抓一下,還要把最後一些行李收拾,趕在十一點之前退房,退房之後才
Thumbnail
2025/07/17 是圓圓過世後的第三十九天,今天很放鬆,早上八點半起床,先去飯店吃個早餐,大概吃到九點半,今天的菜色和昨天差不多: 吃完飯之後,就回房間泡澡,然後就覺得好像有點睏,就睡個午覺,睡醒之後,就有一搭沒一搭和同事聊天,主要是想我的數學推導,時間過超快,都還沒想出來,就差不多五點半了,
Thumbnail
2025/07/16 是圓圓過世後的第三十八天,今天早上七點半起床,覺得飯店得冷氣、床、落地窗都讓我很不想起床,但是又不能遲到,只好先起床泡泡澡,接著就是去吃早餐,附上早餐的樣子,而且比想像好吃,重點是不壅擠,人潮與位置配置滿不錯的: 然後就是帶上包包、海報,上路了,沒想到到樓下了,才發現下雨,好
Thumbnail
2025/07/15 是圓圓過世後的第三十七天,今天來高雄出差,不過礙於飯店入住時間是下午了,所以早上我就請假,這樣可以睡到自然醒,醒來後邊看股票邊吃早餐,然後再開車去檢驗,這次檢驗運氣不錯,有兩個師傅,一個比較龜毛,一個比較隨和,龜毛那個不讓我前面那台車通過檢驗,就在那邊爭執不下,而我遇到隨和的這
Thumbnail
2025/07/14 是圓圓過世後的第三十六天,今天來台北上班,早上出門的時候,看看大門的那個小門,沒有圓圓的蹲守,還是有些落寞,只能自己想像圓圓還在那邊目送我上班,以前出門前,都要拍拍圓圓的屁屁,我媽都說不然拿個背袋,帶圓圓一起去上班好了,只是現在沒機會了。 一如往常,騎車,坐捷運,走路,不
Thumbnail
2025/07/13 是圓圓過世後的第三十五天,今天一早和我爸媽去城隍廟拜拜,原本我姊還有姊夫一家也要去,但是他們爸媽臨時去找他們,就有些耽擱,就變成我先帶我爸媽去拜拜,拜好了之後,姊姊和姊夫一家也差不多出現了,不過他們就沒進去拜拜了,倒是一直被小孩拉去廟裡面拿糖果,附上今日去拜拜的圖片: 後來就
Thumbnail
2025/07/12 是圓圓過世後的第三十四天,今天凌晨十二點半,趕緊打開電腦準備掛號,要幫姊姊還有姊夫掛號,時間一到趕緊輸入身份驗證資訊,結果不妙,名額被搶光了,原本想說初診有保留名額的說,結果還是沒搶到,不放棄的我,一直重複同樣的動作,我就姊姊和姊夫的輪流申請,大概過了三四分鐘左右,竟然順利搶到
Thumbnail
2025/07/11 是圓圓過世後的第三十三天,今天早上起來覺得好累,可能因為最近天氣比較涼,比較好睡覺,但是又睡不飽的關係,又是簡單吃早餐,然後就出門上班了,最近通勤的時候,都會在心中向圓圓問好,一邊看向天空,一邊問說昨天過得好不好,彷彿圓圓沒離開過,只是我看不到而已,昨天睡前的時候,床上的櫃子的
Thumbnail
2025/07/10 是圓圓過世後的第三十二天,今天臨時決定去桃園上班,一大早就出門了,依舊還是飄著微微細雨,在開車的時候不免胡思亂想,最近一直下雨,就想到圓圓很怕水,圓圓這幾天一定很怕,上禮拜日 2025/07/06 有和圓圓約定好這週日要在山上碰面,圓圓要等我喔。 開車的時候,想到昨天晚上
Thumbnail
2025/07/09 是圓圓過世後的第三十一天,昨天晚上睡覺很不平靜,躺在床上就想到圓圓離開一個月了,就一直啜泣,翻來覆去大概一個小時左右,然後睡到一半醒來,被熱醒,發覺電風扇怎麼沒有運轉了,我看檯燈還有電勒,該不會電風扇壞了吧,就下床去打開電風扇,喔喔,原來是停電阿,然後就繼續睡覺。 早上吃
Thumbnail
2025/07/18 是圓圓過世後的第四十天,今天結束高雄出差,要返回台北,早上先睡到九點,然後去飯店三十樓吃早餐,今天運氣不錯,飯店人員安排的位置靠近窗戶,可以看到高雄港,附上早餐與海景照: 吃完早餐後,也不忘再泡最後一次澡,時間稍微抓一下,還要把最後一些行李收拾,趕在十一點之前退房,退房之後才
Thumbnail
2025/07/17 是圓圓過世後的第三十九天,今天很放鬆,早上八點半起床,先去飯店吃個早餐,大概吃到九點半,今天的菜色和昨天差不多: 吃完飯之後,就回房間泡澡,然後就覺得好像有點睏,就睡個午覺,睡醒之後,就有一搭沒一搭和同事聊天,主要是想我的數學推導,時間過超快,都還沒想出來,就差不多五點半了,
Thumbnail
2025/07/16 是圓圓過世後的第三十八天,今天早上七點半起床,覺得飯店得冷氣、床、落地窗都讓我很不想起床,但是又不能遲到,只好先起床泡泡澡,接著就是去吃早餐,附上早餐的樣子,而且比想像好吃,重點是不壅擠,人潮與位置配置滿不錯的: 然後就是帶上包包、海報,上路了,沒想到到樓下了,才發現下雨,好
Thumbnail
2025/07/15 是圓圓過世後的第三十七天,今天來高雄出差,不過礙於飯店入住時間是下午了,所以早上我就請假,這樣可以睡到自然醒,醒來後邊看股票邊吃早餐,然後再開車去檢驗,這次檢驗運氣不錯,有兩個師傅,一個比較龜毛,一個比較隨和,龜毛那個不讓我前面那台車通過檢驗,就在那邊爭執不下,而我遇到隨和的這
Thumbnail
2025/07/14 是圓圓過世後的第三十六天,今天來台北上班,早上出門的時候,看看大門的那個小門,沒有圓圓的蹲守,還是有些落寞,只能自己想像圓圓還在那邊目送我上班,以前出門前,都要拍拍圓圓的屁屁,我媽都說不然拿個背袋,帶圓圓一起去上班好了,只是現在沒機會了。 一如往常,騎車,坐捷運,走路,不
Thumbnail
2025/07/13 是圓圓過世後的第三十五天,今天一早和我爸媽去城隍廟拜拜,原本我姊還有姊夫一家也要去,但是他們爸媽臨時去找他們,就有些耽擱,就變成我先帶我爸媽去拜拜,拜好了之後,姊姊和姊夫一家也差不多出現了,不過他們就沒進去拜拜了,倒是一直被小孩拉去廟裡面拿糖果,附上今日去拜拜的圖片: 後來就
Thumbnail
2025/07/12 是圓圓過世後的第三十四天,今天凌晨十二點半,趕緊打開電腦準備掛號,要幫姊姊還有姊夫掛號,時間一到趕緊輸入身份驗證資訊,結果不妙,名額被搶光了,原本想說初診有保留名額的說,結果還是沒搶到,不放棄的我,一直重複同樣的動作,我就姊姊和姊夫的輪流申請,大概過了三四分鐘左右,竟然順利搶到
Thumbnail
2025/07/11 是圓圓過世後的第三十三天,今天早上起來覺得好累,可能因為最近天氣比較涼,比較好睡覺,但是又睡不飽的關係,又是簡單吃早餐,然後就出門上班了,最近通勤的時候,都會在心中向圓圓問好,一邊看向天空,一邊問說昨天過得好不好,彷彿圓圓沒離開過,只是我看不到而已,昨天睡前的時候,床上的櫃子的
Thumbnail
2025/07/10 是圓圓過世後的第三十二天,今天臨時決定去桃園上班,一大早就出門了,依舊還是飄著微微細雨,在開車的時候不免胡思亂想,最近一直下雨,就想到圓圓很怕水,圓圓這幾天一定很怕,上禮拜日 2025/07/06 有和圓圓約定好這週日要在山上碰面,圓圓要等我喔。 開車的時候,想到昨天晚上
Thumbnail
2025/07/09 是圓圓過世後的第三十一天,昨天晚上睡覺很不平靜,躺在床上就想到圓圓離開一個月了,就一直啜泣,翻來覆去大概一個小時左右,然後睡到一半醒來,被熱醒,發覺電風扇怎麼沒有運轉了,我看檯燈還有電勒,該不會電風扇壞了吧,就下床去打開電風扇,喔喔,原來是停電阿,然後就繼續睡覺。 早上吃
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 193 | 第七章引言 到 AI說書 - 從0開始 - 222 | GPT 4 & RAG 測試,我們完成書籍:Transformers
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧目前手上有的素材: 依賴的安裝:AI說書 - 從0開始 - 218 | OpenAI GPT 4 & RAG 關鍵字偵測:AI說書 - 從0開始 - 219 |
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧目前手上有的素材: 依賴的安裝:AI說書 - 從0開始 - 218 | OpenAI GPT 4 & RAG 關鍵字偵測:AI說書 - 從0開始 - 219 |
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 218 | OpenAI GPT 4 & RAG 安裝完相關依賴,今天來撰寫一個函數,此函數能執行文章內容檢索: def fetch
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 218 | OpenAI GPT 4 & RAG 安裝完相關依賴,今天來撰寫一個函數,此函數透過使用使用者請求中的關鍵字來選擇 URL
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將建立一個實作 Retrieval Augmented Generation (RAG) 的入門程式,文檔檢索並不是什麼新鮮事,自從幾十年前資料庫查詢出現以來,知識
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 注意 AI說書 - 從0開始 - 215 | OpenAI GPT 4 API 的格式,當中有兩種角色,分別為: System Role User Role 而各
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧我們在 AI說書 - 從0開始 - 215 | OpenAI GPT 4 API 中給出了一段程式做推論,當中不乏很多超參數,我們可以試著調配看看: model
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將開始使用 ChatGPT Plus 和 GPT-4 作為助手,您將看到尖端開發人員如何利用 GPT-4 作為助手來縮短上市時間。 這次我想請 GPT 4 幫
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將開始使用 ChatGPT Plus 和 GPT-4 作為助手,您將看到尖端開發人員如何利用 GPT-4 作為助手來縮短上市時間。 比方說問 ChatGPT
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 193 | 第七章引言 到 AI說書 - 從0開始 - 222 | GPT 4 & RAG 測試,我們完成書籍:Transformers
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧目前手上有的素材: 依賴的安裝:AI說書 - 從0開始 - 218 | OpenAI GPT 4 & RAG 關鍵字偵測:AI說書 - 從0開始 - 219 |
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧目前手上有的素材: 依賴的安裝:AI說書 - 從0開始 - 218 | OpenAI GPT 4 & RAG 關鍵字偵測:AI說書 - 從0開始 - 219 |
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 218 | OpenAI GPT 4 & RAG 安裝完相關依賴,今天來撰寫一個函數,此函數能執行文章內容檢索: def fetch
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 218 | OpenAI GPT 4 & RAG 安裝完相關依賴,今天來撰寫一個函數,此函數透過使用使用者請求中的關鍵字來選擇 URL
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將建立一個實作 Retrieval Augmented Generation (RAG) 的入門程式,文檔檢索並不是什麼新鮮事,自從幾十年前資料庫查詢出現以來,知識
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 注意 AI說書 - 從0開始 - 215 | OpenAI GPT 4 API 的格式,當中有兩種角色,分別為: System Role User Role 而各
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧我們在 AI說書 - 從0開始 - 215 | OpenAI GPT 4 API 中給出了一段程式做推論,當中不乏很多超參數,我們可以試著調配看看: model
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將開始使用 ChatGPT Plus 和 GPT-4 作為助手,您將看到尖端開發人員如何利用 GPT-4 作為助手來縮短上市時間。 這次我想請 GPT 4 幫
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將開始使用 ChatGPT Plus 和 GPT-4 作為助手,您將看到尖端開發人員如何利用 GPT-4 作為助手來縮短上市時間。 比方說問 ChatGPT
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在本章中,我們看到 T5 Transformer 模型如何將原始 Transformer 的編碼器和解碼器堆疊的輸入進行了標準化,原始 Transformer 架構中,
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 395 | 使用 ChatGPT 進行文章總結 中撰寫的 ChatGPT 彙整函數,搭配 AI說書 - 從0開始 - 396 | 使用
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 395 | 使用 ChatGPT 進行文章總結 中撰寫的 ChatGPT 彙整函數,搭配 AI說書 - 從0開始 - 396 | 使用
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 想利用 AI說書 - 從0開始 - 395 | 使用 ChatGPT 進行文章總結 中撰寫的 ChatGPT 彙整函數對文章進行總結功能,以下先載入文章: Text:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 為了後續方面,我們建立一個對話函數,這樣每次只要呼叫該函數即能完成對話: def dialog(uinput): role = "user" line = {"r
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 想要使用 ChatGPT 進行文章總結,首先載入必要依賴: try: import openai from openai import OpenAI exc
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在進行摘要的過程中,選擇 T5 或 ChatGPT(GPT-4)將始終取決於你實施的項目,Hugging Face 的 T5 模型以其文本到文本的方式提供了許多優勢,而
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們也可以用 Hugging Face 上之 T5 模型進行翻譯,實踐方法為: !pip install transformers -qq !pip install
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 387 | Hugging Face T5 模型製作 Summary 函數 中撰寫的彙整函數,搭配以下文本,可以進行文本總結功能:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 387 | Hugging Face T5 模型製作 Summary 函數 中撰寫的彙整函數,搭配以下文本,可以進行文本總結功能:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在本章中,我們看到 T5 Transformer 模型如何將原始 Transformer 的編碼器和解碼器堆疊的輸入進行了標準化,原始 Transformer 架構中,
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 395 | 使用 ChatGPT 進行文章總結 中撰寫的 ChatGPT 彙整函數,搭配 AI說書 - 從0開始 - 396 | 使用
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 395 | 使用 ChatGPT 進行文章總結 中撰寫的 ChatGPT 彙整函數,搭配 AI說書 - 從0開始 - 396 | 使用
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 想利用 AI說書 - 從0開始 - 395 | 使用 ChatGPT 進行文章總結 中撰寫的 ChatGPT 彙整函數對文章進行總結功能,以下先載入文章: Text:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 為了後續方面,我們建立一個對話函數,這樣每次只要呼叫該函數即能完成對話: def dialog(uinput): role = "user" line = {"r
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 想要使用 ChatGPT 進行文章總結,首先載入必要依賴: try: import openai from openai import OpenAI exc
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在進行摘要的過程中,選擇 T5 或 ChatGPT(GPT-4)將始終取決於你實施的項目,Hugging Face 的 T5 模型以其文本到文本的方式提供了許多優勢,而
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們也可以用 Hugging Face 上之 T5 模型進行翻譯,實踐方法為: !pip install transformers -qq !pip install
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 387 | Hugging Face T5 模型製作 Summary 函數 中撰寫的彙整函數,搭配以下文本,可以進行文本總結功能:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 387 | Hugging Face T5 模型製作 Summary 函數 中撰寫的彙整函數,搭配以下文本,可以進行文本總結功能:
Thumbnail
Microsoft Azure AI 900 證照,把準備資料整理分享給大家。 AI 應用程式開發人員可能面臨的一些挑戰和風險,以下是條列與舉例: 偏差可能會影響結果:貸款核准模型因為其訓練資料有偏差而有性別上的差別待遇 錯誤可能造成傷害:自動駕駛汽車遇到系統故障而導致車禍 資料可能遭到
Thumbnail
Microsoft Azure AI 900 證照,把準備資料整理分享給大家。 AI 是可模仿人類行為與能力的軟體,主要的工作包含: 機器學習:這通常是 AI 系統的基礎,且是「指導」電腦模型進行預測並從資料中得出結論的方式 電腦視覺:透過相機、影片和影像,以視覺方式解譯世界的 AI 功能
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 哪兩個場景是自然語言處理工作負載的範例?每個正確答案都代表一個完整的解決方案。 A: 監控機器的溫度,當溫度達到特
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 您需要建立一個可以大聲朗讀食譜說明的應用程序,以支援視力不佳的用戶。您應該使用哪個版本的服務? A: 文字分析
Thumbnail
最近要來考證照,把準備過程跟大家分享 選出正確完成句子的答案。 您有一個資料庫,其中包含員工及其照片的清單。您正在標記員工的新照片。對於以下每個陳述,如果該陳述為真,則選擇“是”。否則,選擇「否」 您需要開發一個行動應用程序,供員工在旅行時掃描和儲存他們的費用。您應該使用哪種類型的
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 對於以下每個語句,如果該語句為真,請選擇「是」。否則,選擇「否」 對於以下每個語句,如果該語句為真,請選擇「是」。否則,選
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 將 AI 工作負載類型與適當的場景相匹配。若要回答,請將適當的工作負載類型從左側列拖曳到右側的場景。每種工作負載類型可以使用一次
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 一家公司僱用了一支客戶服務代理團隊為客戶提供電話和電子郵件支援。該公司開發了一個網路聊天機器人,可以自動回答常見的客戶問題。透過
Thumbnail
Microsoft Azure AI 900 證照,把準備資料整理分享給大家。 AI 應用程式開發人員可能面臨的一些挑戰和風險,以下是條列與舉例: 偏差可能會影響結果:貸款核准模型因為其訓練資料有偏差而有性別上的差別待遇 錯誤可能造成傷害:自動駕駛汽車遇到系統故障而導致車禍 資料可能遭到
Thumbnail
Microsoft Azure AI 900 證照,把準備資料整理分享給大家。 AI 是可模仿人類行為與能力的軟體,主要的工作包含: 機器學習:這通常是 AI 系統的基礎,且是「指導」電腦模型進行預測並從資料中得出結論的方式 電腦視覺:透過相機、影片和影像,以視覺方式解譯世界的 AI 功能
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 哪兩個場景是自然語言處理工作負載的範例?每個正確答案都代表一個完整的解決方案。 A: 監控機器的溫度,當溫度達到特
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 您需要建立一個可以大聲朗讀食譜說明的應用程序,以支援視力不佳的用戶。您應該使用哪個版本的服務? A: 文字分析
Thumbnail
最近要來考證照,把準備過程跟大家分享 選出正確完成句子的答案。 您有一個資料庫,其中包含員工及其照片的清單。您正在標記員工的新照片。對於以下每個陳述,如果該陳述為真,則選擇“是”。否則,選擇「否」 您需要開發一個行動應用程序,供員工在旅行時掃描和儲存他們的費用。您應該使用哪種類型的
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 對於以下每個語句,如果該語句為真,請選擇「是」。否則,選擇「否」 對於以下每個語句,如果該語句為真,請選擇「是」。否則,選
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 將 AI 工作負載類型與適當的場景相匹配。若要回答,請將適當的工作負載類型從左側列拖曳到右側的場景。每種工作負載類型可以使用一次
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 一家公司僱用了一支客戶服務代理團隊為客戶提供電話和電子郵件支援。該公司開發了一個網路聊天機器人,可以自動回答常見的客戶問題。透過
Thumbnail
最近接了一個AI專案,客戶要求以AI方式實現節能功能,以下提供我的專案思考軌跡: 面對這樣的技術,我第一個想到使用Reinforcement Learning技術,然而這裡我思考一件事,這個專案是要幫助客戶賺錢的,在沒有Digital Twin的搭配之下,貿然使用Reinforcement L
Thumbnail
上週發了一篇AI書單推薦 今天來談談,我是怎麼學習的,我總共學了七年AI,自然對於一個小白想入門有更深刻的體悟,更能了解怎麼樣學習才能不至於一次面臨太多困難而放棄 我的建議是這樣: 先花兩年把Machine Learning學完,當中會遇到很多數學問題,這方面可以「在遇到問題時」再去翻
Thumbnail
這篇介紹我看過的AI書籍中,覺得很棒的書單,我按照不同的AI作法來分類: Machine Learning: Pattern Recognition and Machine Learning, Christopher M. Bishop, 2011 The Elements of Statis
Thumbnail
我們知道AI的作法可以分為Supervised Learning、Unsupervised Learning、Reinforcement Learning,整題區分如下圖: 圖片出處:https://www.superannotate.com/blog/supervised-learning-an
Thumbnail
大家在跟Chat GPT互動的時候,會不會覺得常常雞同鴨講 我們梳理了一些提升Chat GPT回答能力的作法 ChatGPT回答不是你要的怎麼辦? 我們也實作了當中的一種方法,叫做RAG於 自己做免錢Chat GPT吧 這篇文章,我們談談其他技巧,稱為Prompt Engineering
Thumbnail
首先定義符號: 因此我們有​ 其中 再定義State Avtion Value.Function、Value Function和Advantage Function分別為: 接著我定義 此外觀察上述定義,能有 因此我有以下展開 這時回顧 因此我有 結合之後得到 移項之後得到 接
Thumbnail
回顧我們的目標是自己做一個免錢Chat GPT 自己做免錢Chat GPT吧 當中,我希望外掛一個外部知識庫,叫做RAG,來提升整體問答的品質,同時又能避免機敏資訊被Chat GPT竊取。 緣由參見 ChatGPT回答不是你要的怎麼辦? 詳細實作於 使用Meta釋出的模型,實作Chat G
Thumbnail
人工智慧中最受歡迎的作法莫過於類神經網路,以當今最受歡迎的大型語言模型 (LLM)也不例外,然而這些持續受到爭議:黑盒子,也就是說我們不知道它內部怎麼運作,只知道給它一段話,它就會輸出一段話來回應。 以下從幾個面向來討論「黑盒子」議題: 透明性 Transparency 以LLM模型的開
Thumbnail
回顧ChatGPT回答不是你要的怎麼辦?這篇文章,Chat GPT回答的結果常常不如人意,因此有個Facebook提出的技術,叫做RAG,它是提升Chat GPT回答品質的方式之一,詳細實作步驟可以參照自己做免錢Chat GPT吧。 這次我們來換個方法,今天要介紹Reinforcement Lea
Thumbnail
當Chat GPT回答的東西不是你想要的,怎麼辦呢? 我們提供想法的思路於:ChatGPT回答不是你要的怎麼辦? 我想自己動手改善,但是我沒有GPU這項資源怎麼辦? 我們提供免費使用方式於:使用Meta釋出的模型,實作Chat GPT - Part 0 有了操作環境,但是我不知道怎麼
Thumbnail
最近接了一個AI專案,客戶要求以AI方式實現節能功能,以下提供我的專案思考軌跡: 面對這樣的技術,我第一個想到使用Reinforcement Learning技術,然而這裡我思考一件事,這個專案是要幫助客戶賺錢的,在沒有Digital Twin的搭配之下,貿然使用Reinforcement L
Thumbnail
上週發了一篇AI書單推薦 今天來談談,我是怎麼學習的,我總共學了七年AI,自然對於一個小白想入門有更深刻的體悟,更能了解怎麼樣學習才能不至於一次面臨太多困難而放棄 我的建議是這樣: 先花兩年把Machine Learning學完,當中會遇到很多數學問題,這方面可以「在遇到問題時」再去翻
Thumbnail
這篇介紹我看過的AI書籍中,覺得很棒的書單,我按照不同的AI作法來分類: Machine Learning: Pattern Recognition and Machine Learning, Christopher M. Bishop, 2011 The Elements of Statis
Thumbnail
我們知道AI的作法可以分為Supervised Learning、Unsupervised Learning、Reinforcement Learning,整題區分如下圖: 圖片出處:https://www.superannotate.com/blog/supervised-learning-an
Thumbnail
大家在跟Chat GPT互動的時候,會不會覺得常常雞同鴨講 我們梳理了一些提升Chat GPT回答能力的作法 ChatGPT回答不是你要的怎麼辦? 我們也實作了當中的一種方法,叫做RAG於 自己做免錢Chat GPT吧 這篇文章,我們談談其他技巧,稱為Prompt Engineering
Thumbnail
首先定義符號: 因此我們有​ 其中 再定義State Avtion Value.Function、Value Function和Advantage Function分別為: 接著我定義 此外觀察上述定義,能有 因此我有以下展開 這時回顧 因此我有 結合之後得到 移項之後得到 接
Thumbnail
回顧我們的目標是自己做一個免錢Chat GPT 自己做免錢Chat GPT吧 當中,我希望外掛一個外部知識庫,叫做RAG,來提升整體問答的品質,同時又能避免機敏資訊被Chat GPT竊取。 緣由參見 ChatGPT回答不是你要的怎麼辦? 詳細實作於 使用Meta釋出的模型,實作Chat G
Thumbnail
人工智慧中最受歡迎的作法莫過於類神經網路,以當今最受歡迎的大型語言模型 (LLM)也不例外,然而這些持續受到爭議:黑盒子,也就是說我們不知道它內部怎麼運作,只知道給它一段話,它就會輸出一段話來回應。 以下從幾個面向來討論「黑盒子」議題: 透明性 Transparency 以LLM模型的開
Thumbnail
回顧ChatGPT回答不是你要的怎麼辦?這篇文章,Chat GPT回答的結果常常不如人意,因此有個Facebook提出的技術,叫做RAG,它是提升Chat GPT回答品質的方式之一,詳細實作步驟可以參照自己做免錢Chat GPT吧。 這次我們來換個方法,今天要介紹Reinforcement Lea
Thumbnail
當Chat GPT回答的東西不是你想要的,怎麼辦呢? 我們提供想法的思路於:ChatGPT回答不是你要的怎麼辦? 我想自己動手改善,但是我沒有GPU這項資源怎麼辦? 我們提供免費使用方式於:使用Meta釋出的模型,實作Chat GPT - Part 0 有了操作環境,但是我不知道怎麼
Thumbnail
大家在跟Chat GPT互動的時候,會不會覺得常常雞同鴨講 我們梳理了一些提升Chat GPT回答能力的作法 ChatGPT回答不是你要的怎麼辦? 我們也實作了當中的一種方法,叫做RAG於 自己做免錢Chat GPT吧 這篇文章,我們談談其他技巧,稱為「透過LoRA執行Fine Tuning」
Thumbnail
工欲善其事,必先利其器,要打造屬於自己的Chat GPT之前,我們先學習怎麼建立Google免費提供的Colab環境,它可以免費使用GPU來加速AI的運算,非常適合沒有錢添購GPU,但又想學習前沿AI技術的人。 第一步:打開Google瀏覽器,並點選右上方的「方格子點點」,接著選擇「雲端硬碟」
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 在第二章會介紹機率相關概念,這也是貫穿整本書的基礎。 2.1.1.2 Probability Distributions
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 在第二章會介紹機率相關概念,這也是貫穿整本書的基礎。 2 Probability Theory 2.1 Motivation
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.4 Historical Notes 這節闡述Probabilistic Graphical Model的崛起歷史,當中尚做了
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.3 Overview and Roadmap 1.3.1 Overview of Chapters 延續上一篇Part 3講
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.3 Overview and Roadmap 1.3.1 Overview of Chapters 延續上一篇Part 2講
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.3 Overview and Roadmap 1.3.1 Overview of Chapters 延續上一篇Part 1講
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.3 Overview and Roadmap 1.3.1 Overview of Chapters We begin in
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.2 Structured Probabilistic Models 既然要融入Uncertainty和Probability
Thumbnail
大家在跟Chat GPT互動的時候,會不會覺得常常雞同鴨講 我們梳理了一些提升Chat GPT回答能力的作法 ChatGPT回答不是你要的怎麼辦? 我們也實作了當中的一種方法,叫做RAG於 自己做免錢Chat GPT吧 這篇文章,我們談談其他技巧,稱為「透過LoRA執行Fine Tuning」
Thumbnail
工欲善其事,必先利其器,要打造屬於自己的Chat GPT之前,我們先學習怎麼建立Google免費提供的Colab環境,它可以免費使用GPU來加速AI的運算,非常適合沒有錢添購GPU,但又想學習前沿AI技術的人。 第一步:打開Google瀏覽器,並點選右上方的「方格子點點」,接著選擇「雲端硬碟」
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 在第二章會介紹機率相關概念,這也是貫穿整本書的基礎。 2.1.1.2 Probability Distributions
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 在第二章會介紹機率相關概念,這也是貫穿整本書的基礎。 2 Probability Theory 2.1 Motivation
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.4 Historical Notes 這節闡述Probabilistic Graphical Model的崛起歷史,當中尚做了
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.3 Overview and Roadmap 1.3.1 Overview of Chapters 延續上一篇Part 3講
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.3 Overview and Roadmap 1.3.1 Overview of Chapters 延續上一篇Part 2講
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.3 Overview and Roadmap 1.3.1 Overview of Chapters 延續上一篇Part 1講
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.3 Overview and Roadmap 1.3.1 Overview of Chapters We begin in
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.2 Structured Probabilistic Models 既然要融入Uncertainty和Probability
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們可以建立一個函數來處理文字並將其傳送到 OpenAI 的最新審核端點: import requests text = "This is a good sente
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 為了介紹後續的風險緩解工具,我們先進行 OpenAI 配置: try: import openai from openai import OpenAI exc
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將重點關注 API,例如,當我們使用 API 時,我們的數據會透過互聯網從位置 A 傳送到位置 B,位置 A 和 B 發生的事情屬於各組織的安全和隱私政策範疇。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 隱私問題主要與平台(無論是本地還是基於雲端)相關,而不是 Transformer 模型本身固有的問題,這與治理、法規以及每個組織的政策有關,我們來看一些隱私政策。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 對 LLM 系統的劫持,可能擴展至廣泛的非法活動,是針對 LLM 的對抗性攻擊,這類攻擊可能會持續生成多頁的有害內容,這可被視為一種“越獄”,旨在將 LLM 從安全區域
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 有害內容可以以多種形式出現,我們將專注於騷擾,騷擾他人可能導致抑鬱,甚至自殺,騷擾本身就已經非常可怕,但使用大型語言模型 (LLM) 來尋找傷害他人的陰險方法更是駭人聽
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下是利用 ChatGPT 的 Custom Instruction 功能的另外一個範例,我們對設定視窗
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 不實資訊宣傳會傳播不準確的資訊,如果有人或團體想影響毫無防備的受害者,LLM 也可能在不知情的情況下參與其中,例如,營銷影響操作與傳統的廣告活動不同,因為影響者可能會試
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 不實資訊宣傳會傳播不準確的資訊,如果有人或團體想影響毫無防備的受害者,LLM 也可能在不知情的情況下參與其中,例如,營銷影響操作與傳統的廣告活動不同,因為影響者可能會試
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 錯誤資訊活動可以利用大型語言模型來大規模產生誤導性和虛假的內容!假設有一個非常激進的組織想要消滅無法返回自己國家的政治庇護者,因為他們如果回去會面臨處決或監禁。這個組織
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們可以建立一個函數來處理文字並將其傳送到 OpenAI 的最新審核端點: import requests text = "This is a good sente
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 為了介紹後續的風險緩解工具,我們先進行 OpenAI 配置: try: import openai from openai import OpenAI exc
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將重點關注 API,例如,當我們使用 API 時,我們的數據會透過互聯網從位置 A 傳送到位置 B,位置 A 和 B 發生的事情屬於各組織的安全和隱私政策範疇。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 隱私問題主要與平台(無論是本地還是基於雲端)相關,而不是 Transformer 模型本身固有的問題,這與治理、法規以及每個組織的政策有關,我們來看一些隱私政策。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 對 LLM 系統的劫持,可能擴展至廣泛的非法活動,是針對 LLM 的對抗性攻擊,這類攻擊可能會持續生成多頁的有害內容,這可被視為一種“越獄”,旨在將 LLM 從安全區域
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 有害內容可以以多種形式出現,我們將專注於騷擾,騷擾他人可能導致抑鬱,甚至自殺,騷擾本身就已經非常可怕,但使用大型語言模型 (LLM) 來尋找傷害他人的陰險方法更是駭人聽
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下是利用 ChatGPT 的 Custom Instruction 功能的另外一個範例,我們對設定視窗
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 不實資訊宣傳會傳播不準確的資訊,如果有人或團體想影響毫無防備的受害者,LLM 也可能在不知情的情況下參與其中,例如,營銷影響操作與傳統的廣告活動不同,因為影響者可能會試
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 不實資訊宣傳會傳播不準確的資訊,如果有人或團體想影響毫無防備的受害者,LLM 也可能在不知情的情況下參與其中,例如,營銷影響操作與傳統的廣告活動不同,因為影響者可能會試
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 錯誤資訊活動可以利用大型語言模型來大規模產生誤導性和虛假的內容!假設有一個非常激進的組織想要消滅無法返回自己國家的政治庇護者,因為他們如果回去會面臨處決或監禁。這個組織