正當筆者還在更深入研究Notebook LM的功能時,結果正好推播到一位正在研究AI工具的新頻道——這裡就先稱呼為「番麥🌽(其實是叫AI粟米粒)」,剛好他的一部提及到用Notebook LM 生出Excel表格的影片的數據還在炸裂中,這裡先提供他的影片提供給還在熟悉Notebook LM中、或者很好奇怎麼用Notebook LM生出表格的讀者們參考:
公告:文章方向之調整
可能有的人問筆者:奇怪,不是說要撰寫研究Notebook LM 的操作方法的文章,怎麼反而變成直接推薦別人的教學影片呢?流量不就變成別人的嗎?
是的,其實筆者大可直接選擇另一條路——直接把別的創作者的教學影片的內容抄過來做文章,然後再把筆者自己包裝成「某工具的專家」,收割讀者朋友的閱覽量跟愛心數。
筆者在此先自曝一個弊病:那就是筆者是個連全篇照本宣科地抄襲都懶得抄的一個人,不過很喜歡抓別人講的內容整理成重點,然後再訓練自己更精準地做選擇。
再來一個非常現實、但後台數據顯示的結果:筆者試著同時寫了「專精某工具的操作方法」跟「比較兩個/多個工具」這兩種方向的文章,結果發現比起前者,筆者在後者的文章得到更多讀者的支持,在此首先要感謝各位。
這數據意味著什麼呢?那就是筆者但凡撰寫「統整類」「大局類」「整體趨勢」的內容,不只更得心應手,也獲得更多讀者們的支持,相反如果只是專注在某工具的使用,結果就是遇到更多更優秀的好手,無論是內容還是操作上都是筆者望塵莫及的程度,但筆者善於發現各路好手們,之後文章也會重新調整方向,會開始往更全面的局面和趨勢撰寫。
資訊安全是個被多數人忽略的方面
好的,來到正題:這篇文章是針對粟米粒在最新影片中提到一個重點:如果要用Notebook LM 生出內容,請先確定沒有把公司內部的敏感資料或最新計畫丟進去給AI工具彙整。
在AI大爆炸的時代前,就已經有像Google Workspace 、Canva這類雲端編輯軟體問世,而能夠自動儲存的功能當然也補足微軟系列軟體當中必須手動儲存進度的狀況,不過能夠自動儲存,其實就有對應的風險——資料一旦連上網路,其實就會被即時上傳的風險。
而來到AI大爆炸時代後,其便利性與讓人們更享受與沉迷在帶來的好處,但也變得更容易忽略資料安全的問題,當我們餵食資料給AI模型時,其實同時是幫助那些龍頭公司們以極低的成本取得語言模型和各項資料訓練他們的AI模型,包含一些敏感的資料內容。
筆者在投資心理學這篇讀後文有提及到推薦的核心原因,便是該書作者用幾乎整本書的篇幅提及到「風險管理」的議題,而會如此強調這部分,正是因為多數人都忽略這個問題,即使資安其實根本就不是什麼新穎的問題,而是網路時代開始就一直存在的課題,甚至回歸到風控本身,這本來就是一直存在的問題,不過人的本性就是趨利為主,即使成語云「趨利避害」,但仔細看「趨利」先於「避害」,就透進人們還是以獲利優先的底層邏輯。
鬼故事奇談——幫別人寫Prompt能得到報酬?還是免費的電池與人礦?
講個題外故事,筆者其實曾經有試著接過AI模型訓練的公司提供的語言模型訓練(Prompt Writing)的案子,但撇除前面極度刁鑽的門檻不談,光是他們用極地的外包成本,以及收集到有不少人是在費盡千辛萬苦後照指示完成任務,最後卻得到資方「不符合規定,因此恕不給予報酬」這種回應。結果就是資方實際上用零成本的方式獲得別人提供的語言模型素材,然後繼續一堆人應徵這種外包工作。
更可怕的點在於這些AI 語言訓練模型的公司在應徵者的註冊階段中,還會要求註冊者寫許多詳細資料,更甚者還要求要面部辨識以通過資料審核,官方說法是避免出現機器人帳號,但實際上其實就是用「恐懼」本身得到更多人的資料,讓人出賣自己的面孔提供給公司生成更完美的真人圖片,讓人賤賣自己的時間和心血提供優質的語言素材,最後再用PUA勒索......
結論:建立風險管控的底層邏輯,維護自己的資料安全
網路世代凡走過必留痕跡,其實最理想的方式就是不要上傳任何敏感內容在網路上,若是真的要使用工具跟上傳內容,在此之前請先捫心自問,自己能否承擔相關風險,如果一切都準備妥當,那就照自己的決定走下去吧。
最後必須勸阻:千萬不要應徵任何寫提示詞的外包接案工作,結案。


















