我待過穩定的法人機構,也待過冒險犯難的無人機新創公司,理解財務與經營管理之於一個組織與個人的重要。因此,雖然超過四十歲才學習理財與財務起步稍晚,但我仍想只要開始就不嫌晚,買下兩本書:「小狗錢錢」,「活用財報數字,掌握獲利邏輯」。
我發現「小狗錢錢」教育大人很實用,而書評說它可以作為一本教育兒童的書籍,書的後記提到:「是時候重新建構「勞動」這一概念,使之適合兒童了,(對兒童)宣導創業行為與企業家精神,並非鼓勵童工,而是鼓勵兒童在市場的不確定性中學習,決策中會隱含風險,決策正確會得到較高報酬,決策錯誤會得到經濟規律的懲罰。」
老大(大女兒)把「小狗錢錢」理財書借去,讀的津津有味,她為自己設下了存錢與運用金錢的目標,實行記帳,並開始找尋靠自己可以賺錢的方式。的確,大女兒已經在實驗小學讀到六年級了,是時候可以來實驗一下「創業」了。我們討論過,以她的起點,商業模型還非常原始,例如參加市集擺攤、陪伴、或者跑腿服務。暑假時,她提出「幫社區倒垃圾」的點子,這需要擬定目標客戶、服務時間等商業計畫,畫成海報文案,以及後台的記帳、客服與金流。
每天上班我都心想,要排一個時間跟老大坐下來討論商業計畫、畫海報,但工作忙碌實在排不出時間,如此暑假快過完了,看老大每天照常去游泳訓練、看Disney+、上網學英文,海報一點動靜都沒,當媽媽的是有點不耐煩,又不能越俎代庖,以免失去實驗的初衷。
到暑假快結束時,「奇異點」發生了,有一天下班回到家,老大拿出一個她與ChatGPT的對話紀錄,她問ChatGPT:「我是小學六年級的學生,我想要在我的社區幫鄰居做事賺零用錢」,ChatGPT與她一來一往對話,把客群、提案內容不斷精煉,最後產出一個提案:
倒垃圾做回收
讓我來幫你 🗑️♻️
您好!我是社區裡的小學六年級學生。
因為希望能靠自己的努力賺零用錢,也想要幫助社區裡需要幫忙的鄰居,所以提供這項 倒垃圾、做回收的小幫手服務。
專為以下對象服務
- 行動不便的長者
- 有看護的長者
- 忙於照顧小孩的上班族爸媽
- 想節省時間或單純不想自己倒垃圾的人
服務內容與收費
- 倒垃圾 🗑️:$5/次
- 資源回收 ♻️:$5~10/次(依量可調整)
服務時間
- 最早 7:30 起(晚上)
- 可選 晚上7:30~8:50 之間的時間 (為了方便安排,建議您提前告訴我需要幫忙的時間)
特色
- 小學生服務,安全可靠
- 認真、負責,會準時完成
- 主動幫忙,不麻煩客戶
- 價格實在,社區限定
聯絡方式
這提案結果真讓人驚訝, 甚至比我自己陪伴大女兒做得還好。我想用「奇異點」這個名詞來描寫我的驚訝,「科技奇異點」的定義是指「當人工智慧或機器智能發展到超越人類智力,並以我們無法理解的速度加速發展的臨界點」,或許我可以創造一個「數位原生世代與AI協作的奇異點」定義:「數位原生世代的人類與人工智慧協作,以更早世代的我們無法理解的速度與方式學習」。
提案形成後,大女兒問ChatGPT:「可以請你幫我把它設計成用A4紙張可以直接抄下來的圖嗎?」(意思是請你幫我生成一張A4海報),ChatGPT生成了一張死板,且顯然不懂繁體中文的海報:

有意思的是,小學生「並不會」照單全收ChatGPT交出的成果,她仍會觀察、評估、判斷這個結果是不是符合她的目標。評估ChatGPT畫的海報實在太差,她決定用手繪的方式製作海報,結果更加地樸實、童趣,更有質感。

小學生用手繪的海報,果然比較有手寫感,散發著溫度,我將這張海報拿到樓下,詢問社區總幹事能否在電梯裡面張貼,張貼一個月需要多少錢? 社區總幹事本來板著臉,一看到海報表情就瞬間柔軟了 。我也把海報分享給昔日研究室的導師與同學,結果得到的回饋都非常正面,昔日導師說「看到這個AI顯然已經意識到高齡社會了,老人真的很需要陪聊天 陪散步 陪運動 陪買菜 陪做菜 幫忙找手機 找文件 幫忙洗衣服 倒垃圾 等等日常生活服務,有些長照2.0有提供,有些則還是缺口,女兒實在是太有愛心了」。
導師的回饋讓我不斷思考,「大語言模型,真的有溫度嗎?」, 日前一則華爾街日報報導,提到紐約有一位深陷妄想症的退休男子,不斷與ChatGPT對話後,加劇了妄想(包括懷疑母親對自己下毒,而ChatGPT安撫他你並沒有瘋狂),最後當事人自殺的案件。家長不免擔心自己的孩子與ChatGPT聊了甚麼,我也是,因此規定女兒必須用我的帳號使用ChatGPT,但這應該只能撐到她上中學。
然而,將女兒的使用經驗與那位紐約人的使用經驗粗略比較後,我倒是發現,那位紐約人是一個沒有同儕的孤獨的人,而女兒並不是,她有很多同儕可以互動、討論,也有父母可以商量。因此,我推測一位有正常人際網絡的用戶,她除了在AI裡面找答案,也會在現實世界得到更多方面的回饋,協助用戶不至偏離大多數人的認知。另外,「溫度」與「對人同理」這件事,仰賴人與物理世界互動來累積,累積的知識被語言或符號編碼過後才能為AI所掌握,所以大語言模型真的有溫度嗎? 我們能否說,溫度,或正確理解世界的尺度存在於使用者的心中,使用者會影響AI到底有沒有溫度,或是透過發問提供AI比較合理的角度(也是一種訓練AI的過程)。我初步的觀察結論是,大語言模型可能並不真的有溫度,使用者這個「人」才是核心,人才能決定結果是不是具有溫度。
註:下一篇分享小學生社區創業計畫的執行歷程。