Anna个策略轉譯視界-avatar-img

Anna个策略轉譯視界

3 位追蹤者

Anna个策略轉譯視界

3 位追蹤者
法律系與哲學所、非營利組織管理所背景,專注發展ESG、動物福利、永續策略與社會創新 結合理性思辨與實務經驗,書寫觀點、策略與日常觀察,探索價值如何轉化為影響力與可持續行動 不打造善良人設,也不製造對立,只留下清晰、耐用的思考框架與實踐路徑
avatar-img
Anna个策略共構視角
4會員
11內容數
擅長解構與建立系統性商模策略,規劃落地方案 專注於行銷、管理、動物福利、ESG、社會創新 唸過法律系/哲學所/非營利管理所 這裡紀錄我對世界的觀察方式 ----------- 嘿!我不是來替你解題的 我是來重新描繪題目的人
全部內容
由新到舊
為什麼公司有了錢與人,反而長不大了? 許多企業真正卡住的時刻,是在已活下來、開始有資源的「成長期探索階段」。此時常出現三種狀態:過度追求完美導致決策停滯、同時推進多方向卻無法收斂、以及捨不得放手而受限於過去成功經驗。企業需要的往往不是更努力,而是調整決策方式,學會在探索與收斂之間找到節奏。
Thumbnail
資料科學、機器學習與監督式學習,不只是 AI 技術,而是三種不同的思考模式: 資料科學像整理者,先把混亂世界排出秩序;機器學習像實驗者,先做再調整;監督式學習則是兩者的協作,先定義答案,再透過不斷嘗試逼近結果。理解這三種模式,有助於辨識自己的工作習慣與決策方式。
Thumbnail
多數企業不是不想轉型,而是不知道該從哪裡開始。 特別是製造業與代理商,面對 ESG 的第一反應通常是:「那就先算吧。」 但「算」只是起點。 真正決定成敗的,是那個起點能不能被延展。 <轉引本文/改編本文請標註作者(Hsiao-Hsuan Chang, 2025)以及附上本文連結> 一、
Thumbnail
在研究 AI 的過程裡,我常會思考一個問題: 「如果 AI 真的能學會思考,那它學到的,是人類的知識,還是人類的價值?」 LLM 負責「知道」;監督微調讓 AI 學會「模仿」;RLHF ,教它「選擇」 這三層結構反映人類從「知識」到「判斷」的過程, 也是 AI 學習成為「懂人」的發展路徑。
Thumbnail
這篇專欄以黑客松比賽經驗為引,對照 AI 的兩種思維:垂直(Vertical AI) 專注深耕;水平(Horizontal AI) 強調跨界擴展。這兩種模式同時也映照人格傾向與策略選擇:垂直帶來深度優勢;水平帶來靈活連結。真正的關鍵不在於選邊,而是依情境靈活切換,讓深度與廣度互補,推動創新與競爭力。
Thumbnail
黑客松並不只是「創意比賽」,而是一個壓縮版的現實縮影。 它讓我看見了什麼東西容易被快速理解、什麼東西需要時間才能被看見;也讓我重新思考,當我們在推動永續商業模式或 ESG 時,該如何把「不可見的價值」轉化為「可理解的語言」。
這是AI 無法理解人類核心概念與語意差異、語意預測盲區的具體案例、AI 對語境創新與語場稀有性的不適應。這個概念從未在我過去的專欄中被清楚拆解過,故我在此也重新強調了「人類主體意識」的重要性。
現代社會對於「獨立思考」的能力重視,似乎已轉變為一種無形的道德壓力。當我們習慣讓 AI 回答問題時,我們真的還有思考嗎?這篇從語意鏡像和自我認知切入,提出一個核心見解。
當對話中不再有「他者」, 和語言模型溝通不同於與人類進行對話, 從我們開始與 AI 頻繁互動之際,一場結構性的語言模式轉變就已經開始。
在AI高速發展的這個時代,人類即將被迫正視這個問題「追求自我的時代, 讓人類更容易墜入AI模型幻覺」。 本文將說明如何辨識AI模型幻覺與自我認知之間的關係,並且藉此打破語意結構盲點,達到凌駕於AI之上,讓AI真正成為人類使用者的工具而非替代品。