目錄
嗨,大家好,我是阿峰老師。最近常在跟大家分享AI在未來的各種機會與挑戰。AI 的快速演化,或許會為醫療、交通甚至氣候議題帶來重大突破,但同時,也潛藏著操控人心或軍事化的危機。
我常提醒自己,這不僅是科技的演進,更是對人類價值與社會結構的深層考驗。
我們看到AI能夠自動學習、優化決策,卻也看到社交媒體演算法為了吸引流量,而不斷刺激人類的恐懼與憤怒;或是軍事應用中,AI透過分析大量資訊來標定攻擊目標,最後依然由人類扣下扳機,卻造成難以衡量的後果。這些例子都揭示了AI發展的雙面性,而我們必須對這些正反面的狀況有更深的了解。
大家應該都有聽過《人類大歷史》的作者 Yuval Noah Harari,他曾指出
AI並不只是「人工的人工智慧」,更像是一種「外星智慧」。
他的意思是,AI的運作模式和人類思維完全不同。AI蒐集並分析資訊,並進行決策的過程,就像是一個人類無法直覺理解的「未知生物」。
我印象最深刻的是,他舉了社交媒體演算法的例子:
為了增加使用者停留時間,演算法發現最有效的方式就是激發人類的負面情緒,像是仇恨、恐懼或貪婪。
這些演算法雖然還算「原始」,但已經在改變世界的走向;它們讓整個社會更加分裂,對立也越來越嚴重。即使是看起來很無害的使用者體驗優化,都可能把人類的情緒帶往不可收拾的方向。
我常跟企業主管們討論,AI 在醫療、物流或金融等領域,的確能帶來正面且驚人的進步。例如:
AI 醫師能全天候照護病人,或是自動化物流系統降低人力與運輸成本。
但在全球化的競爭壓力下,許多公司會因為害怕被對手超車而在短時間內投入大量資源,卻忽略了倫理與安全機制的建立。
這種「對手搶先就一路衝到底」的心態很危險,因為在缺乏全球協調或產業共識的情況下,AI可能會被推向更危險的應用面。
企業主若只關心效益和收益,而少了對風險與道德的關注,最終恐怕會搬起石頭砸自己的腳。
特別是在董事會和高階管理層,我一直強調必須同時思考「創新」與「管控」的平衡,而不是只追求短期利潤。
Harari 談到的「信任困境」同樣讓我非常有感。
企業之間互相競爭,不敢放慢AI研發的腳步;國與國之間同樣如此,誰都怕落後。所以,我們寧可讓AI快速成長,也不願意坐下來討論一套規則。
更矛盾的是,明明知道AI可能會帶來不可預測的後果,我們卻寧願相信AI,因為我們不相信其他人類。
現在有越來越多的決策交給演算法,包含銀行的貸款審核、保險費率計算、公司的人才招聘。高階主管往往想要提高效率與精準度,卻忽略了演算法可能帶來的偏見或不透明風險。一旦演算法成為企業的「AI官僚體系」,容易加劇社會不平等,也可能引發新的危機。
最後,我想引用Harari的一句話:
「如果有一天毀滅了我們的,不會是鋼鐵機器人,而是人類自己的神話與偏執。」
AI怎麼發展,最終關鍵仍在於我們如何決定。
「AI」代表的是一個強大的工具,但若我們在彼此不信任中,將所有決策交給了AI,反而失去了人性的溫度與堅持,那才是最大的危機。
因此,企業領導人和政策制定者必須攜手合作,從制訂AI倫理與使用規範開始,深入思考AI在數據處理、決策透明度等層面的要求。也要加強國際之間的協調與協作,別把科技的方向只交由少數公司或少數國家決定。當然,我們一般民眾也不能掉以輕心,多了解、多學習相關知識,才不會被演算法牽著鼻子走。
說到底,AI是否能成為人類的推手或阻力,就看我們怎麼使用它。在這裡,阿峰老師也希望提醒大家,若你對這方面的議題感興趣,歡迎持續關注我的分享或直接與我聯繫。一起讓我們在充滿不確定的AI時代,穩穩走出更好的未來。
AI的世界變化很快,阿峰老師會不斷更新最新的AI資訊和技巧,讓大家持續進步。如果你也想學習更多關於AI訊息,歡迎隨時與阿峰老師聯繫。阿峰老師會持續推出更多實用的教學內容,幫助大家在AI時代中,更加游刃有餘!
資料來源
標題:【人工智能】Yuval Noah Harari 哈拉瑞 - AI 如何毁滅人類,目前為止最清晰的解釋 |《人類大歷史》作者 | 早晚會思考的問題
來源:YouTube 頻道
連結:https://www.youtube.com/watch?v=xNVi2ASAHyE