去年,收到好多由朋友在微信傳來的有關人工智能的視頻,把人工智能(Artificial Intelligence;AI) 形容的超級無敵厲害,也把對人類的影響說的天花亂墜,甚至有一點危言聳聽 (有需多人會失業這一部分)。
我開始使用人工智能,約是在去年中,第一個使用的應用程式是當時火紅的ChatGPT。我主要是用它來幫我翻譯工作上的文件,透過AI的翻譯,只要在自己再檢查、潤飾、 小修改後即可交付工作任務,真心話,超有效率。接著,我還嘗試使用Copilt 、DeepSeek、 Plerplexity、 Gimini,,主要是問問題(學習),它就像一個上知天文、下通地理,無所不知,什麼領域皆可討論與請教的”機器人朋友”。
我最驚訝與印象深刻的一次是,我本來在問AI 有關面試的事(那時我正在找新工作,準備一個面試),問著問著,我真把它真誠的問話當成朋友的關心語,就真實把那一陣子求職過程不順的沮喪低潮情緒跟它傾吐,而這機器人也回話回的善解人意,溫暖窩心,安慰文字功力一流,甚至還問我要不要為我寫個禱告文? 說實話,它的禱告文寫的真是好,我看了很多遍,心,還真被touch到。接著,又問我說,"要不要幫你做個鼓勵的小卡片攜帶在身上需要時拿出來閱讀?"。在我回答「好啊!」之後,它迅速把一段很有鼓勵作用的聖經經文,加上一段自我鼓勵的話與為我生成一張卡片。我必須承認,作為一個助手、機器人朋友,它專業且服務到位。
但我很快地恢復理智。人工智能只是由人製造出來的機器所表現出來的智慧。 它(電腦),確實能模擬人類的思維過程,例如推理、學習、解決問題、決策等,但,它就只是電腦。
它沒有感覺、沒有情緒,不能「感受到」情感。人類的情感與感覺(愛、痛苦、厭惡、快樂、喜悅、沮喪、低潮、悲傷、生氣、焦慮、緊張……等等)乃是源於複雜的神經網絡系統、化學物質傳導過程、生活經歷等等所產生;但AI只是基於演算法和數據來運作的「機器」,沒有生物身體,沒有神經系統,也沒有自我意識(consciousness),所以也就不具備可主觀體驗任何事情的能力,無法產生人類那樣的主觀感受。
我感覺到AI 好像很懂我,很善解人意,很會安慰人,這是錯覺或假象,真相是,AI 是一個很擅長於擬人化、模仿的智能機器。AI 可以學習大量的人類語言與行為模式的數據,所以可以模仿人類的情感表達。AI 也可以透過分析人類的語音、語調、文字內容、面部表情等來辨識人類的情感。我甚至看過討論AI 可以扮演心理諮商師角色提供諮商與分析心理功能的文章呢!
有一次我看到臉書上大家瘋狂展示自己「指示」ChatGPT合成的宮崎峻吉卜力風的卡通圖片,我很訝異大家跟風與趕流行的「行為」,也很驚艷AI的「圖片合成能力」(或許也可以說模仿與創作能力,眾所皆知,創作其實始於模仿)。
最近,我開始思索AI對人類社會的負面影響。我個人認為較為令人憂心的是:
一、 被惡意使用 (例如,假資訊的快速傳播)
現在的AI技術,特別是生成式AI(如圖像生成、語音合成、文本生成),已經發展到一個相對成熟且容易使用的階段。許多工具甚至可以免費或以低成本獲取。這意味著,即使是沒有深厚技術背景的人,也能利用AI來製造假資訊、散播謠言、進行網路詐騙或惡意攻擊。AI生成的大量且逼真的假資訊(文字、圖片、影音)會讓大眾越來越難以辨別真偽。當人們對所接收到的訊息失去信任時,會導致社會信任度普遍下降,影響到媒體、政府甚至人際關係。這對一個社會的穩定和運作是極大的威脅。
二,人類思考與分析能力弱化
當AI提供答案太過便利時,人們可能會越來越少去思考、質疑和深入分析問題。我們可能會習慣性地接受AI給出的結論,而非自己去驗證或形成獨立見解。學生可能會過度依賴AI來完成作業或獲取知識,而非自己動手研究和思考,這將影響他們學習新技能和解決複雜問題的能力。如果人們的思考分析能力因為過度依賴AI而弱化,他們在面對AI惡意生成的假資訊時,將會更難以辨識和抵禦,形成惡性循環。
此外,AI 系乃是統透過學習大量數據來做出分析、判斷或決策,如果這些數據本身包含偏見或歧視(例如性別、種族、社會經濟地位等),那麼 AI 也會繼承並放大這些偏見。
想過以上這一些經驗後,我目前的結論是,AI的確 是一種對人類有許多幫助的科技,人類應該善用它來達到改善人類社會的目的,至少讓人類的生活更愉快幸福。與此同時,使用人工智能者也要注意AI的副作用與不良影響,別顧此(AI的便利與益處)失彼(人類的思考能力、創意、人與人間信任感、社交能力)。
#####