2023-04-28|閱讀時間 ‧ 約 2 分鐘

人機共作的期中報告

    改期中報告,遇到一個用ChatGPT的高手。
    為了預防AI代答,我試著把問題問得很細,譬如是否同意某議題下的某論點、列舉三個理由、做法或預防策略,附帶案例說明與優缺點評論等。
    在這種設定下,AI容易答非所問或空話一堆,而且難以提出具體案例。這也可以檢驗Google搜尋法,因為靠關鍵字複製貼上,基本都會答非所問,或不同小題裡出現矛盾內容。
    但這位同學不太一樣,他應該沒有每題都使用AI。就算有,也是先自己寫出點東西,再叫AI補充和潤飾,所以空話堆砌、抽象案例的狀況都不太明顯,讓我有點難判斷。
    但他可能不知道,ChatGPT會自己捏造參考文獻,譬如這段:
    「2013 年發表的一篇名為《Responsibility as a Fundamental Human Need》的研究報告中,研究人員指出,責任感是一種基本的人類需求,它可以促進人們的幸福感和健康狀態。」
    這語法實在太典型了。但說真的,我還不太肯定人機共作該怎麼評分,尤其是學生提供基本想法,而AI補充和潤飾的話。
    就人機共作的狀況,目前非常難以確認,學生到底替報告內容貢獻了多少東西,除非你從頭到尾看著他如何用。
    另外感謝網友提供資訊:臺大圖書館近來也有發文,提醒大家不要輕易相信AI文獻。
    分享至
    成為作者繼續創作的動力吧!
    從 Google News 追蹤更多 vocus 的最新精選內容從 Google News 追蹤更多 vocus 的最新精選內容

    哲學開箱文的沙龍 的其他內容

    你可能也想看

    發表回應

    成為會員 後即可發表留言
    © 2024 vocus All rights reserved.