確定之後再分享(S.U.R.E.策略)

確定之後再分享(S.U.R.E.策略)

更新於 發佈於 閱讀時間約 3 分鐘


今年八月下旬,CONCERT(全國學術電子資訊資源共享聯盟)的教育訓練邀請了新加坡管理大學圖書館數位創新館員Ms. Samantha Seah以「為圖書館員解構AI素養 Deconstructing AI Literacy for Librarians」為題發表演講(CONCERT教育訓練網站在此,有錄影回放),她在演講中提了S.U.R.E.策略做為教育學生資訊素養、AI素養的一環。今天上網搜尋,發現這是新加坡國家圖書館管理局(National Library Board, NLB)在2013年所提出,而後又升級為S.U.R.E. 2.0,針對學校、工作、生活等不同需求的受眾提供了不同的資源。



Be S.U.R.E. Before You Share (確定之後再分享)

S.U.R.E. 包含四個步驟:

資訊來源(Source)

檢視資訊原始來源是否值得信賴?確定資訊來源是可信的(credible)且可信賴的(reliable)。

瞭解(Understand)

熟悉你正在閱讀的資訊,進一步檢索以求釐清。尋求事實而非看法。

研究(Research)

進一步鑽研,除了最初的資訊(或是你正在閱讀的這份資訊)外找尋更多的線索。在你下自己的結論之前多方仔細探究,查核與比較來自多個來源的資訊。

評估(Evaluate)

取得平衡,做成公平的判斷。從多角度檢視,畢竟故事至少總有兩面。

說來,在各類社群媒體充斥的今天,太容易轉發PO文了!在轉發之前先確定一下吧。又或者,沒有把握就不要轉發。

Samantha在她的演講裡進一步把S.U.R.E和生成式AI產生的資訊相連結:

  1. 資訊來源(Source):(1) 如果產生的內容有參考文獻,請針對參考文獻進行查檢。參考文獻是否與你給的提示詞(Prompt)相關?(2) 如果沒有參考文獻,請找出與你查找的主題相關的可信來源。
  2. 瞭解(Understand):產生的內容是事實或是看法?內容是否含糊不清?是否帶有偏見?
  3. 研究(Research):(1) 取決於你所查找的主題,要熟悉你可以透過甚麼管道進一步查找以確認生成式AI產生的內容。(2) 如果你在研究中想參考主題領域的新發現,請用圖書館所提供的權威資料庫。
  4. 評估(Evaluate):在你將生成式AI產生的內容與他人分享或使用在你的工作中之前,請進行判斷。
avatar-img
百世經綸的閱讀窩
9會員
55內容數
留言
avatar-img
留言分享你的想法!
百世經綸的閱讀窩 的其他內容
這篇文章討論ICOLC於2024年3月22日發布的關於授權條款中人工智慧相關議題的聲明。該聲明針對生成式AI和大型語言模型的快速發展,以及其對電子資源授權條款的影響,提出六項原則,以確保圖書館使用者權利並支持非營利研究、教學和學習。
美國研究圖書館學會(ARL)發表《研究圖書館人工智慧指導原則》,本篇部落格文章探討這些原則,並呼籲負責任地發展和部署人工智慧。文章探討人工智慧的潛力和挑戰,強調圖書館在促進人工智慧民主化近用、理解和減輕偏見、倡導透明度和資訊誠信、保障使用者安全和隱私以及維護學術用途方面的關鍵角色。
IFLA於2025年4月通過了《IFLA著作權與人工智慧聲明》,提及AI技術為圖書館帶來許多考量,包含內容使用方式與對象。IFLA建議圖書館倡議權利人與供應商不應在合約中納入妨礙或不當限制圖書館使用者使用 AI、建立能力並提供相關訓練、支持作者,以及各國政府應以人權公約為指導制定AI相關法律規範等。
這篇文章討論ICOLC於2024年3月22日發布的關於授權條款中人工智慧相關議題的聲明。該聲明針對生成式AI和大型語言模型的快速發展,以及其對電子資源授權條款的影響,提出六項原則,以確保圖書館使用者權利並支持非營利研究、教學和學習。
美國研究圖書館學會(ARL)發表《研究圖書館人工智慧指導原則》,本篇部落格文章探討這些原則,並呼籲負責任地發展和部署人工智慧。文章探討人工智慧的潛力和挑戰,強調圖書館在促進人工智慧民主化近用、理解和減輕偏見、倡導透明度和資訊誠信、保障使用者安全和隱私以及維護學術用途方面的關鍵角色。
IFLA於2025年4月通過了《IFLA著作權與人工智慧聲明》,提及AI技術為圖書館帶來許多考量,包含內容使用方式與對象。IFLA建議圖書館倡議權利人與供應商不應在合約中納入妨礙或不當限制圖書館使用者使用 AI、建立能力並提供相關訓練、支持作者,以及各國政府應以人權公約為指導制定AI相關法律規範等。