2024-11-24|閱讀時間 ‧ 約 0 分鐘

AI投毒第一案! GPT寫的程式碼竟有後門程式設計師被騙2500美元

近日,一起由人工智慧(AI)生成的程式碼引發的詐騙事件震驚了開發者社群。一位程式設計師因使用ChatGPT生成的程式碼而遭受重大損失,這一事件被譽為「AI投毒第一案」。據報導,受害者在開發自動頂貼機器人的過程中向AI尋求指導,不料卻步入了詐騙者的陷阱,最終損失達2500美元。

事件詳情

這位受害者在開發自動頂貼機器人的過程中,使用ChatGPT生成的程式碼作為參考。根據ChatGPT的建議,他訪問了一個被推薦的Solana API網站,但該網站實際上是一個設置了後門的詐騙平台。受害者未經充分檢查,竟將自己的主Solana錢包私鑰提交給該網站。結果,在短短30分鐘內,所有資產被轉移到詐騙者的地址上。

事後反思,受害者意識到了自己的疏忽,呼籲社區協助封鎖該詐騙網站,以免更多人蒙受損失。他希望能夠追蹤詐騙者並追究其法律責任。

安全警示與建議

此事件引發了對使用AI生成內容安全性的深刻討論。安全專家們提出以下建議:

  1. 不盲目使用AI生成的程式碼:用戶應對AI生成的代碼進行仔細審查,特別是涉及敏感操作或資產的情況。
  2. 私鑰管理:私鑰應當保存在離線環境中,避免在網路上明文傳輸或存儲,以減少被盜風險。
  3. 選擇可信來源:僅使用來自可靠且經過驗證的API和服務,避免使用不明來源提供的資源。

如何識別和防止AI產生的惡意程式碼

專家建議開發者和用戶採取以下策略來提高安全性:

  • 靜態分析工具:使用靜態分析工具檢查生成的程式碼,以識別潛在的安全漏洞。
  • 代碼審查:在將AI生成的代碼用於生產之前進行詳細的代碼審查,確保其功能正確且無後門。
  • 關鍵字檢測:建立一套關鍵字庫,用於檢測惡意程式碼模式,如後門或數據竊取行為。

結語

這起「AI投毒第一案」的事件不僅凸顯了AI在編程中的應用潛力,也警示了其可能帶來的安全挑戰。用戶和開發者在使用AI工具時,必須保持高度警覺,並採取有效措施來防範潛在的安全風險,以確保資產和數據的安全。

分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.