這聽起來是前端科技,其實並不是。
這是日本最先進2017年底,最新發布的成果,距離已經過了7年:
可以注意到科學家已經可以提取腦子中的資料,可以注意到畫面的還原清晰度不高,尤其是下方的三個教堂窗戶,看起來是一體的。
而最近經過AI辨識,可以高效率讀取腦中畫面的畫面,但是可能不是最直接的畫面: 如下圖
經過AI學習,得以判斷人腦正在想甚麼,正確率84% [1]
也許會有人提問
第一種方法和第二種方法哪裡不一樣。
第一種方式是直接還原腦中畫面,當然也用到AI。不過第二種就真的是用AI圖片,最後產出的圖片也是其中的圖片。
第二種方式用AI判斷腦子看到什麼,再用圖片資料庫中最接近的圖片輸出。例如看到長頸鹿,經過分析後,從圖片資料庫選出長頸鹿的圖片。
如果時間充裕,也許以後可以聊一下AI學習的過程,若有那個餘裕...
謝謝給我很多愛心的讀者。
[1] https://tw.news.yahoo.com/%E9%80%8F%E9%81%8E-%E8%A7%A3%E7%A2%BC-%E8%85%A6%E6%B3%A2-%E6%97%A5%E6%9C%AC%E5%9C%98%E9%9A%8A%E7%9A%84-ai-230000253.html