因為大腦損傷,許多病友無法表達自己想說的話。
若是連手臂也呈現癱瘓的狀態,就連手語、書寫也力不從心。
--
已故的英國理論物理學家 史蒂芬.霍金 (1942-2018),生前因罹患運動神經元疾病 ( Motor Neuron Disease, MND),開口說話越來越困難,在氣切後更是無法發出聲音。
當時的解決方法是以偵測眼球方向選字再用電腦語音重構輸出,然而如《愛的萬物論》中提及,要像霍金一樣學習快速、精準有效選字的人仍佔少數。
--
因此若能直接擷取大腦訊號,或能解決一部分的問題。
所以,打開頭顱的時代來臨了
神經外科醫生 Edward Chang 的團隊藉由埋在大腦皮質的電極接收訊號
還有以 深度學習 (Deep learning, DL) 的方式建構腦波辨識系統
首先,
病友需要先按照指示嘗試說出螢幕上的50個字,作為機器的訓練資料。
和 機器學習 (Machine learning, ML) 不同的是,深度學習的目標是讓機器自由找尋規則,起始階段嘗試說的那50個字,就是要用來訓練機器學習如何辨認使用者的大腦訊號。
訓練結束後,
下個步驟是用這些字建構出句子,為了讓猜測更準確,研究團隊於過程中加入自然語法模型協助猜測句中會出現的單字,經由這個方法可達到每分鐘 18 個字的說話速度。
不過目前的進度,仍與一般語速的一分鐘 120-180 個字有距離,未來還有很多挑戰需要克服,期待「我的大腦有嘴」的時代早日到來。
最近看的一部韓劇跟機器學習有關,有興趣的大家可以去看看