海洋生物 ( 鯨豚 ) :
AI 輔助分析理解動物語言的實際可行操作方法主要依賴被動式水下聲學監測 (PAM) 技術和先進的機器學習 (ML) 與聲源分離演算法。以下根據資料來源,列出實際可行之操作方法與技術:
一、 數據採集與系統建置 (Data Collection & System Setup)
1. 建置長期監測系統: 採用底碇式水下聲學監測系統,進行長時間、連續性的錄音。 ◦ 儀器規格: 選擇符合監測目標物種聲音特性要求的海洋錄音機,例如 Soundtrap
300 HF。對於海豚科動物,儀器需能有效收錄聲音,建議取樣頻率至少
達 96 仟赫茲(含)以上,本計畫採用的取樣頻率為 192 仟赫茲,且可
連續監測 14 天以上。
◦ 操作流程: 需規劃詳細的標準作業流程說明書,內容涵蓋儀器選用、調查前置作
業、人員與船隻配置、現場佈放與回收方法,以及運用雲端平台與開放
工具分析水下錄音的步驟。
2. 蒐集多模態數據: 在更廣泛的動物情感轉譯應用中,AI 系統需蒐集多源異構數據,包
括動物的聲音、行為模式(如姿態、動作)及可能的生理特徵。
3. 聲學資料驗證 (Ground Truth): 為了驗證自動化偵測結果的可信度,可於儀器佈放
與回收作業期間,利用懸掛式水下聲學調查方法同
步進行錄音,蒐集目標動物(例如中華白海豚)的
聲音資料,並與自動偵測結果進行比對分析。
二、 AI 輔助聲音資料處理與分析 (AI-Assisted Acoustic Data Processing)
AI 輔助分析的核心是將大量水下錄音資料自動化轉譯為可量化的生態或行為指標。
1. 基礎聲音視覺化: 利用工具將原始錄音訊號轉換為時頻譜圖(Spectrogram)、波形
圖(Waveform)和功率譜密度(Power Spectral Density, PSD)
以視覺化呈現聲音特徵,特別是人耳無法聆聽的超音波範圍。
2. 聲源分離模型 (Source Separation Model): 運用機器學習模型(例如週期性編碼
非負矩陣分解法 (PC-NMF) 或其他基於非負矩陣分解法 (NMF) 的演算
法),從長期時頻譜圖中分離並重建各類聲源,以評估不同聲音對聲景
的貢獻。這些主要聲源通常包括:
◦ 生物聲音: 魚類合唱、甲殼類高頻聲音。
◦ 人為噪音: 船舶航行噪音、海事工程噪音。
3. 鯨豚聲音自動偵測與篩選: 針對白海豚等鯨豚物種的聲音特徵,建立自動偵測流程:
◦ 搭聲(Click)偵測: 採用基於機器學習的聲源分離模型,從時頻譜圖中辨識寬頻脈
衝聲波。
◦ 哨叫聲(Whistle)偵測: 運用局部極大值偵測器(Local-max detector)作為基
礎演算法,擷取高強度窄頻聲音片段。
◦ 噪音篩選: 搭配噪音篩選器,依據訊雜比 (SNR)、搭聲間距、搭聲數目、搭聲間距
變化平滑度等參數,過濾掉環境及人為噪音(如槍蝦、船隻聲納)造成
的錯誤偵測,以提高結果可信度。
4. 數據分析工具: 使用開源程式碼(如 Python 程式語言)在雲端平台(例如 Google
Colaboratory (Colab))上執行自動偵測、噪音篩選等分析工作。
三、 AI 輔助行為與情感轉譯 (AI-Assisted Behavior and Emotion Translation)
將分析結果進一步轉化為對動物行為和棲地品質的理解:
1. 行為模式評估(搭聲): 分析回聲定位事件的平均搭聲間距和搭聲數量的變化,作為評
估白海豚覓食行為的重要聲學指標。
2. 群體行為評估(哨叫聲): 分析哨叫聲的組成,例如頻率操作特性,用以評估白海豚的
社交行為。
3. 情感狀態識別與轉譯: 應用 AI 演算法分析多模態數據,識別動物當下的情感狀態(如
快樂、恐懼、焦慮),然後透過預設的語義映射規則和 自然語言
處理 (NLP) 技術,將情感狀態轉換為人類可理解的語句。這種
技術側重於解讀動物的情感信號而非複雜語言。
4. 棲地品質量化評估 (Soundscape): 運用聲景指標評估生態健康狀況:
◦ 食餌資源可得性: 以魚類合唱的偵測時間長度和聲音強度作為石首魚群聚活動的指
標,評估白海豚食餌資源的豐度。
◦ 棲地健康度: 透過聚類分析 (k-means) 識別動物聲音類別,計算 Shannon 多樣性
指數,作為海洋發聲動物群聚多樣性的指標。
◦ 棲地受脅度: 透過分析人為噪音的聲源分離結果,計算高強度噪音事件的發生次數
(例如船舶航行次數)以及每日噪音強度中位數,作為評估人為干擾頻
繁度和潛在威脅程度的指標。
5. 語言結構相似性分析: 應用定量方法(例如門澤拉特定律和齊普夫定律)分析動物叫
聲序列的構成和效率,將其與人類語言的結構特性進行比較,
以評估動物溝通系統的複雜度。
6. 文法規則驗證: 透過 AI 輔助聲音播放實驗(例如對大山雀播放不同順序的叫聲組合,
如「警戒·集合」和「集合·警戒」),驗證動物溝通中是否存在文法
或語序規則。
陸地生物( 寵物 ) :
AI 輔助分析理解寵物類(如貓、狗)動物語言的操作方法,主要是通過整合多種先進的 AI 技術,將動物的情感狀態 (Emotional State) 轉譯為人類可理解的語句,而非試圖翻譯其複雜的語言結構。
以下是根據資料來源,針對寵物類動物 AI 輔助分析的實際可行操作方法:
一、 數據採集與系統建置 (Data Collection and System Setup)
AI 系統需要蒐集多源異構數據,以全面捕捉寵物的溝通信號:
1. 多模態數據蒐集 (Multi-modal Data Collection):
◦ 聲音 (Acoustic Data):蒐集動物的聲音(例如,狗的特定吠叫或貓的叫聲)。
◦ 行為模式 (Behavioral Patterns):記錄動物的行為模式,如姿態和動作。
◦ 生理特徵 (Physiological Features):蒐集動物可能的生理特徵數據。
2. 數據處理與融合 (Data Processing and Fusion):
◦ 對蒐集到的多源異構數據進行標準化處理。
◦ 將這些數據整合成統一格式供後續的 AI 分析使用。
3. 輔助設備的應用:
◦ 可使用寵物智能穿戴設備監測寵物活動數據,儘管此類設備推測情緒的準確性仍有待驗證,但可用作間接推斷。
◦ 傳統的行為觀察和聲音分析技術(例如聲譜分析)仍是研究動物意圖和情感的基礎手段,AI 技術可在此基礎上進行深化分析。
二、 AI 輔助情感識別與轉譯 (Emotional Recognition and Translation)
AI 輔助分析的核心是利用機器學習模型,將寵物發出的多種信號解碼為人類可理解的情感狀態。
1. 情感狀態分析與識別 (Emotional State Recognition):
◦ 應用 AI 演算法、機器學習 (ML)、深度學習及自然語言處理 (NLP) 技術,分析融合後的數據。
◦ 識別動物當下的情感狀態,例如快樂、恐懼、焦慮。
◦ 應用實例包括利用 AI 分析動物叫聲來判斷情緒,例如被用於分析豬的叫聲以判斷情緒。
2. 語義映射與語言翻譯 (Semantic Mapping and Translation):
◦ 將識別出的情感狀態,透過預設的語義映射規則和 NLP 技術,轉換為人類可理解的語句。
◦ 實際轉譯範例:一隻狗的特定吠叫及行為模式,可能被綜合判斷為「興奮」,進而被翻譯成「我想出去玩」。此外,系統能夠解讀貓叫聲,例如分辨貓叫是出於飢餓還是不適。
三、 語言學基礎與技術焦點
此類 AI 輔助分析技術的設計,特別考量了動物溝通與人類語言的根本區別。
1. 區別動物溝通與人類語言:
◦ 人類語言具有離散無限性(用有限的建構塊創造無限量的訊息)、移位性(談論此時此地以外的事物),以及二層結構和開放性。
◦ 動物的叫喊往往是囫圇一團,表示某一固定的意思,是封閉的系統,且傳遞的信息是受刺激限定的。
◦ 因此,AI 技術的重心在於解讀動物的情感信號,而非試圖翻譯動物的複雜語言或思想。
2. 數據類型與應用前景:
◦ AI 透過分析多模態數據來識別情感,例如可利用 AI 算法分析豬的叫聲判斷情緒。
◦ 此技術的目的是提升動物福利,讓飼主能更準確地了解寵物需求。
3. 非科學溝通方法:
◦ 需與科學的 AI 方法區分,自稱能與動物進行心靈交流的動物傳心,被科學懷疑論者認為是基於冷讀法、認知偏見、心理作用或欺騙的偽科學。有語言學教授進行實驗後得出結論,人類語言具有物種獨特性,無法得知動物在想什麼。
◦ 傳統的訓犬師和動物溝通師的理解,則多依賴於長期的觀察和相處,來理解動物的習性和反應,而非透過實驗證明動物叫聲具有文法和邏輯。