身為實驗極小白,我想,這不是一篇介紹與科普的文章,因為我的目標是確認自己對論文理解度,而記錄一些筆記(&查到的某些神奇但不重要的資料),教自己一步一腳印看圖表之餘,順便加強邏輯思考能力,可能有過於瑣碎的問題,不過若有機會使讀者更認識這篇研究,那我會很開心~
讓烏賊戴上3D眼鏡做實驗是一大創舉,因此基本上網路搜尋幾個關鍵字,就有大量介紹文章與圖片,我也很推薦方格子上由
陳政佑所撰寫的
【CCC Lab 讀書會筆記】酷了吧!烏賊也有3D電影院科普文,有興趣可以看看,(在我報paper前)實在是獲益良多。另外若我寫的內容有謬誤或對其有不同想法,也歡迎讀者提出或與我聯繫,讓我能修正與進步,畢竟我還是對許多部份了解不夠透徹,請各位不吝指教。
論文標題:Cuttlefish use stereopsis to strike at prey - 第一作者:Rachael Feord (她是Cambridge畢業生,現在去當公司業務經理了)
- 指導教授:美國明尼蘇達大學的Paloma Gonzalez-Bellido、Trevor Wardill老師
(兩位老師也有在做果蠅的神經行為研究。其中Wardill老師擁有廣泛興趣,章魚亦是他的研究對象,目前還有進行章魚如何控制觸手做獵物捕抓的實驗。有興趣可以搜尋一下他的lab,老師正在徵求博士後研究生~)
雖然烏賊在進化的道路上很早就與脊椎動物分道揚鑣,但眼睛結構卻和我們有高度的趨同演化(為了生存需要,演化出相似的身體構造),有一雙美麗的透鏡眼,那他們看到的世界和我們一樣嗎?為了瞭解他們視覺資訊如何被處理,研究團隊給烏賊戴上了3D眼鏡!
實驗設計構想來自於過去由Newcastle大學Nityananda教授所作的螳螂研究(對,他們讓螳螂成為第一個戴3D眼鏡的昆蟲)
考慮到關於脊椎動物立體視覺的研究已累積大量資料,他們決定以此方向切入分析,所以第一個實驗,就是要確認烏賊有沒有立體視覺。
什麼是立體視覺(stereopsis)?簡單來說,由於兩隻眼睛位置稍微不同,每隻眼睛接收到的影像會有些差別,透過比較兩眼不同影像而獲取深度訊息、感知物體遠近的能力就是stereopsis。
實驗開始!!!
第一部分
透過呈現具有不一樣間距(disparity)的紅蝦藍蝦影像,虛擬蝦子會分別出現在螢幕上、螢幕前、螢幕後,而戴上眼鏡的烏賊如果具有立體視覺,就會根據對焦出來的虛擬蝦子調整自己與螢幕距離。【C圖】
而通過計算烏賊兩眼間距(interocular distance)與disparity的比例、從0 disparity所量測的眼睛到螢幕距離(distance from screen),我們可以估算出虛擬蝦子位置,因此也能以此推算不同條件下烏賊所需要的螢幕距離預測值。【D圖】
- [關於C圖:在讀書會討論時有產生一些對圖標的疑惑,照理說眼鏡是過濾掉該顏色濾鏡的光,因此左眼應該看不見藍蝦,而是偵測到紅蝦,同理右眼偵測到的應該是藍蝦。猜測他們想讓讀者快速理解而選擇這麼表示,還是他們眼鏡顏色畫錯?可是不管哪個理由誤導都太多了吧]
經過影像分析,可以發現在+disparity越大(虛擬蝦子成像在螢幕前)時,烏賊與螢幕的距離越大,表示牠的確使用雙眼立體視覺去感知蝦子位置,所以為了看清楚蝦子,烏賊必須退後。【E圖】
再來則是觀察不同disparity條件下,烏賊距離預測值-實際測量值差異,可以發現每個數據點差值落在2.5公分上下,表示烏賊與我們預估出來位置差別不大。【F圖】
- [有關F圖:但是disparity是-1(紅點)或3(綠點)時,預估值與實際量測值有一定差距是為什麼呢?表示我們預測牠應該更往前進或更往後退,但實際量測時卻沒有。推測因為螢幕只擺在缸子一側,當蝦子成像在螢幕後時,烏賊最多只能貼在螢幕前無法再往前進,還有缸子過小限制了烏賊退後,兩個原因造成量測值無法與預估值吻合。讀書會中我們有想到一個方法,如果能再加大缸子長度,可以改善無法後退的問題,另外若有辦法在缸子中央進行蝦子影像投射,在前進上問題也能獲得改善。而要怎麼在水中投影,就是另外一個問題了...]
團隊接著量測攻擊腕(tentacle)長度,發現比起+1~+3 disparity,在-1與0 disparity條件下的烏賊攻擊腕長度較短,這是因為他們離螢幕距離較近,導致攻擊腕無法完全伸長,因此再一次證明他們使用立體視覺。【G圖】
這裡同樣做了攻擊腕預估值與實際值差異分析,可以看見+1~+3 disparity攻擊腕長預估值比實際量測值多了約2公分(黃紫綠點),也就是說,實際上烏賊比團隊預測更靠近螢幕2公分,所以攻擊腕沒有完全伸長,有可能是因為3D影像成像不佳,導致烏賊看不清楚,需要更往螢幕前進。【H圖】
- [有關H圖:讀書會討論中有猜測,這個2公分的結果可能是團隊進一步作第四部份烏賊眼睛角度觀察的主因,想看烏賊是不是真的更用力看影像]
為了確認蝦子影像部分不會影響烏賊到屏幕距離,他們進行control分析,圖中發現,不管蝦子用游的還是用走的,或改變螢幕的背景對比度,烏賊與屏幕距離上都是差不多的(沒有顯著差異),表示不論蝦子影像的速度為何、背景是黑or白,並不會顯著影響烏賊偵測虛擬蝦子位置。【A.C圖】
另一部份則要確認烏賊自身行為會不會導致偵測蝦子位置受影響,他們觀察烏賊頭部方向(以兩眼之間中線來測量)與烏賊眼睛到螢幕的距離兩者之間的關係,發現烏賊攻擊角度在正負50度間,而數據點分散無相關,表示烏賊頭的偏向和偵測位置沒有太大關聯。【A圖】
再來看到B圖,"眼睛到螢幕角度"與"攻擊腕到螢幕角度”呈現負相關,且兩者角度加起來會差不多等於90度,表示攻擊時烏賊的攻擊腕一直是垂直雙眼間連線的。既然攻擊腕不會隨意偏移,就代表烏賊偵測虛擬蝦子位置也不需要考慮攻擊腕亂偏的問題。【B圖】
第一部分告訴我們:嘿!烏賊真的有立體視覺。
第二部分 那有立體視覺真的有比較好嗎?搞不好單眼看物體,烏賊能力也不差?
團隊幫你考慮到這件事情了,所以他們用類似單眼效果的方法(Quasi-monocularly)進行實驗,給烏賊只看一隻紅色或藍色蝦子影像,然後會與使用紫蝦的烏賊(兩眼都偵測的到 ; binocularly)進行比較,以此確認烏賊使用立體視覺是否真的有改善捕食效率。【A圖】
(Quasi-monocularly:因為沒有遮住另一隻眼睛,所以不完全是monocularly)
實驗結果發現,烏賊掠食四階段中的瞄準部分(position那一列)確實存在顯著差異,在只用單眼時必須花更多時間、游行更長距離、更靠近螢幕才能有效對準獵物,不過其他階段則沒有太大差別,表示雙眼立體視覺的確改善烏賊瞄準的效率。【B圖】
- [有關B圖:讀書會討論提到,這邊似乎可以再加入一個量測標準,因為只有記錄烏賊到屏幕距離,而不確定烏賊瞄準的成功率,若能給蝦子設置一個方框分析烏賊打擊率,可以更確定使用單眼真的比較難瞄準。]
他們接下來觀察瞄準前後的時間長短有沒有關聯性,發現數據點也是挺分散的,表示無論使用單雙眼,瞄準前後時間並不相關。【左C圖】
右方C圖是觀察一剛開始烏賊所處位置是否影響其瞄準時間,數據點也是呈分散分布,表示不管烏賊最初離屏幕遠或近,跟瞄準時間長短沒有關係。【右C圖】
- [有關左C圖:我個人還是不太了解:這張圖觀察意義是什麼呢?如果有相關的話,要怎麼去解釋呢?不確定團隊當初為何需要對此進行分析。]
接下來他們去看烏賊是否對蝦子從不同方向出現有一定偏好,從圖中可以看到,蝦子往右往左於烏賊使用單雙眼沒有太明顯差異。【D圖】
- [有關D圖:但往左走的那一部份數據扣掉10.3秒後相對往右走花費時間少一些(少於5秒),有可能蝦子往右走時,烏賊就有注意到,但牠等到翻轉後才抓,所以反應時間能少於5秒。這部分讀書會提出更好的實驗設計是:直接讓蝦子從兩個方向出來進行記錄,比起中間翻轉,變因控制上較為一致。除非作者當初這麼做有更好的量測目的,不然這個設計的確存在瑕疵。]
第二部分驗證了:烏賊用雙眼瞄準獵物,還真的比較有效率
第三部分
實驗來到第三階段,他們同樣參考了Nityananda教授2018年所作的另一個螳螂研究,烏賊會看到充滿點圖案的螢幕,在影像呈靜止狀態時,我們無法辨認蝦子影像,但當影片播放,蝦子開始移動,且蝦子身上點圖案固定不變,因此會與背景形成對比,出現移動中的蝦子輪廓,因此烏賊可根據接受到的刺激進行攻擊,團隊給予烏賊三種不同的點圖案影像刺激,分別是A.相關(correlated)、B.負相關(anticorrelated)、C.無相關(uncorrelated),其中後兩者是想觀察烏賊對於局部亮度(較暗的蝦子)是否能有反應,以及兩眼接收的圖像是否需要有關聯性才會進行攻擊(烏賊會看到輪廓極度破碎化的蝦子,或者說,幾乎不能稱之為蝦子)。【A.B.C圖】
結果發現,相關刺激和負相關刺激的測試和第一部分實驗結果一致,越大的disparity,烏賊會離螢幕越遠,且和預測的值差距不大,表示烏賊這兩個情況下都能正確感知烏賊位置,而無相關刺激則是因為烏賊沒有進行攻擊,因此視為烏賊無法對其產生反應。也就是說,烏賊會攻擊暗一點的蝦子,但對於看起來不太像蝦子的東西則不會做捕抓。【A圖與B圖】
第三部分告訴我們,烏賊還是可以正確感知亮度低的蝦子,但對於會動的四不像物體,他們不會進行攻擊