在讀書會的第一篇paper -烏賊3D眼鏡

2021/12/14閱讀時間約 13 分鐘
  身為實驗極小白,我想,這不是一篇介紹與科普的文章,因為我的目標是確認自己對論文理解度,而記錄一些筆記(&查到的某些神奇但不重要的資料),教自己一步一腳印看圖表之餘,順便加強邏輯思考能力,可能有過於瑣碎的問題,不過若有機會使讀者更認識這篇研究,那我會很開心~
  讓烏賊戴上3D眼鏡做實驗是一大創舉,因此基本上網路搜尋幾個關鍵字,就有大量介紹文章與圖片,我也很推薦方格子上由陳政佑所撰寫的 【CCC Lab 讀書會筆記】酷了吧!烏賊也有3D電影院科普文,有興趣可以看看,(在我報paper前)實在是獲益良多。另外若我寫的內容有謬誤或對其有不同想法,也歡迎讀者提出或與我聯繫,讓我能修正與進步,畢竟我還是對許多部份了解不夠透徹,請各位不吝指教。

論文標題:Cuttlefish use stereopsis to strike at prey

  • 第一作者:Rachael Feord (她是Cambridge畢業生,現在去當公司業務經理了)
  • 指導教授:美國明尼蘇達大學的Paloma Gonzalez-Bellido、Trevor Wardill老師
  (兩位老師也有在做果蠅的神經行為研究。其中Wardill老師擁有廣泛興趣,章魚亦是他的研究對象,目前還有進行章魚如何控制觸手做獵物捕抓的實驗。有興趣可以搜尋一下他的lab,老師正在徵求博士後研究生~)
雖然烏賊在進化的道路上很早就與脊椎動物分道揚鑣,但眼睛結構卻和我們有高度的趨同演化(為了生存需要,演化出相似的身體構造),有一雙美麗的透鏡眼,那他們看到的世界和我們一樣嗎?為了瞭解他們視覺資訊如何被處理,研究團隊給烏賊戴上了3D眼鏡!
A.實驗操作示意圖 B.烏賊戴3D眼鏡沙龍照/ Feord et al. 2020
實驗設計構想來自於過去由Newcastle大學Nityananda教授所作的螳螂研究(對,他們讓螳螂成為第一個戴3D眼鏡的昆蟲)
考慮到關於脊椎動物立體視覺的研究已累積大量資料,他們決定以此方向切入分析,所以第一個實驗,就是要確認烏賊有沒有立體視覺
什麼是立體視覺(stereopsis)?簡單來說,由於兩隻眼睛位置稍微不同,每隻眼睛接收到的影像會有些差別,透過比較兩眼不同影像而獲取深度訊息、感知物體遠近的能力就是stereopsis。
實驗開始!!!

第一部分

透過呈現具有不一樣間距(disparity)的紅蝦藍蝦影像,虛擬蝦子會分別出現在螢幕上、螢幕前、螢幕後,而戴上眼鏡的烏賊如果具有立體視覺,就會根據對焦出來的虛擬蝦子調整自己與螢幕距離。【C圖】
而通過計算烏賊兩眼間距(interocular distance)與disparity的比例、從0 disparity所量測的眼睛到螢幕距離(distance from screen),我們可以估算出虛擬蝦子位置,因此也能以此推算不同條件下烏賊所需要的螢幕距離預測值。【D圖】
實驗方法示意圖/ Feord et al. 2020
  • [關於C圖:在讀書會討論時有產生一些對圖標的疑惑,照理說眼鏡是過濾掉該顏色濾鏡的光,因此左眼應該看不見藍蝦,而是偵測到紅蝦,同理右眼偵測到的應該是藍蝦。猜測他們想讓讀者快速理解而選擇這麼表示,還是他們眼鏡顏色畫錯?可是不管哪個理由誤導都太多了吧]
經過影像分析,可以發現在+disparity越大(虛擬蝦子成像在螢幕前)時,烏賊與螢幕的距離越大,表示牠的確使用雙眼立體視覺去感知蝦子位置,所以為了看清楚蝦子,烏賊必須退後。【E圖】
再來則是觀察不同disparity條件下,烏賊距離預測值-實際測量值差異,可以發現每個數據點差值落在2.5公分上下,表示烏賊與我們預估出來位置差別不大。【F圖】
立體視覺驗證-烏賊眼睛到螢幕距離/Feord et al. 2020
  • [有關F圖:但是disparity是-1(紅點)或3(綠點)時,預估值與實際量測值有一定差距是為什麼呢?表示我們預測牠應該更往前進或更往後退,但實際量測時卻沒有。推測因為螢幕只擺在缸子一側,當蝦子成像在螢幕後時,烏賊最多只能貼在螢幕前無法再往前進,還有缸子過小限制了烏賊退後,兩個原因造成量測值無法與預估值吻合。讀書會中我們有想到一個方法,如果能再加大缸子長度,可以改善無法後退的問題,另外若有辦法在缸子中央進行蝦子影像投射,在前進上問題也能獲得改善。而要怎麼在水中投影,就是另外一個問題了...]
團隊接著量測攻擊腕(tentacle)長度,發現比起+1~+3 disparity,在-1與0 disparity條件下的烏賊攻擊腕長度較短,這是因為他們離螢幕距離較近,導致攻擊腕無法完全伸長,因此再一次證明他們使用立體視覺。【G圖】
這裡同樣做了攻擊腕預估值與實際值差異分析,可以看見+1~+3 disparity攻擊腕長預估值比實際量測值多了約2公分(黃紫綠點),也就是說,實際上烏賊比團隊預測更靠近螢幕2公分,所以攻擊腕沒有完全伸長,有可能是因為3D影像成像不佳,導致烏賊看不清楚,需要更往螢幕前進。【H圖】
立體視覺驗證-攻擊腕長度/Feord et al. 2020
  • [有關H圖:讀書會討論中有猜測,這個2公分的結果可能是團隊進一步作第四部份烏賊眼睛角度觀察的主因,想看烏賊是不是真的更用力看影像]
為了確認蝦子影像部分不會影響烏賊到屏幕距離,他們進行control分析,圖中發現,不管蝦子用游的還是用走的,或改變螢幕的背景對比度,烏賊與屏幕距離上都是差不多的(沒有顯著差異),表示不論蝦子影像的速度為何、背景是黑or白,並不會顯著影響烏賊偵測虛擬蝦子位置。【A.C圖】
蝦子影像相關影響因子/Feord et al. 2020
另一部份則要確認烏賊自身行為會不會導致偵測蝦子位置受影響,他們觀察烏賊頭部方向(以兩眼之間中線來測量)與烏賊眼睛到螢幕的距離兩者之間的關係,發現烏賊攻擊角度在正負50度間,而數據點分散無相關,表示烏賊頭的偏向和偵測位置沒有太大關聯。【A圖】
再來看到B圖,"眼睛到螢幕角度"與"攻擊腕到螢幕角度”呈現負相關,且兩者角度加起來會差不多等於90度,表示攻擊時烏賊的攻擊腕一直是垂直雙眼間連線的。既然攻擊腕不會隨意偏移,就代表烏賊偵測虛擬蝦子位置也不需要考慮攻擊腕亂偏的問題。【B圖】
烏賊相關影響因子/Feord et al. 2020
上方A.B圖量測示意圖
第一部分告訴我們:嘿!烏賊真的有立體視覺。

第二部分

那有立體視覺真的有比較好嗎?搞不好單眼看物體,烏賊能力也不差?
團隊幫你考慮到這件事情了,所以他們用類似單眼效果的方法(Quasi-monocularly)進行實驗,給烏賊只看一隻紅色或藍色蝦子影像,然後會與使用紫蝦的烏賊(兩眼都偵測的到 ; binocularly)進行比較,以此確認烏賊使用立體視覺是否真的有改善捕食效率。【A圖】
(Quasi-monocularly:因為沒有遮住另一隻眼睛,所以不完全是monocularly)
實驗結果發現,烏賊掠食四階段中的瞄準部分(position那一列)確實存在顯著差異,在只用單眼時必須花更多時間、游行更長距離、更靠近螢幕才能有效對準獵物,不過其他階段則沒有太大差別,表示雙眼立體視覺的確改善烏賊瞄準的效率。【B圖】
單雙眼比較/Feord et al. 2020
  • [有關B圖:讀書會討論提到,這邊似乎可以再加入一個量測標準,因為只有記錄烏賊到屏幕距離,而不確定烏賊瞄準的成功率,若能給蝦子設置一個方框分析烏賊打擊率,可以更確定使用單眼真的比較難瞄準。]
他們接下來觀察瞄準前後的時間長短有沒有關聯性,發現數據點也是挺分散的,表示無論使用單雙眼,瞄準前後時間並不相關。【左C圖】
右方C圖是觀察一剛開始烏賊所處位置是否影響其瞄準時間,數據點也是呈分散分布,表示不管烏賊最初離屏幕遠或近,跟瞄準時間長短沒有關係。【右C圖】
時間因素影響觀察/Feord et al. 2020
  • [有關左C圖:我個人還是不太了解:這張圖觀察意義是什麼呢?如果有相關的話,要怎麼去解釋呢?不確定團隊當初為何需要對此進行分析。]
接下來他們去看烏賊是否對蝦子從不同方向出現有一定偏好,從圖中可以看到,蝦子往右往左於烏賊使用單雙眼沒有太明顯差異。【D圖】
蝦子出現方向偏好/Feord et al. 2020
  • [有關D圖:但往左走的那一部份數據扣掉10.3秒後相對往右走花費時間少一些(少於5秒),有可能蝦子往右走時,烏賊就有注意到,但牠等到翻轉後才抓,所以反應時間能少於5秒。這部分讀書會提出更好的實驗設計是:直接讓蝦子從兩個方向出來進行記錄,比起中間翻轉,變因控制上較為一致。除非作者當初這麼做有更好的量測目的,不然這個設計的確存在瑕疵。]
第二部分驗證了:烏賊用雙眼瞄準獵物,還真的比較有效率

第三部分

實驗來到第三階段,他們同樣參考了Nityananda教授2018年所作的另一個螳螂研究,烏賊會看到充滿點圖案的螢幕,在影像呈靜止狀態時,我們無法辨認蝦子影像,但當影片播放,蝦子開始移動,且蝦子身上點圖案固定不變,因此會與背景形成對比,出現移動中的蝦子輪廓,因此烏賊可根據接受到的刺激進行攻擊,團隊給予烏賊三種不同的點圖案影像刺激,分別是A.相關(correlated)、B.負相關(anticorrelated)、C.無相關(uncorrelated),其中後兩者是想觀察烏賊對於局部亮度(較暗的蝦子)是否能有反應,以及兩眼接收的圖像是否需要有關聯性才會進行攻擊(烏賊會看到輪廓極度破碎化的蝦子,或者說,幾乎不能稱之為蝦子)。【A.B.C圖】
A圖左右兩眼綠色藍色亮點位置相同;B圖亮點位置剛好相反;C圖點點圖案與亮點都沒有關聯性/Feord et al. 2020 & Nityananda et al. 2018
結果發現,相關刺激和負相關刺激的測試和第一部分實驗結果一致,越大的disparity,烏賊會離螢幕越遠,且和預測的值差距不大,表示烏賊這兩個情況下都能正確感知烏賊位置,而無相關刺激則是因為烏賊沒有進行攻擊,因此視為烏賊無法對其產生反應。也就是說,烏賊會攻擊暗一點的蝦子,但對於看起來不太像蝦子的東西則不會做捕抓。【A圖與B圖】
兩眼圖像刺激/Feord et al. 2020
第三部分告訴我們,烏賊還是可以正確感知亮度低的蝦子,但對於會動的四不像物體,他們不會進行攻擊

第四部份

接著團隊去觀察烏賊眼球轉動變化,數據顯示烏賊眼睛會隨著瞄準攻擊而逐漸聚焦,而在瞄準階段,0與+2 disparity條件角度量測上出現顯著差異,顯示+2disparity時烏賊需要更用力對焦才能瞄準。【A圖】
眼睛聚焦角度量測/Feord et al .2020
  • [關於A圖:這裡在文章第一部分有提到,烏賊攻擊腕沒有完全伸展,是因為他們往屏幕更靠近去觀察蝦子,因此團隊可能猜測3D圖像品質不佳,造成烏賊看不清楚,在這邊進一步分析眼睛角度則能更確定圖案不清晰,所以烏賊需要更用力聚焦眼球才能順利辨識圖像。不過不能確定:是眼鏡導致圖像不夠清晰,還是螢幕投影本身存在瑕疵?]
另外從原始數據中有觀察到,進行類單眼實驗的烏賊們左右眼角度變化並不一致,為了更容易理解B圖數據,團隊把"烏賊在0cm和+2cm disparity條件下, T1到T3左右眼之間的角度差異"量化成圖表,可以看到在striking時(C的右圖紅綠實線),有5%的烏賊雙眼之間角度差10度甚或10度以上,表示在攻擊前,烏賊的雙眼會出現獨立運動,因此造成會聚程度並不相同。【B圖:擷取原始數據其中四個資料;C圖】
眼睛角度變化觀察/Feord et al. 2020
  • [關於B.C圖:讀書會討論有推測,烏賊可能是為了生存做出這樣的演化應對:在瞄準獵物後,可能某隻眼睛就去察看環境周遭是否有危險,狩獵同時要分心注意自己是否成了別人的獵物,所以兩眼角度多少有些不相同。]
第四部份告訴我們:雖然烏賊會使用雙眼視覺,但牠的眼睛並不一定完全對焦在獵物上。

結論與思考

一路看下來,我想這篇研究最有價值的部份是:提供烏賊進行視覺測試的新方法。
而這也使烏賊成為了第二種被發現具有立體視覺的無脊椎動物。(那第一種是誰呢?沒錯!是螳螂~)
雖然非常酷炫,不過認真討論後才了解到,其操作設計上有許多能再被改善的空間,而且想了解視覺資訊被如何處理,也需要進一步去研究烏賊大腦神經機制。另外第二部分有些做類單眼測試的烏賊,表現居然跟使用雙眼視覺的烏賊一樣好,也代表了在偵測上,烏賊似乎還能使用雙眼以外的線索(比如運動視差)去捕食。相信未來有志繼續探討下去的研究者,也可以納入烏賊偏振光視覺能力做實驗改良,有助於我們更瞭解烏賊眼中的世界。

原始論文:

下方圖片連結好像點進去有問題....所以點擊上面那個連結去參考完整論文吧!

其他資料參考:

Sheila
Sheila
我是曾經幻想自己不平凡但極度平凡、不斷為未來感到憂心卻有點失能的高敏感女孩,正努力調整狀態,考慮把方格子作為日記使用。 想試著把看的文章整理過加上一點想法記錄在這裡,以後回頭找資料比較方便。 如果有空之後也會寫些心情札記,留下一點擁有過的現今。
留言0
查看全部
發表第一個留言支持創作者!