沉浸共感度:★★★☆
(圖片來源:https://tw-light.tw/event-weiwuying/event_40.html)
穹頂影像來自影像導演蔡奇宏、聲音導演柯智豪及現場觀眾位置狀態三方互動,偏偏讓觀眾能參與互動QR Code難以讀取,且現場觀眾或坐或臥並不移動,來自觀眾的變項因而缺如。
影像導演蔡奇宏為FUTURE VISION LAB技術總監。根據FUTURE VISION LAB官網,FUTURE VISION LAB又名科技媒體實驗平台的實驗展演計畫,是屬於C-LAB/臺灣當代文化實驗場的一項計劃。C-LAB與國立陽明交通大學建築研究所合作,打造直徑12公尺的半球形的全沉浸式影音體驗空間「DOME」,FUTURE VISION LAB則負責整合軟硬體,並邀請新媒體藝術家製作適合DOME播放的作品。
延續蔡奇宏過往多媒體創作的特色--將不同媒體、媒材轉譯整合,《Re-Generative:: update()》中蔡奇宏與聲音導演柯智豪合作,並邀請觀眾參與作品與之互動,讓投影的影像隨音樂、音效及現場觀眾位移而相應變化。
為了搜集觀眾位置資料,影片播放前,穹頂出現邀請觀眾參與的QR code,然而,我和左右觀眾怎麼掃描都沒有任何反應。我無法確定現場是否有人掃描成功。此外在燈會期間的DOME裡,觀眾或坐或臥,無人走動,現場工作人員也不希望大家走動,怕觀眾邊看投影邊走路不慎撞歪投影器材,致使投影影像縫合出錯。如果不靠位移,要怎麼和作品互動呢?一問一答?要求觀眾按特定鍵送出?由於我掃不到QR code資料,完全不清楚互動到底如何進行。
《Re-Generative:: update()》播放開始,投影在穹頂的影像色塊隨音樂節奏不斷變型換色,真想知道哪些變型變色是與觀眾互動造成的。又或者,我看了一場觀眾互動缺如的展演而不自知?如果觀眾正確互動,這部作品該呈現什麼模樣?