一般我們在搜尋引擎上查找資訊時,都需要藉由關鍵字形容,找出合適的搜尋結果,但——如果你找不到任何關鍵字來形容想找的資訊時,該怎麼進行搜尋?比方說:你需要找到未知蔬菜的料理方式、奇特動植物的照護說明、同款衣物不同顏色的購買連結、想吃看看照片同款餐點……。
這時候比起再去用關鍵字搜尋或Google以圖搜圖功能,你可能會更傾向上傳圖片與疑問到社群尋求解決方案,如果有網友正巧熟悉該領域就會提供相關的解決方案,但也不妨會有提出問題但沒有獲得解答的情況。
Google運用多重搜尋替代社群提問
Google一直不斷地更新獲取資訊的方式,之後借助Lens 中的多重搜索,你可以就所看到的內容提出問題。Google 使用了最新的 AI 模型打造「Multisearch」,透過 Google Lens 智慧鏡頭,讓用戶在拍照之後,可以輸入文字提問,藉由圖片、文字獲得相關的搜尋結果。
例如:在網路上看到一道擺盤精緻的料理,想搜尋附近店家有沒有銷售,這時候就可以使用多重搜尋在附近搜尋時,Google 會在網路上及地圖貢獻者社群中,掃描數百萬的圖像與評論,找出附近有供應這項料理的餐廳,接著就能前往享用。
配圖Google一下,滿足你的消費要求
除此之外,Google也預告之後用戶可以透過「場景探索」,及時蒐集架上產品的相關資訊。假設你有巧克力購買的需求,並且你對堅果過敏,又不想找代可可脂的產品,便能藉由多重搜尋平移相機,直接從手機獲得產品的相關資訊。
場景探索能賦予行動裝置像人一樣理解環境的能力,讓你可以輕鬆找到想找的東西,如果這確實能應用在各個類別的產品中,於搜尋引擎便會是一重大突破。
英文版先行導入,讓搜尋結果更生動
早前在Google Lens就有做過相關的測試,應該是在實驗上有獲得足夠的反饋,才會決定引入Google搜尋中。目前Google的多重搜尋功能已在歐美地區開始推行,預計今年內就會在全球提供英文版本的支援,之後可能會有更多種語言的版本。