Google Lens 這個被整合在 Google Assistant 中的功能,終於在距離五月份的 Google I/O 近半年的等待後,出現在了 Google Pixel 手機中。
而從昨天開始,所有 Pixel 系列手機中的 Google Lens 都可以開始使用,而當前 Google Lens 只能在英文系統環境下使用。
在半年前的 Google I/O 上,Google Lens 作為當時為數不多的亮點,確實非常讓人印象深刻,通過 Google Lens 讓未知的一切變成已知,是它最神奇的地方。
愛範兒的一台 Google Pixel 也在昨天收到了 Google 推送的 Google Lens 功能,不過由於地域,網絡,語言等因素的限制,只能做一些簡單的體驗供大家參考。
(當然,這不是長筒靴)
最簡單的“看圖説話”,Google Lens 基本不在話下,你給它看什麼,它幾乎就能説出是什麼。當然,對於拿不定主義的,它會小心翼翼的用不那麼肯定的詞彙來回答。
(算你對了)
比如面對乾枯到看不出是什麼的植物時,它會説“我猜這大概是一種植物。”
而當我讓它面對一張餐巾紙時,它選擇不去直接回答這是什麼,而是告訴我這可能是以下這些物品,當然,它也沒認出來這是紙巾,而是把紙巾當成了短褲。
當然,Google 曾演示過 Google Lens 最拿手的技能之一,就是識別畫作,本來抄起手中的 S8 想看看 Google Lens 能否看出來是什麼手機,但是直接掃到了保護套的圖案,結果如上(請忽略那條山寨的魚),這副經典畫作,包括年份,以及畫家的名字也都顯示了出來。
而從操作邏輯和易用度上來看,使用 Google Lens 幾乎沒有什麼學習成本。
長按 Home 鍵或者用 “OK Google” 呼出 Google Assistant,然後在 Google Assistant 界面右下角會看到一個像鏡頭一樣的 Google Lens 標誌,點擊後就會打開相機鏡頭。
之後點擊屏幕,這時就相當於拍照一樣,在屏幕上生成一張照片,會出現相應的信息。
不過這和當時在 Google I/O 上演示的有些許差異,在當時的一個場景演示中,是可以實時顯示建築物信息的,但目前看來,想要實現這個能力,或許還要再等等 Google 自家的 ARCore了。
除了識別物體,Google Lens 還可以識別文字,而且,如果文字足夠清晰,數量足夠多,可以幫助 Google Lens 更準確的識別被攝物體。
(墨西哥語:high?)
此外,Google Lens 似乎也繼承了 Google Translate 的一些特性,比如你在國外看到一些指示牌,但不認識外語,此時無需再打開 Google Translate,只需用 Google Assistant 對準指示牌,然後通過語音如 “translate into English”,這時,英文就會直接顯示在指示牌上(如下)。
不過,目前似乎還不支持翻譯成中文,而硬要翻譯成中文的話,是下圖那樣的結果。
Google Lens 並非是個華而不實的存在,上述的翻譯能力就非常的實用。
它也可以掃描名片並直接添加近通訊錄,也可以讓 Google Assistant 記住掃描後的文檔,掃描後只需對它説“remember this”,之後不管何時你只需問“what did i ask you to remember”,它就會將你之前存儲的文件展示出來。
這些都是在生活和辦公場景中真正能派上用場的。體驗中,我也嘗試讓它識別建築物,識別的結果並不是每次都準確,但確實能在一片高樓中識別出大概的位置,而有 30% 的機率能通過被拍攝的地點顯示當前的天氣狀況。
(No No No)
Google 表示,未來還會開放掃描路由器 WiFi 密碼直連的功能,更多的功能也已在路上,而 Google Lens 的識別能力也會隨着用户的使用變得越來越精準。如果你的手機不支持 Google Lens,未來 Google Photo app 的更新中會慢慢開放這項功能的精簡版(Pixel 已經支持)。
(識別圖書毫無壓力,中文暫不支持)
其實,早在 Google Now(Google Assistant 前身)的時候,就已經有類似 Google Lens 的功能了,只是,要先打開相機,然後長按 Home 鍵,來讓 Google Now 識別取景器中的物體或文字,原理幾乎是一樣的。
還有更早的 Google Goggles,也算是被整合進了 Google Lens 之中。
(掃描後可以讓 Google Lens 存到 Google Keep 記事本中)
但 Google Lens 不管是響應的速度還是識別能力都要比當年的 Google Now 和 Google Goggles 快了不只一點,大量的數據處理能力和機器學習的功勞是必不可少的,但,它就和 Google Assistant 一樣,用户真正能用到它的時候依然太少。
(手,戒指,卡針,物體多了也會影響識別能力)
在大多數情況下,用户已經知道了眼前的物體是什麼,並不需要它再來告訴我,而我們確實不知道的東西,它的數據庫裏,也很難説會存在。
只能説,Google Assistant 和 Google Lens 確實很聰明,也頗具未來感,但如何讓用户更高頻率的去使用它,依然是一個待解決的問題。
可話説回來,當我們看到曾經想象中的未來科技一個個變為現實的時候,仍然會充滿好奇,仍然會迫不及待的想要去嘗試,即便我們離未來依然還很遙遠。
資料來源:愛範兒(ifanr)
請按此登錄後留言。未成為會員? 立即註冊