Google I/O 懶人包,未來彷彿已經到了


line banner

圖、文/愛范兒

還是在這個熟悉的露天舞台,還是那個熟悉的面孔,還是我們熟知的 Google。

隨著Google CEO 桑達拉·皮蔡(Sundar Pichai)上台的一句「Good Morning」,今年的Google I/O 大會正式開幕。

貫穿全場的AI,依然還是今年的主角

大會一開始,皮蔡直接進入主題,和大家回顧去年Google I/O 大會後至今的改變,像「漢堡的奶酪位置變了」、「啤酒氣泡從杯子裡溢出」等等。

而經過一年的技術實踐,Google 的AI 技術也在各個領域中得到了不錯的發展。比方說在去年,Google 在醫療領域上透過AI 技術對眼科病患者的視網膜進行診斷,並且在印度實驗室中為科研人員取得了不俗的成果。

許多時候我們會在影音網站上看到外語類的影片,如果是找到有中文字幕的外語影片還算幸運,但若是遇到沒有任何字幕的外語、口音模糊的影片就很尷尬了。

透過 AI  技術,YouTube 現在可以根據影音的圖像和聲音,對內容進行字幕翻譯。即便是口音模糊的內容,AI 技術也能根據影音內容進行智慧型翻譯,並透過底部字幕的方式呈現。

說白了,它的功能就是讓你在看影音的時候更方便。

不過 AI 的作用可不止「翻譯」這麼簡單。

透過G board新加入的「摩斯密碼」輸入法、特定的輸入裝置以及結合AI辨識,即便是行動不便的殘障人士,也能透過該輸入法與朋友進行溝通。

在現場的DEMO 影音中,殘障人士Tania 透過使用頭部在兩側的輸入板中敲出「摩斯密碼」,從而實現透過智慧型手機來輸入文字和輸出語音,並與伴侶溝通。

在未來,更多需要幫助的殘障人士也能透過新輸入法和AI 技術與外界進行交流。

Gmail 郵箱除了在UI 設計上有著新版改變外,同樣也加入了AI 技術,用戶在編寫郵件時AI 會對即將輸入的內容進行預判。

舉個例子,當我在郵件編輯框中編寫「我準備去」的時候,AI 會對我喜愛或常去的地方進行預測,並進行自動填充,以增加內容撰寫的效率。

留給Android 的戲份實在不多

早在兩年前的Google I/O 上,Google 就宣布今後的發展重點將會從「mobile first」到「AI first」。從那之後,過去一直是這場開發者盛會的絕對好戲Android,慢慢變成了AI 的陪襯,或者說是AI 其中一個載體。

Andorid研發副總裁Dave Burke一上台,回顧了10年來Android的歷史,還提及了那台搭載過初代Android的T-Mobile G1 

一晃十年…

一直擔心以字母為系統代號的Android 總有把26 個英文字母用光的一天,而來到新一代的Android 操作系統,也只剩下10 個可用的字母了。

在開始下一個10 年之前,Android P到來了。

你可以說這是自Android 5.0 之後,這個系統最大的一次升級,也可以說,它已經很難再有什麼改變了。

說它是最大的一次升級,是因為從這一代Android 開始,這套系統將會迎來新的手勢互動方式,界面底部那三個早已遭人厭煩的虛擬鍵將成為過去。

除了互動方式以及每年在UI 上例行的小改動,Android 早已和AI 密不可分。

如果說Google Assistant 進入Android 是讓人們用上酷炫的功能,那麼靠AI 來優化系統則是真正的用戶福利。

比如在這個新系統中,Google 利用AI 來幫助用戶省電,AI 會監控手機的電池消耗,並關閉那些用戶已有一段時間不用、但還在後台運行的應用。AI 還會根據用戶的使用習慣調整手機的亮度,而不單單是靠光線感應器來解決。

當然,AI 的使用運行必然會涉及到大量的用戶數據。不過Burke表示,這些數據只存在於用戶的手機上,不會上傳到雲端,它們也只能在用戶的裝置上運行。

今天的Keynote 上,留給Android 的時間還沒有去年多,或許,這也證明,Android 早已是一件成熟的作品。

讓位於AI,也不意味著它不再重要,畢竟還有10個字母沒用完,我們期待著下一個10 年。

越來越像一個人類的Google Assistant

在前不久國外一家測試機構對當下主流的幾個人工智慧型主力的測試中,Google Assistant 的「智商」完勝了亞馬遜的Alexa 以及蘋果的Siri。

而今天,Google Assistant 獲得的新能力,可能會讓所有人都感到不可思議。

首先,Google為Google Assistant填了 中新聲音,目前Google Assistant只有男聲和女生兩種聲音,而它們聽起來依然像機器,不太自然。

而這6個新聲音,更加接近於人類的聲音。

此外,Google Assistant 在語義理解和多輪對話能力上也有了進一步的提升。

在此之前,當用「Hey, Google」喚醒Google Assistant後,需要等待它響應個半秒鐘才能進行下正式的對話而現在,當用戶說出「Hey, Google」後,可以立即直接說出接下來的指令,而Google Assistant的回應也比之前更快。

這也讓用戶可以獲得更加接近人類對話的體驗。

Google Assistant 還將能辨識一句話中的多個指令,並對此做出一條完整的回答,這對人工智慧型助理在數據的處理和語義的理解上也有著很高的要求。

如果你覺得上面那些只是不疼不癢的小更新,那麼接下來的這個,可能會讓你覺得不可思議甚至會感到一絲可怕。

比方說—— Google Assistant可以自己打電話。

在現場的演示中,Google展示了一項Google Assistant新功能的Demo 

當你不方便接聽電話,手機中的Google Assistant 會變成你的「接線員」,或者更加確切地說,它會暫時「成為」你,來幫你接電話。

比如當你預定餐廳的時候,餐廳服務員會向你詢問時間,姓名等資訊來確認,但如果你正好有事不方便接電話,這時候 Google Assistant 則會與餐廳服務員對話,它能理解服務員所問的問題,並一一用語音進行回答。

更加不可思議的是,從現場Demo 中傳出的Google Assistant 的聲音,用於與人類無異的語氣,而對面的服務員,完全不知道自己在和AI 通電話。

Google CEO 皮蔡表示,Google Assistant的對話都是經過機器學習積累完成的,目前它還在不斷的完善中,也因此,我們在短時間內可能還不能使用上這個未來感十足的功能。

話說回來,或許未來某天當我們接到一個溫柔的來電時,對方可能是個AI 也說不定啊。

除了「說話」方面的升級,還有視覺方面的更新。

隨著新功能而來的還有帶屏幕的Google Home,這類產品已經在今年的CES 上亮相,並將在7 月份上市銷售,它的對手將會是亞馬遜的Echo Show。

此外,用戶也終於可以在Google Assistant 上透過語音進行購物及預定等操作。

當然,在這次I/O 上,缺了智慧型穿戴平台Wear OS,少了AR 和VR,我們不知道它們的命運如何,在Google All in AI 後,它們顯然漸漸退居次席。

不但能辨識問題,還能解決問題的相機

在去年的Google I/O 大會上,Google Lens 以新功能的角色驚艷登場。

而在一年後的今天,Google Lens 不但能基於AI 技術對文字、物體進行辨識,而且也能夠透過AI 技術來解答用戶「看見」的疑問。

在辨識文本後對內容進行複制、粘貼是Google Lens 的基礎功能。但在結合AI 技術後,用戶在掃面特定環境的單詞後,可直接查看該物品的圖像。

比方說我現在在餐館,在點菜前我想看看這家餐館的「凱撒沙拉」出品是怎樣的。這時候我只需要使用Google Lens 對菜單上的「凱撒沙拉」進行掃描,系統即可幫我反饋菜品的圖片內容。

「文本辨識」對於現在的智慧型手機來講可能已經算是個「小兒科」了,再怎麼說也只是一個文字辨識系統而已。不過,今年Google Lens 加入了對物體的風格搭配和支援場景即時搭配,功能上比之前的Google Lens 進步了不少。

同樣是基於AI 技術,用戶可以透過Google Lens 辨識對自己感興趣的物體,並獲得風格相似的產品;同時,Google Lens 也能透過即時的雲 TPU 數據為用戶提供所拍攝物體的即時檢視,並提供檢視的相關內容。

再舉個例子,當Google Lens 辨識到某個歌手的畫像時,系統會透過畫中畫形式將歌手的MV 播放出來。

理論看上去比較枯燥,其實可以濃縮成一句話——

經過一年的技術沉澱,Google Lens 從幫用戶「看問題」升級成了主動幫助用戶「解答問題」了。

值得一提的是,本次更新Google Lens 支援了許多手機廠牌,其中包括有小米、華碩、一加和TCL。

AI 不單只在手機上,甚至連車都能開了

無人駕駛是近年互聯網熱議的話題之一,在今年大會結束前,Google向大家報告了與Waymo合作的無人駕駛技術現況。在經過累計600萬英里的公路測試後,鳳凰城會在不久後的將來成為Google / Waymo無人駕駛汽車的第一座試點城市。

AI 很強,但我們卻仍有一絲遺憾

看完了這場將近兩個小時的開發者盛會,我和熬夜的同事只覺時間過地太快。而我們沒猜中開頭,沒猜中中間,也沒猜到結尾。

沒猜到這是Google 最特別的一次開場。當Google CEO 桑達拉·皮蔡說出「AI」這個詞後,人們期待著Google 將拿出震驚全場的新作品時,從皮查伊口中說出的卻是「Responsibility」。

這個在很多人印像中理工男氣質濃厚的科技公司,在那一刻要講得卻不是什麼了不起的高科技、不是什麼新設備。而是作為一家科技公司的責任,一個面向社會的責任——「Deep responsibility to get this right」。

我們沒有猜到Google Assistant 能夠像人類一樣和人類通電話,昨天我還在和朋友開玩笑說AI 界也就靠估值刷刷存在感了,今天就被AI 打了臉。即便這個人工智慧型還有很長一段路要走,但Google 又一次讓我們知道了AI 並不完全是個泡沫。

我們沒猜到結尾,是因為有些草草收尾而意猶未盡,我們還沒來得及吸收如此多的信息,就只能期待著下一年的I/O。

這一次,面對依然能夠令人興奮的Google I/O 大會,希望我們不用再有臨淵羨魚之感,見證了就好。

(本文由文俊與劉罕共同編輯)