O 全紀錄,我已經分不清身處現在還是未來了

讀完 Google I/O 全紀錄,我已經分不清身處現在還是未來了

還是在這個熟悉的露天舞臺,還是那個熟悉的面孔,還是我們熟知的 Google。隨著 Google CEO 桑達拉·皮蔡(Sundar Pichai)上臺的一句「Good Morning」,今年的 Google I/O 大會正式開幕。

讀完 Google I/O 全紀錄,我已經分不清身處現在還是未來了

讀完 Google I/O 全紀錄,我已經分不清身處現在還是未來了

貫穿全場的 AI,依然還是今年的主角大會一開始,皮蔡直入正題和大家回顧去年 Google I/O 大會後至今的改變,像 emoji 中「漢堡的奶酪位置變了」、「啤酒氣泡從杯子裡溢出」等等。而經過一年的技術實踐,Google 的 AI 技術也在各個領域中得到了長足發展。比方說在去年,Google 在醫療領域上通過 AI 技術對眼科病患者的視網膜進行診斷,並且在印度實驗室中為科研人員取得了不俗的成果。

讀完 Google I/O 全紀錄,我已經分不清身處現在還是未來了

許多時候我們會在視頻網站上看到外語類的視頻,如果是找到有中文字幕的外語視頻還算幸運,但若是遇到沒有任何字幕的外語、口音模糊的視頻就很尷尬了。基於 AI 技術,YouTube 現在可以根據視頻的圖像和聲音,對視頻內容進行字幕翻譯。即便是口音模糊的內容,AI 技術也能根據視頻內容進行智能翻譯,並通過底部字幕的方式進行呈現。

讀完 Google I/O 全紀錄,我已經分不清身處現在還是未來了

讀完 Google I/O 全紀錄,我已經分不清身處現在還是未來了

說白了,它的功能就是讓你在看視頻的時候更方便。不過 AI 的作用可不止「翻譯」這麼簡單。通過 Gboard 新加入的「摩斯密碼」輸入法、特定的輸入裝置以及結合 AI 識別,即便是行動不便的殘障人士,也能通過該輸入法與朋友進行溝通。

讀完 Google I/O 全紀錄,我已經分不清身處現在還是未來了

在現場的 DEMO 視頻中,殘障人士 Tania 通過使用頭部在兩側的輸入板中敲出「摩斯密碼」,從而實現通過智能手機進行文字輸入和語音輸出,並與伴侶進行溝通。在未來,更多需要幫助的殘障人士也能通過新輸入法和 AI 技術與外界進行交流。

讀完 Google I/O 全紀錄,我已經分不清身處現在還是未來了

GMail 郵箱除了在 UI 設計上有著新版改變外,同樣也加入了 AI 技術,用戶在編寫郵件時 AI 會對即將輸入的內容進行預判。

讀完 Google I/O 全紀錄,我已經分不清身處現在還是未來了

讀完 Google I/O 全紀錄,我已經分不清身處現在還是未來了

留給 Android 的戲份實在不多早在兩年前的 Google I/O 上,Google 就宣佈今後的發展重點將會從「mobile first」到「AI first」。從那之後,過去一直是這場開發者盛會的絕對好戲 Android,慢慢變成了 AI 的陪襯,或者說是 AI 其中一個載體。Andorid 研發副總裁 Dave Burke 一上臺,回顧了 10 年來 Android 的歷史,還提及了那臺搭載過初代 Android 的 T-Mobile G1。

讀完 Google I/O 全紀錄,我已經分不清身處現在還是未來了

一晃十年...一直擔心以字母為系統代號的 Android 總有把 26 個英文字母用光的一天,而來到新一代的 Android 操作系統,也只剩下 10 個可用的字母了。在開始下一個 10 年之前,Android P 到來了。

讀完 Google I/O 全紀錄,我已經分不清身處現在還是未來了

你可以說這是自 Android 5.0 之後,這個系統最大的一次升級,也可以說,它已經很難再有什麼改變了。說它是最大的一次升級,是因為從這一代 Android 開始,這套系統將會迎來新的手勢交互方式,界面底部那三個早已遭人厭煩的虛擬鍵將成為過去。

讀完 Google I/O 全紀錄,我已經分不清身處現在還是未來了

關於 Android P 的體驗,愛範兒會用一篇更加詳細的文章來解讀。除了交互方式以及每年在 UI 上例行的小改動,Android 早已和 AI 密不可分。

讀完 Google I/O 全紀錄,我已經分不清身處現在還是未來了

如果說 Google Assistant 進入 Android 是讓人們用上酷炫的功能,那麼靠 AI 來優化系統則是真正的用戶福利。比如在這個新系統中,Google 利用 AI 來幫助用戶省電,AI 會監控手機的電池消耗,並關閉那些用戶已有一段時間不用、但還在後臺運行的應用。AI 還會根據用戶的使用習慣調整手機的亮度,而不單單是靠光線傳感器來解決。

讀完 Google I/O 全紀錄,我已經分不清身處現在還是未來了

當然,AI 的使用運行必然會涉及到大量的用戶數據。不過 Burke 表示,這些數據只存在於用戶的手機上,不會上傳到雲端,它們也只能在用戶的設備上運行。今天的 Keynote 上,留給 Android 的時間還沒有去年多,或許,這也證明,Android 早已是一件成熟的作品。讓位於 AI,也不意味著它不再重要,畢竟還有 10 個字母沒用完,我們期待著下一個 10 年。越來越像一個人類的 Google Assistant在前不久國外一家測試機構對當下主流的幾個人工智能主力的測試中,Google Assistant 的「智商」完勝了亞馬遜的 Alexa 以及蘋果的 Siri。而今天,Google Assistant 獲得的新能力,可能會讓所有人都感到不可思議。首先,Google 為 Google Assistant 填了 6 種新聲音,目前 Google Assistant 只有男聲和女生兩種聲音,而它們聽起來依然像機器,不太自然。而這 6 個新聲音,是更加接近於人類的聲音。此外,Google Assistant 在語義理解和多輪對話能力上也有了進一步的提升。在此之前,當用「Hey, Google」喚醒 Google Assistant 後,需要等待它響應個半秒鐘才能進行下正式的對話。而現在,當用戶說出「Hey, Google」後,可以立即直接說出接下來的指令,而 Google Assistant 的響應也比之前更快。這也讓用戶可以獲得更加接近人類對話的體驗。Google Assistant 還將能識別一句話中的多個指令,並對此做出一條完整的回答,這對人工智能助理在數據的處理和語義的理解上也有著很高的要求。如果你覺得上面那些只是不疼不癢的小更新,那麼接下來的這個,可能會讓你覺得不可思議甚至會感到一絲可怕。

讀完 Google I/O 全紀錄,我已經分不清身處現在還是未來了

比方說——Google Assistant 可以自己打電話。

讀完 Google I/O 全紀錄,我已經分不清身處現在還是未來了

在現場的演示中,Google 展示了一項 Google Assistant 新功能的 Demo。當你不方便接聽電話,手機中的 Google Assistant 會變成你的「接線員」,或者更加確切地說,它會暫時「成為」你,來幫你接電話。比如當你預定餐廳的時候,餐廳服務員會向你詢問時間,姓名等信息來確認,但如果你正好有事不方便接電話,這時候 Google Assistant 則會與餐廳服務員對話,它能理解服務員所問得問題,並一一用語音進行回答。更加不可思議的是,從現場 Demo 中傳出的 Google Assistant 的聲音,用於與人類無異的語氣,而對面的服務員,完全不知道自己在和 AI 通電話。

讀完 Google I/O 全紀錄,我已經分不清身處現在還是未來了

Google CEO 皮蔡表示,Google Assistant 的對話都是經過機器學習積累完成的,目前它還在不斷的完善中,也因此,我們在短時間內可能還不能使用上這個未來感十足的功能。話說回來,或許未來某天當我們接到一個溫柔的來電時,對方可能是個 AI 也說不定啊。除了「說話」方面的升級,還有「視覺」方面的更新。隨著新功能而來的還有帶屏幕的 Google Home,這類產品已經在今年的 CES 上亮相,並將在 7 月份上市銷售,它的對手將會是亞馬遜的 Echo Show。此外,用戶也終於可以在 Google Assistant 上通過語音進行購物及預定等操作。當然,在這次 I/O 上,缺了智能穿戴平臺 Wear OS,少了 AR 和 VR,我們不知道它們的命運如何,在 Google All in AI 後,它們顯然漸漸退居次席。不但能識別問題,還能解決問題的相機在去年的 Google I/O 大會上,Google Lens 以新功能的角色驚豔登場。而在一年後的今天,Google Lens 不但能基於 AI 技術對文本、物體進行識別,而且也能夠通過 AI 技術來解答用戶「看見」的疑問。

讀完 Google I/O 全紀錄,我已經分不清身處現在還是未來了

在識別文本後對內容進行復制、粘貼是 Google Lens 的基礎功能。但在結合 AI 技術後,用戶在掃面特定環境的單詞後,可直接查看該物品的圖像。比方說我現在在餐館,在點菜前我想看看這家餐館的「凱撒沙拉」出品是怎樣的。這時候我只需要使用 Google Lens 對菜單上的「凱撒沙拉」進行掃描,系統即可幫我反饋菜品的圖片內容。

讀完 Google I/O 全紀錄,我已經分不清身處現在還是未來了

「文本識別」對於現在的智能手機來講可能已經算是個「小兒科」了,再怎麼說也只是一個文本識別系統而已。不過,今年 Google Lens 加入了對物體的風格匹配和場景實時匹配的支持,功能上比之前的 Google Lens 進步了不少。同樣是基於 AI 技術,用戶可以通過 Google Lens 對自己感興趣的物體進行識別,並獲得風格相似的產品;同時,Google Lens 也能通過實時的雲 TPU 數據為用戶提供所攝物體的實時檢視,並提供檢視的相關內容。再舉個例子,當 Google Lens 識別到某個歌手的畫像時,系統會通過畫中畫形式將歌手的 MV 播放出來。理論看上去比較枯燥,其實可以濃縮成一句話——經過一年的技術沉澱,Google Lens 從幫用戶「看問題」升級成了主動幫助用戶「解答問題」了。值得一提的是,本次更新 Google Lens 增加了對四家中國智能設備廠商的支持,其中包括有小米、華碩、一加和 TCL。AI 不單隻在手機上,甚至連車都能開了無人駕駛是近年互聯網熱議的話題之一,在今年大會結束前,Google 向大家報告了與 Waymo 合作的無人駕駛技術現況。在經過累計 600 萬英里的公路測試後,鳳凰城會在不久後的將來成為 Google / Waymo 無人駕駛汽車的第一座試點城市。

讀完 Google I/O 全紀錄,我已經分不清身處現在還是未來了

讀完 Google I/O 全紀錄,我已經分不清身處現在還是未來了

AI 很強,但我們卻仍有一絲遺憾看完了這場將近兩個小時的開發者盛會,我和熬夜的同事只覺時間過得太快。而我們沒猜中開頭,沒猜中中間,也沒猜到結尾。沒猜到這是 Google 最特別的一次開場。當 Google CEO 桑達拉·皮蔡說出「AI」這個詞後,人們期待著 Google 將拿出震驚全場的新作品時,從皮查伊口中說出的卻是「Responsibility」。這個在很多人印象中理工男氣質濃厚的科技公司,在那一刻要講得卻不是什麼黑科技、不是什麼新設備。而是作為一家科技公司的責任,一個面向社會的責任——「Deep responsibility to get this right」。我們沒有猜到 Google Assistant 能夠像人類一樣和人類通電話,昨天我還在和朋友開玩笑說 AI 界也就靠估值刷刷存在感了,今天就被 AI 打了臉。即便這個人工智能還有很長一段路要走,但 Google 又一次讓我們知道了 AI 並不完全是個泡沫。我們沒猜到結尾,是因為有些草草收尾而意猶未盡,我們還沒來得及吸收如此多的信息,就只能期待著下一年的 I/O。這一次,面對依然能夠令人興奮的 Google I/O 大會,希望我們不用再有臨淵羨魚之感,見證了就好。

轉自:https://mp.weixin.qq.com/s/zQLUPhVYPoRFnJcOLuIb4A


分享到:


相關文章: