當人們認為人工智能很遙遠時,Google卻打算讓每個人都用上AI
2017年11月28日,以MadeWithAI為主題,Google在日本東京舉行了一場關于人工智能的媒體溝通會。
更好用的Google產品
首先,Google資深研究員JeffDean首先登臺。他用一個通過GoogleTranslation進行實時識別翻譯的案例,來介紹了人工智能與機器學習的區別。他表示,機器學習其實是人工智能的一部分;本質上,機器學習是一個創造問題解決系統的新方式。
JeffDean提到,正如GoogleCEOSundarPichai在2016年10月所言,在接下來的10年間,Google將會成為一個AIFirst的公司;而Google在人工智能領域的愿景是:
在演講中,JeffDean著重提到了TensorFlow。據雷鋒網了解,TensorFlow于2015年11月在GitHub上正式開源;與MXNet、Caffe等其他的機器學習框架相比,TensorFlow頗受歡迎,用戶量的增長速度也比較快。而根據Google方面提供的數據,到目前為止,TensorFlow已經成為用戶數量排名第一的機器學習框架。
JeffDean表示,在近20年的發展中,神經網絡(NeuralNetworks)在數據量和結算模型上已經超越其他的計算方案;總結來說,一個計算的新時代已經到來。
實際上,作為最早開始研究人工智能和機器學習的科技公司之一,人工功能和機器學習的元素實際上已經出現在Google多項產品中。在溝通會現場,JeffDean列出了一些較為典型的產品,并對它們的人工智能元素進行了簡單介紹:
軟硬件與AI的一體化
不過,除了AI和軟件產品,Google在產品層面也已經延伸到了硬件;也就是說,Google已經形成了AI+軟件+硬件三位一體的布局。一個最簡單的例子是:在與GooglePixel相連接的情況下,PixelBuds耳機可以實時翻譯。
不過,PixelBuds當然不是全部。在溝通會現場,Google產品經理IsaacReynolds登臺介紹了AIAndHardware的關系;這里說的Hardware,主要指的是GoogleHome系列和Pixel手機。
第一款著重提到的產品是2016年發布的GoogleHome。IsaacReynolds表示,GoogleHome內置了語音配對(VoiceMatch)功能,其本質在于用機器學習來幫助識別不同的語音,可以讓最多6位用戶連接到同一臺GoogleHome;無論這六位用戶說話的聲音大小,GoogleHome都能夠聽見并給出回應,這就是硬軟件與機器學習相結合的最好案例。
與之相比,今年10月最新發布的GoogleHomeMax的音質更好;它可以通過機器學習在數千種房間中進行聲音模型訓練,對不同音質的效果進行衡量,最后提供一個適合所在房間的聲音模型。
關于Pixel2XL,IsaacReynolds主要提到了Pixel2的人像模式。實際上Pixel2只有一個攝像頭,但它能夠通過機器學習對圖像進行結構化的識別,從而區分出背景和人像,并給出相應的深度圖(DepthMaps);在形成SegmentationMask之后,對背景進行虛化,最終實現人像效果。
在溝通會現場,雷鋒網(公眾號:雷鋒網)就Pixel2內置的PixelVisualCore輔助芯片進行了提問。Isaacreyonld表示,KUKA機器人示教器維修,PixelVisualCore實際上已經在數年前就開始研發了,目前可以用于HDR+照片的拍攝;隨著Android8.1的推出,第三方應用開發者也可以應用Pixel2/XL的這一芯片來拍攝HDR+照片。
不過在未來,PixelVisualCore也能夠被開發者應用于機器學習。
人類語言問題的解決
接下來,Google負責機器學習的一個項目總監LinneHa登臺介紹了Google的機器學習在人類語言方面的成績。
LinneHa表示,當今世界上,有6000多種語言(算上方言可能會更復雜),其中只有400多種擁有超過100萬的使用人口。然而在互聯網上,有50%的內容都是英文的,而世界使用人口數量排名第四的印度語,其內容量在網上的排名不到前30。這種人類語言上的不平衡,正是Google試圖通過人工智能解決的問題。
Google在語言方面所做的努力包括對多種語言字體進行Unicode編碼,使其不僅僅能夠用在桌面電腦上,還能用在移動設備上。不僅如此,Google還開發了幾乎可以支持任何語言的Noto字體;而針對字符數量比較多的語言,GoogleKeyboard能夠利用機器學習在用戶輸入時進行預測,從而讓用戶輸入效率大大增加。
利用深度神經網絡,Google推出了VoiceSearch功能,即使是在嘈雜環境中,用戶也可以與手機對話;目前該功能已經支持119種語言,庫卡機器人,其中包括11中印度語言和3種印度尼西亞語言。另外一個值得一提的是Google的ProjectUnison項目,它可以利用機器學習實現文本向語音的轉換,主要針對語料并不豐富的語種,比如孟加拉語、高棉語和爪哇語。而機器學習模型可以減少構建文本到語音模型所需的數據量。
在說完語言之后,GoogleAsssitant工程總監PraviaGupta上臺對GoogleAssistant進行了簡單介紹。除了眾所周知的功能,PraviaGupta再次強調稱GoogleAssistant已經擁有Voice、Type、Tap、Lens等四種輸入方式;而且可以覆蓋iPhone&Android智能手機、Chromebook筆記本、電視機、汽車、智能手表等多種設備。
當然在現場,PraviaGupta也少不了對GoogleAssistant進行了一番Demo。
用AI來賦能行業、應對人類挑戰
當然,除了致力于自身產品的發展,Google也不忘記強調它對其他企業和開發者創新的影響。Google表示,目前它為企業及開發者提供了三種創新工具,分別為TensorFlow、云機器學習API以及TPU電腦芯片。在溝通會現場,來自日本的丘比公司,就登臺介紹了它如何使用TensorFlow來提高食品材料的質量和安全性。
在行業創新之外,Google表示機器學習也可以幫助我們解決人類的一些重大挑戰,比如說醫療保健、能源和環境問題。比如說機器學習目前已經用于診斷糖尿病引起的眼部疾病、乳腺癌等疾病;實際上雷鋒網已經報道過,就在11月26日,Google旗下的DeepMind團隊正式宣布將利用AI來對抗乳腺癌。
不過,來自新西蘭維多利亞大學的博士生VictorAnton則試圖通過人工智能來識別鳥叫聲,以便來保護鳥類。
在溝通會的結尾,JeffDean展望了Google人工智能的未來。
他表示,www.tka.net.cn,未來要面臨的主要困難是如何想方設法讓機器學習模型的創作更加觸手可及;為此,Google明年將在互聯網上免費提供機器學習課程,而且Google相關團隊也在研究如果使用AutoML自動創建機器學習模型。
最后,JeffDean補充稱,目前Google已經啟動了People+AIResearch(PAIR)計劃,這個計劃旨在研究并重新設計人與人工智能系統的交互方式,其最終目的是讓機器學習模型具有包容性,并能夠真正地為每個人可用。