iPhone 的 A12 Bionic 晶片、Neural Engine 神經網路引擎厲害在哪?

蘋果於昨天發表會上推出了三款 iPhone,皆搭載蘋果最新技術 A12 Bionic 晶片,本篇文章將聚焦在這顆晶片所能帶來的效率提升,以及對使用者會造成的影響;讓你了解新款 iPhone 除了在外觀、售價外,還有哪些亮點可以期待。

圖、文/品玩

作為一個聚焦矽谷高科技的網站,我們就不為你匯總蘋果的新iPhone 長什麼樣(懶人包請點此),有什麼新功能了,相信你逛一下官網就能知道。

但我為什麼推薦你看這篇文章:在今天成千上萬條蘋果新品發表會相關文章裡,相信沒有多少像這篇一樣,能為你劃出出本次發表會上的真正重點。

廢話不多說,正文開始。

 

重點一:A12 Bionic 處理器

A12 Bionic 處理器驅動著最新一代iPhone XS 和XR,是蘋果秋季新品發表會上的主角之一。

這場發表會上有一大半篇幅都是蘋果對A12 Bionic(以下簡稱A12)的參數和能力大談特談。我甚至認為,這枚SoC 對於蘋果的重要性要高於iPhone 本身。

這塊晶片主要構成部分是CPU、GPU 和一個神經網路引擎Neural Engine。CPU 為6核;GPU 為4核,性能比前代A11 高了一半左右。

蘋果全球行銷高級副總裁菲利普·席勒(Phil Schiller)表示,A12是全世界電腦產業第一塊7奈米處理器。

這是一個足以令人震驚的表述。因為科技從業者可能知道,晶片工業的領頭羊主要就是Intel、英偉達、AMD 和高通等公司,而這些公司正在集體遇到天花板。

這個天花板就是摩爾定律。

摩爾定律來自英特爾的創辦者,形容了電腦工業的一個常態現象:因為工藝的提升,處理器每隔一段時間的性能也會提升,而成本會下降。

然而在過去的幾年間,摩爾定律越來越難應驗了。以英特爾——全球絕大部分電腦處理器的製造商——為例,它的工藝革新的速度變得越來越緩慢,在10奈米製程工藝上的進展緩慢,導致其所依賴的技術演進模式正在崩盤。

與電腦相對的是移動SoC。高通是這個領域的領導者,進展還不錯,最新一代驍龍845處理器採用10奈米製程工藝,也已經進入了幾款最新的手機。然而高通遇到的問題是性能提升和工藝進步之間的線性關係正在緩慢消退,這也是高通在新一代處理器上主要突出平台效應而非性能的原因。

而誰也沒有想到,在英特爾和高通跟摩爾定律纏鬥的同時,蘋果突然用去年的A11 和今年的A12 在晶片工業狠狠地刷了一下存在感。

席勒透露,在採用7奈米製程工藝的A12 處理器上,蘋果(和它的代工廠台積電一起)塞進了將近70億顆晶體管,讓A12 成為了蘋果乃至整個移動晶片工業史上製造的最強大的手機處理器

——別忘了這家公司並不像高通那樣以晶片公司自居。

A12 的6核處理器仍然採用自家的Fusion 架構,分成2個高性能核心和4個低功耗核心,對處理前台高資源和後台待機任務進行分別處理,總體上達成了將近五成的功耗降低;4核圖形處理器較前代性能也有了很大提升。

不過蘋果在晶片上的真正大殺器,在於那塊Neural Engine。

這是一塊FPGA(Field-Programmable Gate Array),一種自定義能力強適合定制化計算需求,在機器學習領域被廣泛採用的積體電路。

和A11 的雙核心相比,A12 的Neural Engine 核心數暴增到了8顆。它們存在是為了:

1)在本機端處理神經網路任務,比如圖像辨識、物體追蹤、空間位置感應。

比如現場demo的籃球即時數據分析技術Homecourt Shotscience,可以即時監測球員的位置、姿態,球出手時的高度、角度和時機等各種資訊。

2)A12 Neural Engine 的第二個重要任務是為CPU 和GPU,以及在兩個單元的不同核心之間進行任務分配,達成更高效的任務處理,提高性能、降低功耗。

第二代Neural Engine的存在,不僅展現了蘋果在晶片設計上的強大,更證明了一件事:為了在設備上達成甚至創造新的用戶需求,讓iPhone比前一代更加盡善盡美,蘋果願意深入到晶片的層面。

而這和新iPhone 的第二個重點有關。

 

重點二:人工智慧

整場發表會給我留下深刻印象的點並不多,其中之一就是前面提到的籃球即時數據分析軟體Homecourt。

科技從業者可能知道,人工智慧是硬體和軟體的結合。具體來想要有好的效果,不僅要有高性能的計算硬體,也要有強大的算法和軟體支援。

搭配蘋果的CoreML 深度學習框架,新一代iPhone 每秒可以進行的神經網路計算超過5兆次。這意味著在某些特定範圍內,最新一代iPhone 已經超越了不久前業界頂尖的伺服器超級電腦。

當很多神經網路等級的任務可以在本機端計算,無需連接網路,最大的意義在於解鎖了很多新的使用情境。比如發表會示範的新一代iPhone 拍照的Smart HDR 功能。

HDR 拍照就是在按下快門時,相機會拍下多張不同曝光的照片,將它們拼在一起,使得從高光到暗影的每一處細節都呈現更清晰。iPhone XS 和XR 相機引入的Smart HDR 功能,利用了這個邏輯,達成了更好的效果。

首先,按下快門時相機會自動拍下4張照片,利用Neural Engine 結合GPU 的計算能力選取最好的一張。蘋果稱其為零快門延時(Zero shutter lag)技術。

但過程並非如此簡單,再按下快門時,相機不僅留下了4幀,還在另一個曝光等級上拍攝了它們的複制幀,以保留高光細節;

以及另外一幀高曝光,留下暗處細節。此謂HDR。

最後,Neural Engine 會再次選取照片中品質最優良的幾張,包括正片、高光、暗影,將其結合,從而達成Smart HDR 效果:

最後得到的照片並不一定就和普通HDR 或者HDR+ 照片高下立判。但需要明確的是,這些功能並非過去的手機拍照處理器/ISP 可以達成的,而是需要Neural Engine 和CPU/GPU 配合。

你可以說蘋果殺雞用牛刀,但至少在拍照這件事上他們是認真的。

同樣是在拍照上,新一代iPhone 可以達成更好的背景模糊(Bokeh) 效果。前代iPhone X 剛發表時很多用戶發現人像模式效果並不好,原因在於並非雙鏡頭達成,而是單鏡頭+電腦模擬背景模糊。

席勒表示,蘋果相機工程師利用市面上頂級的相機和鏡頭所拍下的背景模糊效果,對iPhone 相機、軟體以及A12 Neural Engine 進行訓練,相信能夠取得更好的背景模糊效果——儘管這次仍然是電腦模擬的。

另一個例子是現場demo的多人同螢幕——不對,同空間聯機遊戲。這是一款擴增實境 (AR) 3D射擊遊戲,幾個玩家各自操作手機,在同一個空間內射擊目標,最後比較比分。

這款遊戲利用了蘋果的ARKit 2 平台,結合Neural Engine 驅動的圖像辨識和空間感知能力,至少在發表會現場效果令人嘆服。

看完整場發表會,蘋果在iPhone XS/XR上展現的人工智慧軟硬體能力,給我留下的印象並不是它們有多強,而是在於它們整合的多麼緊密和自然。

因為究其根本,蘋果也不是一家人工智慧公司。它的業績保證需要銷售設備來支援。而設備給人帶來的體驗多完整,決定了設備的用戶滿意度有多高。