四、硬體基礎
新的機器並非雙攝那種簡單的深度感知,而是精細的結構光和點投影。
左側紅外結構光,獲取相位資訊,右側點投影,獲取更加精細的資訊。
過往雙攝的概念出來時,更大的意義還是通過雙CMOS得到5倍的進光量,從而提升信噪比,而非3d的深度感知。
因為雙攝這個結構本身就不夠精確。以環境感知獨步天下的大疆為例,目前憑雙攝也只能在10米距離上分辨1m的阻礙,*而蘋果的點投影如果能投上10m,60°的視角下,它能分辨出0.06m的障礙* (僅以點數和60°視角估算)。
這種精度,相當於對你的皮膚都有了一次比人眼還密集的立體結構普查,能精確到每一塊肌肉。
當iPhone能get到臉部資訊並套用經典燈光設計時,任何拿相機自拍的人也不敢說一定拍得比手機拍好了。因為毫無疑問,根據臉部3D資訊,隨時可以佈出一片影棚級的專業光線——而拿相機的攝影師如果靠普通的光線,何來可比性?
而且1這個基礎上,通過對比對應圖像,相機完全能察覺出哪些不均勻是膚色導致的,哪些不均勻是凹凸導致的。這相當於把臉部分了一個層,比如黑眼圈單獨一層,要去除只需刪掉即可。
遍覽我們用過的相機,下到RX100上到H5D,都無法獲取臉部的3D資訊。因為單個鏡頭注定只能拍攝到平面而非立體,在後面的修光時,我們對臉龐資訊的獲取完全來自於我們個人的經驗。這就是標題中指代的“分道揚鑣”的地方。
當然,這一切離理想還很遙遠,卻頂多就在五六年間。或許到時候女朋友一句抱怨”拍得還沒我手機好“是一句不能更真的實話,而非現在外行人的笑談。
↑上圖:portrait lighting自動打光前後
根據立體資訊,手機判斷出臉頰的深度,並認為在頂光照射下這部分應該更加黯淡,因此減少了臉頰的光線。五官更加立體。而傳統的美顏則不能分辨,只能提供對比度。
(這僅是當前beta測試下的一個機械的案例。實際上目前主要還是靠神經網絡。)
如果確實能記錄三維資訊,那完全能對普通圖片產生碾壓。
五、機器智能的偉力
目前的portrait lighting主要依靠神經網絡而非立體資訊。如果兩者相結合,產生的威力是巨大的。
之前我提到“審美思考“是無法取代的
——才怪!醒一醒,人工智能在圖像領域早就是甦醒的怪獸了。這些不是apple的專利。
如潑辣修圖,Photolemur,已經很大程度上可以自動取得不錯的優化效果。
再如,paintschainer,自動上色。谷歌AI,從街景自動修出風景圖
(還有一個由AI自動生成照片的案例的,我沒辦法搜到了,希望有人補充。)
實際上當前很多美圖軟件或者相機自帶的功能已經開始利用神經網絡修圖了,某種意義上也能達到模擬燈光的效果。
在我看來,至少在” 如何改善自拍 “這方面,人工智能完全能成為打敗攝影師的怪物。
人工智能對人們喜好的照片如簡在心,臉部哪裡應該有影子、何處應該有高光,何種光線下應該用什麼樣硬度的模擬燈光,它會有數——而3D資訊會告訴它臉是怎麼樣的。
新iPhone自帶的Core ml芯片賦予它的人工智能能力,這是它未來發育時倚重的神器。
它一開始還不知道人們喜歡什麼樣子的照片,等以後無數人使用了新的功能進行自拍之後,這位人工智能就會被逐漸教育成大家想要的那樣子,就像第二個Siri.
在未來,或許你的iPhone還會判斷你想要追逐的潮流,將你修飾成你想要的、最潮流的樣子:
*↑這裡不是大佬
本文只談未來。
面對被數億副自拍教育出來的怪物,哪個修圖師敢說自己一定贏?
六、攝影師的改變
正如我標題所說:分道揚鑣。以智能為驅動力的手機攝影,將在以後與傳統攝影越走越遠。但帶了智能和高維資訊的攝影與舊攝影糾纏,必然會帶來我們從未見過的風景。
在傳統攝影中,3D資訊的捕獲是通過各種輔助工具達成的,
普通攝影師不會去做這點。
而Apple將它帶入了手機界,偏偏這在相機上無法達成。它開創了一個未來:
1、通過3D資訊修圖將會從手機逐漸發展起來 ——以新的iPhone為例,你可以通過改變臉部的3D資訊來塑造新的光線——比如你想要更高的鼻樑,你只需要提升3D模型裡的鼻樑,對應高鼻樑的光影會自動生成。
雖然目前似乎不開放自主調節,但“潑辣修圖”等工具在未來完全可以利用API接口去調動圖片的立體資訊。這裡插一句,我一直堅定地認為PS的處理方式已經很落後了,因為它浪費了平面外大量的資訊,而且相當弱智。
2、反促新的,立體資訊驅動的攝影發展。雖然現在不流行,但在未來,完全可以通過多個攝影機和激光點陣的投影,拍攝影iPhone那樣的深度圖,脫離自拍的局限,從而獲得更優秀的後期流程。至少摳圖是方便多了。
3、近年來,不斷有新的東西在刷新攝影師的視野,我們應當順應潮流。比如無人機的視野,比如全景圖的噴薄。我很期待新的東西的。
iPhone真的在向驕傲的攝影師們吹動靜默的號角。
補充:這裡著重回答下專業相機為何無法做到。
只要傳感器到位,專業相機當然可以做到,如開頭所說,只要多出一個維度的資訊即可。但目前來看,用雙鏡頭實現的話首先你要體積夠大,不然無法建立精度足夠的深度資訊。這點在生物界內都無法突破,像微型的昆蟲,比如蒼蠅,螳螂,立體感都不會太強。
iPhone的實現更像是是面部捕捉在近距離上的特解。
目前來看,它最強的地方在於對面部的建模,以此解決的面部問題,正是當下自拍和肖像的痛點。以後還能在遊戲中操作哦。