分身術來了,蘋果發佈 AI 新技術,30 分鐘打造你的「數位化身」

。如果圖片僅為裝飾目的、與實際內容無甚相關時,這個欄位可留空。

圖、文/愛范兒授權轉載

當一眾科技巨頭在生成式 AI 賽道打得火熱時,一旁的蘋果卻顯得有些靜默。

而今天蘋果發佈了一篇生成式 AI 的研究論文,難得向我們展示了他們在這一領域的最新突破。

這篇論文詳細介紹了一項名為 HUGS(Human Gaussian Splats)的生成式 AI 技術。簡言之,得益於這一技術的加持,我們甚至可以通過一段短影片來打造一個人類的「數位化身」。

言歸正傳,讓我們來看看具體的展示效果。

據蘋果官方介紹,這些年來,雖然基於神經網路的渲染技術在訓練和渲染速度上取得了顯著的提升,但該技術主要集中於靜態場景的攝影測量,難以應用到靈活運動的人類模型上。

為了解決這個問題,蘋果機器學習研究中心和馬克斯·普朗克智慧系統研究所合作,提出了一種名為 HUGS 的 AI 框架,經過訓練後的 HUGS 能夠在 30 分鐘內,自動從影片中分離出靜態背景和一個完全動態變化的數位化身。

具體是怎麼做到的呢?

他們的核心思路是用 3D 高斯分布(3DGS)來表示人和場景。你可以將高斯分布(GS)理解成一個帶有中心位置、體積大小、旋轉角度的參數化的 3D 鐘形體。

如果我們在一個房間的不同位置放很多這種 3D 鐘形體,調整它們的位置、大小、角度,組合在一起就可以重建出房間的結構和場景中的人了。高斯分布訓練和渲染起來非常快,這也是這個方法最大的優勢。

接下來面臨的問題是,高斯分布本身相對簡單,僅僅堆疊在一起很難精細地模擬出人體複雜的結構。

因此,他們首先使用了一個叫做 SMPL 的人體模型,這是一個常用的、相對簡單人體形狀模型,為高斯分布提供了一個起始點,錨定了人體的基本形狀和姿勢。

儘管 SMPL 模型提供了基本的人體形狀,但它在處理一些細節,比如衣服褶皺、髮型等方面並不是很準確,而高斯分布可以在一定程度上偏離和修改 SMPL 模型。

這樣,他們能夠更靈活地調整模型,更好地捕捉和模擬這些細節,並使得最終的數位化身具有更加真實的外觀。

分開只是第一步,還需要讓構建的人體模型動起來。為此,他們設計了一個特殊的變形網絡,學習控制每個高斯分布(表示人體和場景的形狀)在不同骨骼姿勢下的運動權重,也就是所謂的 LBS 權重。

這些權重告訴系統,當人體骨骼運動時,高斯分布應該如何跟隨著變化,以模擬出真實的運動。

此外,他們不僅僅停留在設計網絡,還透過觀察真實的人類運動影片對數位化身的高斯分布、場景的高斯分布和變形網絡進行了改良。這樣,數位化身就能更好地適應不同的場景和動作,使其看起來更加真實。

相比於傳統的方法,這種方法的訓練速度顯著提高,至少快了 100 倍,而且它還能渲染每秒 60 格的高畫質影像。

更重要的是,這種新方法實現了更高效的訓練過程和更低的計算成本,有時僅僅需要 50-100 格的影片資料,相當於短短 2-4 秒的 24 格影片。

對於這一成果的發佈,網友們的態度卻呈現兩極分化的趨勢。

數位部落客 @mmmryo 驚嘆於生成模型對皮膚和衣服、頭髮等細節的建模,並猜測這項技術很有可能是為 iPhone 或 Vision Pro 而專門設計的。

三星科學家 Kosta Derpani 現身蘋果研究員 Anurag Ranjan 的評論區,對這項成果表達了充分的讚美與肯定。

但也有網友對此並不買帳,比如 X 用戶 @EddyRobinson 對實際生成的效果提出質疑。

蘋果宣佈將會放出模型的代碼,但截至發稿前,點擊蘋果官方給予的代碼鏈接只會得到「404」。

蘋果 AI

部分網友發出理性探討:

蘋果 AI

值得一提的是,這篇論文的作者出現了熟悉的華人面孔。

論文核心作者 Jen-Hao Rick Chang(張仁豪)來自於台灣。在 2020 年加入蘋果之前,他曾在卡內基梅隆大學 ECE 系獲得了博士學位。

張仁豪的學術生涯頗具傳奇色彩,在卡內基梅隆大學期間,他師從圖像處理領域大神 Vijayakumar Bhagavatula 教授和 Aswin Sankaranarayanan 教授。

蘋果 AI

在前三年致力於機器學習領域之後,出於研究興趣,張仁豪毅然調轉研究方向,開始深入探究截然不同的光學領域,此後陸續在計算機圖形學和互動技術領域的 SIGGRAPH,以及機器學習領域 ICML 國際學術會議上發表多篇力作。

而蘋果的這篇論文便是他合著的最新研究成果,最後放上這篇論文的具體地址,更多具體細節可在下方連結查閱 👉 請點此

不得不說,今年的 AI  影片生成賽道簡直是毫無人性,Runway 的出現讓生成式 AI 步入了電影神聖的殿堂,由 Runway 技術支援的《瞬息全宇宙》將 AI 影片生成的魔力展現得淋灕盡致。

隨後 Pika Lab 的 Pika 1.0 將 AI 影片生成的「專利」從專業創作者的手中搶了回來。通過更簡單的文字輸入、淺顯易懂的影片編輯,更高品質的影片生成,讓每個人都有機會成為自己的影片導演。

不論你是專業者還是業餘者,也都能利用 MagicAnimate 人體動畫生成器來自娛自樂。只需按照預定的動作序列輸入人物圖片,就能生成動態影片。

動起來的主角,可以是你的自拍、寵物,也可以是一張熟悉的名畫,發揮你的奇思妙想之後,萬物皆可動。

當然,更引人注目的可能是今天 Google 團隊推出的視頻生成模型 VideoPoet,支援各種影片生成功能以及音頻生成,甚至還能讓大模型來指導完整的影片生成。

不僅一次能夠生成 10 秒超長影片,VideoPoet 還能解決現在無法生成動作幅度較大的影片難題,妥妥屬於影片生成界的全能選手,唯一的缺點可能就是「活在」Google 的部落格。

相對而言,蘋果這個最新成果則瞄准了當下類似於 AI 主播的熱門技術,一段可能不到幾秒的短u影判就能生成你的「數位化身」,眼見不一定為實,未來如何證明「我即是我」或許又值得發愁了。

明年 Vision Pro 即將在美國發售,而這項論文的研究成果該不會是提前埋下的彩蛋吧。

延伸閱讀》

如果想知道更多關於 Apple 的消息、教學、小技巧或是科技新知,一定要點擊以下任一 LOGO,追蹤我們的 Facebook 粉絲團、訂閱 IG、YouTube 以及 Telegram。

加入LINE好友  追蹤FB粉絲團  追蹤 Instagram  訂閱 YouTube  訂閱 Telegram