解讀 | 蘋果的A12芯片是如何讓你的自拍更美的?

前言

9月13號凌晨、蘋果秋季發佈會剛剛在蘋果總部的喬布斯劇院落下帷幕。本次大會蘋果發佈了 6 款產品,除了高聳入雲的售價之外,最亮眼的,是3款手機都搭載的史上性能最強大的智能芯片A12。

本文經 人工智能產業技術創新聯盟 授權轉載,轉載請聯繫出處

文章編輯:小雨

9月13號凌晨、蘋果秋季發佈會剛剛在蘋果總部的喬布斯劇院落下帷幕。本次大會蘋果發佈了 6 款產品,除了前期被曝光的三款新iPhone之外,還有兩款“全面屏”手錶Apple Watch Series 4、和黑色款HomePod。

除了高聳入雲的售價之外,最亮眼的,是3款手機都搭載的史上性能最強大的智能芯片A12。A12芯片配合神經網絡引擎,可以極大的提升AI相機的能力

通俗一點的說,就是A12芯片讓iPhone的相機擁有了人工智能,也正是因爲人工智能的加持,很多專業攝影師手持iPhone就能夠排出很棒的照片。比如下圖:

蘋果在新的系統中,還加入了智能HDR機制,在啓用HDR機制的時候拍照,AI可以識別出不同景物所應在的景深位置(物體到被拍主體的距離),智能調節虛化效果。

AI會對照片進行智能分析,然後將不同參數下拍攝的照片的部分區域取樣,合爲一張完整的HDR照片。於是拍出的照片因爲有了背景虛化的緣故,顯得比一般的傻瓜相機更好看。

蘋果稱現在人像虛化模式可以在拍攝後調節照片的虛化程度,其實和現有的很多Ps軟件功能差不多。而蘋果相機的優勢在於,本身在相機裏已經有了原始照片的各項參數,調節起來更方便。如果是同時在手機上處理一張外部導入的照片,可能AI相機和Ps軟件效果差距不會太大。

那麼AI是怎麼區分開你的大臉和背景物體的呢?

在AI領域中,機器視覺領域中大家最熟知的就是人臉識別技術。其實現很多技術都會用到機器視覺,比如用機器識別手寫的文字等。

對於機器來說,只要有足夠神經網絡層數和訓練數據,它是可以識別很多東西的。所以在一張照片中,機器視覺既可以識別人臉,也可以識別人臉之外的背景中的物體。

下面我們就拿一張現有的例子來解釋一下,iPhone如何讓一張自拍照片變得更好看。

首先在啓用相機取景的時候,AI已經開始通過神經網絡引擎計算取景器中內容的各項參數,比如曝光,景深等等。在我們按下拍照的一瞬間,A12芯片和神經網絡引擎就開始幹活了。

首先是拍攝主題也就是人像,在最終生成的照片中,人像的處理是最多的。因爲上圖是背光拍攝,所以飽和度、對比度、曝光細節、磨皮的調節都在這部分區域(不調節臉會黑很多)。

然後是照片中的(2)部分,這部分區域距離拍攝主體較遠,所以在虛化程度上要稍微輕一些。最後是照片中的(1)部分,是距離拍照主體最遠的部分,所以在最終生成的照片中,這部分是虛化程度最嚴重的。

需要注意的是(1)(2)兩部分背景並不是規則區域,所以需要AI來切割分析,這就比普通的Ps軟件要高級一些,普通的軟件只能提供固定形狀的虛化,這就會出現本來是(2)區域的景色卻錯誤得應用了最嚴重的虛化處理。

最後的最後,有兩條祕方送給各位自拍的同學,第一是如果可以的話儘量在背景寬廣,景物遠近分佈均予的地方拍攝,即使是一般的拍照軟件虛化的效果也會很好,第二條就是一定要用後置攝像頭。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章