MichiGAN:Multi-Input-Conditioned Hair Image Generation for Portrait Editing---論文閱讀筆記

Abstract

儘管最近用GANs的face image generation很成功,conditional hair editing(什麼是有條件的頭髮編輯)仍是個挑戰性問題,由於the under-explored complexity of its geometry and appearance. (human body 還有統一的模式,但是不同髮型的話,就壓根沒有統一範式了。什麼短髮,長髮,捲髮,大波浪,小波浪). 在本文中,我們提出多輸入conditioned Hair Image GAN, 是一種新型的conditional image generation method for 可交互的肖像hair manipulation. 爲了讓用戶可以對每個影響hair的主要視覺因素major visual factor進行控制,然後作者把hair解開into四個orthogonal(正交的)屬性,包括Shape, structure, appearance, and background. (這裏面shape和structure什麼區別?) 對於四者中的任意一個,作者設計一個對應的condition module來represent, process, and convert user inputs,(用戶怎麼輸入的,以什麼形式輸入的) and modulate (調製調解) 圖像生成的pipeline in ways that
repect the natures of different visual attributes (遵從不同視覺屬性的本質,什麼本質.). 所有這些condition modules are integrated with the backbone generator to 形成端對端的網絡,這個網絡允許fully-conditional hair generation from multiple user inputs. 基於此,通過projecting 直觀的或者high-level user inputs (例如:painted masks彩繪面具, guiding strokes 引導筆畫,reference photos 參考圖像)到一個well-defined condition representation建立了可交互的肖像頭髮editing system that enables 直接的操作hair. 實驗結果表明他們的方法在result quality和user controllability上都有superiority.
在這裏插入圖片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章