PFNN(Phase-Functioned Neural Networks for Character Control)
homepage : http://theorangeduck.com/page/phase-functioned-neural-networks-character-control
paper : http://theorangeduck.com/media/uploads/other_stuff/phasefunction.pdf
video : https://youtu.be/Ul0Gilv5wvY
code : https://github.com/sreyafrancis/PFNN
PFNN은 real-time animtion finder이다. 수 많은 motion data 중에서 현재 가장 적합한 motion을 찾아주는 것이 핵심이다. solution의 어려운 점은 찾고자 하는 data의 크기(animation data)가 크며 적절한(time-series에서 next time)의 data를 찾아야하며 time-complexity가 data 크기에 비례하다는 점이다.
이 논문이 가지는 의의는 3 layer의 feed-foward로 이루어진 단순한 model에서 가능하다는 점이다. 아이디어는 간단하다. problem-space를 2족(인간형)의 movement animation로 한정하면 animation은 왼발, 오른발의 교차로 이루어진다는 점을 확인할 수 있다. 이것을 phase라는 변수로 보면 모든 animation은 특정 time-series에 특정 phase를 가지는 정보로 치환할 수 있고 phase를 n개(논문에서 4개)로 나누어 각 n개의 model을 각각 학습시키면 요게 된다고 한다. 추가적으로 논문에서는 phase이외에 trajectory(방향정보), gait(animation label)을 사용한다.
'개발_이야기 > 딥러닝' 카테고리의 다른 글
TTS (0) | 2018.04.02 |
---|---|
texture_compression (0) | 2018.04.02 |
anim_motion_synthesis (0) | 2018.04.02 |
최신 논문으로 시작하는 딥러닝 (0) | 2018.04.02 |
How we teach computers to understand pictures (0) | 2017.09.19 |