Please use this identifier to cite or link to this item: https://hdl.handle.net/10923/6833
Type: doctoralThesis
Title: Aprendizado e utilização do estilo de movimento facial na animação de avatares
Author(s): Braun, Adriana
Advisor: Musse, Soraia Raupp
Publisher: Pontifícia Universidade Católica do Rio Grande do Sul
Graduate Program: Programa de Pós-Graduação em Ciência da Computação
Issue Date: 2014
Keywords: INFORMÁTICA
ANIMAÇÃO POR COMPUTADOR
COMPUTAÇÃO GRÁFICA
AVATARES
REDES NEURAIS (COMPUTAÇÃO)
Abstract: Esse trabalho apresenta uma metodologia, denominada Persona, para aprendizado e transferência do estilo de movimento facial de atores para a animação de avatares. Por meio dessa metodologia, pode-se guiar a animação das faces de avatares com o estilo de movimento de um ator específico, através da atuação de usuários quaisquer. Dessa forma, o avatar poderá expressar os movimentos faciais que o usuário executa, porém replicando as particularidades dos movimentos faciais do ator, por meio da utilização da Persona. Para construção do estilo de movimento facial dos atores, utilizouse como dados de entrada pontos da face obtidos por rastreamento em sequências de imagens e informações presentes em bancos de dados de expressões faciais tridimensionais, anotadas de acordo com o Sistema de Codificação Ações Facial (FACS). Esses dados foram submetidos à análise de componentes principais e, então, utilizados para treinamento de redes neurais artificiais. Com esses classificadores podem-se reconhecer automaticamente as unidades de ação na expressão do usuário e encontrar os parâmetros equivalentes no estilo de movimento do ator. O resultado do processo é o fornecimento desses parâmetros para sistemas de animação. O protótipo desenvolvido como prova de conceito foi utilizado em casos de estudo, cujos resultados são apresentados. Indicações de trabalhos futuros também serão discutidas.
This work presents a methodology, named Persona, for learning and transfer of facial motion style of an actor in order to provide parameters for avatar facial animation. Through this methodology, we can drive the facial animation of avatars using the motion style of a particular actor, through the performance of any user. Thus, the avatar can express the facial movements that the user is performing, but replicating the particularities of the actor’s facial movements, based on his or her Persona. In order to build the facial motion style model of an actor, we used points tracked on image sequences of the actor performance as input data. We also used a database of threedimensional facial expressions, annotated according to the Facial Action Coding System (FACS). Principal components analysis was performed using these data. Afterwards, artificial neural networks were trained to recognize action units both in the actor and user’s performances. Given these classifiers, we can automatically recognize action units in the user’s expression and find the equivalent parameters in the actor’s motion style model. The result of the process is the provision of such parameters to facial animation systems. The prototype developed as proof of concept has been used in case studies, whose results are discussed. Future work are also addressed.
URI: http://hdl.handle.net/10923/6833
Appears in Collections:Dissertação e Tese

Files in This Item:
File Description SizeFormat 
000461608-Texto+Completo-0.pdfTexto Completo5,1 MBAdobe PDFOpen
View


All Items in PUCRS Repository are protected by copyright, with all rights reserved, and are licensed under a Creative Commons Attribution-NonCommercial 4.0 International License. Read more.