Actualidad
Los estándares en el Avatar de Kristina; Encuentro entre ARIA-VALUSPA y KRISTINA

Los estándares en el Avatar de Kristina; Encuentro entre ARIA-VALUSPA y KRISTINA

Fecha de publicación: 03 de abril de 2017

El mes pasado, tuvo lugar en Dagstuhl un taller entre los miembros de KRISTINA y ARIA-VALUSPA, otro proyecto de Horizon 2020 en el ámbito de los agentes virtuales interactivos (un centro de ciencia computacional en el sur oeste de Alemania). Durante este taller también se dieron una serie de encuentros para compartir diferentes puntos de vista acerca de las disciplinas que se necesitan para crear agentes virtuales interactivos.


Tal y como se dice en una publicación del Proyecto ARIA-VALUSPA, de Merijn Bruijnes:


“El proyecto de Asistentes Artificales de Recuperación de Información – Agentes Virtuales con Comprensión Lingüística, habilidades sociales y aspectos personales ARIA-VALUSPA (Artificial Retrieval of Information AssistantsVitual Agents with Linguistic Understanding, Social skills and Personalised Aspects) persigue el objetivo de crear Asistentes Artificiales de Recuperación de Información (ARIAs) que sean capaces de funcionar en el contexto de interacciones sociales muti-modales que representen un reto y que sean inesperadas. La tecnología desarrollada en el proyecto se mostrará en el proyecto virtual llamado Alice, inspirado en el libro de Alicia en el País de las Maravillas. Un usuario puede incluso preguntarle a Alice sobre su versión de la historia.


Durante el seminario de articulación, se mostraron demos de ambos proyectos. Una demo destacable de ARIA fue la que presentó Angelo Cafaro, que me enseñó que la forma de proceder del agente virtual ante las “interrupciones” (pausas) del usuario fue alcanzado en el nivel de generación de comportamiento. Para el proyecto KRISTINA, Dominik Schiller presentó una demo muy destacable en la que se mostraba la forma en la que el agente virtual podía reaccionar de forma empática ante un usuario deprimido… Además, hubo una aportación interesante por parte de Patrick Gebhard del laboratorio DFKI. Él detalló el Virtual Scene Maker que se estaba utilizando y explicó la forma que puede utilizarse a la hora de diseñar a tiempo real sistemas interactivos. Tras esta charla, hizo una demostración del sistema y de la facilidad de su configurabilidad que demostró ser muy destacable. Además, la demostración más impresionante fue la que llevaron a cabo Gerard y Angelo, quienes en aproximadamente una hora, consiguieron conectar la Plataforma Greta del Poyecto ARIA con la interfaz-web del agente del Proyecto KRISTINA. Este hecho realmente demostró la importancia y el efecto de los estándares.”


Hace 10 años, un sistema para controlar a los agentes virtuales fue definido por parte de la mayoría de los expertos en Agentes Conversacionales (Embodied Conversational Agents, ECAs): las Marcas de Comportamiento en el Lenguaje (Behaviour Markup Language, BML) [1]. El Grupo GTI-UPF implementó el agente web KRISTINA utilizando este estándar y, a pesar de que el GTI-UPF solo controla el comportamiento específico del agente de KRISTINA, este se implementó como una fuente abierta del agente virtual en la web. El objetivo de crear el agente virtual a partir de la web de una forma que pueda ser controlado a través de BML, también llamado BML Controlador, es que cualquier investigador pueda conectar su generador BML sin tener que instalar ningún software adicional o sin tener que enfrentarse con la creación y la ayuda de los caracteres virtuales.


GTI-UPF ha estado trabajando en un sistema para integrar fácilmente los caracteres virtuales en la web, espacio que se adecua a la aproximación descrita más arriba. En ese momento todas las herramientas para crear avatares dentro de KRISTINA se encuentran en abierto. GTI-UPF han implementado algunas librerías en abierto, así como secuencias de comandos (scripts) para controlar el comportamiento del ECA en el WebGLStudio. Entre ellos, encontramos el sistema de animación facial basado en los valores y estímulos tal y como los propone [2], una web-basada en la sincronización labial [3] y algunos de los comandos BML. Crear un nuevo avatar que sea operativo mediante el canal de instalación del GTI-UPF se tarda menos que una mañana de trabajo, consiguiendo la integración hacia WebGLStudio con los scripts y librerías. Esta simplificación de la creación y el soporte de caracteres virtuales puede representar un gran paso adelante hacia la posibilidad de comprobación y respetabilidad de la investigación.


El seminario en Dagstuhl dejó claro la utilidad del acercamiento en el que el GTI-UPF ha estado trabajando. En una hora de codificación, la plataforma Greta pudo controlar el agente basado en la web vía los comandos BML. GTI-UPF ha desarrollado un agente que puede fácilmente conectarse a otros sistemas y adicionalmente, como si fuera una implementación web, se puede acceder al agente virtual desde cualquier ordenador o sistema de control remoto. GTI-UPF está planeando diseñar en el futuro el agente-web al mismo tiempo que las herramientas necesarias en la web de modo que otros puedan implementar sus propios agentes virtuales.


Esperamos poder ofrecer un Controlador-Web BML para permitir a los investigadores que comparen y comprueben sus motores de una forma más estandarizada, por medio de unos estudios de usuario masivo en la web.


 

Proyecto Europeo KRISTINA: presentación del primer prototipo, que es capaz de hablar y responder en tres idiomas.

 

Consulta el artículo original en la web de KRISTINA


 




 

[1] Stefan Kopp, Brigitte Krenn, Stacy Marsella, Andrew N. Marshall, Catherine Pelachaud, Hannes Pirker, Kristinn R. Thórisson, and Hannes Vilhjálmsson. 2006. Towards a common framework for multimodal generation: the behavior markup language. In Proceedings of the 6th international conference on Intelligent Virtual Agents (IVA'06), Jonathan Gratch, Michael Young, Ruth Aylett, Daniel Ballin, and Patrick Olivier (Eds.). Springer-Verlag, Berlin, Heidelberg, 205-217

[2] Romeo, M.: Automated Processes and Intelligent Tools in CG Media Production. PhD thesis, 119-148 (2016)

[3] Llorach, G., A. Evans, J. Blat, G. Grimm, V. Hohmann. Web-based live speech- driven lip-sync. In: 8th International Conference on Games and Virtual Worlds for Serious Applications (VS-Games) (2016)