EMMA: Extensible MultiModal Annotation markup language Version 1.1 Pubblicata Bozza
Il Gruppo di Lavoro su Multimodal Interaction ha pubblicato una Bozza di lavoro su EMMA: Extensible MultiModal Annotation markup language Version 1.1.Questa specifica fornisce dettagli per un linguaggio di markup di tipo XML per contenere e annotare l'interpretazione dell'input dell'utente. Esempi di questa interpretazione dell'input dell'utente sono le trascrizioni in "parole" di un segnale in linguaggio naturale, originato per esempio dal parlato, dalla penna o dalla tastiera, un set di coppie attributo/valore che descrivono il loro significato, o un set di coppie attributo/valore che descrivono un movimento. L'interpretazione dell'input dell'utente ci si aspetta sia generata da processi di interpretazione dei sgnali, come parlato o riconoscimento dell'inchiostro, interpreti semantici e altre tipologie di processori usati dai componenti che agiscono in caso di input dell'utente quali sono i gestori di interazione. Per saperne di più vai a Multimodal Interaction Activity.