Il
Multimodal Interaction Working Group ha pubblicato la Proposed Recommendation di
EMMA: Extensible MultiModal Annotation markup language. Questo documento è parte di un insieme di specifiche per i sistemi multimodali, e fornisce dettagli di un linguaggio di markup XML per contenere e annotare l'interpretazione dell'input dell'utente. Ci si aspetta che l'interpretazione dell'input dell'utente sia generato dall'interpretazione di segnali, come la voce ed il riconoscimento della scrittura, interpreti semantici, e apltri tipi di processori per l'uso di componenti che agiscono come gestori dell'interazione con l'input dell'utente. Controlla l'
implementation report del gruppo. I commenti sono bene accetti fino al 15 gennaio.Ulteriori informazioni su
Multimodal Interaction Activity.
(Archivio News Inglese, Italiano)