L'incontro periodico del Voice Browser Working Group (VBWG) e del Multimodal Interaction Working Group (MMIWG) a fine 2004 si � svolto a Torino. L'azienda organizzatrice � stata Loquendo ed io ho partecipato attivamente all'organizzazione e realizzazione di questo incontro che si � svolto dal 6 al 10 dicembre. All'incontro hanno partecipato molte persone di Loquendo ed anche Fabrizio Gramuglio in rappresentanza del VoiceXML Italian User Group e di IWA.
1) Incontro del Voice Browser WG
Un punto importante � stata decisione di sviluppare un linguaggio XML per rappresentare delle macchine a stati, utili per mettere in luce il flow dell'applicazione. Il linguaggio sar� basato sulle Harel State Charts, un formalismo presente in ambito UML per definire macchine a stati, che ha il pregio di avere una semantica molto ben definita e potente. Questo nuovo linguaggio che sar� parte della nuova architettura VoiceXML in via di creazione, dovra' fornire la base per un CCXML di prossima generazione ed avere un ruolo anche nell'ambito delle architetture multimodali. Il nome del linguaggio � SCXML - State Chart XML, ma potrebbe ancora cambiare. Il primo documento verr� pubblicato durante l'estate 2005. Questo � il primo tassello concreto della prossima generazione di specifiche del Voice Browser.
Anche i lavori del Pronunciation Lexicon Specification sono proseguiti ed il primo Working Draft verr� pubblicato il 14 Febbraio 2005. Questo linguaggio permetter� agli sviluppatori di applicazioni vocali di fornire pronunce ed espansioni di acronimi in modo standardizzato ed utilizzabile sia nel riconoscimento della voce (tramite grammatiche in formato SRGS), sia nella sintesi da testo (tramite documenti in formato SSML).
Il CCXML 1.0 ha deciso di pubblicare un secondo Last Call Working Draft per stabilizzare alcuni cambiamenti avvenuti a valle della revisione della specifica da parte di molte aziende tra cui Loquendo, Genesys, HP, Nortel, VoiceGenie. Il documento � stato pubblicato in data 11 Gennaio 2005.
Infine il Voice Browser WG � in fase di rinnovo del "charter" (mandato) da parte del W3C. Questo e' il momento di rinnovare le iscrizioni e cercare di coinvolgere nuove aziende attive o interessate a queste tematiche. Per poter far parte del VBWG l'azienda deve essere membro del W3C, vedere informazioni nel sito pubblico del gruppo
Il focus del meeting sono stati i temi di un'architettura per il multimodale e gli approcci di authoring di servizi multimodali.
Il gruppo ha lavorato sulla "rivisitazione" di un documento architetturale. La sua pubblicazione � programmata per la primavera 2005. L'architettura definir� come dei componenti specifici per modalit� diverse, ad esempio la voce o l'handwriting, piuttosto che il mouse o lo stylus, possano interagire e comunicare in un infrastruttura che possa contenere anche un controllore dell'applicazione multimodale.
Per quanto riguarda la tematica dell'authoring multimodale i lavori si sono concentrati sul rivedere i requisiti definiti nel 2001 ed analizzare le implementazioni in campo oggi, tra cui SALT e X+V, ma anche le Harel State Charts. C'� molto interesse nel raccogliere feedbacks dagli sviluppatori di applicazioni multimodali. Ad oggi, le aziende che si sono offerte per raccogliere le informazioni sono IBM, V-ENABLE, Kirusa e OpenStream.
Opera, HP e Loquendo hanno poi presentato delle dimostrazioni.
Anche il Multimodal Interaction Working Group e' soggetto a re-chartering e quindi le aziende interessate sono invitate ad iscriversi a questo gruppo. Per informazioni si puo' accedere al sito ufficale del gruppo.
Paolo Baggia, rappresentante di Loquendo nei W3C VBWG
e MMIWG.