Resoconto incontri W3C VBWG e MMIWG (Torino 6-10 Dicembre 2004)
a cura di Paolo Baggia rappresentante di Loquendo
nei W3C Voice Browser e W3C Multimodal Interaction Working Groups
L'incontro periodico del Voice Browser Working Group (VBWG) e del Multimodal
Interaction Working Group (MMIWG) a fine 2004 si č
svolto a Torino. L'azienda organizzatrice č stata Loquendo
ed io ho partecipato attivamente all'organizzazione e
realizzazione di questo incontro che si č svolto dal 6
al 10 dicembre. All'incontro hanno partecipato molte persone
di Loquendo ed anche Fabrizio Gramuglio in rappresentanza
del VoiceXML Italian User Group e di IWA.
1) Incontro del Voice Browser WG
Un punto importante č stata decisione di sviluppare un
linguaggio XML per rappresentare delle macchine a stati,
utili per mettere in luce il flow dell'applicazione.
Il linguaggio sarā basato sulle Harel State Charts, un
formalismo presente in ambito UML per definire macchine
a stati, che ha il pregio di avere una semantica molto
ben definita e potente.
Questo nuovo linguaggio che sarā parte della nuova architettura
VoiceXML in via di creazione, dovra' fornire la
base per un CCXML di prossima generazione ed avere un
ruolo anche nell'ambito delle architetture multimodali.
Il nome del linguaggio č SCXML - State Chart XML, ma
potrebbe ancora cambiare. Il primo documento verrā
pubblicato durante l'estate 2005. Questo č il primo
tassello concreto della prossima generazione di specifiche
del Voice Browser.
Anche i lavori del Pronunciation Lexicon Specification
sono proseguiti ed il primo Working
Draft verrā pubblicato
il 14 Febbraio 2005. Questo linguaggio permetterā agli
sviluppatori di applicazioni vocali di fornire pronunce
ed espansioni di acronimi in modo standardizzato ed utilizzabile
sia nel riconoscimento della voce (tramite grammatiche
in formato SRGS), sia nella sintesi da testo (tramite
documenti in formato SSML).
Il CCXML 1.0 ha deciso di pubblicare un secondo Last Call
Working Draft per stabilizzare alcuni cambiamenti avvenuti
a valle della revisione della specifica da parte di molte
aziende tra cui Loquendo, Genesys, HP, Nortel, VoiceGenie.
Il documento č stato pubblicato in data 11 Gennaio 2005.
Infine il Voice Browser WG č in fase di rinnovo del "charter"
(mandato) da parte del W3C. Questo e' il momento di rinnovare
le iscrizioni e cercare di coinvolgere nuove aziende
attive o interessate a queste tematiche. Per poter far
parte del VBWG l'azienda deve essere membro del W3C,
vedere informazioni nel sito pubblico del gruppo
2)
Incontro del Multimodal Interaction WG
Il focus del meeting sono stati i temi di un'architettura
per il multimodale e gli approcci di authoring di servizi
multimodali.
Il gruppo ha lavorato sulla "rivisitazione" di un documento architetturale. La sua pubblicazione
č programmata per la primavera 2005. L'architettura
definirā come dei componenti specifici per modalitā
diverse, ad esempio la voce o l'handwriting, piuttosto
che il mouse o lo stylus, possano interagire e comunicare
in un infrastruttura che possa contenere anche un controllore
dell'applicazione multimodale.
Per quanto riguarda la tematica dell'authoring multimodale
i lavori si sono concentrati sul rivedere i requisiti definiti
nel 2001 ed analizzare le implementazioni in campo oggi,
tra cui SALT e X+V, ma anche le Harel State Charts. C'č molto
interesse nel raccogliere feedbacks dagli sviluppatori di
applicazioni multimodali. Ad oggi, le aziende che si sono offerte
per raccogliere le informazioni sono IBM, V-ENABLE, Kirusa e
OpenStream.
Opera, HP e Loquendo hanno poi presentato delle dimostrazioni.
Anche il Multimodal Interaction Working Group e' soggetto a
re-chartering e quindi le aziende interessate sono invitate
ad iscriversi a questo gruppo. Per informazioni si puo' accedere al
sito ufficale del gruppo.
Paolo Baggia, rappresentante di Loquendo nei W3C VBWG
e MMIWG.