- Fornire primitive dialogo più potenti.
- Fornire una modalità che possa agevolmente essere
integrata in altri W3C markup, cioè dare la voce ad altri
linguaggi W3C.
Nella nuova architettura potranno funzionare sia le applicazioni
già scritte in VoiceXML 2.0/2.1, sia quelle in VoiceXML 3.0 che
permetteranno nuove funzionalità, ma si sta considerando la
possibilità di rendere il FIA (Form Interpretation Algorithm)
modificabile da parte degli sviluppatori, cioè di
offrire un livello di programmazione ulteriore, da utilizzare
se e solo se l'applicazione vocale lo richieda.
Sui principi di base dell'architettura si è raggiunto un
accordo di massima: essa sarà composta da layers (strati) denominati layer delle primitive, layer dei componenti e layer del container.
Le primitive (che implementeranno le funzionalità di riconoscimento,
sintesi, DTMF, telefonia, ecc...) saranno formate da
componenti (es. un <form> VoiceXML), i quali saranno contenuti in
un documento container (es. VoiceXML 2.0, ma anche XHTML o WML).
Questa architettura dovrebbe permettere la massima interoperabilità permettendo di avere degli strati ben definiti su cui appoggiare gli strati superiori.
Il lavoro iniziato in questi incontri continuerà nelle audioconferenze
e nei meeting successivi.
Per quanto riguarda le specifiche ci sono alcune novità da
segnalare:
- Speech Synthesis Markup Language (SSML 1.0): come gia’ detto
e’ W3C Recommendation dal 7 settembre 2004.
- Pronunciation Lexicon Specification (PLS): Il gruppo ha deciso di
ri-attivare questa attività assegnano l'incarico a me (Paolo Baggia /
Loquendo). Il primo passo concreto è stata la pubblicazione di un
documento di requisiti aggiornato, che permetta di distinguere tra
le attività a breve termine e quelle più complesse demandate ad una
versione 2.0 di questo linguaggio.
- Call Control (CCXML 1.0): vicino a pubblicare un secondo Last Call
Working Draft a fine 2004.
- Semantic Interpretation (SISR 1.0): sta completando i lavori per
pubblicare un Last Call Working Draft entro novembre 2004.
- VoiceXML 2.1: Il Last Call Working Draft è stato pubblicato il
28 luglio 2004. Stanno iniziando i lavori per creare un Implementation
Report; a questi lavori sta partecipando anche Loquendo, oltre a Tellme,
Vocalocity, ScanSoft e altre aziende del gruppo.
- Say-as: Il gruppo sta lavorando per pubblicare un Nota W3C che definisca
alcuni tipi standard di say-as omessi dalla specifica SSML 1.0, ma necessari
ai fini dell'interoperabilità.
2)
Incontri del Multimodal Interaction Working Group (MMIWG)
Gli incontri hanno permesso di analizzare come l'architettura V3 si integra
in un ambito di applicazioni multimodali e la sensazione è che la direzione
sia funzionale al multimodale.
Inoltre si sono rivisti i requisiti e alcuni degli Use Cases definiti in
passato per aggiornarli alla luce dei progressi fatti verso un'architettura
per applicazioni multimodali. Si è programmata la pubblicazione di un
documento architetturale a inizio 2005.
Alcuni approcci innovativi di authoring di applicazioni multimodali sono
stati analizzati tra cui uno basato su scripting e uno basato su estensioni
di CSS (Cascading Style Sheets).
Per quanto riguarda
le specifiche in corso di definizione:
- EMMA 1.0: i lavori
procedono verso il Last Call Working Draft.
- InkML 1.0: linguaggio
per definire in XML digital Ink, procedono i
lavori ed è stato pubblicato come Working Draft
il 28 settembre 2004.
- System & Environment:
i lavori sono legati al gruppo W3C Device
Independence, perché volti a definire dei parametri di ambiente dinamici,
quali ad esempio un GPS o altre informazioni sull'ambiente. Il Last Call
Working Draft è previsto a novembre 2004.
- Composite Input:
i lavori procedono per pubblicare un W3C note a fine
anno ed alcuni input relativa a poter comporre dati in EMMA di modalità
diverse (es. voce e click del mouse), sono stati accolti dalla specifica
EMMA.
Nel corso dei meeting sono state presentate delle dimostrazioni multimodali
da parte di IBM, V-Enable, Canon e EDS.
Paolo Baggia, rappresentante di Loquendo nei W3C VBWG
e MMIWG.