TC-STAR 2006 Evaluation Package - SLT English-to-Spanish

View resource name in all available languages

Package d’évaluation TC-STAR – SLT anglais-espagnol 2006

ID:

ELRA-E0014

TC-STAR is a European integrated project focusing on Speech-to-Speech Translation (SST). To encourage significant breakthrough in all SST technologies, annual open competitive evaluations are organized. Automatic Speech Recognition (ASR), Spoken Language Translation (SLT) and Text-To-Speech (TTS) are evaluated independently and within an end-to-end system.

The second TC-STAR evaluation campaign took place in March 2006.
Three core technologies were evaluated during the campaign:
• Automatic Speech Recognition (ASR),
• Spoken Language Translation (SLT),
• Text to Speech (TTS).

Each evaluation package includes resources, protocols, scoring tools, results of the official campaign, etc., that were used or produced during the second evaluation campaign. The aim of these evaluation packages is to enable external players to evaluate their own system and compare their results with those obtained during the campaign itself.

The speech databases made within the TC-STAR project were validated by SPEX, in the Netherlands, to assess their compliance with the TC-STAR format and content specifications.

This package includes the material used for the TC-STAR 2006 Spoken Language Translation (SLT) second evaluation campaign for English-to-Spanish translation. The same packages are available for English (ELRA-E0011), Spanish (ELRA-E0012) and Mandarin Chinese (ELRA-E0013) for ASR and for SLT in 2 other directions, Spanish-to-English (ELRA-E0015) and Chinese-to-English (ELRA-E0016).

To be able to chain the components, ASR, SLT and TTS evaluation tasks were designed to use common sets of raw data and conditions. Three evaluation tasks, common to ASR, SLT and TTS, were selected: EPPS (European Parliament Plenary Sessions) task, CORTES (Spanish Parliament Sessions) task and VOA (Voice of America) task. The CORTES data were used in addition to the EPPS data to evaluate ASR in Spanish and SLT from Spanish into English.

This package was used within the EPPS task and consists of 2 data sets:

- Development data set: built upon the ASR development data set, in order to enable end-to-end evaluation. Subsets of 50,000 words were selected from the EPPS verbatim transcriptions, and from the Final Text Edition documents. The source texts were then translated into Spanish by two independent translation agencies. All source text sets and reference translations were formatted using the same SGML DTD that has been used for the NIST Machine Translation evaluations.
- Test data set: as for the development set, the same procedure was followed to produce the test data, i.e.: subsets of 50,000 words were selected from the test data set (Parliament’s sessions from 7 to 26 September 2005) both from the manual transcriptions and from the Final Text Edition documents. The source data were then translated into Spanish by two independent agencies.

View resource description in all available languages

TC-STAR est un projet intégré européen basé sur la traduction parole-parole (ou SST pour Speech-to-Speech Translation). Pour encourager de manière conséquente l’avancée dans toutes les technologies de la SST, des évaluations ouvertes à la concurrence sont organisées sur une base annuelle. Les technologies de la reconnaissance automatique de la parole (ou ASR pour « Automatic Speech Recognition »), de la traduction de la langue parlée (ou SLT pour « Spoken Language Translation ») et les technologies texte-parole (ou TTS pour « Text-to-Speech ») sont évaluées à la fois de façon indépendante et intégrées à un système « end-to-end » (de « bout en bout »).

La deuxième campagne d’évaluation TC-STAR s’est déroulée en mars 2006.
Trois technologies de base ont été évaluées lors de cette campagne:
• la reconnaissance automatique de la parole (ASR),
• la traduction de la langue parlée (SLT),
• la synthèse texte-parole (TTS).

Chaque package d’évaluation regroupe des ressources, des protocoles, des outils de notation, les résultats de la campagne officielle, etc., qui ont été utilisés ou produits pendant la seconde campagne d’évaluation. Le but de ces packages d’évaluation est de permettre à des acteurs externes d’évaluer leur propre système et de comparer leurs résultats à ceux obtenus pendant la campagne.

Les bases de données orales produites dans le projet TC-STAR ont été validées par SPEX, Pays-Bas, selon le format et les spécifications de contenu TC-STAR.

Ce package comprend le matériel utilisé pour la seconde campagne d’évaluation TC-STAR 2006 Spoken Language Translation (SLT) pour la traduction de l’anglais vers l’espagnol. Des packages similaires sont également disponibles pour l’anglais (ELRA-E0011), l’espagnol (ELRA-E0012) et le mandarin (ELRA-E0013) pour l’ASR, ainsi que pour la SLT dans 2 autres sens, espagnol vers anglais (ELRA-E0015), chinois vers anglais (ELRA-E0016).

Pour permettre de regrouper les composants, les tâches d’évaluation ASR, SLT et TTS ont été conçues en utilisant des données brutes et des conditions communes. Trois tâches d’évaluation, communes à l’ASR, la SLT, et la TTS ont été choisies : la tâche EPPS (« European Parliament Plenary Sessions » – Sessions plénières du Parlement européen), la tâche CORTES (« Spanish Parliament Sessions ») et la tâche VOA (« Voice of America » - La voix de l’Amérique). Les données CORTES ont été utilisées en complement des données EPPS pour l’évaluation ASR en espagnol et SLT de l’espagnol vers l’anglais.

Le présent package a été utilisé dans le cadre de la tâche EPPS et comprend 2 ensembles de données :
- L’ensemble de données de développement : il a été construit à partir des données de développement de l’ASR, afin de permettre l’évaluation « end-to-end ». Un sous-ensemble de 50 000 mots a été choisi à partir des transcriptions orthographiques EPPS, et à partir des documents de l’Edition du texte final. Les textes sources ont été ensuite traduits en espagnol par deux agences de traductions indépendantes. Tous les ensembles de textes sources, ainsi que les traductions de référence ont été formatées en utilisant la même DTD SGML déjà utilisée par les évaluations NIST en traduction automatique.
- L’ensemble de données de test : comme pour l’ensemble de développement, la même procédure a été suivie pour produire les données de test, soit : un sous-ensemble de 50 000 mots a été choisi à partir de l’ensemble de données de test (sessions du Parlement du 7 au 26 septembre 2005) à la fois à partir des transcriptions manuelles et des documents de l’Edition du texte final. Les données sources ont été ensuite traduites vers l’espagnol par deux sociétés indépendantes.

You don’t have the permission to edit this resource.