El laboratorio de ciencia e investigación tecnológica de la NHK, la cadena de televisión japonesa, está desarrollando un sistema que permitiría traducir automáticamente una transmisión televisiva al lenguaje de señas, usando una animación.

La televisión japonesa se transmite subtitulada mucha veces, para las personas sordas. Pero ese sistema sirve sólo para aquellos que perdieron la capacidad auditiva durante su vida, lo que significa que aprendieron japonés en algún minuto. En cambio, aquellas personas que nacen sordas aprenden primero el lenguaje de señas, por lo que los subtítulos no son muy útiles para ellos.

Por ahora el sistema funciona traduciendo texto, no video. Toma una serie de palabras y las traduce a lenguaje de señas. Los experimentos han demostrado que el sistema funciona, aunque no de manera muy fluida, ya que hay algunos conectores que no se están traduciendo bien.

El sistema está pensado para situaciones como desastres naturales, donde hay que entregar información importante por la televisión y quizás no es muy fácil conseguir un traductor para sordos. Por lo mismo, se está generando una serie de frases automatizadas que probablemente se repetirían mucho en el evento de un desastre.

 

Link: Automatic Animated Sign Language Generation System (DigInfo)