Decía el androide C3PO en sus recordadas apariciones en «Star Wars» que dominaba seis millones de formas de comunicación diferentes. Son muchas, sin duda. Aunque eso se lo dejamos a la ficción.
Hay quien, en la vida real, asegura tener conocimientos más que suficientes como para hablar en cinco o seis idiomas. Suena bien, pero no apto para todos los públicos.
La tecnología, en los últimos tiempos, ha empezado a pensar en qué hacer para solucionar este impedimento. Al margen de las conocidas aplicaciones de aprendizaje como Duolingo, Busuu o Babbel, surgen iniciativas que intentan romper la barrera idiomática mediante la conversión de un intérprete robótico capaz de traducir en tiempo real las palabras de una forma cercana a la naturalidad. Por ahora, las herramientas traductoras no alcanzan un resultado perfecto, como lo haría un intérprete humano, pero la combinación de técnicas de Big Data y algoritmos han parido algunos desarrollos interesantes.
Una iniciativa llamada Pilot ha partido de la necesidad de articular, mediante un sistema informático en el que previamente se han cargado paquetes de idiomas, un producto fácil de transportar (en forma de auricular, muy discreto) que sirve a modo de intérprete. El usuario -según los responsables del proyecto- aseguran que el «gadget», inspirado en Star Trek y que saldrá a la venta en mayo, es capaz de registrar a través de una aplicación instalada en un dispositivo matriz, generalmente un teléfono móvil inteligente, el idioma de una manera natural y devolverlo, para su comprensión, en la lengua escogida.
Waverly Labs está detrás de este invento. Los responsables del proyecto aseguran que el auricular inteligente tiene, no obstante, un retardo de dos segundos hasta que comprende, previamente filtrando el ruido de fondo, las palabras del interlocutor. Para poder desarrollarlo se han unido varias tecnologías como la evolución de los componentes para trazar un nuevo campo en su miniaturización, los equipos de audio para cancelar el ruido y las conexiones a internet más veloces.
Algo parecido es lo que propuso hace un tiempo la firma japonesa Logbar. Ideó un dispositivo «wearable» en forma de pequeño mando que dispone de un sistema de reconocimiento de voz para traducir el idioma en cuestión. Por su tamaño, ili -que así se llama- se puede portar colgando en el cuello o trasladarlo en el bolsillo. Una vez elegida la lengua tan solo hay que pulsar un botón al tiempo que se habla para elaborar de manera automática una traducción. A diferencia de Google Translator, que también ha empezado a utilizarse entre los turistas, este aparato no requiere de conexión a internet. Por ahora solo puede traducir inglés, japonés y chino, aunque no se descarta la adaptación a otros en un futuro.
Aunque sigue siendo un sueño, en la actualidad muchas empresas se han centrado en disciplinas como «machine learning» -aprendizaje automático- para intentar introducir sus capacidades a proyectos de robótica, una corriente en auge. ¿Llegaremos, por tanto, a ver algún día el traductor universal que se recreaba en Star Trek? Los avances en Inteligencia Artificial y la mejora del software indican que puede que ese ideal está más cerca. Pero, habitualmente, los sistemas online elaboran una traducción literaria, pero el lenguaje natural contiene innumerables matices que, por ahora, se escapan del automatismo de las máquinas.
También en los signos
El lenguaje de signos también quiere entrar en la tecnología. Hay un proyecto, ShowLeap, creado por una «startup» española, que propone un dispositivo capaz de interpretar lo que hablan las personas sordas. Y para que sea una comunicación fluida esta tarea se realiza en tiempo real. La firma asegura que uno de sus objetivos es lograr la comunicación entre sordos y oyentes en su día a día, «fortaleciendo sus relaciones y creando vínculos que contribuyan a mejorar las habilidades sociales de los sordos».
Consiste en un dispositivo en forma de brazalete que nace para romper la barrera a la que se enfrenta el colectivo sordo, que representa más de un millón de personas, según datos del Instituto Nacional de Estadística. Su funcionamiento, sobre el papel, es sencillo. Gracias a un sistema informático basado en la tecnología Leap Motion que captura imágenes en 3D, se interpreta los gestos realizados por la persona y, a través de un sintetizador, devuelve las palabras en forma de audio.