Los programadores estiman que la tecnología aplicada a la traducción automática no tendrá límites. En cambio, lingüistas estadounidenses y traductores locales aseguran que los sistemas mecánicos nunca podrán superar a las destrezas humanas.

(31/03/06 – CyTA – Instituto Leloir. Por Florencia Mangiapane) – La traducción automática (TA) sigue siendo una de las disciplinas menos fértiles de la inteligencia artificial. Sin embargo, una nueva línea de investigación basada en la aplicación de técnicas estadísticas podría acercar el rendimiento de la máquina a la performance humana, según Scientific American de marzo.

Basta con ingresar un nombre propio o unas pocas frases bien construidas para desorientar a los programas de traducción automática más usados de Internet en la actualidad. En sus 50 años de historia, este campo de investigación viene dando pasos erráticos en el intento por lograr habilidades parecidas a las de los traductores humanos.

“La inteligencia artificial no es tan inteligente, porque depende de la información que se introduzca en la computadora. Y aunque ésta pueda ‘saber’ más que una persona por la cantidad de información que almacena, es la forma en la que podemos utilizar esa información lo que nos hace diferentes”, explica el traductor Nicolás Delucchi, especialista en TA y herramientas CAT y miembro de la Asociación Argentina de Traductores e Intérpretes (AATI).

En tanto, la traductora Paula Grosman, otra especialista de la AATI en el mismo tema, cree que, a partir del nuevo método, se podrá lograr traducciones enteras de textos reiterativos con una mínima intervención humana. Aunque también advierte que por muy ‘inteligentes’ que puedan ser las computadoras, difícilmente puedan ‘aprender’ a ser creativas y abordar otro tipo de textos.

La promesa de la traducción automática

En los años ’70, la Fuerza Área estadounidense financió un proyecto para diseñar un sistema que pudiera traducir grandes volúmenes de documentos rusos al inglés. Así nació Systran, un programa automático creado por una pequeña empresa con sede en París, que se convirtió en la compañía de traducción automática más importante del mundo.

El software de Systran –utilizado hoy por los sitios de Internet más conocidos, como Altavista— funciona con los mismos principios de los primeros programas de traducción automática que ideó IBM en la década de 1950.

El sistema opera gracias a un puñado de reglas rudimentarias que gobiernan la sintaxis y la semántica. Por ejemplo, si uno quiere traducir “of” al español, el programa tiene en cuenta cómo se combina con la palabra que lo precede –supongamos “science”- para dar con la preposición correcta y descartar las alternativas menos viables. Entonces, entre “de” y “acerca”, el programa opta por “de”.

Aun con clientes como Google, Yahoo y AOL, la empresa Systran obtuvo ganancias por apenas 13 millones de dólares en 2004, cuando el mercado mundial de las traducciones de todo tipo genera un volumen mundial de negocios cercano a los 10 mil millones.

“Creo que no es casual que hasta las compañías de software prefieran el uso de herramientas CAT -traducción asistida por computadora- en las que el traductor sólo se ayuda con traducciones previas revisadas y aprobadas, pero sigue formando parte activa del proceso, que el uso de la Traducción Automática”, señala Delucchi.

El sistema basado en reglas con el que venía funcionando hasta ahora la TA es bastante engorroso. Expertos de la lengua de distintos idiomas confeccionan con paciencia artesanal voluminosos glosarios y normas útiles para generar textos en una lengua extranjera.

En 2002, Kevin Knight y Daniel Marcu, de la University of Southern California prometieron librar al campo de la TA de esa ardua tarea, creando Language Weaver, la primera empresa de TA basada en técnicas estadísticas. Ahora, esta compañía dice poder traducir de manera eficaz como mínimo cinco mil palabras por minuto del inglés al árabe o del chino al español, y viceversa.

Las técnicas estadísticas aprovechan el gran poder de cálculo de las máquinas y examinan enormes cantidades de textos ya traducidos para determinar la probabilidad de que un término o una frase de un idioma sean equivalentes a otro término o frase en otro idioma. Este proceso se ve facilitado por la difusión de Internet, que creó una demanda de traducciones imposible de abastecer en su totalidad por los traductores profesionales.

“La idea de concentrarse en un esquema de frases y su frecuencia de uso mejora decididamente la posibilidad de la computadora de reconocer construcciones más allá del significado individual de cada palabra”, opina Delucchi.

A mediados del año pasado Franz Och desarrolló un sistema experimental para Google basado en este tipo de técnicas, que ganó todas las categorías de un concurso de Traducción Automática organizado por el National Institute of Standards and Technology. Según Och, el sistema dio excelentes resultados porque se cargó el programa con una cantidad de textos equivalente a un millón de libros.

“Las ventajas son claras. Si se trabaja con una base de datos voluminosa integrada por buenas traducciones como referencia, y con cálculo de probabilidades, existe mayor chance de obtener buenos resultados que con la mera aplicación de reglas, que siempre tienen muchas excepciones, independientemente de la cantidad de usos de la lengua no reglados”, explica Grosman.

En realidad, las reglas de la lengua y las técnicas estadísticas ya se están usando de forma complementaria para obtener mejores resultados. Systran echó mano a los métodos estadísticos al crear algunos sistemas, aunque sigue empleando a 50 personas –entre ellos lingüistas— en el área de investigación y desarrollo. En tanto, los partidarios de las técnicas estadísticas recurren a las estructuras sintácticas para optimizar los resultados.

“Si se dejan de lado las reglas gramaticales y no se ejerce un control estricto de todo el texto, supervisando además el proceso de los especialistas de cada idioma, no creo que el método estadístico pueda lograr mucho más que los otros métodos utilizados hasta ahora”, advierte el traductor Delucchi.

¿Humanos irremplazables?

Si bien la innovación estadística representa un avance para la traducción automática, la disciplina todavía tiene que dar el paso más importante: demostrar que puede superar a los humanos en su propio juego.

“Estas nuevas técnicas van a producir sistemas capaces de resolver bastante bien muchas situaciones, pero los textos nunca alcanzarán la fluidez de una traducción humana”, señala Keith Devlin, director ejecutivo del Center for the Study of Language and Information de la Universidad de Stanford, de Estados Unidos.

Knight, el inventor de la traducción estadística, opina que la tecnología no tendrá límites y logrará traducciones de calidad similar a las humanas, en todos los campos, salvo quizás en la poesía.

“Ningún texto está totalmente exento de poesía. Los programadores hablan del idioma como algo concreto y repetitivo. Hasta textos aparentemente sencillos como artículos periodísticos pueden tener efectos intencionales y juegos de palabras que no figuran en ningún libro. Además, el contexto puede hacer que una frase signifique algo totalmente distinto, algo que no puede recuperar la TA”, acota Delucchi.

Delucchi cree que tal vez, con el tiempo, un sistema de TA pueda darnos una idea más aproximada de lo que dice un texto extranjero, pero nunca una verdadera traducción de calidad. “Las máquinas tampoco tienen sensibilidad. Podrán leer cada línea millones de veces más rápido, pero no pueden leer entre líneas”, sentencia.

Los especialistas de la AATI plantean que los traductores seguirán siendo irreemplazables porque la creatividad, el sentido común y el sentido estético siempre van a ser características exclusivamente humanas. La historia demostrará si la traducción automática va a ensanchar los límites imaginables de una tarea que, hasta ahora, no puede prescindir del ser humano.