Uno de los desarrollos más importantes en el procesamiento automático de las lenguas ha sido la expansión y la mejora del software de traducción. Mientras que hace un tiempo los redactores debían contratar profesionales caros para traducir manualmente incluso los documentos más banales ahora hay una abundancia de soluciones de traducción digitales.

Veamos la evolución de la , desde los procesadores de texto hasta la inteligencia artificial.

Computadoras personales

En los años ochenta, una de las herramientas más avanzadas que teníamos disponibles era la máquina de escribir electrónica. El software de traducción era exclusivo y altamente específico. En las grandes corporaciones, puede ser que se hayan usado sistemas para computadoras centrales como Systran o Logos, mientras que, para el usuario común, el desarrollo del software de traducción estaba limitado por la capacidad de procesamiento requerida para imitar el habla y traducir alfabetos, gramáticas y sintaxis completamente distintos.

Los primeros pioneros fueron los programadores de computadoras de quinta generación en Japón que desarrollaron el procesamiento paralelo y la programación lógica, incrementando así la capacidad de las computadoras de escritorio. Estos avances fueron inspirados por la necesidad de traducir entre el inglés y el japonés para fines comerciales. Algunas compañías conocidas que necesitaban un gran volumen de traducciones incluían a Fujitsu, Mitsubishi, Toshiba y Hitachi.

Intergraph y Systran comenzaron a ofrecer sistemas de traducción para computadoras personales al final de la década, y Babel Fish, un traductor en línea provisto por Systran y albergado en Alta Vista, se lanzó en 1997.

Trados

Mientras tanto, en Alemania, Jochen Hummel e Iko Knyphausen habían estado trabajando juntos en Trados, desde 1984, para buscar soluciones para la traducción. En 1992, lanzaron Multiterm, una base de datos de terminología para traductores. Como pasaba con todos los sistemas que se ofrecían hasta ese momento, Multiterm era una base de datos inteligente y no un análisis lógico de alto nivel.

En 1997, Trados GmbH recibió un gran impulso cuando Microsoft decidió adoptar la tecnología de Trados para sus traducciones internas. Desde entonces, la compañía creció de manera sostenida y hoy ofrece su paquete SDL Trados Studio a 270 000 profesionales de la traducción.

Plataformas de memorias de traducción

El desarrollo de los Systran fue otro gran paso hacia adelante. Mientras aceleran el proceso de traducción de documentos jurídicos, médicos y financieros, esto sistemas crean bases de datos de términos frecuentes, los que visualizan cuando se utiliza una frase similar, asegurándose así de que se produzcan traducciones precisas y comprobadas.

Tales sistemas tienen la capacidad de aprender solo en el sentido de crecer con las habilidades del usuario, guardando frases y términos que han sido utilizados correctamente en el pasado. No pueden traducir fácilmente los matices de estilo o las expresiones idiomáticas.

SDL Trados incorporó rápidamente las memorias de traducción a sus sistemas de traducción asistida (CAT, por su sigla en inglés). Otros proveedores clave de tales sistemas incluyen a WordFast (fundado en 2006). En Internet, Google Traductor se ha vuelto omnipresente (también hay otras plataformas, como Gengo y Ackuna).

La ventaja de la migración de estos sistemas a internet fue, por supuesto, utilizar corpus cada vez más grandes de unidades de traducción, conjuntos de frases reconocidos como equivalentes funcionales en distintas lenguas.

Traducción automática

Con la llegada de la traducción automática (MT, por su sigla en inglés), se agregaron una lógica mejorada y contextos específicos al arsenal de técnicas que se utilizan para obtener una traducción confiable. Las sustituciones de palabras podrían adaptarse a ambientes específicos y conjuntos de reglas cada vez más complejos podrían aplicarse para asegurarse de que se produzcan traducciones precisas e idiomáticas.

La traducción con base en la gramática, la que es relativamente inflexible y depende de las reglas, fue reemplazada gradualmente por un modelo estadístico. Sin embargo, un sistema híbrido que combine ambos métodos podría producir traducciones incluso más precisas.

Motores de inteligencia artificial

En el siglo veintiuno, sistemas de reconocimiento del habla, tales como el asistente virtual de Apple, Siri, utilizan algoritmos de reconocimiento del habla para identificar el habla y convertirla en texto. Para lograr esto, deben aprender el idiolecto (manera individual de hablar) del usuario.

Los sistemas de traducción automática neuronal (NMT, por su sigla en inglés) también aprenden de textos individuales e integran todo a través de redes neuronales artificiales para construir un modelo estadístico que ofrezca traducciones cada vez más precisas. Crean una red neuronal virtual que es lo suficientemente inteligente como para enfocar su atención en distintas partes de una oración, para crear una imagen integral del significado en lugar de traducir una unidad por vez.

Estos sistemas buscan comprender la gramática de una lengua y el estilo individual de cada usuario. Actualmente, Google está en la vanguardia de estas aplicaciones, pero también existen compañías como Microsoft, Amazon y DeepL que compiten para ofrecer traducciones más cercanas a las humanas, las que luego pueden mejorarse con la posedición por parte de un lingüista humano.

A partir de la expansión de los sistemas de reconocimiento del habla, y dado que la traducción es cada vez más necesaria entre lenguas con diferencias ortográficas importantes (por ejemplo, inglés, chino mandarín y ruso), las redes neuronales de inteligencia artificial continuarán siendo un área de investigación importante durante las próximas décadas.

Etiquetas: