Pruebe nuestro LLM Masker
Pruebe nuestro LLM Masker

3 minutos de lectura

16/07/2012

Aplicación de traducción automática PangeaMT: caso de uso de referencia

Pangeanic ha sido invitado a presentar su tecnología como ponente invitado en un evento patrocinado por el ministerio, "Interacción Multimodal en el Reconocimiento de Patrones y Visión por Computadora (MIPRCV)."

Este proyecto de 5 años (2007-2012) dentro del programa de investigación científica más extenso CONSOLIDER Ingenio 2010 propone avances significativos en sistemas interactivos multimodales inteligentes en las áreas donde se puede aplicar el Reconocimiento de Patrones y la Visión por Computadora. Los sistemas interactivos multimodales pueden aplicarse a muchas tecnologías, como la transcripción interactiva multimodal de imágenes de texto, la traducción automática interactiva y adaptativa utilizando una arquitectura basada en la web, y varias otras aplicaciones de reconocimiento de patrones, que incluyen escaneo médico, detección de objetos en el fondo marino y, en general, cualquier detección de errores o patrones no identificados. El proyecto tiene como objetivo agregar la interacción multimodal con el usuario a las técnicas tradicionales de reconocimiento de patrones y visión por computadora, llevando a una sinergia entre máquinas y personas que aún no se ha logrado. Una de las aplicaciones que proporciona un interés más general en el reconocimiento de patrones es el lenguaje, como se vio en el último artículo, y una clara prueba de la transferencia de investigación a la industria es PangeaMT, el entorno DIY basado en Moses de Pangeanic.

La aplicación ha sido presentada en muchos foros, incluyendo la DGT de la UE. El evento (en español) tendrá lugar el 25 de octubre en el Aula Màster, Campus Diagonal Nord. Edificio A3, Universitat Politècnica de Catalunya, para dar a conocer el proyecto y sus numerosas posibilidades comercialmente explotables en muchos sectores industriales. Los resultados se dividen en tres secciones principales:

  • Audio, voz y lenguaje, incluyendo la traducción automática, transcripción de voz, transcripción de música, etc.
  • Análisis y procesamiento de imágenes (transcripción de imágenes de texto manuscrito, búsqueda de imágenes en la web, análisis de imágenes médicas, etc.)
  • Video y robótica para vigilancia, asistencia avanzada a la conducción, interacción con robots, seguimiento de personas, reconocimiento de acciones humanas, búsqueda de videos, etc

En la sección de Demostraciones del sitio web de MIPRCV, puedes encontrar los prototipos que se han desarrollado en las tres áreas de investigación en las que se ha dividido el proyecto:

  • Audio, voz y lenguaje

  • Procesamiento y análisis de imágenes

  • Video y robótica

El evento de difusión tendrá lugar el próximo 25 de octubre en Barcelona. El programa del evento se dividirá en cinco bloques: un bloque introductorio, tres bloques donde se presentarán los resultados más significativos de cada área del proyecto y un bloque final con una mesa redonda en la que varias empresas de sectores relacionados con MIPRCV debatirán sobre cómo ven el futuro de las tecnologías desarrolladas en MIPRCV. Como empresa relacionada con el tema del proyecto (y que ya ha colaborado con el grupo PRHLT), Pangeanic fue invitada a asistir al evento y participar en la mesa redonda.

En los últimos años, la Interacción Humana Multimodal (MI) se ha convertido en un campo esencial de creciente atención. Las interfaces avanzadas hombre-máquina con altas capacidades cognitivas son un tema de investigación candente que busca resolver problemas desafiantes de aplicación en la sociedad de la tecnología de la información. La necesidad destacada del desarrollo de sistemas interactivos con capacidades cognitivas se refleja, por ejemplo, en el Programa de Investigación Español para Tecnologías de la Información y en el Programa de Trabajo de Tecnologías de la Información y la Comunicación de la Unión Europea, donde estos desarrollos se incluyen como uno de los desafíos prioritarios de investigación a corto y medio plazo en sistemas de información. La idea de los sistemas interactivos por computadora surge desde las primeras etapas de la informática. En los años setenta, Jarvis ya preveía un papel altamente relevante en áreas como la Visión por Computadora (CV) y el Reconocimiento de Patrones (PR) en el desarrollo de interfaces avanzadas hombre-máquina.

Sin embargo, de esas brillantes promesas, solo una pequeña fracción del enorme potencial del Reconocimiento de Patrones (PR) y la Visión por Computadora (CV) en la Interacción Humana Multimodal (MI) ha sido explotada hasta ahora. Aprovechar este potencial implica varios desafíos y oportunidades de investigación para adaptar los enfoques de Visión por Computadora y Reconocimiento de Patrones a los entornos dinámicos y cambiantes de los sistemas interactivos. El proyecto MIPRCV tiene como objetivo establecer un programa de investigación para explorar todas estas oportunidades y desafíos.

El objetivo final es mostrar cómo las tecnologías existentes de Reconocimiento de Patrones (PR) y Visión por Computadora (CV) pueden evolucionar naturalmente para ayudar a desarrollar sistemas interactivos avanzados multimodales que realizarán las promesas de larga data de una sinergia perfecta entre personas y máquinas. El equipo de 81 miembros que conforma este consorcio de investigación incluye científicos e ingenieros altamente calificados. Provienen de siete grupos de investigación y diez diferentes instituciones públicas de investigación. Entre ellos se encuentran muchos investigadores de renombre internacional en Reconocimiento de Patrones, Aprendizaje Automático, Procesamiento de Imágenes, Visión por Computadora, Procesamiento de Voz y Lenguaje, y Robótica.

Pangeanic en la demostración de un robot que funciona con Ubuntu en la jornada de IA multimodal