PangeaMT Masker
PangeaMT Masker
Featured Image

7 minutos de lectura

17/07/2023

Los 4 pilares de la IA Ética y por qué son importantes para el Aprendizaje Automático

Trabajar de manera estrecha con nuestros clientes en la construcción de sistemas de IA éticos permea la cultura de Pangeanic y todo lo que hacemos. Pero no solo hablamos, sino que también actuamos. Con este fin, queremos hacer públicos nuestros esfuerzos conscientes en la recopilación de datos, agregación de datos y anotación de datos, y en la construcción de corpus paralelos para sistemas de ML en pleno cumplimiento de los 4 pilares de la IA Ética. Junto con sólidas tecnologías de enmascaramiento/anonimización de datos multilingües, creamos conjuntos de datos y soluciones basadas en sólidos principios éticos de IA.

 

¿Qué es la IA ética? 

La IA ética es un concepto voluntario y mundial que se refiere al diseño, desarrollo, puesta en marcha y despliegue de sistemas de IA de forma que se respeten los derechos humanos y los valores morales compartidos. Se centra en la creación de sistemas de IA que sean transparentes, justos, responsables y respetuosos con la privacidad. Los 4 pilares de la IA ética son: 

  1. Transparencia: Los procesos y decisiones tomadas por los sistemas de IA deben ser claros, comprensibles y explicables. Esto ayuda a los usuarios a entender cómo se llega a una decisión o resultado específico por la IA.

  2. Justicia: Los sistemas de IA deben evitar sesgos que puedan llevar a resultados injustos o cualquier tipo de discriminación. La IA debe tratar a todos de manera equitativa y tomar decisiones basadas en datos objetivos en lugar de sesgos subjetivos.

  3. Privacidad y Seguridad: Los sistemas de IA deben respetar la privacidad de los usuarios. Esto significa que no deben recopilar ni utilizar datos personales sin el consentimiento del usuario. Proteger la privacidad y los datos de las personas es fundamental en la IA Ética, involucrando técnicas adecuadas de anonimización de datos, garantizando la seguridad de los datos y cumpliendo con todas las leyes y regulaciones de protección de datos pertinentes.

  4. Rendición de cuentas: Debe haber una forma de que los responsables del desarrollo y uso de sistemas de IA rindan cuentas de sus actos.

     

¿Por qué es importante la IA ética?  

Los avances de la inteligencia artificial (IA) están empezando a afectar profundamente a la forma en que los seres humanos no sólo interactuamos con las máquinas, sino también a cómo interactuamos con otros seres humanos, cómo procesamos la información y, en consecuencia, cómo tomamos decisiones. La IA puede mejorar la prestación de muchos bienes y servicios, incluso en áreas como la sanidad, los servicios financieros y la tecnología, pero también puede crear prejuicios hacia un objetivo específico o un segmento de la población, ignorarlo por completo o crear noticias falsas. Y esto no es más que el principio.

A medida que aumenta la inmensidad de los big data y se expande la potencia de cálculo, a medida que hay más datos a disposición de más equipos y se hace más asequible el perfeccionamiento de los Grandes Modelos de Lenguaje y otros sistemas de IA, entendemos que la tecnología está llamada a revolucionar casi todas las facetas del mundo como lo conocemos hasta hoy.  

Este gran salto adelante es una perspectiva apasionante que presenta la posibilidad de abordar algunos de nuestros retos más formidables para el bienestar de la humanidad. Pero, al mismo tiempo, plantea muchas preocupaciones válidas. Como cualquier tecnología novedosa y de rápido desarrollo, la integración universal de la IA exigirá una trayectoria de aprendizaje empinada y una formación muy rápida de los usuarios. Es inevitable que se cometan errores de apreciación y de cálculo, que pueden tener consecuencias imprevistas, y en ocasiones, perjudiciales.  

Para optimizar las ventajas y frenar los perjuicios, la ética de la IA desempeña un papel vital a la hora de garantizar que las ramificaciones sociales y éticas de la construcción y el despliegue de los sistemas de IA se tengan en cuenta en cada fase. La ética de la IA se basa en esos 4 pilares éticos fundamentales de la IA y, para reforzar nuestro mensaje, los sistemas deben ser: Justos, Privados, Robustos y Explicables 

Problemas conocidos hasta ahora  

Tan solo estamos en una fase inicial del desarrollo de los sistemas de IA, pero todos conocemos algunos casos extremos que han saltado a los titulares precisamente por la falta de control ético. He aquí algunos ejemplos de cómo se ha transgredido cada pilar: 

Equidad: 

El uso de la IA para mitigar los sesgos en las calificaciones crediticias subraya por qué la imparcialidad es un factor esencial en la ingeniería de los sistemas de IA. A pesar de que a menudo se consideran imparciales y objetivas, las calificaciones crediticias tienen un largo pasado de discriminación, por ejemplo, por motivos de raza o sexo. Los modelos de calificación crediticia basados en IA ofrecen una interpretación más detallada de los datos y pueden revelar correlaciones ocultas entre variables que podrían no parecer pertinentes o incluso no estar incluidas en un modelo de calificación crediticia convencional, como las inclinaciones políticas o las conexiones con las redes sociales. Sin embargo, la integración de este tipo de información no convencional en las calificaciones crediticias corre el riesgo de exacerbar su sesgo actual. Es crucial que se dé prioridad a la equidad para garantizar que estos datos complementarios ayuden realmente a aquellos a los que se pretende ayudar, ampliando el acceso al crédito.  

Privacidad:

La importancia crítica de la privacidad en el uso de la IA ya es evidente en la atención sanitaria. En 2016, surgió una polémica cuando la empresa de IA DeepMind, con sede en Londres, colaboró con el NHS, lo que suscitó preocupación por el manejo de datos sensibles de los pacientes. El posterior traslado del sector sanitario de DeepMind a su empresa matriz, Google, avivó aún más las preocupaciones. Está claro que no se puede tolerar la vinculación de datos de pacientes a cuentas de Google. Sin embargo, hay que encontrar un equilibrio adecuado entre salvaguardar la privacidad individual y facilitar los beneficios sociales de las aplicaciones de IA, como la interpretación de escáneres o la planificación de radioterapia. El verdadero valor reside en los datos colectivos anonimizados más que en los datos personales, por lo que debería ser factible llegar a un compromiso. 

Robustez: 

La importancia de la robustez en un sistema de IA se pone de manifiesto en la contratación de personal. La IA puede mejorar considerablemente el proceso de contratación, eliminando gran parte de la especulación que implica la identificación de talento y erradicando el sesgo que a menudo afecta a la toma de decisiones efectuadas por un ser humano. Sin embargo, incluso el gigante tecnológico Amazon tuvo problemas cuando se descubrió que su nuevo sistema de contratación tenía prejuicios contra las mujeres. El sistema se había entrenado con currículos enviados durante una década, la mayoría de los cuales procedían de hombres, lo que reflejaba el predominio masculino en la industria tecnológica. En consecuencia, el sistema aprendió a favorecer a los candidatos masculinos. Los sistemas de IA no son intrínsecamente robustos: para maximizar sus beneficios, tienen que funcionar eficazmente en el mundo real.  

Explicabilidad:  

El experimento de Microsoft de "comprensión conversacional" a través de un bot de Twitter llamado "Tay", subraya por qué es necesario el cuarto pilar de la ética de la IA, la explicabilidad. Twitter tardó menos de un día en empañar el ingenuo chatbot de IA. Se suponía que el bot mejoraría con la interacción de los usuarios, aprendiendo a entablar conversaciones casuales y divertidas. Por desgracia, el diálogo pronto se volvió ofensivo, con comentarios misóginos y racistas. Explicar las decisiones de una IA es difícil, como explicar la inteligencia humana, pero es vital para aprovechar todo el potencial que ofrece. 

Speed translation of lots of content that will be client-facing Instruction manuals Knowledge Bases  Knowledge Centers FAQs Web Product descriptions Some SEO content (alt text in images) Blog cont

¿Qué hace Pangeanic para aplicar la IA ética en sus procesos?  

En Pangeanic creemos que los sistemas justos, responsables y transparentes no pueden construirse sobre mano de obra barata. Por ello, aplicamos una política de remuneración justa a nuestros proveedores, colaboradores y empleados. Contratamos talento porque se refleja en el servicio y en la calidad de los productos y servicios que reciben nuestros clientes. 

  • Nuestros procesos están abiertos a nuestros clientes y les evangelizamos sobre el uso de la IA para sus aplicaciones (traducción automática, clasificación, datos para ML, curación de datos...). Entendiendo los datos y los procesos, podemos explicar cómo y por qué funciona la tecnología de Pangeanic y cómo se llega a las decisiones o resultados mediante IA.  

  • Nuestros sistemas evitan los sesgos desde el concepto hasta la aplicación. Nuestro personal de investigación ha trabajado en I+D sobre publicaciones sesgadas para detectar y eliminar discursos de odio y sesgos étnicos o de género. Trabajamos constantemente con nuestros clientes para crear conjuntos de datos equilibrados en cuanto a género, o conjuntos de datos libres de toxicidad, por ejemplo.  

  • Construimos, mejoramos, personalizamos e implementamos herramientas de anonimización para respetar la privacidad de las personas en 26 idiomas. Pangeanic lidera el Proyecto MAPA, apoyado por la UE, y es parte fundamental de varias infraestructuras de anonimización.  

  • Pangeanic se declara responsable de todos sus servicios y productos relacionados con la IA y datos para la IA, con garantías de rendimiento y funcionamiento. 

Un muy buen ejemplo fue la participación de nuestro CEO en el informe sobre el RGPD del Translating Europe Workshop (TEW), que ayudó a los profesionales de la traducción a comprender el RGPD y la mejor forma de aplicarlo.   

Tras varios meses de compromiso entre representantes de asociaciones de traductores, personal de servicios lingüísticos, académicos y profesionales del Derecho, el grupo elaboró un informe de recomendaciones que se presentó en el Translating Europe Workshop de 2022. 

En palabras de Melina Skondra: "Financiado por la Dirección General de Traducción de la Comisión Europea, el taller Translating Europe es el primer paso hacia unas directrices europeas comunes sobre el RGPD para la profesión de traducción e interpretación". Abarca el trabajo de un grupo de expertos jurídicos y del sector de la traducción y la interpretación, un taller en línea de un día de duración con profesionales de la traducción y la interpretación, y el presente informe.  
 
El informe TEW describe los retos clave en la aplicación y el cumplimiento del RGPD en la profesión de traducción e interpretación, explorados y analizados por el panel paneuropeo de expertos. 


Enhorabuena al gran equipo: Stefanie Bogaerts, John Anthony O'Shea LL.B, LL.M, Raisa McNab, Wojciech Woloszyk (Wołoszyk), Małgorzata Dumkiewicz, Paweł Kamocki, Zoe Milak y Manuel Herranz” 

¿Es la IA ética el futuro? 

Basándose en los derechos fundamentales y los principios éticos, la Comisión Europea trabajó en una serie de Directrices Éticas para una Inteligencia Artificial (IA) digna de confianza. Con el fin de generar confianza en la IA centrada en el ser humano, este organismo político elaboró un documento junto con un grupo del Grupo de Expertos de Alto Nivel en Inteligencia Artificial (AI HLEG). Este grupo de expertos independientes fue creado por la Comisión Europea en junio de 2018, como parte de la estrategia de IA anunciada a principios de ese año.

Las directrices enumeran siete requisitos clave que deben cumplir los sistemas de IA para ser dignos de confianza:

  1. Acción y supervisión humana

  2. Robustez técnica y seguridad

  3. Privacidad y Gobernanza de datos

  4. Transparencia

  5. Diversidad, no discriminación y equidad

  6. Bienestar social y medioambiental

  7. Responsabilidad/Rendición de cuentas 

En un esfuerzo por poner en práctica estos requisitos, las directrices introducen una lista de control de evaluación que ofrece asesoramiento sobre la aplicación práctica de cada requisito. Esta lista de comprobación de la evaluación se someterá a una fase de prueba, en la que podrán contribuir todas las partes interesadas, con el fin de recabar opiniones para mejorar su eficacia. Además, se ha creado un foro para facilitar el intercambio de mejores prácticas de despliegue de IA fiable.