El 29 de marzo de 2023, en una carta abierta dirigida a líderes políticos y empresariales de todo el mundo, destacadas figuras del sector tecnológico, incluyendo Elon Musk (co-fundador inicial de la tecnológica OpenAI como organización sin ánimo de lucro), han pedido una pausa temporal en el avance sin frenos de la Inteligencia Artificial (IA).
La carta, firmada por expertos en IA, que incluye investigadores, profesores universitarios, ejecutivos de empresas tecnológicas y filántropos, destaca la necesidad de abordar las preocupaciones éticas y sociales que rodean a la IA antes de seguir adelante con su desarrollo, “Los sistemas de IA con capacidades intelectuales competitivas con la humana pueden representar profundos riesgos para la sociedad y la humanidad, como lo demuestran extensas investigaciones y es reconocido por los principales laboratorios de IA.” dice la carta.
Entre los problemas señalados se encuentran el sesgo algorítmico, la privacidad de los datos y la posible eliminación de puestos de trabajo. Los firmantes de la carta argumentan que la IA puede tener consecuencias imprevistas y potencialmente perjudiciales si se permite que su desarrollo siga adelante sin una supervisión adecuada.
La IA tiene el potencial de mejorar nuestras vidas como hace el conjunto de las tecnologías de muchas maneras, desde la atención médica hasta la conducción autónoma, pero tal y como dicen los expertos debemos abordar los desafíos que presenta antes de seguir adelante con su desarrollo.
La carta resalta que la Inteligencia Artificial tiene un gran potencial para mejorar la vida de las personas, pero también conlleva riesgos significativos y debemos asegurarnos de que se desarrolle de manera ética y responsable, con una supervisión adecuada y una atención constante a sus posibles consecuencias. Finaliza pidiendo una pausa temporal en su avance que permitiría abordar estas preocupaciones y garantizar que la IA se utilice para el bien común.
Insta a los líderes políticos y empresariales a abordar estos problemas de manera seria y urgente, y a trabajar juntos para garantizar que el desarrollo de la IA sea ético, responsable y sostenible.
Según los expertos, pausar el desarrollo de la IA permitiría a los profesionales indagar en las preocupaciones éticas y sociales que rodean el avance de esta tecnología y garantizar que su desarrollo se realice de manera ética, responsable y sostenible. Esta acción podría tener repercusiones significativas en el futuro de la tecnología y en cómo se implementa en la sociedad.
A día de hoy, pausar el desarrollo de la IA temporalmente puede suponer una ralentización en el desarrollo de nuevas aplicaciones y tecnologías basadas en Inteligencia Artificial. Las grandes empresas que la utilizan podrían experimentar una disminución en desarrollos innovadores y competitividad.
Por otro lado, como sugieren los expertos, pausar la IA temporalmente puede traer beneficios a largo plazo como la mayor investigación en el desarrollo de una tecnología más ética y responsable que podría traer mayores consecuencias positivas en la sociedad permitiendo utilizarla para el bien común y con menor riesgo.
En Pangeanic llevamos años implementando procesos de Inteligencia Artificial de forma ética y responsable a nuestros procesos para crear soluciones que, combinadas con el ingenio humano sean disruptivas para cubrir las necesidades del mercado y el público actual.
Desarrollamos nuestros productos adaptándonos constantemente a las mejoras globales y nuevas tendencias en el sector de la tecnología y el Procesamiento del Lenguaje Natural, lo que nos permite mantener nuestra competitividad a través de la innovación.
Aunque el parón en el desarrollo de la IA en las grandes empresas puede tener algunos efectos negativos en la industria de la IA en general, también podría crear oportunidades para las pequeñas empresas. Sin embargo, es importante tener en cuenta que la situación es compleja y que los efectos pueden variar según la industria y el contexto específicos.
Desde el punto de vista tecnológico, nuestro CTO Amando Estela admite, “puede haber peligros en la investigación no moderada de la IA, pero sin embargo, pausar la investigación, me parece al menos igual de peligroso. No soy partidario de restringir cuando sabemos que algunos de los jugadores no van a cumplir.”
La IA es una tecnología que, como otras, nos facilitan la vida, “No me convence la decisión de las empresas tecnológicas de detener temporalmente el desarrollo de la inteligencia artificial durante seis meses. Esta decisión podría sugerir que estamos avanzando demasiado deprisa en el despliegue de tecnología avanzada de inteligencia artificial que, con el tiempo, podría superar las capacidades humanas. Sin embargo, no creo que sea así. Es esencial tener en cuenta que los modelos de IA no están pensados para sustituir a los humanos, sino para ayudarles en distintas tareas. Aunque sobresalen en diversas tareas, carecen del razonamiento, la empatía y el pensamiento crítico propios de los humanos” afirma Konstantinos Chatzitheodorou, Responsable de Aprendizaje Automático.
Vivir en una sociedad en constante cambio y búsqueda de mejoras implica que tengamos la necesidad de adaptarnos. La IA puede ayudar en muchos trabajos, y crea nuevos con el objetivo de beneficiarnos. Como dicen los expertos, la interrupción de esta tecnología durante un periodo de tiempo puede causar un “stand-by” en esos empleos que aún son inmaduros y para los cuales los más visionarios están empezando a formarse. “Trabajar en una empresa tecnológica te obliga en cierta manera, a estar al día de las re-evoluciones tecnológicas y de las posibilidades de las mismas. Es cierto que muchas de estas nuevas herramientas facilitan el trabajo en algunos campos y perfiles profesionales, pero no debemos dejar de entenderlas como eso mismo, como "facilitadores" y nunca como sustitutos, porque siempre será necesario el ingenio y la creatividad del ser humano. No creo que haya puestos de trabajo en peligro, pero sí que las reglas cambiarán y en algunos casos las funciones se redefinirán. Debemos ver la IA como un apoyo, y no abusar ni mucho menos depender de ella, porque si falla, todo fallará con ella.” afirma nuestra responsable de People & Culture María Bodí.
Se debe tener en cuenta que la IA se ha expandido muy rápidamente en muchas áreas de la vida cotidiana y plantea desafíos éticos, sociales y legales. Este último punto hace que haya una falta de responsabilidad para determinar quién es responsable de los daños y errores, así como los problemas de discriminación, amenaza a la privacidad y seguridad de datos... Nuestra Responsable del Departamento de I+D María Ángeles García explica que lo que solicita este grupo de expertos, es un poco utópico, “me parece la situación ideal y algo imprescindible en este momento de la historia, pero no creo que se vaya a llevar a cabo realmente. Nadie controla qué investiga cada persona y con la fuga de información acerca de modelos como LLaMa, esta situación no ha hecho más que empeorar ese control.”
Por otro lado, la creciente capacidad de los sistemas de inteligencia artificial contemporáneos para realizar tareas generales a nivel competitivo humano plantea preguntas importantes sobre el impacto de la IA en la sociedad. ¿Debemos permitir que las máquinas difundan propaganda y noticias falsas a través de nuestros canales de información y comunicación? ¿Debemos automatizar todos los trabajos, incluidos aquellos que brindan satisfacción y propósito? ¿Debemos desarrollar mentes no humanas que eventualmente podrían reemplazar a los humanos? Estas y muchas más preguntas son las que están surgiendo en el contexto actual y que se llevan planteando a lo largo de estos años como dice Nikita Teslenko, Responsable Técnico del Departamento de Innovación.” Con el objetivo de evitar resultados catastróficos, debemos asegurarnos de que los sistemas de IA poderosos se desarrollen de manera responsable y transparente, con protocolos de seguridad sólidos y supervisión”.
Pero ¿quién se encarga de regular lo que hace la IA? La falta de regulaciones para la IA puede crear incertidumbre en el mercado, afectar la privacidad y seguridad de los datos, perpetuar la discriminación y dificultar la rendición de cuentas en caso de errores de daños. Aunque aún no existe una regulación universal de la IA, cada vez más países y regiones están abordando la cuestión y desarrollando leyes y regulaciones específicas o principios éticos para guiar el desarrollo y uso de esta. Ana Fernández COO y responsable de temas legales de Pangeanic, afirma que parar el desarrollo de la IA permitiría en primer y principal lugar regular su uso y permitir que se aborden estas preocupaciones y se desarrollen salvaguardas éticas adecuadas.
Por último, Manuel Herranz CEO añade que, si queremos un producto ético, debemos construirlo a lo largo de todo el proceso y no podemos permitir que la búsqueda de la excelencia nos lleve a convertirnos en un imperio que construye monumentos a lomos de esclavos.