Inteligencia artificial generativa y los derechos de autor

Escrito por Alejandro Ferrís Fernández | 13/07/23

La inteligencia artificial generativa (ChatGPT, por ejemplo) se ha vuelto muy prometedora para investigadores y creadores de contenido de todo tipo, pero también plantea riesgos aún por explorar, la infracción de derechos de autor, por ejemplo. A medida que las herramientas de IAG exploran Internet y otras fuentes digitales en busca de información para responder a las consultas de los usuarios, la información que se recopila, a menudo pertenece a otros creadores de contenido.  

¿Qué riesgos implica esto para aquellos que creen en esta información, e incluso la utilizan de manera textual, cuando esta es inexacta?  

Echemos un vistazo a una serie de contenidos escritos generados por la IAG y a las implicaciones que los creadores de contenido deben considerar.  

 

Lectura recomendada:

IA generativa, la inteligencia artificial que dará mucho que hablar este 2023 

 

 

Derechos de autor: adentrándonos en un terreno desconocido

Daniel Restrepo, abogado asociado en la firma Fennemore, en Phoenix, trabaja en el grupo de negocios y finanzas. Señala Daniel que hay dos intereses en conflicto cuando se trata de la regulación de la propiedad intelectual (PI) y la IA generativa.  

“Históricamente, los derechos de autor se han reservado para el contenido creado por seres humanos con el objetivo político de fomentar el intercambio de ideas nuevas e innovadoras entre el público y la cultura" pero "existe un enorme interés en promover y recompensar el desarrollo de la IA y el aprendizaje automático. La IA presenta un valor significativo para las empresas, la administración gubernamental y la seguridad nacional". 

¿El dilema? "Si no proporcionamos derechos de PI al contenido generado por la IA, concretamente, a sus diseñadores, hay mucho menos incentivo para crear dicho software cuando se sabe que el resultado va a ingresar de inmediato al dominio público". 

Además, existen otras preocupaciones. Como señala Kennington Groff, abogado especializado en propiedad intelectual en Founders Legal en Atlanta.  

"Según las pautas recientes proporcionadas por la Oficina de Derechos de Autor de Estados Unidos, existe un riesgo potencial de infracción cuando la IA genera contenido derivado de material protegido por derechos de autor y lo hace sin la autorización adecuada. A medida que los sistemas exploran Internet y fuentes digitales para recopilar información y responder a las preguntas e inquietudes de los usuarios, aparece la posibilidad de que se utilice inadvertidamente contenido protegido por derechos de autor que pertenece a otros creadores”. 

Como menciona Aaron C. Rice, presidente del grupo de entretenimiento de Founders Legal y abogado principal de la firma en Nashville, en una publicación de blog en abril de 2023, (“U.S. Copyright Guidelines for Works Containing AI-Generated Material”) el proceso de registro de derechos de autor incluye el siguiente requisito de divulgación. 

“Cuando se registra una obra que contiene material generado por IA, los creadores deben esclarecer el uso de IA en la solicitud de registro. Esta divulgación ayuda a la Oficina de Derechos de Autor a evaluar la contribución del autor humano a la obra.”  

 

Entendiendo como funciona realmente la IA Generativa

Como señala Arle Lommel, director del servicio de datos en CSA Research en Massachusetts, la IA generativa no funciona realmente de la manera que muchos creen. Muchas personas asumen que actúa como un motor de búsqueda gigante que recupera y reproduce contenido que ha almacenado previamente en algún lugar. 

Pero ese no es el proceso. Los sistemas de IA generativa (también conocidos como GenAI) no almacenan vastas cantidades de datos de entrenamiento. Lo que hacen es almacenar representaciones estadísticas de estos datos. Lo que significa que no pueden simplemente reproducir algo en lo que fueron entrenados, tienen que generar algo nuevo basado en ello. 

Lommel compara el proceso con el de un estudiante universitario al que se le pide que escriba un ensayo basado en varias investigaciones y luego exprese y sintetice, con sus propias palabras parte del conocimiento de esas fuentes para reflejar su propia comprensión. “Esto difiere del estudiante que compra un trabajo en línea o copia un artículo de Wikipedia, lo cual claramente constituye plagio".  

Abordar el plagio y la propiedad del contenido generado por IA será extremadamente difícil dada la forma en que funcionan estos sistemas.  

Lommel reconoce, "teóricamente, el resultado es una obra derivada". Pero añade, "derivada de muchas, muchas obras, que contribuyen en un grado infinitesimal al resultado. Esto no quiere decir que una estrategia legal inteligente no pueda tener éxito al encontrar algún uso infractor, pero el riesgo es muy bajo".  

Para los creadores de contenido escrito, por ejemplo, existen herramientas como los verificadores de plagio Grammarly o Turnitin que se pueden utilizar para identificar el plagio (y, si lo hay, el porcentaje). También existen herramientas como el clasificador de texto de IA de OpenAI, que permite a los usuarios copiar y pegar texto para analizar la probabilidad de que haya sido creado por un humano o por IA. 

 

Le puede interesar:

Más allá de ChatGPT: El futuro de los modelos de grandes idiomas y la IA 

 

 

¿Necesario o no?

Aun así, para aquellos que utilizan la IA generativa con el fin de crear contenido escrito, existe un riesgo mayor que el plagio: el de inexactitud. Lommel explica el problema de la inexactitud de la IA de la siguiente manera: 

“La IA generativa conlleva un riesgo real debido a su fluidez: el resultado se asemeja a aquel que un humano competente podría decir o crear. Esto aumenta exponencialmente la probabilidad de pasar por alto problemas sutiles de significado.” 

Por ejemplo, si usas la IAG para traducir un manual sobre cómo tratar una enfermedad y esta comete errores en los detalles que nadie detecta porque el resultado parece humano, por discretos que sean estos errores, ¿Quién es responsable si eso resulta en daño? Todas las herramientas de IAG actuales renuncian explícitamente a cualquier garantía de idoneidad en sus resultados, lo que deja toda la responsabilidad en manos de quien las utiliza. 

Simplemente decir "Pensaba que estaba bien" no eliminará la responsabilidad personal. Ya se han dado casos de demandas por contenido incorrecto, pero es solo cuestión de tiempo que se demande a una gran organización por contenido producido (utilizando IAG) sin supervisión suficiente. 

La naturaleza estática de estos sistemas plantea el riesgo de inexactitud, ya que se entrenan con conjuntos de datos limitados en el tiempo. De hecho, para ChatGPT, es el año 2021. 

"GPT-4 advierte a los usuarios sobre esto. El modelo se vuelve problemático cuando los sistemas hacen afirmaciones basadas en conocimientos pasados que ahora se sabe que no son ciertos. Imagínense un caso en el que un sistema describe a alguien como un asesino condenado, pero esa persona fue completamente exonerada después de entrenarse el sistema". 

Ese riesgo existe incluso con contenido que no es generado por IA. Los mismos humanos podemos pasar por alto ciertos hechos que llevarían a la confusión.  

Hay tres cosas importantes que deben hacer los creadores de contenido escrito a medida que experimentan con esta tecnología:  

  1. Considerar la IA generativa como una herramienta que puede proporcionar información útil y valiosa a su proceso de escritura

  2. Verificar los hechos detalladamente.

  3. Someter cualquier contenido creado que dependa de la información proporcionada por la IA generativa, aunque sea en pequeña medida, a herramientas que puedan minimizar el riesgo de infracción de derechos de autor inadvertida.