Inteligência artificial geradora e direitos de autor

Escrito por Alejandro Ferrís Fernández | 07/14/23

A inteligência artificial geradora (ChatGPT, por exemplo) tornou-se muito promissora para pesquisadores e criadores de conteúdo de todos os tipos, mas também apresenta riscos ainda por explorar, como a violação de direitos autorais , por exemplo. À medida que as ferramentas de IAG exploram a Internet e outras fontes digitais em busca de informações para responder às consultas dos usuários, as informações coletadas muitas vezes pertencem a outros criadores de conteúdo.  

¿Quais são os riscos para aqueles que acreditam nesta informação, e até mesmo a usam textualmente, quando esta é inexacta?  

Vamos dar uma olhada em uma série de conteúdos escritos gerados pela IAG e as implicações que os criadores de conteúdo devem considerar. 

 

Leitura recomendada:

A IA geradora, a inteligência artificial que dará muito para falar em 2023. 

 

 

Direitos de autor: entrando em terreno desconhecido

Daniel Restrepo, advogado associado da firma Fennemore, em Phoenix, trabalha no grupo de negócios e finanças. Daniel aponta que há dois interesses em conflito quando se trata da  regulamentação  da propriedade intelectual (PI) e da IA gerativa. 

“Historicamente, os direitos de autor foram reservados para o conteúdo criado por seres humanos com o objetivo político de promover o intercâmbio de ideias novas e inovadoras entre o público e a cultura", mas "existe um enorme interesse em promover e recompensar o desenvolvimento da IA e da aprendizagem automática. A IA apresenta um valor significativo para as empresas, para a administração governamental e para a segurança nacional".   

O dilema?: "Se não fornecermos direitos de PI ao conteúdo gerado pela IA, especificamente aos seus designers, há muito menos incentivo para criar esse software quando se sabe que o resultado vai entrar imediatamente no domínio público". 

Além disso, há outras preocupações. Como aponta Kennington Groff, advogado especializado em propriedade intelectual na Founders Legal em Atlanta.  

"De acordo com as diretrizes recentes fornecidas pelo Escritório de Direitos Autorais dos EUA, existe um risco potencial de violação quando a IA gera conteúdo derivado de material protegido por direitos autorais e o faz sem a devida autorização. À medida que os sistemas exploram a Internet e as fontes digitais para recolher informações e responder às perguntas e preocupações dos utilizadores, surge a possibilidade de utilização inadvertida de conteúdos protegidos por direitos de autor pertencentes a outros criadores. 

Como menciona Aaron C. Rice, presidente do grupo de entretenimento da Founders Legal e principal advogado da firma em Nashville, em um post de blog em abril de 2023, (“U.S. Copyright Guidelines for Works Containing AI-Generated Material”) o processo de registro de direitos autorais inclui o seguinte requisito de divulgação. 

“Quando se registra uma obra que contenha material gerado por IA, os criadores devem esclarecer a utilização de IA no pedido de registo. Esta divulgação ajuda o Escritório de Direitos Autorais a avaliar a contribuição do autor humano para a obra".  

 

Compreender como a IA Gerativa realmente funciona

Como aponta Arle Lommel, diretor de serviços de dados da CSA Research, em Massachusetts, a Como aponta Arle Lommel, diretor de serviços de dados da CSA Research, em Massachusetts, a  IA gerativa  não funciona realmente da maneira que muitos acreditam. Muitas pessoas assumem que ele age como um gigantesco motor de busca que recupera e reproduz conteúdo que já foi armazenado em algum lugar.  não funciona realmente da maneira que muitos acreditam. Muitas pessoas assumem que ele age como um gigantesco motor de busca que recupera e reproduz conteúdo que já foi armazenado em algum lugar.   

Mas esse não é o processo. Os sistemas de IA generativa (também conhecidos como GenAI) não armazenam grandes quantidades de dados de treinamento. O que eles fazem é armazenar representações estatísticas desses dados. O que significa que eles não podem simplesmente reproduzir algo em que foram treinados, eles têm que gerar algo novo com base nisso. 

Lommel compara o processo com o de um estudante universitário que é solicitado a escrever um ensaio baseado em várias pesquisas e depois expressar e sintetizar, em suas próprias palavras, parte do conhecimento dessas fontes para refletir seu próprio entendimento. "Isso difere do aluno que compra um trabalho on-line ou copia um artigo da Wikipedia, o que claramente constitui um plágio".  

Abordar o plágio e a propriedade de conteúdos gerados por IA será extremamente difícil dada a forma como estes sistemas funcionam.   

Lommel reconhece,  "teoricamente, o resultado é uma obra derivada". Mas acrescenta, "derivada de muitas, muitas obras, que contribuem em um grau infinitesimal para o resultado. Isso não quer dizer que uma estratégia legal inteligente não possa ter sucesso ao encontrar algum uso ilegal, mas o risco é muito baixo".  

Para os criadores de conteúdo escrito, por exemplo, existem ferramentas como os verificadores de plágio Grammarly ou Turnitin que podem ser usados para identificar o plágio (e, se houver, a porcentagem). Também existem ferramentas como o classificador de texto de IA da OpenAI, que permite aos usuários copiar e colar texto para analisar a probabilidade de ter sido criado por um humano ou por IA 

 

Pode interessar-lhe:

Além do ChatGPT: O futuro dos grandes modelos de linguagem e da IA     

 

 

Necessário ou não?

No entanto, para aqueles que usam a IA generativa para criar conteúdo escrito, há um risco maior do que o plágio: o de inexatidão. Lommel explica o problema da imprecisão da IA da seguinte forma:  

“A IA geradora comporta um risco real devido à sua fluidez: o resultado é semelhante ao que um humano competente poderia dizer ou criar. Isso aumenta exponencialmente a probabilidade de ignorarmos problemas sutis de significado.  

Por exemplo, se você usar a IA para traduzir um manual sobre como tratar uma doença e ela  cometer erros em detalhes  que ninguém detecta porque o resultado parece humano, por discretos que sejam esses erros, quem é responsável se isso resultar em danos? Todas as ferramentas de IAG atuais renunciam explicitamente a qualquer garantia de adequação em seus resultados, deixando toda a responsabilidade nas mãos de quem as usa.  

Simplesmente dizer "Pensei que estava bem" não elimina a responsabilidade pessoal. Já houve casos de demandas por conteúdo incorreto, mas é apenas uma questão de tempo que uma grande organização seja demandada por conteúdo produzido (usando IAG) sem supervisão suficiente. 

A natureza estática destes sistemas coloca o risco de inexatidão, uma vez que são treinados com conjuntos de dados limitados no tempo. Na verdade, para  o ChatGPT, é o ano de 2021.  

"GPT-4 adverte os utilizadores sobre isto. O modelo torna-se problemático quando os sistemas fazem afirmações baseadas em conhecimento passado que agora se sabe que não são verdadeiras. Imaginem um caso em que um sistema descreve alguém como um assassino condenado, mas essa pessoa foi completamente exonerada depois de o sistema ter sido treinado". 

Esse risco existe mesmo com conteúdos que não são gerados por IA. Os próprios humanos podem ignorar certos fatos que levam à confusão.  

Há três coisas importantesque os criadores de conteúdo devem fazer enquanto experimentam com esta tecnologia:   

  1. Considerar a IA gerativa como uma ferramenta que pode fornecer informações úteis e valiosas ao seu processo de escrita.

  2. Verificar os factos em pormenor.

  3. Submeter qualquer conteúdo criado que dependa da informação fornecida pela IA geradora, mesmo que em pequena medida, a ferramentas que possam minimizar o risco de violação inadvertida de direitos de autor.