6 min read
17/07/2023
Os 4 pilares da IA ética e por que são importantes para o Aprendizado de Máquina
Trabalhar de maneira próxima com nossos clientes na construção de sistemas de IA éticos é intrínseco à cultura da Pangeanic e orienta todas as nossas ações. No entanto, não nos limitamos apenas a palavras, mas também a ações concretas. Com esse propósito, desejamos tornar transparentes nossos esforços deliberados na coleta de dados, agregação de dados e anotação de dados, assim como na criação de corpora paralelos para sistemas de ML em total conformidade com os 4 pilares da IA Ética. Além disso, ao empregar tecnologias robustas de mascaramento/anonimização de dados em diversos idiomas, desenvolvemos conjuntos de dados e soluções fundamentadas em princípios éticos sólidos da IA.
Conteúdo: |
O que é IA ética?
A IA ética é um conceito voluntário e global que diz respeito ao design, desenvolvimento, implementação e implantação de sistemas de IA de maneira a respeitar os direitos humanos e os valores morais compartilhados. Ela foca na criação de sistemas de IA que sejam transparentes, justos, responsáveis e respeitosos com a privacidade. Os 4 pilares da IA ética são:
-
Transparência: Os processos e decisões tomadas pelos sistemas de IA devem ser claros, compreensíveis e explicáveis. Isso auxilia os usuários a entenderem como uma decisão específica é alcançada ou um resultado é obtido pela IA.
-
Justiça: Os sistemas de IA devem evitar viés que possa levar a resultados injustos ou qualquer forma de discriminação. A IA deve tratar todos de maneira equitativa e tomar decisões baseadas em dados objetivos, em vez de viés subjetivo.
-
Privacidade e Segurança: Os sistemas de IA devem respeitar a privacidade dos usuários. Isso significa que não devem coletar nem usar dados pessoais sem o consentimento do usuário. Proteger a privacidade e os dados das pessoas é fundamental na IA ética, envolvendo técnicas apropriadas de anonimização de dados, garantindo a segurança dos dados e cumprindo todas as leis e regulamentações pertinentes de proteção de dados.
-
Responsabilidade: Deve haver uma forma para os responsáveis pelo desenvolvimento e uso de sistemas de IA prestarem contas por suas ações.
Por que a IA ética é importante?
Os avanços da inteligência artificial (IA) estão começando a afetar profundamente a forma como os seres humanos não apenas interagem com as máquinas, mas também como interagem entre si, como processam a informação e, consequentemente, como tomam decisões. A IA pode aprimorar a prestação de muitos bens e serviços, inclusive em áreas como saúde, serviços financeiros e tecnologia, mas também pode criar preconceitos em relação a um objetivo específico ou um segmento da população, ignorá-lo completamente ou gerar notícias falsas. E isso é apenas o começo.
À medida que a imensidão dos big data aumenta e a potência de cálculo se expande, à medida que mais dados estão disponíveis para mais equipes e o aprimoramento de Grandes Modelos de Linguagem e outros sistemas de IA se torna mais acessível, entendemos que a tecnologia está destinada a revolucionar quase todas as facetas do mundo como o conhecemos até hoje.
Esse grande salto à frente é uma perspectiva empolgante que apresenta a possibilidade de abordar alguns dos nossos desafios mais formidáveis para o bem-estar da humanidade. No entanto, ao mesmo tempo, levanta muitas preocupações válidas. Como qualquer tecnologia inovadora e de rápido desenvolvimento, a integração universal da IA exigirá uma curva de aprendizado íngreme e uma rápida formação dos usuários. É inevitável que ocorram erros de avaliação e cálculo, que podem ter consequências imprevistas e, às vezes, prejudiciais.
Para otimizar as vantagens e conter os prejuízos, a ética da IA desempenha um papel vital ao garantir que as ramificações sociais e éticas da construção e implementação dos sistemas de IA sejam consideradas em cada fase. A ética da IA é fundamentada nesses 4 pilares éticos essenciais da IA e, para reforçar nossa mensagem, os sistemas devem ser: Justos, Privados, Robustos e Explicáveis.
Problemas conhecidos até agora
Estamos apenas nos estágios iniciais do desenvolvimento dos sistemas de IA, mas todos estamos cientes de alguns casos extremos que chamaram a atenção, justamente devido à falta de controle ético. Aqui estão alguns exemplos de como cada pilar foi violado:
Equidade:
A utilização da IA para mitigar viés em avaliações de crédito destaca por que a imparcialidade é um fator crucial na engenharia de sistemas de IA. Apesar de serem frequentemente consideradas imparciais e objetivas, as avaliações de crédito têm um longo histórico de discriminação, seja por motivos de raça ou gênero. Modelos de avaliação de crédito baseados em IA oferecem uma interpretação mais detalhada dos dados e podem revelar correlações ocultas entre variáveis que podem não parecer pertinentes ou nem mesmo estar incluídas em um modelo de avaliação de crédito convencional, como inclinações políticas ou conexões com redes sociais. No entanto, a integração desse tipo de informação não convencional nas avaliações de crédito corre o risco de agravar seu viés atual. É crucial dar prioridade à equidade para garantir que esses dados adicionais realmente auxiliem aqueles a quem se destinam, ampliando o acesso ao crédito.
Privacidade:
A importância crítica da privacidade no uso da IA já é evidente na área da saúde. Em 2016, houve polêmica quando a empresa de IA DeepMind, sediada em Londres, colaborou com o NHS, gerando preocupações sobre o manejo de dados sensíveis dos pacientes. A subsequente transferência da área de saúde da DeepMind para sua empresa-mãe, o Google, intensificou ainda mais as preocupações. É evidente que não se pode tolerar a vinculação de dados de pacientes a contas do Google. No entanto, é necessário encontrar um equilíbrio adequado entre proteger a privacidade individual e facilitar os benefícios sociais das aplicações de IA, como interpretação de exames ou planejamento de radioterapia. O verdadeiro valor reside nos dados coletivos anonimizados mais do que nos dados pessoais, tornando possível chegar a um compromisso.
Robustez:
A importância da robustez em um sistema de IA é evidente na contratação de pessoal. A IA pode melhorar significativamente o processo de contratação, eliminando grande parte da especulação envolvida na identificação de talentos e erradicando o viés que muitas vezes afeta as decisões tomadas por um ser humano. No entanto, até mesmo o gigante tecnológico Amazon teve problemas quando descobriu-se que seu novo sistema de contratação tinha preconceitos contra mulheres. O sistema foi treinado com currículos enviados durante uma década, a maioria dos quais provenientes de homens, refletindo o predomínio masculino na indústria tecnológica. Como resultado, o sistema aprendeu a favorecer candidatos masculinos. Sistemas de IA não são intrinsecamente robustos: para maximizar seus benefícios, eles precisam funcionar eficazmente no mundo real.
Explicabilidade:
O experimento da Microsoft com "compreensão conversacional" por meio de um bot do Twitter chamado "Tay" destaca por que o quarto pilar da ética da IA, a explicabilidade, é necessário. O Twitter levou menos de um dia para manchar o inocente chatbot de IA. O bot deveria melhorar com a interação dos usuários, aprendendo a realizar conversas casuais e divertidas. Infelizmente, o diálogo rapidamente se tornou ofensivo, com comentários misóginos e racistas. Explicar as decisões de uma IA é difícil, assim como explicar a inteligência humana, mas é vital para aproveitar todo o potencial que ela oferece.
O que a Pangeanic faz para aplicar a IA ética em seus processos?
Na Pangeanic, acreditamos que sistemas justos, responsáveis e transparentes não podem ser construídos com mão de obra barata. Por isso, aplicamos uma política de remuneração justa aos nossos fornecedores, colaboradores e funcionários. Contratamos talentos porque isso se reflete no serviço e na qualidade dos produtos e serviços que nossos clientes recebem.
-
Nossos processos são transparentes para nossos clientes, e os orientamos sobre o uso da IA para suas aplicações (tradução automática, classificação, dados para ML, curadoria de dados, etc.). Compreendendo os dados e os processos, conseguimos explicar como e por que a tecnologia da Pangeanic funciona, e como as decisões ou resultados são alcançados por meio da IA.
-
Nossos sistemas evitam viés ddesde o conceito até a aplicação. Nossa equipe de pesquisa trabalhou em P&D sobre publicações tendenciosas para detectar e eliminar discursos de ódio e viés étnico ou de gênero. Trabalhamos constantemente com nossos clientes para criar conjuntos de dados equilibrados em termos de gênero, ou conjuntos de dados livres de toxicidade, por exemplo.
-
Construímos, aprimoramos, personalizamos e implementamos ferramentas de anonimização para respeitar a privacidade das pessoas em 26 idiomas. A Pangeanic lidera o Projeto MAPA, apoiado pela UE, e é parte fundamental de várias infraestruturas de anonimização.
-
A Pangeanic se declara responsável por todos os seus serviços e produtos relacionados à IA e dados para a IA, com garantias de desempenho e funcionamento.
Um exemplo muito bom foi a participação do nosso CEO no relatório sobre o GDPR no Translating Europe Workshop (TEW), que ajudou os profissionais da tradução a compreenderem o GDPR e a melhor forma de aplicá-lo.
Depois de vários meses de colaboração entre representantes de associações de tradutores, pessoal de serviços linguísticos, acadêmicos e profissionais do Direito, o grupo elaborou um relatório com recomendações que foi apresentado no Translating Europe Workshop de 2022.
Nas palavras de Melina Skondra: "Financiado pela Direção-Geral de Tradução da Comissão Europeia, o workshop Translating Europe é o primeiro passo em direção a diretrizes europeias comuns sobre o GDPR para a profissão de tradução e interpretação". Ele engloba o trabalho de um grupo de especialistas jurídicos e do setor de tradução e interpretação, um workshop online de um dia com profissionais da tradução e interpretação, e o presente relatório.
O relatório TEW descreve os desafios-chave na aplicação e conformidade com o GDPR na profissão de tradução e interpretação, explorados e analisados pelo painel paneuropeu de especialistas.
Parabéns à excelente equipe: Stefanie Bogaerts, John Anthony O'Shea LL.B, LL.M, Raisa McNab, Wojciech Woloszyk (Wołoszyk), Małgorzata Dumkiewicz, Paweł Kamocki, Zoe Milak, Manuel Herranz.
A IA ética é o futuro?
Com base nos direitos fundamentais e nos princípios éticos, a Comissão Europeia trabalhou em uma série de Diretrizes Éticas para uma Inteligência Artificial (IA) digna de confiança. Para gerar confiança na IA centrada no ser humano, esse órgão político elaborou um documento em colaboração com um grupo de Peritos de Alto Nível sobre Inteligência Artificial (AI HLEG). Esse grupo de especialistas independentes foi criado pela Comissão Europeia em junho de 2018, como parte da estratégia de IA anunciada no início desse ano
As diretrizes enumeram sete requisitos-chave que os sistemas de IA devem cumprir para serem considerados dignos de confiança:
Num esforço para implementar esses requisitos, as diretrizes introduzem uma lista de verificação de avaliação que oferece orientações sobre a aplicação prática de cada requisito. Essa lista de verificação de avaliação será submetida a uma fase de teste, na qual todas as partes interessadas poderão contribuir, a fim de obter feedback para melhorar sua eficácia. Além disso, foi criado um fórum para facilitar a troca de melhores práticas no desenvolvimento de IA confiável.