Lavorare a stretto contatto con i nostri clienti per costruire sistemi di IA etici pervade la cultura di Pangeanic e tutto ciò che facciamo. Ma non ci limitiamo a parlare, agiamo anche. A tal fine, vogliamo rendere pubblici i nostri sforzi consapevoli nella raccolta dei dati, nell'aggregazione dei dati e nell'annotazione dei dati, e nella costruzione di corpus paralleli per sistemi di ML in pieno rispetto dei 4 pilastri dell'IA etica. Insieme a solide tecnologie di mascheramento/anonimizzazione dei dati multilingue, creiamo set di dati e soluzioni basate su solidi principi etici di IA.
Contenuto: |
L'intelligenza artificiale etica è un approccio alla progettazione, sviluppo, implementazione e distribuzione di sistemi di intelligenza artificiale che si concentra sulla creazione di sistemi che siano rispettosi dei diritti umani e dei valori morali condivisi. I 4 pilastri dell'intelligenza artificiale etica sono:
Trasparenza: I processi e le decisioni prese dai sistemi di intelligenza artificiale devono essere chiari, comprensibili e spiegabili. Ciò consente agli utenti di comprendere come si arriva a una decisione o a un risultato specifico dall'intelligenza artificiale.
Equità: I sistemi di intelligenza artificiale devono evitare pregiudizi che possano portare a risultati ingiusti o a qualsiasi tipo di discriminazione. L'intelligenza artificiale deve trattare tutti in modo equo e prendere decisioni basate su dati oggettivi invece che su pregiudizi soggettivi.
Privacy e sicurezza: I sistemi di intelligenza artificiale devono rispettare la privacy degli utenti. Ciò significa che non devono raccogliere né utilizzare dati personali senza il consenso dell'utente. Proteggere la privacy e i dati delle persone è fondamentale nell'intelligenza artificiale etica, coinvolgendo tecniche adeguate di anonimizzazione dei dati, garantendo la sicurezza dei dati e rispettando tutte le leggi e le normative sulla protezione dei dati pertinenti.
Responsabilità: Deve esserci un modo per cui i responsabili dello sviluppo e dell'utilizzo dei sistemi di intelligenza artificiale debbano rendere conto delle proprie azioni.
I progressi dell'intelligenza artificiale (IA) stanno iniziando a influenzare profondamente il modo in cui gli esseri umani interagiscono non solo con le macchine, ma anche tra loro, come elaborano le informazioni e, di conseguenza, come prendono decisioni. L'IA può migliorare la fornitura di molti beni e servizi, anche in aree come la sanità, i servizi finanziari e la tecnologia, ma può anche creare pregiudizi verso un target specifico o un segmento della popolazione, ignorarlo completamente o generare notizie false. E questo non è che l'inizio.
Man mano che l'immensità dei big data aumenta e la potenza di calcolo si espande, man mano che più dati sono disponibili a più team e il perfezionamento dei Grandi Modelli Linguistici e di altri sistemi di IA diventa più accessibile, comprendiamo che la tecnologia è destinata a rivoluzionare quasi tutte le sfaccettature del mondo come lo conosciamo oggi.
Questo grande balzo in avanti è una prospettiva entusiasmante che presenta la possibilità di affrontare alcuni dei nostri problemi più formidabili per il benessere dell'umanità. Ma, allo stesso tempo, pone molte preoccupazioni valide. Come qualsiasi tecnologia nuova e in rapida evoluzione, l'integrazione universale dell'IA richiederà un percorso di apprendimento ripido e una formazione molto rapida degli utenti. È inevitabile che si commettano errori di valutazione e di calcolo, che possono avere conseguenze imprevedibili e, a volte, dannose.
Per ottimizzare i vantaggi e frenare i danni, l'etica dell'IA svolge un ruolo vitale nel garantire che le implicazioni sociali ed etiche della costruzione e del dispiegamento dei sistemi di IA siano prese in considerazione in ogni fase. L'etica dell'IA si basa su questi 4 pilastri etici fondamentali dell'IA: Guisti, Rispettosi della privacy, Robusti ed affidabili, e Esplicabili
TSiamo ancora solo all'inizio dello sviluppo dei sistemi di intelligenza artificiale (IA), ma tutti conosciamo alcuni casi estremi che sono finiti agli onori della cronaca proprio per la mancanza di controllo etico. Ecco alcuni esempi di come sono stati violati ciascuno dei pilastri:
L'uso dell'IA per mitigare i pregiudizi nelle valutazioni creditizie sottolinea quanto sia essenziale l'imparzialità nella progettazione dei sistemi di IA. Sebbene siano spesso considerate imparziali e oggettive, le valutazioni creditizie hanno una lunga storia di discriminazione, ad esempio per motivi di razza o sesso. I modelli di valutazione creditizia basati sull'IA offrono un'interpretazione più dettagliata dei dati e possono rivelare correlazioni nascoste tra variabili che potrebbero non sembrare pertinenti o addirittura non essere incluse in un modello di valutazione creditizia convenzionale, come le inclinazioni politiche o le connessioni sui social media. Tuttavia, l'integrazione di questo tipo di informazioni non convenzionali nelle valutazioni creditizie rischia di esacerbare il loro attuale pregiudizio. È fondamentale dare la priorità all'equità per garantire che questi dati complementari aiutino davvero coloro a cui si intende aiutare, ampliando l'accesso al credito.
L'importanza critica della privacy nell'uso dell'IA è già evidente nell'assistenza sanitaria. Nel 2016, è scoppiata una polemica quando la società di IA DeepMind, con sede a Londra, ha collaborato con il NHS, suscitando preoccupazione per la gestione dei dati sensibili dei pazienti. Il successivo trasferimento del settore sanitario di DeepMind alla sua società madre, Google, ha ulteriormente avvivato le preoccupazioni. È assolutamente chiaro che non si può tollerare il collegamento dei dati dei pazienti agli account di Google. Tuttavia, è necessario trovare un equilibrio adeguato tra salvaguardare la privacy individuale e facilitare i benefici sociali delle applicazioni di IA, come l'interpretazione di scansioni o la pianificazione della radioterapia. Il vero valore risiede nei dati collettivi anonimizzati più che nei dati personali, quindi dovrebbe essere possibile trovare un compromesso.
L'importanza della robustezza in un sistema di IA è evidente nella selezione del personale. L'IA può migliorare notevolmente il processo di selezione, eliminando gran parte della speculazione che implica l'identificazione del talento ed eliminando il pregiudizio che spesso influenza la presa di decisioni effettuata da un essere umano. Tuttavia, anche il gigante tecnologico Amazon ha avuto problemi quando è stato scoperto che il suo nuovo sistema di selezione era prevenuto nei confronti delle donne. Il sistema era stato addestrato con curriculum inviati nell'arco di un decennio, la maggior parte dei quali proveniva da uomini, il che rifletteva la predominanza maschile nell'industria tecnologica. Di conseguenza, il sistema ha imparato a favorire i candidati maschi. I sistemi di IA non sono intrinsecamente robusti: per massimizzare i loro benefici, devono funzionare efficacemente nel mondo reale.
L'esperimento di Microsoft di "compresione conversazionale" tramite un bot di Twitter chiamato "Tay", sottolinea quanto sia necessario il quarto pilastro dell'etica dell'IA, l'esplicabilità. Twitter ha impiegato meno di un giorno per infangare l'ingenuo chatbot di IA. Si supponeva che il bot migliorasse con l'interazione degli utenti, imparando a conversare in modo informale e divertente. Purtroppo, il dialogo è presto diventato offensivo, con commenti sessisti e razzisti. Spiegazione difficile e poco chiara. Spiegare le decisioni di un'IA è difficile, come spiegare l'intelligenza umana, ma è fondamentale per sfruttare appieno il suo potenziale.
In Pangeanic crediamo che sistemi equi, responsabili e trasparenti non possano essere sviluppati sfruttando manodopera a basso costo. Per questo motivo, applichiamo una politica di retribuzione equa ai nostri fornitori, partner e dipendenti. Assumiamo talenti che riflettano il nostro impegno per offrire servizi e prodotti di alta qualità ai nostri clienti.
I nostri processi sono accessibili ai clienti, li incoraggiamo a utilizzare l'IA nelle loro applicazioni, come traduzione automatica, classificazione, dati per il machine learning e gestione dei dati. Comprendendo i dati e i processi, possiamo spiegare in che modo la tecnologia di Pangeanic funziona e come si giunge a decisioni o risultati utilizzando l'IA.
I nostri sistemi evitano i pregiudizi fin dalla fase di concezione all'implementazione. Il nostro team di ricerca ha svolto attività di ricerca e sviluppo pubblicate parzialmente per individuare ed eliminare discorsi d'odio e pregiudizi etnici o di genere. Collaboriamo costantemente con i nostri clienti per creare set di dati bilanciati dal punto di vista di genere o privi di tossicità, ad esempio.
Costruiamo, miglioriamo, personalizziamo e implementiamo strumenti di anonimizzazione per proteggere la privacy delle persone in 26 lingue. Pangeanic guida il progetto MAPA, sostenuto dall'UE, ed è parte integrante di diverse infrastrutture di anonimizzazione.
Pangeanic si assume la responsabilità di tutti i suoi servizi e prodotti relativi all'IA e ai dati per l'IA, garantendone prestazioni e funzionalità.
Un esempio concreto è stato il contributo del nostro CEO alla relazione del Translating Europe Workshop (TEW) sul GDPR, che ha aiutato i professionisti della traduzione a comprendere il regolamento e il modo migliore per applicarlo.
Dopo diversi mesi di lavoro congiunto tra rappresentanti delle associazioni di traduttori, personale dei servizi linguistici, accademici e professionisti del settore legale, il gruppo ha prodotto un rapporto di raccomandazioni che è stato presentato al Translating Europe Workshop nel 2022.
Melina Skondra, direttrice del Translating Europe Workshop, ha dichiarato: "Il Translating Europe Workshop, finanziato dalla Direzione generale della traduzione della Commissione europea, è il primo passo verso linee guida europee comuni sul GDPR per la professione di traduttore e interprete". Il progetto ha coinvolto un gruppo di esperti legali e del settore della traduzione e dell'interpretariato, oltre a un workshop online di un giorno con professionisti della traduzione e dell'interpretariato."
Il rapporto TEW descrive le sfide principali per l'implementazione e la conformità al GDPR nella professione di traduttore e interprete, esplorate e analizzate da un gruppo di esperti paneuropei.
Complimenti all'eccezionale team: Stefanie Bogaerts, John Anthony O'Shea LL.B, LL.M, Raisa McNab, Wojciech Woloszyk (Wołoszyk), Małgorzata Dumkiewicz, Paweł Kamocki, Zoe Milak, Manuel Herranz”
Sulla base dei diritti fondamentali e dei principi etici, la Commissione europea ha sviluppato un insieme di linee guida etiche per un'intelligenza artificiale (IA) affidabile. Al fine di instillare fiducia nell'IA centrata sull'essere umano, tale organismo politico ha collaborato alla redazione di un documento insieme a un Gruppo di Esperti di Alto Livello sull'Intelligenza Artificiale (AI HLEG). Questo gruppo di esperti indipendenti è stato istituito dalla Commissione europea nel giugno 2018, come parte della strategia sull'IA annunciata all'inizio dello stesso anno.
Le linee guida enumerano sette requisiti chiave che i sistemi di IA devono soddisfare per essere considerati affidabili:
Nel tentativo di attuare questi requisiti, le linee guida presentano una checklist di valutazione che fornisce consigli sulla messa in pratica pratica di ciascun requisito. Tale checklist sarà sottoposta a una fase di prova, alla quale potranno contribuire tutte le parti interessate, con l'obiettivo di raccogliere feedback al fine di migliorare l'efficacia della stessa. Inoltre, è stato creato un forum per agevolare lo scambio delle migliori pratiche nell'implementazione di un'IA affidabile.