5 lettura minuti
14/04/2023
Pausa temporanea nello sviluppo dell'IA: l'intelligenza artificiale sta suscitando timore tra gli esperti?
Il 29 marzo 2023, in una lettera aperta rivolta ai leader politici e imprenditoriali di tutto il mondo, figure di spicco del settore tecnologico, tra cui Elon Musk (co-fondatore iniziale della società tecnologica OpenAI, nata come organizzazione senza scopo di lucro), hanno chiesto una pausa temporanea nell'avanzata sfrenata dell'Intelligenza Artificiale (IA).
La lettera, firmata da esperti di IA, tra cui ricercatori, docenti universitari, dirigenti di aziende tecnologiche e filantropi, sottolinea la necessità di affrontare le preoccupazioni etiche e sociali che circondano l'IA prima di proseguire con il suo sviluppo. “I sistemi di IA con capacità intellettive competitive rispetto a quelle umane possono rappresentare profondi rischi per la società e l'umanità, come dimostrato da approfondite ricerche e come riconosciuto dai principali laboratori di IA”, si legge nella lettera.
Tra i problemi evidenziati figurano il bias algoritmico, la privacy dei dati e la potenziale eliminazione di posti di lavoro. I firmatari della lettera sostengono che l'IA possa avere conseguenze impreviste e potenzialmente dannose se si permette al suo sviluppo di procedere senza un'adeguata supervisione.
L'IA, come l'insieme delle tecnologie, ha il potenziale di migliorare le nostre vite in molti modi, dall'assistenza sanitaria alla guida autonoma, ma, come dicono gli esperti, dobbiamo affrontare le sfide che presenta prima di proseguire con il suo sviluppo.
La lettera evidenzia che l'Intelligenza Artificiale ha un grande potenziale per migliorare la vita delle persone, ma comporta anche rischi significativi. Dobbiamo quindi assicurarci che sia sviluppata in modo etico e responsabile, con un'adeguata supervisione e un'attenzione costante alle sue possibili conseguenze. Si conclude chiedendo una pausa temporanea nel suo avanzamento, che permetterebbe di affrontare queste preoccupazioni e di garantire che l'IA sia utilizzata per il bene comune.
Esorta i leader politici e imprenditoriali ad affrontare questi problemi in modo serio e urgente, e a lavorare insieme per garantire che lo sviluppo dell'IA sia etico, responsabile e sostenibile.
Cosa comporterebbe una pausa temporanea nello sviluppo dell'IA?
Secondo gli esperti, una pausa nello sviluppo dell'IA permetterebbe ai professionisti di approfondire le preoccupazioni etiche e sociali che circondano l'avanzamento di questa tecnologia e di garantire che il suo sviluppo avvenga in modo etico, responsabile e sostenibile. Questa azione potrebbe avere ripercussioni significative sul futuro della tecnologia e sulla sua implementazione nella società.
Ad oggi, una pausa temporanea nello sviluppo dell'IA può comportare un rallentamento nella creazione di nuove applicazioni e tecnologie basate sull'Intelligenza Artificiale. Le grandi aziende che la utilizzano potrebbero subire un calo negli sviluppi innovativi e perdere competitività.
D'altro canto, come suggeriscono gli esperti, una pausa temporanea dell'IA può portare benefici a lungo termine, come una ricerca più approfondita nello sviluppo di una tecnologia più etica e responsabile, che potrebbe avere risvolti positivi maggiori per la società, permettendone l'uso per il bene comune e con minori rischi.
Cosa ne pensano i diversi dipartimenti e professionisti di Pangeanic?
In Pangeanic implementiamo da anni processi di Intelligenza Artificiale in modo etico e responsabile nelle nostre procedure, per creare soluzioni che, combinate con l'ingegno umano, siano dirompenti e in grado di soddisfare le esigenze del mercato e del pubblico attuale.
Sviluppiamo i nostri prodotti adattandoci costantemente ai miglioramenti globali e alle nuove tendenze nel settore della tecnologia e del Processamento del Linguaggio Naturale (NLP), il che ci permette di mantenere la nostra competitività attraverso l'innovazione.
Questa pausa può avere ripercussioni su di noi, come azienda che implementa l'IA nei propri servizi?
Sebbene la pausa nello sviluppo dell'IA da parte delle grandi aziende possa avere alcuni effetti negativi sull'industria dell'IA in generale, potrebbe anche creare opportunità per le piccole imprese. Tuttavia, è importante tenere presente che la situazione è complessa e che gli effetti possono variare a seconda del settore e del contesto specifici.
Dal punto di vista tecnologico, il nostro CTO Amando Estela ammette: “possono esserci pericoli in una ricerca sull'IA non moderata, tuttavia, mettere in pausa la ricerca mi sembra altrettanto pericoloso. Non sono favorevole a imporre restrizioni quando sappiamo che alcuni dei player non le rispetteranno”.
L'IA è una tecnologia che, come altre, ci facilita la vita. “Non mi convince la decisione delle aziende tecnologiche di fermare temporaneamente lo sviluppo dell'intelligenza artificiale per sei mesi. Questa decisione potrebbe suggerire che stiamo avanzando troppo in fretta nell'implementazione (deployment) di tecnologia IA avanzata che, col tempo, potrebbe superare le capacità umane. Tuttavia, non credo sia così. È essenziale tenere presente che i modelli di IA non sono pensati per sostituire gli esseri umani, ma per assisterli in diverse attività. Sebbene eccellano in vari compiti, sono privi del ragionamento, dell'empatia e del pensiero critico propri degli esseri umani” afferma Konstantinos Chatzitheodorou, Responsabile del Machine Learning.
Vivere in una società in costante cambiamento e alla ricerca di miglioramenti implica la necessità di adattarsi. L'IA può essere d'aiuto in molti lavori e ne crea di nuovi con l'obiettivo di portarci benefici. Come dicono gli esperti, l'interruzione di questa tecnologia per un certo periodo può causare uno “stand-by” in quegli impieghi ancora immaturi e per i quali i più visionari stanno iniziando a formarsi. “Lavorare in un'azienda tecnologica ti obbliga, in un certo senso, a stare al passo con le ri-evoluzioni tecnologiche e le loro possibilità. È vero che molti di questi nuovi strumenti facilitano il lavoro in alcuni campi e per alcuni profili professionali, ma non dobbiamo smettere di vederli per quello che sono, 'facilitatori', e mai come sostituti, perché l'ingegno e la creatività dell'essere umano saranno sempre necessari. Non credo che ci siano posti di lavoro a rischio, ma sicuramente le regole cambieranno e in alcuni casi le mansioni verranno ridefinite. Dobbiamo vedere l'IA come un supporto, non abusarne e men che meno dipendere da essa, perché se fallisce lei, fallirà tutto il resto” afferma la nostra responsabile People & Culture, María Bodí.
Si deve tenere conto che l'IA si è espansa molto rapidamente in molte aree della vita quotidiana e pone sfide etiche, sociali e legali. Quest'ultimo punto evidenzia una carenza nella definizione delle responsabilità (accountability) per determinare chi sia responsabile di eventuali danni ed errori, così come problemi di discriminazione, minacce alla privacy e alla sicurezza dei dati... La nostra Responsabile del Dipartimento R&S (Ricerca e Sviluppo), María Ángeles García, spiega che la richiesta di questo gruppo di esperti è un po' utopica: “mi sembra la situazione ideale e un passo imprescindibile in questo momento storico, ma non credo che verrà realmente messa in atto. Nessuno controlla cosa stia ricercando ogni singola persona e, con la fuga di informazioni su modelli come LLaMa, questa situazione non ha fatto altro che peggiorare tale controllo”.
D'altro canto, la crescente capacità dei sistemi di intelligenza artificiale contemporanei di eseguire compiti generali a un livello competitivo pari a quello umano solleva domande importanti sull'impatto dell'IA sulla società. Dobbiamo permettere alle macchine di diffondere propaganda e notizie false attraverso i nostri canali di informazione e comunicazione? Dobbiamo automatizzare tutti i lavori, compresi quelli che danno soddisfazione e un senso (purpose)? Dobbiamo sviluppare menti non umane che alla fine potrebbero sostituire gli esseri umani? Queste e molte altre sono le domande che emergono nel contesto attuale e che ci si pone da anni, come dice Nikita Teslenko, Responsabile Tecnico del Dipartimento di Innovazione. “Con l'obiettivo di evitare risultati catastrofici, dobbiamo assicurarci che i potenti sistemi di IA siano sviluppati in modo responsabile e trasparente, con solidi protocolli di sicurezza e un'adeguata supervisione”.
Ma chi si occupa di regolamentare ciò che fa l'IA? La mancanza di regolamentazioni per l'IA può creare incertezza sul mercato, minare la privacy e la sicurezza dei dati, perpetuare la discriminazione e rendere difficile l'attribuzione delle responsabilità (accountability) in caso di errori o danni. Sebbene non esista ancora una regolamentazione universale dell'IA, sempre più paesi e regioni stanno affrontando la questione, sviluppando leggi e regolamenti specifici o principi etici per guidarne lo sviluppo e l'uso. Ana Fernández, COO e responsabile delle questioni legali di Pangeanic, afferma che fermare lo sviluppo dell'IA permetterebbe in primo luogo di regolarne l'uso, consentendo di affrontare queste preoccupazioni e di sviluppare adeguate tutele etiche.
Infine, Manuel Herranz, CEO, aggiunge che, se vogliamo un prodotto etico, dobbiamo integrare l'etica nell'intero processo e non possiamo permettere che la ricerca dell'eccellenza ci porti a diventare un impero che costruisce monumenti sulle spalle degli schiavi.

