Le 29 mars 2023, dans une lettre ouverte adressée aux dirigeants politiques et aux chefs d'entreprise du monde entier, des figures marquantes du secteur technologique, notamment Elon Musk (cofondateur initial de l'entreprise technologique OpenAI en tant qu'organisation à but non lucratif), ont demandé une pause temporaire dans le développement effréné de l'Intelligence Artificielle (IA).
La lettre, signée par des experts en IA, dont des chercheurs, des professeurs d'université, des dirigeants d'entreprises technologiques et des philanthropes, souligne la nécessité de répondre aux préoccupations éthiques et sociales entourant l'IA avant de poursuivre son développement : « Les systèmes d'IA dotés d'une intelligence compétitive avec celle de l'homme peuvent présenter des risques profonds pour la société et l'humanité, comme le démontrent des recherches approfondies et comme le reconnaissent les principaux laboratoires d'IA », indique la lettre.
Parmi les problèmes signalés figurent le biais algorithmique, la confidentialité des données et la suppression potentielle d'emplois. Les signataires de la lettre soutiennent que l'IA peut avoir des conséquences imprévues et potentiellement préjudiciables si son développement se poursuit sans une surveillance adéquate.
L'IA a le potentiel d'améliorer nos vies, comme le fait l'ensemble des technologies, de nombreuses manières, des soins de santé à la conduite autonome. Cependant, comme le disent les experts, nous devons relever les défis qu'elle présente avant de continuer son développement.
La lettre souligne que l'Intelligence Artificielle possède un grand potentiel pour améliorer la vie des gens, mais qu'elle comporte également des risques importants. Nous devons nous assurer qu'elle se développe de manière éthique et responsable, avec une supervision adéquate et une attention constante à ses conséquences possibles. Elle conclut en demandant une pause temporaire dans son avancée, ce qui permettrait d'aborder ces préoccupations et de garantir que l'IA soit utilisée pour le bien commun.
Elle exhorte les dirigeants politiques et les chefs d'entreprise à traiter ces problèmes de manière sérieuse et urgente, et à travailler ensemble pour garantir que le développement de l'IA soit éthique, responsable et durable.
Selon les experts, suspendre le développement de l'IA permettrait aux professionnels d'approfondir les préoccupations éthiques et sociales entourant l'avancée de cette technologie et de garantir que son développement se fasse de manière éthique, responsable et durable. Cette action pourrait avoir des répercussions significatives sur l'avenir de la technologie et sur la manière dont elle est mise en œuvre dans la société.
À ce jour, suspendre temporairement le développement de l'IA pourrait entraîner un ralentissement dans le développement de nouvelles applications et technologies basées sur l'Intelligence Artificielle. Les grandes entreprises qui l'utilisent pourraient connaître une baisse en matière de développements innovants et de compétitivité.
D'un autre côté, comme le suggèrent les experts, une pause temporaire de l'IA peut apporter des avantages à long terme, tels qu'une recherche accrue dans le développement d'une technologie plus éthique et responsable. Cela pourrait entraîner des conséquences positives plus importantes pour la société, permettant de l'utiliser pour le bien commun et avec moins de risques.
Chez Pangeanic, nous mettons en œuvre depuis des années des processus d'Intelligence Artificielle de manière éthique et responsable dans nos opérations pour créer des solutions qui, combinées à l'ingéniosité humaine, soient disruptives afin de répondre aux besoins du marché et du public actuel.
Nous développons nos produits en nous adaptant constamment aux améliorations mondiales et aux nouvelles tendances du secteur technologique et du Traitement du Langage Naturel (TLN), ce qui nous permet de maintenir notre compétitivité grâce à l'innovation.
Bien que l'arrêt du développement de l'IA dans les grandes entreprises puisse avoir certains effets négatifs sur l'industrie de l'IA en général, cela pourrait également créer des opportunités pour les petites entreprises. Cependant, il est important de garder à l'esprit que la situation est complexe et que les effets peuvent varier selon l'industrie et le contexte spécifiques.
D'un point de vue technologique, notre CTO Amando Estela admet : « Il peut y avoir des dangers dans la recherche non modérée sur l'IA, mais suspendre la recherche me semble au moins tout aussi dangereux. Je ne suis pas favorable aux restrictions lorsque nous savons que certains acteurs ne respecteront pas les règles. »
L'IA est une technologie qui, comme d'autres, nous facilite la vie. « Je ne suis pas convaincu par la décision des entreprises technologiques d'arrêter temporairement le développement de l'intelligence artificielle pendant six mois. Cette décision pourrait suggérer que nous avançons trop vite dans le déploiement de technologies avancées d'IA qui, avec le temps, pourraient dépasser les capacités humaines. Cependant, je ne pense pas que ce soit le cas. Il est essentiel de tenir compte du fait que les modèles d'IA ne sont pas conçus pour remplacer les humains, mais pour les aider dans différentes tâches. Bien qu'ils excellent dans diverses tâches, ils manquent du raisonnement, de l'empathie et de la pensée critique propres aux humains », affirme Konstantinos Chatzitheodorou, Responsable du Machine Learning.
Vivre dans une société en perpétuel changement et en quête d'améliorations implique que nous ayons besoin de nous adapter. L'IA peut aider dans de nombreux emplois et en crée de nouveaux dans le but de nous être bénéfique. Comme le disent les experts, l'interruption de cette technologie pendant un certain temps peut provoquer un « stand-by » dans ces emplois encore immatures et pour lesquels les plus visionnaires commencent à se former. « Travailler dans une entreprise technologique vous oblige, d'une certaine manière, à vous tenir au courant des (r)évolutions technologiques et de leurs possibilités. Il est vrai que beaucoup de ces nouveaux outils facilitent le travail dans certains domaines et profils professionnels, mais nous ne devons pas cesser de les considérer comme tels, comme des "facilitateurs" et jamais comme des substituts, car l'ingéniosité et la créativité de l'être humain seront toujours nécessaires. Je ne pense pas qu'il y ait des emplois en danger, mais les règles vont changer et, dans certains cas, les fonctions seront redéfinies. Nous devons voir l'IA comme un soutien, et ne pas en abuser ni encore moins en dépendre, car si elle échoue, tout échouera avec elle », affirme notre responsable People & Culture, María Bodí.
Il faut tenir compte du fait que l'IA s'est développée très rapidement dans de nombreux domaines de la vie quotidienne et pose des défis éthiques, sociaux et juridiques. Ce dernier point entraîne un manque de responsabilité pour déterminer qui est responsable des dommages et des erreurs, ainsi que des problèmes de discrimination, de menace pour la vie privée et la sécurité des données... Notre Responsable du Département R&D, María Ángeles García, explique que ce que demande ce groupe d'experts est un peu utopique : « Cela me semble être la situation idéale et quelque chose d'indispensable à ce moment de l'histoire, mais je ne crois pas que cela sera réellement mis en œuvre. Personne ne contrôle ce que chaque personne recherche et, avec la fuite d'informations sur des modèles comme LLaMa, cette situation n'a fait qu'aggraver ce contrôle. »
D'autre part, la capacité croissante des systèmes d'intelligence artificielle contemporains à effectuer des tâches générales à un niveau compétitif humain soulève des questions importantes sur l'impact de l'IA sur la société. Devons-nous permettre aux machines de diffuser de la propagande et de fausses nouvelles via nos canaux d'information et de communication ? Devons-nous automatiser tous les emplois, y compris ceux qui apportent satisfaction et but ? Devons-nous développer des esprits non humains qui pourraient éventuellement remplacer les humains ? Ces questions et bien d'autres surgissent dans le contexte actuel et sont posées depuis des années, comme le dit Nikita Teslenko, Responsable Technique du Département Innovation. « Dans le but d'éviter des résultats catastrophiques, nous devons nous assurer que les puissants systèmes d'IA sont développés de manière responsable et transparente, avec des protocoles de sécurité solides et une supervision. »
Mais qui se charge de réguler ce que fait l'IA ? L'absence de réglementations pour l'IA peut créer une incertitude sur le marché, affecter la confidentialité et la sécurité des données, perpétuer la discrimination et compliquer la reddition de comptes en cas d'erreurs ou de dommages. Bien qu'il n'existe pas encore de réglementation universelle de l'IA, de plus en plus de pays et de régions abordent la question et élaborent des lois et des réglementations spécifiques ou des principes éthiques pour guider son développement et son utilisation. Ana Fernández, COO et responsable des affaires juridiques de Pangeanic, affirme qu'arrêter le développement de l'IA permettrait avant tout de réguler son utilisation et de permettre que ces préoccupations soient traitées et que des garde-fous éthiques adéquats soient développés.
Enfin, Manuel Herranz, CEO, ajoute que si nous voulons un produit éthique, nous devons le construire tout au long du processus et nous ne pouvons pas permettre que la recherche de l'excellence nous conduise à devenir un empire qui bâtit des monuments sur le dos d'esclaves.