IBM Canada watsonx User Group

 View Only

Fin de la récréation dans le domaine IA, place à une pratique fiable et éthique

By Alexandre Alle posted Tue August 20, 2024 10:08 AM

  

Les progrès en intelligence artificielle, notamment en lien avec l’avènement médiatique des applications utilisant de l’IA générative, ont permis d’ouvrir les consciences sur les enjeux de sécurité et d’éthique de ce champ en pleine expansion. Bien que le sujet ait été abordé depuis longtemps par des fournisseurs de solutions comme IBM et d’autres, c’est bien ce bond en avant que nous avons connus au cours des 3 dernières années qui a permis une réelle prise de conscience des gouvernements et des usagers quant aux risques inhérents à l’utilisation débridée de l’IA. Notamment en lien avec le caractère « boîte noire » des dernières avancées, ainsi que du fait que ces technologies aient été mises librement entre les mains d’usagers sans connaissance particulière dans le domaine, notamment une formation préalable aux questions d’éthique.

            Dans ce « far-west » qu’est encore l’intelligence artificielle dans de nombreux domaines, les zones grises sont nombreuses, les règles s’établissent au fur et mesure que les avancements s’enchaînent. Que ce soit au niveau de l’utilisation inappropriée de données personnelles, notamment socio-démographiques; du développement de modèles biaisés;  ou encore via l’utilisation de technologies non maîtrisées, qui ont parfois également un coût environnemental élevé; en somme les risques sont nombreux. En attendant la mise en place de régulations claires, les organisations touchant à l’IA de près ou de loin, doivent s’auto-réguler et mettre en place des processus et méthodes assurant une IA de qualité, en toute sécurité et respectant le cadre éthique clair.


Une telle pratique de l’intelligence artificielle est possible, et suit 3 dimensions majeures :

  • Gouvernance des données : gouvernez les données pour en suivre la traçabilité, comprendre leur qualité et contrôler leur accès, notamment aux champs sensibles, en les masquant au besoin, le tout en étant finalement disponible pour une utilisation libre-service permettant leur utilisation dans l’organisation.
  • Gouvernance des modèles : lister les modèles, leurs auteurs, les données associés. Mais aussi s’assurer de leur transparence, leur explicabilité ainsi que de leur absence de biais.
  • Processus cadres : assurer la cohérence, la transparence et la conformité tout au long du processus MLOps. Permettre aux équipes de risques et de cybersécurité de prendre part à l’effort IA en auditant les modèles.

Dans la pratique, 5 piliers sont à respecter lorsqu’on met en place une IA de confiance, piliers sur lesquels IBM a bâti ses produits et cadres de travail:

  • Transparence: ouvert à l’inspection.
  • Explicable : résultats et décisions faciles à comprendre.
  • Équitable : impartialité et partialité atténuée.
  • Robuste : gère efficacement les conditions exceptionnelles et minimise les risques de sécurité.
  • Privé : alimenté par des données de haute intégrité et conforme aux normes.

Les personnes impliquées, de près ou de loin dans le domaine de l’IA, et celui connexe de l’analytique avancée, sont de plus en plus éloignées des équipes historiques. Alors que l’IA et l’analytique avancée ont longtemps été cantonnées au développement et déploiement de modèles, donc liés aux équipes de science des données, notamment au Chief-Data-Officer (CDO); on voit de plus en plus l’implication des équipes de cybersécurité (liées au CISO) et de gestion du risque (via la CRO). Ce changement est majeur pour les praticiens, qui doivent livrer des projets de qualité, avec un bon retour sur investissement, mais aussi sûr du point de vue de la sécurité, et enfin n'exposant pas les données ou actifs de la compagnie.

Ces personnes se posent des questions de plus en plus complexes et stressantes dans certains cas :

·       Qui utilise des logiciels libres? Quelles librairies? Ces librairies sont-elles fiables?

·       Combien y a-t-il de modèles en production?

·       Quelles ont été les données utilisées pour ces modèles?

·       Ses données sont-elles fiables? Masquées? Non-biaisées?

·       Quelle est l’exposition au risque pour l’organisation?

·       Mes modèles sont-ils toujours performants en production?

·       Quels LLMs sont utilisés?

·       Nos utilisateurs exposent-ils des données confidentielles via des RAG?


Les équipes de recherche fondamentale (IBM Research) ainsi que de produit d’IBM, ont travaillé sur le sujet depuis plusieurs années et développé une série de processus cadres (en accès libre), ainsi que de produits (comme watsonx.gov), prêts à être utilisés par les chercheurs, entreprises et gouvernements, afin de s’assurer de créer de l’IA de qualité et sûre. Ces solutions automatisent de bout en bout les processus de MLops et gouvernance IA. Leurs routines permettent d’avoir une vue fiable sur le « footprint » IA dans l’organisation. Des rapports sont émis pour les preneurs de décision, renseignant sur l’exposition IA de l’organisation.


En conclusion, la vague IA n’est pas prête à s’arrêter, et nous devons tous changer nos pratiques afin de l’accompagner, et non la restreindre, en la gardant dans un cadre éthique et sécuritaire. Heureusement, des technologies comme watsonx.governance existent afin de faciliter la mission des différentes équipes liées de proche ou de loin à la gestion de l’IA des les organisations quelles soient privées ou publiques.

Voir watsonx.governance en actions :

https://mediacenter.ibm.com/media/Meet+watsonx.governance/1_72hhrkxl

Points clés :

  • La gouvernance en IA est impérative et non accessoire. Il n’y a jamais d’IA fiable, surtout sans avoir mis en place les différents cadres nécessaires comme la gouvernance des données et celle des modèles.
  • Les risques liés à une IA biaisée ou mal pensée sont majeurs, que ce soit en termes monétaires, d’éthique ou d’image.
  • Une IA éthique et sûre comporte 5 piliers majeurs : transparence, explicabilité, impartialité, robustesse et sécurité.
  • La mise en place de la gouvernance et de l’éthique en IA est grandement simplifiée par l’achat de solutions dédiées.

Conseil : il ne faut pas tarder à se pencher sur la question de l’éthique en IA dans votre organisation. Que ce soit via une simple rencontre interne d’alignement et de questionnement, ou par l’achat de solutions dédiées automatisant le tout pour vous. Les vendeurs comme IBM proposent d’ailleurs des projets gratuits de gouvernance pour vous aider en ce sens, et vous permettre de mettre un pied dans le domaine.

0 comments
4 views

Permalink