Avec l'IA Générative basée sur les LLMs (Large Language Model), on permet à un modèle d'exécuter plusieurs tâches comme des résumés, des extractions de connaissance à partir d'un document ou un langage naturel. Les valeurs ajoutées sont nombreuses et pour citer quelques-unes comme dans le monde des TI: on pourrait, par exemple, accélérer la résolution d'incidents pour les applications d'affaires en permettant à une IA Générative de nous résumer de manière succincte le problème; nous proposer des solutions assez prometteuses, ou en améliorant davantage la gestion des plaintes clients dans les centres d'appels (banque, opérateurs de téléphonie mobiles etc.).
Pour arriver à cette fin, il faudrait entrainer ces modèles de fondation avec un large corpus de données d’origine diverses : Internet, les logs de système, les données de stack overflow, les données de finance...données qui viendront possiblement avec des grossièretés, obscénités, haine etc.
Alors qu'arrive t'il lorsque des compagnies utilisent des modèles de fondation dont l'origine des données ayant servies à entrainer lesdits modèles n'est point connue? Qu'arrive t'il lorsque le processus de collection, de validation etc. est une boite noire? Un modèle de fondation, dépendamment des données sur lesquelles il a été entrainé, fera toujours du "garbage in = garbage out et/ou quality in = quality out". En d'autres termes, la qualité de réponse d'un modèle de fondation dépendra de la qualité des données avec lesquelles il a été entrainé. Andrew Ng, professeur associé au département de science informatique de l'université Stanford, PDG et fondateur de LandingAI et Coursera, a longtemps milité pour l'adoption d'une culture Data-centric plus que Model-centric. Selon ce dernier, les entreprises devraient s'attacher à développer des pratiques d'ingénierie systématiques pour améliorer les données de manière fiable, efficace. Comment s'assurer alors que la solution que nous utilisons en entreprise ne fera pas des hallucinations ou n'utilisera pas des langages grossiers.
Chez IBM, nous avons opté pour la transparence, l'éthique et une gouvernance en choisissant de manière méticuleuse nos données qui serviront à l'entrainement de notre modèle de fondation appelé Granite.
Dans l'article de recherche "Granite Foundation Models" que nous avons publié récemment, notre modèle de fondation de base granite.13b (13 pour 13 milliards de paramètres), ainsi que ses variantes, granite.13b.instruct et granite.13b.chat, ont été entrainées sur un ensemble de données nettoyées par IBM Research. L’origine des données ayant servies à l’entrainement du modèle sont :
- Internet
- Académiques
- Code de programmation
- Légale
- Et Finance
Totalisant plus de 6 TB avant le nettoyage pour arriver à un peu plus de 2 TB après être passées par un processus de gouvernance. Voir tableau ci dessous:
Cas d'Utilisation pour les Entreprises
Les modèles Granite peuvent être adaptés pour une variété de tâches d'entreprise, telles que :
- Génération de Contenu et Résumé : Création de contenu et résumés automatiques, pertinents pour les domaines comme le marketing, la rédaction de rapports, les centres d’appels etc.
- Reconnaissance d'Entités Nommées et Extraction d'Insights : Identification d'entités spécifiques dans des textes et extraction de connaissances utiles pour des analyses plus poussées comme dans la résolution d’incident TI. Par exemple, Instana notre solution d'observabilité peut faire un appel API à watsonx.ai afin d’accélérer la résolution d’incidents et l’automatisation desdits incidents grâce à Granite.
- Classification : Catégorisation de textes et de données selon des critères prédéfinis, utile dans des contextes comme le service client ou la surveillance de la conformité.
IBM watsonx révolutionne l'IA d'Entreprise avec les modèles de fondation comme Granite mais également en intégrant dans sa plateforme des parties tierces comme Meta, Google tous offrant des modèles de fondation open-source avec Hugging Face. Voir la Liste des modèles de fondation disponibles dans watsonx.ai
Avec Granite en gros, ce sont :
• Des Données de Qualité pour une IA Fiable : IBM a développé les modèles Granite sur une base de données diversifiée et rigoureusement gouvernée, assurant la pertinence et la fiabilité pour les entreprises.
• Des Applications Polyvalentes : De la génération de contenu à la classification, en passant par la reconnaissance d'entités, Granite offre des solutions d'IA adaptées à divers besoins d'entreprise et ce peu importe l'industrie.
• Engagement envers l'Innovation Responsable : IBM montre la voie en matière de gouvernance des données et d'applications éthiques de l'IA, s'assurant que les technologies avancées bénéficient à tous de manière sécurisée et équitable.