Ask a question
Limited-Time Offer: 50% off IBM TechXchange Conference 2025
IBM’s largest technical learning event is back October 6-9 in Orlando, FL
I modelli linguistici di grandi dimensioni (LLMs) sono strumenti potenti, ma l'utilizzo di dati estratti dal web durante l'addestramento li espone al rischio di generare contenuti dannosi, come odio, abusi e volgarità (HAP). Nei sistemi che fanno RAG questo rischio si estende anche alla base documentale da cui i modelli attingono. Per affrontare il problema, è possibile filtrare i documenti prima che siano inseriti nel sistema o sanificare le risposte generate. Tuttavia, la semplice rimozione dei contenuti HAP può portare alla perdita di informazioni utili.
Una soluzione più avanzata consiste nel riformulare i contenuti problematici mantenendo il significato originale. Questo articolo descrive come identificare e trasformare tali contenuti usando il modello IBM Granite Guardian per la rilevazione e IBM Granite per la riformulazione. In questo modo, è possibile conservare l'integrità informativa della base documentale e garantire un uso responsabile dell'intelligenza artificiale.
https://medium.com/@matteo.rinalduzzi/enhancing-rag-systems-with-hap-language-filtering-a6aca56b5f80