Blog Viewer

Filtri HAP nei sistemi RAG: riformulare contenuti dannosi senza perdere informazioni preziose

By Matteo Rinalduzzi posted Thu October 03, 2024 07:59 AM

  

I modelli linguistici di grandi dimensioni (LLMs) sono strumenti potenti, ma l'utilizzo di dati estratti dal web durante l'addestramento li espone al rischio di generare contenuti dannosi, come odio, abusi e volgarità (HAP). Nei sistemi che fanno RAG questo rischio si estende anche alla base documentale da cui i modelli attingono. Per affrontare il problema, è possibile filtrare i documenti prima che siano inseriti nel sistema o sanificare le risposte generate. Tuttavia, la semplice rimozione dei contenuti HAP può portare alla perdita di informazioni utili.

Una soluzione più avanzata consiste nel riformulare i contenuti problematici mantenendo il significato originale. Questo articolo descrive come identificare e trasformare tali contenuti usando il modello IBM Granite Guardian per la rilevazione e IBM Granite per la riformulazione. In questo modo, è possibile conservare l'integrità informativa della base documentale e garantire un uso responsabile dell'intelligenza artificiale.

https://medium.com/@matteo.rinalduzzi/enhancing-rag-systems-with-hap-language-filtering-a6aca56b5f80

0 comments
6 views

Permalink