Il GPT-4 non solo può essere utilizzato come strumento di moderazione dei contenuti, ma si dice anche che svolga alcuni compiti meglio degli esseri umani. Lo sviluppatore di GPT-4, OpenA, basa questa conclusione su un test interno.
OpenAI ha condotto uno studio interno sulle differenze tra il GPT-4 e i moderatori di contenuti umani. Ha scoperto che l’apprendimento di nuove regole di moderazione dei contenuti, la loro implementazione e l’estrazione di feedback per rendere più rigorose le regole è notevolmente più veloce utilizzando il GPT-4. Nel caso degli esseri umani, la moderazione può richiedere diversi mesi, mentre il modello AI riduce il tempo a poche ore, sottolinea OpenAI.
Tuttavia, il modello AI ha ancora un limite: può moderare meglio solo rispetto ai moderatori umani che hanno ricevuto una “formazione leggera”. I moderatori umani esperti e fortemente addestrati sono ancora migliori del GPT-4.
Fasi multiple
L’addestramento del GPT-4 per la moderazione dei contenuti prevede diverse fasi. Innanzitutto, è necessario creare un set di dati che contenga esempi di contenuti dannosi. Dopodiché, il modello AI deve essere istruito a etichettare ogni contenuto dannoso con un’etichetta che descriva perché viola le regole di moderazione. Inoltre, le etichette create dal GPT-4 devono essere controllate per verificare la presenza di errori e problemi.
Altri vantaggi
Oltre a eseguire la moderazione più velocemente, GPT-4 offre anche la possibilità di definire e rafforzare ulteriormente le regole. Quando il modello commette un errore di moderazione, può rivelare carenze nelle regole di moderazione. Ad esempio, se sono troppo vaghe.
Chiunque abbia accesso all’API GPT-4 può sviluppare un sistema di moderazione dei contenuti basato sulle informazioni dello studio.