Pot GPT-4 reduir el cost humà de la moderació del contingut?  OpenAI ho pensa


OpenAI va anunciar que ha desenvolupat un sistema d’IA que utilitza GPT-4 per ajudar amb la moderació de contingut a les plataformes en línia.

L’empresa diu que aquest sistema permet una iteració més ràpida dels canvis de política i un etiquetatge de contingut més coherent que la moderació tradicional dirigida per humans.

OpenAI va dir al seu anunci:

“La moderació del contingut té un paper crucial per mantenir la salut de les plataformes digitals. Un sistema de moderació de contingut que utilitza GPT-4 dóna lloc a una iteració molt més ràpida dels canvis de política, reduint el cicle de mesos a hores”.

Aquesta mesura té com a objectiu millorar la coherència en l’etiquetatge del contingut, accelerar les actualitzacions de polítiques i reduir la dependència dels moderadors humans.

També podria afectar positivament la salut mental dels moderadors humans, destacant el potencial de la IA per salvaguardar la salut mental en línia.

Reptes en la moderació de continguts

OpenAI va explicar que la moderació de contingut és un treball desafiant que requereix un esforç minuciós, una comprensió matisada del context i una adaptació contínua a nous casos d’ús.

Tradicionalment, aquestes tasques intensives en mà d’obra han recaigut en moderadors humans. Revisen grans volums de contingut generat pels usuaris per eliminar materials nocius o inadequats.

Això pot ser un treball mentalment imposant. Utilitzar IA per fer la feina podria reduir-se el cost humà de moderació de continguts en línia.

Com funciona el sistema d’IA d’OpenAI

El nou sistema d’OpenAI pretén ajudar els moderadors humans utilitzant GPT-4 per interpretar les polítiques de contingut i fer judicis de moderació.

Els experts en polítiques primer redacten directrius de contingut i etiqueten exemples que s’alineen amb la política.

A continuació, GPT-4 assigna les etiquetes als mateixos exemples sense veure les respostes del revisor.

En comparar les etiquetes de GPT-4 amb les etiquetes humanes, OpenAI pot refinar definicions de polítiques ambigües i tornar a entrenar l’IA fins que interpreti de manera fiable les directrius.

Exemple

En una publicació de bloc, OpenAI demostra com un revisor humà podria aclarir les polítiques quan no estiguin d’acord amb una etiqueta que GPT-4 assigna al contingut.

A l’exemple següent, un revisor humà va etiquetar alguna cosa K3 (promocionant danys no violents), però el GPT-4 va considerar que no infringia la política de comportament il·lícit.

Pot GPT-4 reduir el cost humà de la moderació del contingut?  OpenAI ho pensaCaptura de pantalla de: openai.com/blog/using-gpt-4-for-content-moderation, agost de 2023.

El fet que GPT-4 expliqui per què va triar una etiqueta diferent permet que el revisor humà entengui on les polítiques no estan clares.

Es van adonar que GPT-4 no tenia el matís que el robatori de propietats qualificaria com a promotor de danys no violents segons la política K3.

Aquesta interacció posa de manifest com la supervisió humana pot entrenar encara més els sistemes d’IA aclarint les polítiques en àrees on el coneixement de la IA és imperfecte.

Un cop s’entengui la política, es pot implementar GPT-4 per moderar el contingut a escala.

Beneficis destacats per OpenAI

OpenAI va descriure diversos avantatges que creu que proporciona el sistema de moderació assistida per IA:

  • Etiquetatge més coherent, ja que l’IA s’adapta ràpidament als canvis de polítiques
  • Bucle de retroalimentació més ràpid per millorar les polítiques, reduint els cicles d’actualització de mesos a hores
  • Reducció de la càrrega mental per als moderadors humans

Fins a aquest últim punt, OpenAI hauria de plantejar-se posar èmfasi en els possibles beneficis per a la salut mental de la moderació de la IA si vol que la gent doni suport a la idea.

L’ús de GPT-4 per moderar contingut en lloc d’éssers humans podria ajudar molts moderadors evitant-los que hagin de veure material traumàtic.

Aquest desenvolupament pot disminuir la necessitat que els moderadors humans intervinguin directament amb contingut ofensiu o nociu, reduint així la seva càrrega mental.

Limitacions i consideracions ètiques

Els judicis reconeguts d’OpenAI fets pels models d’IA poden contenir biaixos no desitjats, de manera que els resultats s’han de supervisar i validar. Va emfatitzar que els humans haurien de romandre “al corrent” dels casos complexos de moderació.

La companyia està explorant maneres de millorar les capacitats de GPT-4 i té com a objectiu aprofitar la IA per identificar els riscos de contingut emergents que poden informar noves polítiques.


Imatge destacada: sun ok/Shutterstock





Source link

Pot GPT-4 reduir el cost humà de la moderació del contingut? OpenAI ho pensa
A %d bloguers els agrada això: