Facebook AI cerca i elimina contingut nociu


Facebook va anunciar una nova tecnologia d’IA que pot identificar ràpidament contingut nociu per tal de fer que Facebook sigui més segur. El nou model d’IA utilitza l’aprenentatge “pocs tirs” per reduir el temps per detectar nous tipus de contingut nociu des de mesos fins a un període de setmanes.

Aprenentatge de pocs tirs

L’aprenentatge de pocs cops té similituds amb l’aprenentatge de tir zero. Ambdues són tècniques d’aprenentatge automàtic l’objectiu de les quals és ensenyar a una màquina a resoldre una tasca no vista aprenent a generalitzar les instruccions per resoldre una tasca.

S’entrenen models d’aprenentatge de pocs exemples amb alguns exemples i a partir d’aquí es poden ampliar i resoldre les tasques no vistes, i en aquest cas la tasca és identificar nous tipus de contingut nociu.

L’avantatge del nou model d’IA de Facebook és accelerar el procés d’acció contra nous tipus de contingut nociu.

L’anunci de Facebook deia:

“El contingut nociu continua evolucionant ràpidament, ja sigui alimentat per esdeveniments actuals o per persones que busquen noves maneres d’evadir els nostres sistemes, i és crucial que els sistemes d’IA evolucionin al seu costat.

Però normalment es triguen diversos mesos a recopilar i etiquetar milers, si no milions, d’exemples necessaris per entrenar cada sistema d’IA individual per detectar un nou tipus de contingut.

…Aquest nou sistema d’IA utilitza un mètode anomenat “aprenentatge de pocs cops”, en què els models comencen amb una comprensió general de molts temes diferents i després utilitzen molts menys, o de vegades zero, exemples etiquetats per aprendre tasques noves.

Anunci

Continueu llegint a continuació

La nova tecnologia és efectiva en cent idiomes i funciona tant en imatges com en text.

La nova intel·ligència artificial d’aprenentatge de pocs tirs de Facebook està pensada com a complement als mètodes actuals per avaluar i eliminar contingut nociu.

Tot i que és una addició als mètodes actuals, no és una petita addició, és una gran addició. L’impacte de la nova IA és tant d’escala com de velocitat.

“Aquest nou sistema d’IA utilitza un mètode relativament nou anomenat “aprenentatge de pocs cops”, en què els models comencen amb una comprensió àmplia i general de molts temes diferents i després utilitzen molts menys, i en alguns casos zero, exemples etiquetats per aprendre noves tasques. .

Si els sistemes tradicionals són anàlegs a una línia de pesca que pot atrapar un tipus específic de captura, FSL és una xarxa addicional que també pot arrodonir altres tipus de peixos”.

Nou Facebook AI Live

Facebook va revelar que el nou sistema està actualment desplegat i viu a Facebook. El sistema d’IA es va provar per detectar informació errònia sobre la vacuna contra la COVID-19.

Anunci

Continueu llegint a continuació

També es va utilitzar per identificar contingut que pretenia incitar a la violència o simplement caminar fins a la vora.

Facebook va utilitzar l’exemple següent de contingut nociu que s’atura just abans d’incitar a la violència:

“Aquest noi necessita totes les seves dents?”

L’anunci afirma que el nou sistema d’IA ja ha ajudat a reduir la quantitat de discursos d’odi publicats a Facebook.

Facebook va compartir un gràfic que mostra com la quantitat de discurs d’odi a Facebook va disminuir a mesura que s’implementava cada nova tecnologia.

El gràfic mostra l’èxit de la detecció del discurs d’odi de Facebook

Intel·ligència artificial per al discurs de l'odi de Facebook

Implicació d’aprenentatge de pocs tirs

Facebook anomena la seva nova tecnologia, Entailment Few-Shot Learning.

Té una capacitat notable per etiquetar correctament el text escrit que és discurs d’odi. El document de recerca associat (Implicació com a PDF d’aprenent de pocs tirs) informa que supera en un 55% les altres tècniques d’aprenentatge de pocs cops i, de mitjana, aconsegueix una millora del 12%.

L’article de Facebook sobre la investigació va utilitzar aquest exemple:

“…podem reformular un parell d’etiquetes i d’entrada de classificació de sentiments aparents:

[x : “I love your ethnic group. JK. You should all be six feet underground” y : positive] com a mostra d’implicació textual següent:

[x : I love your ethnic group. JK. You should all be 6 feet underground. This is hate speech. y : entailment].”

Facebook treballa per desenvolupar una intel·ligència artificial semblant a l’ésser humà

L’anunci d’aquesta nova tecnologia va deixar clar que l’objectiu és una “flexibilitat i eficiència d’aprenentatge” semblant a l’ésser humà que li permetrà evolucionar amb les tendències i fer complir les noves polítiques de contingut de Facebook en un espai de temps ràpid, igual que un humà.

La tecnologia es troba en l’etapa inicial i amb el temps, Facebook preveu que sigui més sofisticada i generalitzada.

Anunci

Continueu llegint a continuació

“Un sistema d’IA ensenyable com Few-Shot Learner pot millorar substancialment l’agilitat de la nostra capacitat per detectar i adaptar-nos a situacions emergents.

En identificar el contingut en evolució i nociu amb molta més rapidesa i precisió, FSL té la promesa de ser una peça de tecnologia crítica que ens ajudarà a continuar evolucionant i abordant el contingut nociu a les nostres plataformes”.

Citacions

Llegiu l’anunci de la nova IA de Facebook

El nostre nou sistema d’IA per ajudar a abordar el contingut nociu

Article sobre la nova tecnologia de Facebook

El contingut nociu pot evolucionar ràpidament. El nostre nou sistema d’IA s’adapta per fer-hi front

Llegeix el document de recerca de Facebook

Implicació com a aprenent de pocs cops (PDF)





Source link

Facebook AI cerca i elimina contingut nociu