Google sobre com Googlebot gestiona el contingut generat amb IA


A Martin Splitt de Google se li va preguntar com s’adaptava el rastreig i la representació de Googlebot a l’augment del contingut generat per IA.

La resposta de Martin va proporcionar informació sobre com gestiona Google el contingut generat amb IA i el paper del control de qualitat.

Representació de pàgines web de Googlebot

La representació de la pàgina web és el procés de creació de la pàgina web en un navegador baixant l’HTML, les imatges, el CSS i el JavaScript i després reunint-ho tot en una pàgina web.

El rastrejador de Google, Googlebot, també baixa els fitxers HTML, imatges, CSS i JavaScript per renderitzar la pàgina web.

Com gestiona Google el contingut generat amb IA

El context dels comentaris de Martin es trobava en un seminari web anomenat Exploring the Art of Rendering amb Martin Splitt de Google, que va ser produït per Duda.

Un dels membres del públic va fer la pregunta sobre si la gran quantitat de contingut d’IA va tenir un efecte en la capacitat de Google de representar pàgines en el punt de rastrejar.

Martin va oferir una explicació, però també va afegir informació sobre com decideix Google en el moment del rastreig si una pàgina web és de baixa qualitat i què fa Google després d’una determinació.

Ammon Johns va fer la pregunta, que va ser llegida per Ulrika Viberg.

Aquí està la pregunta:

“Per tant, també en tenim un d’Ammon, i d’això se’n parla molt.

Ho veig molt.

Van dir que la producció de contingut augmenta a causa de la IA, augmentant les càrregues de rastreig i renderització.

És probable que els processos de renderització s’hagin de simplificar?”

El que aparentment vol saber Ammon és si hi ha processos especials en resposta al contingut d’IA per fer front a l’augment de la càrrega de rastreig i renderització.

Martin Splitt va respondre:

“No, no ho crec, perquè la meva millor suposició és…”

A continuació, Martin aborda el problema evident del contingut d’IA que els SEO es pregunten, que l’està detectant.

Martin va continuar:

“Així que estem fent detecció de qualitat o control de qualitat en diverses etapes, i la majoria del contingut s****y no necessàriament necessita JavaScript per mostrar-nos com és d’enginy.

Per tant, si abans ens entendrem que és un contingut s****y, aleshores saltem la renderització, quin sentit té?

Si veiem, d’acord, això sembla absolut… podem estar molt segurs que això és una merda, i el JavaScript podria afegir més merda, després adéu.

Si és una pàgina buida, podríem dir que no ho sabem.

La gent normalment no posa pàgines buides aquí, així que almenys intentem renderitzar.

I aleshores, quan la renderització torna amb merda, estem com, sí, d’acord, prou just, això ha estat una merda.

Per tant, això ja està passant. Això no és una cosa nova.

La IA pot augmentar l’escala, però no canvia gaire. La renderització no és el culpable aquí”.

La detecció de qualitat s’aplica a la IA

Martin Splitt no va dir que Google sol·licitava la sol·licitud Detecció d’IA sobre el contingut.

Va dir que Google utilitzava la Detecció de qualitat en diverses etapes.

Això és molt interessant perquè Search Engine Journal va publicar un article sobre un algorisme de detecció de qualitat que també detecta contingut d’IA de baixa qualitat.

L’algorisme no s’ha creat per trobar contingut generat per màquina de baixa qualitat. Però van descobrir que l’algoritme ho va descobrir automàticament.

Molt sobre aquest algorisme fa un seguiment de tot el que Google va anunciar sobre el seu sistema de contingut útil dissenyat per identificar contingut escrit per persones.

Danny Sullivan va escriure sobre l’algoritme de contingut útil:

“…estem implementant una sèrie de millores a la Cerca per facilitar que la gent trobi contingut útil fet per i per a persones”.

Tanmateix, no només va mencionar contingut escrit per persones una vegada. El seu article que anunciava el sistema de contingut útil el va mencionar tres vegades.

L’algorisme va ser dissenyat per detectar contingut generat per màquina que també detecta contingut de baixa qualitat en general.

El treball de recerca es titula, Els models generatius són predictors no supervisats de la qualitat de la pàgina: un estudi a escala colossal.

En ella els investigadors observen:

“Aquest article planteja que els detectors entrenats per discriminar el text escrit per a persones i els escrits per màquina són predictors efectius de la qualitat del llenguatge de les pàgines web, superant un classificador de correu brossa supervisat de referència”.

Tornant al que va dir Martin Splitt:

“…estem fent detecció de qualitat o control de qualitat en diverses etapes…

Per tant, això ja està passant. Això no és una cosa nova.

La IA pot augmentar l’escala, però no canvia tant”.

El que sembla estar dient Martin és que:

  1. No s’aplica res de nou al contingut d’IA
  2. Google utilitza la detecció de qualitat tant per al contingut humà com per a l’IA

Mireu el seminari web de Duda amb Martin Splitt al minut 35:50:

Explorant l’art de renderitzar amb Martin Splitt de Google



Source link

Google sobre com Googlebot gestiona el contingut generat amb IA