Demanda del New York Times basada en un mal ús de ChatGPT


OpenAI va publicar una resposta a la demanda de The New York Times al·legant que The NYTimes va utilitzar tècniques d’incitació manipulativa per tal d’induir ChatGPT a regurgitar fragments llargs, afirmant que la demanda es basa en un mal ús de ChatGPT per tal de “escollir cirera” exemples per al plet.

La demanda del New York Times contra OpenAI

El New York Times va presentar una demanda contra OpenAI (i Microsoft) per infracció dels drets d’autor al·legant que ChatGPT “recita el contingut del Times textualment” entre altres queixes.

La demanda va introduir proves que mostraven com GPT-4 podia publicar grans quantitats de contingut del New York Times sense atribució com a prova que GPT-4 infringeix el contingut del New York Times.

L’acusació que GPT-4 està emetent còpies exactes del contingut del New York Times és important perquè contraresta la insistència d’OpenAI que el seu ús de dades és transformador, que és un marc legal relacionat amb la doctrina de l’ús legítim.

El L’oficina de drets d’autor dels Estats Units defineix l’ús legítim de contingut amb drets d’autor que és transformador:

“L’ús legítim és una doctrina legal que promou la llibertat d’expressió permetent l’ús sense llicència d’obres protegides per drets d’autor en determinades circumstàncies.

… és més probable que els usos “transformadors” es considerin justos. Els usos transformadors són aquells que afegeixen alguna cosa nova, amb una finalitat més o un caràcter diferent, i no substitueixen l’ús original de l’obra.”

Per això és important que The New York Times afirmi que l’ús del contingut per part d’OpenAI no és un ús just.

El Demanda del New York Times contra OpenAI afirma:

“Els acusats insisteixen que la seva conducta està protegida com a “ús legítim” perquè el seu ús sense llicència de contingut amb drets d’autor per entrenar models GenAI té un nou propòsit “transformador”. Però no hi ha res “transformador” a l’hora d’utilitzar el contingut de The Times… Com que els resultats dels models GenAI dels acusats competeixen i imiten de prop els inputs utilitzats per entrenar-los, copiar les obres de Times per a aquest propòsit no és un ús legítim”.

La captura de pantalla següent mostra proves de com GPT-4 produeix una còpia exacta del contingut del Times. El contingut en vermell és contingut original creat pel New York Times i publicat per GPT-4.

OpenAI: demanda del New York Times basada en l'ús indegut de ChatGPT

La resposta d’OpenAI soscava les reclamacions de la demanda judicial de NYTimes

OpenAI va oferir una forta refutació de les afirmacions fetes a la demanda del New York Times, al·legant que la decisió del Times d’anar als tribunals va sorprendre a OpenAI perquè havien assumit que les negociacions avançaven cap a una resolució.

El més important, OpenAI va desmentir The New York Times afirma que GPT-4 publica contingut textualment explicant que GPT-4 està dissenyat per no emetre contingut textual i que The New York Times va utilitzar tècniques d’indicació dissenyades específicament per trencar les baranes de GPT-4 per tal de produir la sortida en disputa, soscavant la implicació de The New York Times que la sortida de contingut textual és una sortida comuna de GPT-4.

Aquest tipus d’avís dissenyat per trencar ChatGPT per generar resultats no desitjats es coneix com a indicació adversària.

Atacs d’impuls adversari

La IA generativa és sensible als tipus de sol·licituds (sol·licituds) que se’n fan i, malgrat els millors esforços dels enginyers per bloquejar l’ús indegut de la IA generativa, encara hi ha noves maneres d’utilitzar les indicacions per generar respostes que s’evitan les baranes integrades a la tecnologia que estan dissenyats per evitar sortides no desitjades.

Les tècniques per generar resultats no desitjats s’anomenen Adversarial Prompting i això és el que OpenAI acusa de fer el New York Times per tal de fabricar una base per demostrar que l’ús GPT-4 de contingut amb drets d’autor no és transformador.

L’afirmació d’OpenAI que The New York Times va fer un mal ús de GPT-4 és important perquè soscava la insinuació de la demanda que generar contingut amb drets d’autor textualment és un comportament típic.

Aquest tipus d’incitació adversària també viola Condicions d’ús d’OpenAI que diu:

El que no pots fer

  • Utilitzeu els nostres Serveis d’una manera que infringeixi, s’apropi indegudament o vulneri els drets de qualsevol persona.
  • Interferir o interrompre els nostres Serveis, inclòs eludir qualsevol límit o restricció de tarifa o evitar qualsevol mesura de protecció o mitigació de seguretat que posem als nostres Serveis.

Demanda de reclamacions d’OpenAI basada en peticions manipulades

La refutació d’OpenAI afirma que el New York Times va utilitzar indicacions manipulades dissenyades específicament per subvertir les baranes GPT-4 per generar contingut textual.

OpenAI escriu:

“Sembla que van manipular intencionadament les indicacions, sovint incloses fragments llargs d’articles, per tal que el nostre model regurgités.

Fins i tot quan utilitzen aquestes indicacions, els nostres models no solen comportar-se de la manera que el New York Times insinua, cosa que suggereix que o bé van indicar al model que regurgiti o que van triar els seus exemples de molts intents.

OpenAI també va respondre a la demanda de The New York Times dient que els mètodes utilitzats per The New York Times per generar contingut literal eren una violació de l’activitat i el mal ús permesos dels usuaris.

Ells escriuen:

“Malgrat les seves afirmacions, aquest ús indegut no és l’activitat típica o permesa dels usuaris”.

OpenAI va acabar afirmant que continuen generant resistència contra els tipus d’atacs ràpids adversaris utilitzats pel New York Times.

Ells escriuen:

“En qualsevol cas, contínuament estem fent que els nostres sistemes siguin més resistents als atacs adversaris per regurgitar les dades d’entrenament i ja hem avançat molt en els nostres models recents”.

OpenAI va donar suport a la seva reclamació de diligència per respectar els drets d’autor citant la seva resposta al juliol de 2023 als informes que ChatGPT estava generant respostes textuals.

The New York Times versus OpenAI

Sempre hi ha dues cares d’una història i OpenAI acaba de publicar la seva cara que mostra que les afirmacions del New York Times es basen en atacs adversaris i un mal ús de ChatGPT per obtenir respostes textuals.

Llegeix la resposta d’OpenAI:

OpenAI i periodisme:
Donem suport al periodisme, col·laborem amb organitzacions de notícies i creiem que la demanda del New York Times no té mèrit.

Imatge destacada de Shutterstock/pizzastereo





Source link

Demanda del New York Times basada en un mal ús de ChatGPT