Les 5 principals preocupacions ètiques plantejades pel pioner de l’IA Geoffrey Hinton


El pioner de la IA Geoffrey Hinton, conegut pel seu treball revolucionari en l’aprenentatge profund i la recerca de xarxes neuronals, ha expressat recentment les seves preocupacions pel que fa als avenços ràpids de la IA i les possibles implicacions.

A la llum de les seves observacions de nous models de llenguatge grans com GPT-4, Hinton adverteix sobre diversos problemes clau:

  1. Màquines que superen la intel·ligència humanaHinton creu que els sistemes d’IA com el GPT-4 estan en camí de ser molt més intel·ligents del que s’esperava inicialment, possiblement posseint millors algorismes d’aprenentatge que els humans.
  2. Riscos que els chatbots d’IA siguin explotats per “actors dolents”: Hinton destaca els perills d’utilitzar robots de xat intel·ligents per difondre informació errònia, manipular els electors i crear robots de correu brossa potents.
  3. Capacitats d’aprenentatge de pocs cops: els models d’IA poden aprendre noves tasques amb només uns quants exemples, cosa que permet a les màquines adquirir noves habilitats a un ritme comparable o fins i tot superior al dels humans.
  4. Risc existencial que representen els sistemes d’IAHinton adverteix sobre escenaris en què els sistemes d’IA creen els seus propis subobjectius i lluiten per obtenir més poder, superant les capacitats d’acumulació i intercanvi de coneixement humà.
  5. Impacte en els mercats de treball: La IA i l’automatització poden desplaçar llocs de treball en determinades indústries, amb la fabricació, l’agricultura i l’assistència sanitària especialment afectades.

En aquest article, aprofundim en les preocupacions d’Hinton, la seva sortida de Google per centrar-se en els aspectes ètics i de seguretat del desenvolupament d’IA i la importància del desenvolupament responsable de l’IA per configurar el futur de les relacions humans-IA.

La sortida de Hinton de Google i el desenvolupament ètic d’IA

En la seva recerca d’abordar les consideracions ètiques i de seguretat que envolten la IA, Hinton va decidir abandonar la seva posició a Google.

Això li permet la llibertat d’expressar obertament les seves preocupacions i participar en un treball més filosòfic sense les limitacions dels interessos corporatius.

Hinton afirma en un entrevista amb MIT Technology Review:

“Vull parlar de problemes de seguretat de la IA sense haver de preocupar-me de com interactua amb el negoci de Google. Mentre em pagui Google, no puc fer-ho”.

La marxa de Hinton marca un canvi en el seu enfocament cap als aspectes ètics i de seguretat de l’IA. Té com a objectiu participar activament en els diàlegs en curs sobre el desenvolupament i el desplegament responsables de l’IA.

Aprofitant la seva experiència i reputació, Hinton té la intenció de contribuir a desenvolupar marcs i directrius que abordin qüestions com ara el biaix, la transparència, la responsabilitat, la privadesa i l’adhesió als principis ètics.

GPT-4 i actors dolents

Durant a entrevista recent, Hinton va expressar la seva preocupació per la possibilitat que les màquines superin la intel·ligència humana. Les impressionants capacitats de GPT-4desenvolupat per OpenAI i llançat a principis d’aquest any, han fet que Hinton reavalués les seves creences anteriors.

Creu que els models de llenguatge com el GPT-4 estan en camí de ser molt més intel·ligents del que s’esperava inicialment, possiblement amb millors algorismes d’aprenentatge que els humans.

Hinton afirma a l’entrevista:

“Els nostres cervells tenen 100 bilions de connexions. Els grans models lingüístics tenen fins a mig bilió, un bilió com a màxim. No obstant això, GPT-4 sap centenars de vegades més que qualsevol persona. Així que potser en realitat té un algorisme d’aprenentatge molt millor que nosaltres.

Les preocupacions de Hinton giren principalment al voltant de les disparitats importants entre les màquines i els humans. Compara la introducció de grans models lingüístics amb una invasió alienígena, posant èmfasi en les seves habilitats i coneixements lingüístics superiors en comparació amb qualsevol individu.

Hinton afirma a l’entrevista:

“Aquestes coses són totalment diferents a les nostres. De vegades penso que és com si els extraterrestres haguessin aterrat i la gent no s’hagués adonat perquè parla molt bé anglès”.

Hinton adverteix sobre els riscos que els chatbots d’IA es tornin més intel·ligents que els humans i l’ésser explotat per “actors dolents”.

A l’entrevista, adverteix que aquests chatbots es podrien utilitzar per difondre desinformació, manipular els electors i crear potents robots de correu brossa.

“Mira, aquí hi ha una manera en què tot podria sortir malament. Sabem que moltes de les persones que volen utilitzar aquestes eines són actors dolents com Putin o DeSantis. Els volen utilitzar per guanyar guerres o manipular els electors”.

Aprenentatge de pocs cops i supremacia de la IA

Un altre aspecte que preocupa a Hinton és la capacitat de rendiment dels grans models lingüístics aprenentatge de pocs cops.

Aquests models es poden entrenar per realitzar tasques noves amb uns quants exemples, fins i tot tasques per a les quals no estaven entrenats directament.

Aquesta notable capacitat d’aprenentatge fa que la velocitat a la qual les màquines adquireixen noves habilitats sigui comparable, o fins i tot superi, la dels humans.

Hinton afirma a l’entrevista:

“Gent[‘s brains] semblava tenir algun tipus de màgia. Bé, la part inferior cau en aquest argument tan bon punt agafes un d’aquests grans models lingüístics i l’entrenes per fer alguna cosa nova. Pot aprendre noves tasques molt ràpidament”.

Les preocupacions d’Hinton van més enllà de l’impacte immediat en els mercats laborals i les indústries.

Ell aixeca el “risc existencial” del que passa quan els sistemes d’IA es tornen més intel·ligents que els humans, advertint sobre escenaris en què els sistemes d’IA creen els seus propis subobjectius i lluiten per obtenir més poder.

Hinton ofereix un exemple de com els sistemes d’IA que desenvolupen subobjectius poden anar malament:

“Bé, aquí hi ha un subobjectiu que gairebé sempre ajuda en biologia: obtenir més energia. Així que el primer que podria passar és que aquests robots diran: “Aconseguim més poder”. Desviem tota l’electricitat als meus xips. Un altre gran subobjectiu seria fer més còpies de tu mateix. Sona bé?”

Impacte de l’IA en els mercats laborals i abordar els riscos

Hinton ho assenyala Efecte de la IA en els llocs de treball és un significatiu preocupar-se.

La IA i l’automatització podrien fer-se càrrec de tasques repetitives i quotidianes, provocant la pèrdua de feina en alguns sectors.

Fabricació i els empleats de les fàbriques podrien ser molt afectats per l’automatització.

Els robots i les màquines impulsades per intel·ligència artificial estan creixent en la fabricació, la qual cosa podria assumir feines humanes arriscades i repetitives.

L’automatització també avança agriculturaamb tasques automatitzades com la sembra, la collita i el seguiment dels cultius.

En atenció sanitàriacertes tasques administratives es poden automatitzar, però és menys probable que les funcions que requereixen interacció humana i compassió siguin completament substituïdes per IA.

En resum

Les preocupacions de Hinton sobre els ràpids avenços de la IA i les seves possibles implicacions subratllen la necessitat d’un desenvolupament responsable de la IA.

La seva sortida de Google significa el seu compromís d’abordar les consideracions de seguretat, promoure el diàleg obert i donar forma al futur de la IA d’una manera que garanteixi el benestar de la humanitat.

Tot i que ja no és a Google, les contribucions i l’experiència de Hinton continuen jugant un paper vital a l’hora de donar forma al camp de la IA i guiar-ne el desenvolupament ètic.


Imatge destacada generada per l’autor mitjançant Midjourney





Source link

Les 5 principals preocupacions ètiques plantejades pel pioner de l’IA Geoffrey Hinton