Share to: share facebook share twitter share wa share telegram print page

 

GPT-2

GPT-2
Modifica el valor a Wikidata
Tipusmodel de llenguatge extens i transformadors generatius pre-entrenats Modifica el valor a Wikidata
Versió inicial14 febrer 2019 Modifica el valor a Wikidata
Versió estable
1558M (5 novembre 2019) Modifica el valor a Wikidata
Llicènciallicència MIT Modifica el valor a Wikidata
Equip
Desenvolupador(s)OpenAI Modifica el valor a Wikidata
Més informació
Lloc webopenai.com… (anglès) Modifica el valor a Wikidata


GPT-1 Modifica el valor a Wikidata
GPT-3 Modifica el valor a Wikidata
logo laboratori creador de GPT-2

GPT-2 (Generative Pre-trained Transformer 2) és un sistema que fa ús de la intel·ligència artificial per generar textos creada el febrer del 2019 per OpenAI, un laboratori de recerca impulsat per Elon Musk. Es tracta d'un sistema format per 1.5 bilions de paràmetres que generen text preveient paraula a paraula. D'aquesta manera, és capaç de traduir textos automàticament, respondre preguntes, resumir fragments de text... Aquest text que genera realment és extret d'unes 8 milions pàgines d'Internet, per la qual cosa compta amb un conjunt de dades d'uns 40GB de text per utilitzar.[1]

Limitacions

GPT-2 està dissenyat per generar text natural, completament coherent i gairebé indistingible d'aquell realitzat per humans, però així i tot s'han detectat una sèrie d'errors que el sistema presenta.

Si l'extensió d'un text és curta, previsiblement no s'hi podrà trobar cap error, però quan aquesta passa d'una pàgina, el sistema pot començar a fallar i a mostrar més errors com més llarg sigui el text.[2] El sistema pot començar a presentar repeticions excessives del text, canvis de tema antinaturals i errors factuals, així com descriure un incendi dins del mar, per exemple.[3]

Per una altra banda, el sistema està més familiaritzat amb els temes més habituals o usuals a la xarxa així com el Brexit o la Miley Cyrus, per la qual cosa és més probable que generi textos versemblants sobre aquests temes que no pas sobre termes més tècnics com la mecànica quàntica, per exemple.

Quant a la resposta de preguntes, The Register, una web sobre notícies tecnològiques, després d'analitzar minuciosament el sistema, va reconèixer que hi ha altres sistemes amb altres tipus d'algorismes que desenvolupen millor aquesta tasca.[4]

Polèmica

Aquest sistema pot ser utilitzar, d'entre altres coses, per crear fake news. N'és un exemple una notícia sobre el descobriment d'unicorns. El sistema de GPT-2 va completar la notícia (que havia estat generada manualment) amb informació fictícia, creant així una notícia que podia passar per real:

"Dr. Jorge Pérez, an evolutionary biologist from the University of La Paz, and several companions, were exploring the Andes Mountains when they found a small valley, with no other animals or humans. Pérez noticed that the valley had what appeared to be a natural fountain, surrounded by two peaks of rock and silver snow.

Pérez and the others then ventured further into the valley. “By the time we reached the top of one peak, the water looked blue, with some crystals on top,” said Pérez.

Pérez and his friends were astonished to see the unicorn herd. These creatures could be seen from the air without having to move too much to see them – they were so close they could touch their horns."

Fragment de la notícia del trobament d'unicorns generada per GPT-2[5]

Una demostració de com és de poderosa aquesta eina és The book of Veles. Jonas Bendiksen, un fotògraf noruec, va publicar un llibre amb textos i frases falses generades amb aquest sistema. El va alimentar amb articles en anglès sobre la indústria de les notícies falses de Veles. D'aquesta manera, GPT-2 va realitzar un gran assaig de 5.000 paraules i múltiples cites de manera completament autònoma, tot i que estan basades en frases de persones reals. D'aquesta mateixa forma, Bendiksen va introduir al sistema tot el Llibre de Veles, un llibre religiós dels pobles eslaus per obtenir moltes frases "antigues" per incloure-hi al llibre.[6]

Referències

  1. «GPT-2» (en castellà), 23-06-2020. [Consulta: 10 octubre 2021].
  2. Piper, Kelsey. «An AI helped us write this article» (en anglès), 14-02-2019. [Consulta: 10 octubre 2021].
  3. «Better Language Models and Their Implications» (en anglès), 14-02-2019. [Consulta: 10 octubre 2021].
  4. Quach, Katyanna. «Roses are red, this is sublime: We fed OpenAI's latest chat bot a classic Reg headline» (en anglès). [Consulta: 10 octubre 2021].
  5. «OpenAI finally releases “dangerous” language model GPT-2» (en anglès americà), 07-11-2019. [Consulta: 10 octubre 2021].
  6. reloj, Cartier Bresson no es un. «El gran engaño de 'The Book of Veles': el libro del fotógrafo de Magnum Jonas Bendiksen sacude el fotoperiodismo y la fotografía documental» (en castellà), 29-09-2021. [Consulta: 16 desembre 2021].

Enllaços externs

Kembali kehalaman sebelumnya


Index: pl ar de en es fr it arz nl ja pt ceb sv uk vi war zh ru af ast az bg zh-min-nan bn be ca cs cy da et el eo eu fa gl ko hi hr id he ka la lv lt hu mk ms min no nn ce uz kk ro simple sk sl sr sh fi ta tt th tg azb tr ur zh-yue hy my ace als am an hyw ban bjn map-bms ba be-tarask bcl bpy bar bs br cv nv eml hif fo fy ga gd gu hak ha hsb io ig ilo ia ie os is jv kn ht ku ckb ky mrj lb lij li lmo mai mg ml zh-classical mr xmf mzn cdo mn nap new ne frr oc mhr or as pa pnb ps pms nds crh qu sa sah sco sq scn si sd szl su sw tl shn te bug vec vo wa wuu yi yo diq bat-smg zu lad kbd ang smn ab roa-rup frp arc gn av ay bh bi bo bxr cbk-zam co za dag ary se pdc dv dsb myv ext fur gv gag inh ki glk gan guw xal haw rw kbp pam csb kw km kv koi kg gom ks gcr lo lbe ltg lez nia ln jbo lg mt mi tw mwl mdf mnw nqo fj nah na nds-nl nrm nov om pi pag pap pfl pcd krc kaa ksh rm rue sm sat sc trv stq nso sn cu so srn kab roa-tara tet tpi to chr tum tk tyv udm ug vep fiu-vro vls wo xh zea ty ak bm ch ny ee ff got iu ik kl mad cr pih ami pwn pnt dz rmy rn sg st tn ss ti din chy ts kcg ve 
Prefix: a b c d e f g h i j k l m n o p q r s t u v w x y z 0 1 2 3 4 5 6 7 8 9