Share to: share facebook share twitter share wa share telegram print page

 

Transformador (model d'aprenentatge automàtic)

Arquitectura del model transformador

Un transformador és un model d'aprenentatge profund que adopta el mecanisme de l'autoatenció, ponderant de manera diferent la importància de cada part de les dades d'entrada. S'utilitza principalment en els camps del processament del llenguatge natural (PNL) i la visió per ordinador (CV).[1]

Igual que les xarxes neuronals recurrents (RNN), els transformadors estan dissenyats per processar dades d'entrada seqüencials, com el llenguatge natural, amb aplicacions a tasques com la traducció i el resum de text. Tanmateix, a diferència dels RNN, els transformadors processen tota l'entrada alhora. El mecanisme d'atenció proporciona context per a qualsevol posició de la seqüència d'entrada. Per exemple, si les dades d'entrada són una frase en llenguatge natural, el transformador les processa totes juntes. Això permet més paral·lelització que els RNN i, per tant, redueix els temps d'entrenament. Els transformadors van ser introduïts el 2017 per un equip de Google Brain i són cada cop més el model preferit per als problemes de PNL,[2] substituint els models RNN com la memòria a llarg termini (LSTM). La paral·lelització addicional de l'entrenament permet entrenar en conjunts de dades més grans. Això va conduir al desenvolupament de sistemes preentrenats com BERT (Bidirectional Encoder Representations from Transformers) i GPT (Generative Pre-Trained Transformer), que es van entrenar amb grans conjunts de dades d'idiomes, com ara el Corpus de la Viquipèdia i el Common Crawl, i que poden ser bons, ajustat a tasques específiques.[3][4]

El transformador ha tingut un gran èxit en el processament del llenguatge natural (NLP), per exemple les tasques de traducció automàtica i predicció de sèries temporals.[5] Molts models preentrenats com ara GPT-2, GPT-3, BERT, XLNet i RoBERTa demostren la capacitat dels transformadors per a realitzar una gran varietat d'aquestes tasques relacionades amb la PNL i tenen el potencial de trobar aplicacions del món real.[6][7][8]

El model de transformador s'ha implementat en plataformes estàndard d'aprenentatge profund com TensorFlow i PyTorch.

Referències

  1. He, Cheng. «Transformer in CV». Transformer in CV. Towards Data Science, 31-12-2021.
  2. Wolf, Thomas. «Transformers: State-of-the-Art Natural Language Processing». A: Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, 2020, p. 38–45. DOI 10.18653/v1/2020.emnlp-demos.6. 
  3. «Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing». Google AI Blog. [Consulta: 25 agost 2019].
  4. «Better Language Models and Their Implications». OpenAI, 14-02-2019. [Consulta: 25 agost 2019].
  5. Allard, Maxime. «What is a Transformer?» (en anglès). Medium, 01-07-2019. [Consulta: 21 octubre 2019].
  6. «Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing». Google AI Blog. [Consulta: 25 agost 2019].
  7. «Better Language Models and Their Implications». OpenAI, 14-02-2019. [Consulta: 25 agost 2019].
  8. Yang, Zhilin Dai, Zihang Yang, Yiming Carbonell, Jaime Salakhutdinov, Ruslan Le, Quoc V.. XLNet: Generalized Autoregressive Pretraining for Language Understanding, 2019-06-19. OCLC 1106350082. 
Kembali kehalaman sebelumnya


Index: pl ar de en es fr it arz nl ja pt ceb sv uk vi war zh ru af ast az bg zh-min-nan bn be ca cs cy da et el eo eu fa gl ko hi hr id he ka la lv lt hu mk ms min no nn ce uz kk ro simple sk sl sr sh fi ta tt th tg azb tr ur zh-yue hy my ace als am an hyw ban bjn map-bms ba be-tarask bcl bpy bar bs br cv nv eml hif fo fy ga gd gu hak ha hsb io ig ilo ia ie os is jv kn ht ku ckb ky mrj lb lij li lmo mai mg ml zh-classical mr xmf mzn cdo mn nap new ne frr oc mhr or as pa pnb ps pms nds crh qu sa sah sco sq scn si sd szl su sw tl shn te bug vec vo wa wuu yi yo diq bat-smg zu lad kbd ang smn ab roa-rup frp arc gn av ay bh bi bo bxr cbk-zam co za dag ary se pdc dv dsb myv ext fur gv gag inh ki glk gan guw xal haw rw kbp pam csb kw km kv koi kg gom ks gcr lo lbe ltg lez nia ln jbo lg mt mi tw mwl mdf mnw nqo fj nah na nds-nl nrm nov om pi pag pap pfl pcd krc kaa ksh rm rue sm sat sc trv stq nso sn cu so srn kab roa-tara tet tpi to chr tum tk tyv udm ug vep fiu-vro vls wo xh zea ty ak bm ch ny ee ff got iu ik kl mad cr pih ami pwn pnt dz rmy rn sg st tn ss ti din chy ts kcg ve 
Prefix: a b c d e f g h i j k l m n o p q r s t u v w x y z 0 1 2 3 4 5 6 7 8 9