Share to: share facebook share twitter share wa share telegram print page

 

BERT (model de llenguatge)

Model de transformador codificador-decodificador

Bidireccional Encoder Representations from Transformers (amb acrònim anglès BERT) és una tècnica d'aprenentatge automàtic basada en transformadors per l'àmbit de processament del llenguatge natural (NLP) desenvolupada per Google. BERT va ser creat i publicat el 2018 per Jacob Devlin i els seus col·legues de Google.[1][2] El 2019, Google va anunciar que havia començat a aprofitar BERT al seu motor de cerca i, a finals del 2020, estava utilitzant BERT en gairebé totes les consultes en anglès. Una enquesta de literatura del 2020 va concloure que "en poc més d'un any, BERT s'ha convertit en una línia de base omnipresent en experiments de NPL", comptant més de 150 publicacions de recerca que analitzen i milloren el model.[3]

El BERT original en anglès té dos models:[4] (1) el BERT BASE : 12 codificadors amb 12 capçals d'autoatenció bidireccional, i (2) el BERT LARGE : 24 codificadors amb 16 capçals d'autoatenció bidireccional. Tots dos models s'entrenen prèviament a partir de dades no etiquetades extretes del BooksCorpus [5] amb 800 milions de paraules i la Viquipèdia en anglès amb 2.500 milions de paraules.

BERT és en el seu nucli un model de llenguatge transformador amb un nombre variable de capes de codificació i capçals d'autoatenció. L'arquitectura és "gairebé idèntica" a la implementació original del transformador a Vaswani et al. (2017).[6]

BERT es va entrenar prèviament en dues tasques: modelatge del llenguatge (el 15% dels fitxes es van emmascarar i BERT es va entrenar per predir-los des del context) i predicció de la següent frase (BERT va ser entrenat per predir si una frase següent escollida era probable o no donava la primera frase). Com a resultat del procés de formació, BERT aprèn incrustacions contextuals de paraules. Després de la formació prèvia, que és computacionalment costosa, BERT es pot ajustar amb menys recursos en conjunts de dades més petits per optimitzar el seu rendiment en tasques específiques.[7]

Referències

  1. «BERT 101 - State Of The Art NLP Model Explained» (en anglès). https://huggingface.co.+[Consulta: 17 octubre 2022].
  2. «Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing» (en anglès). Google AI Blog. http://ai.googleblog.com.+[Consulta: 27 novembre 2019].
  3. Rogers, Anna; Kovaleva, Olga; Rumshisky, Anna Transactions of the Association for Computational Linguistics, 8, 2020, pàg. 842–866. arXiv: 2002.12327. DOI: 10.1162/tacl_a_00349.
  4. Devlin, Jacob; Chang, Ming-Wei; Lee, Kenton; Toutanova, Kristina «BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding». arXiv:1810.04805 [cs], 24-05-2019.
  5. Aligning Books and Movies: Towards Story-Like Visual Explanations by Watching Movies and Reading Books. 
  6. Attention Is All You Need. 
  7. Horev, Rani. «BERT Explained: State of the art language model for NLP» (en anglès). Towards Data Science. https://towardsdatascience.com,+2018.+[Consulta: 27 setembre 2021].
Kembali kehalaman sebelumnya


Index: pl ar de en es fr it arz nl ja pt ceb sv uk vi war zh ru af ast az bg zh-min-nan bn be ca cs cy da et el eo eu fa gl ko hi hr id he ka la lv lt hu mk ms min no nn ce uz kk ro simple sk sl sr sh fi ta tt th tg azb tr ur zh-yue hy my ace als am an hyw ban bjn map-bms ba be-tarask bcl bpy bar bs br cv nv eml hif fo fy ga gd gu hak ha hsb io ig ilo ia ie os is jv kn ht ku ckb ky mrj lb lij li lmo mai mg ml zh-classical mr xmf mzn cdo mn nap new ne frr oc mhr or as pa pnb ps pms nds crh qu sa sah sco sq scn si sd szl su sw tl shn te bug vec vo wa wuu yi yo diq bat-smg zu lad kbd ang smn ab roa-rup frp arc gn av ay bh bi bo bxr cbk-zam co za dag ary se pdc dv dsb myv ext fur gv gag inh ki glk gan guw xal haw rw kbp pam csb kw km kv koi kg gom ks gcr lo lbe ltg lez nia ln jbo lg mt mi tw mwl mdf mnw nqo fj nah na nds-nl nrm nov om pi pag pap pfl pcd krc kaa ksh rm rue sm sat sc trv stq nso sn cu so srn kab roa-tara tet tpi to chr tum tk tyv udm ug vep fiu-vro vls wo xh zea ty ak bm ch ny ee ff got iu ik kl mad cr pih ami pwn pnt dz rmy rn sg st tn ss ti din chy ts kcg ve 
Prefix: a b c d e f g h i j k l m n o p q r s t u v w x y z 0 1 2 3 4 5 6 7 8 9