Share to: share facebook share twitter share wa share telegram print page

 

Regularització (matemàtiques)

Les funcions verda i blava incorren en zero pèrdues en els punts de dades donats. Es pot induir un model après a preferir la funció verda, que es pot generalitzar millor a més punts extrets de la distribució desconeguda subjacent, ajustant , el pes del termini de regularització.

En matemàtiques, estadística, finances,[1] informàtica, particularment en aprenentatge automàtic i problemes inversos, la regularització és un procés que canvia la resposta del resultat per ser "més simple". Sovint s'utilitza per obtenir resultats per problemes mal plantejats o per evitar un sobreajust.[2]

Tot i que els procediments de regularització es poden dividir de moltes maneres, la delimitació següent és especialment útil:

  • La regularització explícita és regularització sempre que s'afegeix explícitament un terme al problema d'optimització. Aquests termes poden ser anteriors, penalitzacions o limitacions. La regularització explícita s'utilitza habitualment amb problemes d'optimització mal plantejats. El terme de regularització, o penalització, imposa un cost a la funció d'optimització per fer única la solució òptima.
  • La regularització implícita és totes les altres formes de regularització. Això inclou, per exemple, l'aturada anticipada, l'ús d'una funció de pèrdua robusta i l'eliminació dels valors atípics. La regularització implícita és essencialment omnipresent en els enfocaments moderns d'aprenentatge automàtic, inclòs el descens de gradient estocàstic per a l'entrenament de xarxes neuronals profundes i mètodes de conjunt (com boscos aleatoris i arbres augmentats amb gradients).[3]

En la regularització explícita, independentment del problema o model, sempre hi ha un terme de dades, que correspon a una probabilitat de la mesura i un terme de regularització que correspon a un a priori. En combinar ambdues utilitzant l'estadística bayesiana, es pot calcular una posterior, que inclou ambdues fonts d'informació i, per tant, estabilitza el procés d'estimació. Compartint ambdós objectius, es tria ser més addictiu a les dades o fer complir la generalització (per evitar un sobreajust). Hi ha tota una branca de recerca que s'ocupa de totes les regularitzacions possibles. A la pràctica, s'acostuma a provar una regularització específica i després es calcula la densitat de probabilitat que correspon a aquesta regularització per justificar l'elecció. També pot estar motivat físicament pel sentit comú o la intuïció.

En l'aprenentatge automàtic, el terme de dades correspon a les dades d'entrenament i la regularització és l'elecció del model o les modificacions a l'algorisme. Sempre es pretén reduir l'error de generalització, és a dir, la puntuació d'error amb el model entrenat en el conjunt d'avaluació i no les dades d'entrenament.[4]

Referències

  1. Kratsios, Anastasis . "Deep Arbitrage-Free Learning in a Generalized HJM Framework via Arbitrage-Regularization Data", 8, 2, 2020, pàg. [1]. DOI: 10.3390/risks8020040 [Consulta: lliure]. «Term structure models can be regularized to remove arbitrage opportunities [sic?].»
  2. Bühlmann, Peter. Statistics for High-Dimensional Data, 2011, p. 9 (Springer Series in Statistics). DOI 10.1007/978-3-642-20192-9. ISBN 978-3-642-20191-2. 
  3. Ye, Andre. «Exploring the Simple & Satisfying Math Behind Regularization» (en anglès). https://towardsdatascience.com/,+04-09-2020.+[Consulta: 15 agost 2023].
  4. «Deep Learning Book» (en anglès). www.deeplearningbook.org. [Consulta: 29 gener 2021].
Kembali kehalaman sebelumnya


Index: pl ar de en es fr it arz nl ja pt ceb sv uk vi war zh ru af ast az bg zh-min-nan bn be ca cs cy da et el eo eu fa gl ko hi hr id he ka la lv lt hu mk ms min no nn ce uz kk ro simple sk sl sr sh fi ta tt th tg azb tr ur zh-yue hy my ace als am an hyw ban bjn map-bms ba be-tarask bcl bpy bar bs br cv nv eml hif fo fy ga gd gu hak ha hsb io ig ilo ia ie os is jv kn ht ku ckb ky mrj lb lij li lmo mai mg ml zh-classical mr xmf mzn cdo mn nap new ne frr oc mhr or as pa pnb ps pms nds crh qu sa sah sco sq scn si sd szl su sw tl shn te bug vec vo wa wuu yi yo diq bat-smg zu lad kbd ang smn ab roa-rup frp arc gn av ay bh bi bo bxr cbk-zam co za dag ary se pdc dv dsb myv ext fur gv gag inh ki glk gan guw xal haw rw kbp pam csb kw km kv koi kg gom ks gcr lo lbe ltg lez nia ln jbo lg mt mi tw mwl mdf mnw nqo fj nah na nds-nl nrm nov om pi pag pap pfl pcd krc kaa ksh rm rue sm sat sc trv stq nso sn cu so srn kab roa-tara tet tpi to chr tum tk tyv udm ug vep fiu-vro vls wo xh zea ty ak bm ch ny ee ff got iu ik kl mad cr pih ami pwn pnt dz rmy rn sg st tn ss ti din chy ts kcg ve 
Prefix: a b c d e f g h i j k l m n o p q r s t u v w x y z 0 1 2 3 4 5 6 7 8 9