Mètodes de gradient normatiu
classe d'algorismes d'aprenentatge per reforç From Wikipedia, the free encyclopedia
Remove ads
Els º són una classe d'algorismes d'aprenentatge de reforç.[1]
Els mètodes de gradient normatius són una subclasse de mètodes d'optimització de polítiques. A diferència dels mètodes basats en valors que aprenen una funció de valor per derivar una política, els mètodes d'optimització de polítiques aprenen directament una funció política. que selecciona accions sense consultar una funció de valor. Perquè s'apliqui el gradiennormatiu, la funció de política està parametritzat per un paràmetre diferenciable .[2]
Remove ads
Visió general
En la RL basada en polítiques, l'actor és una funció política parametritzada , on són els paràmetres de l'actor. L'actor pren com a argument l'estat de l'entorn i produeix una distribució de probabilitat .
Si l'espai d'acció és discret, aleshores . Si l'espai d'acció és continu, aleshores .
L'objectiu de l'optimització de polítiques és trobar-ne que maximitza la recompensa episòdica esperada : on és el factor de descompte, és la recompensa al pas , és l'estat inicial, i és l'horitzó temporal (que pot ser infinit).
El gradient de política es defineix com . Diferents mètodes de gradient de política estimen estocàsticament el gradient de política de diferents maneres. L'objectiu de qualsevol mètode de gradient de política és maximitzar iterativament per desnivell de pujada. Com que la part clau de qualsevol mètode de gradient de política és l'estimació estocàstica del gradient de política, també s'estudien sota el títol d'"Estimació del gradient de Monte Carlo".[3]
Remove ads
REFORÇ
Gradient polític
L'algoritme REINFORCE va ser el primer mètode de gradient de política.[4] Es basa en la identitat del gradient de la política que es pot millorar mitjançant el "truc de causalitat" [5] Lema — L'expectativa de la funció de puntuació és zero, condicionada a qualsevol estat present o passat. És a dir, per a qualsevol i qualsevol estat si, tenim A més, si és unavariable aleatòria que és independent de llavors
Així, tenim un estimador no esbiaixat del gradient de la política: on l'índex abasta trajectòries de desplegament utilitzant la política .
La funció de puntuació es pot interpretar com la direcció en l'espai de paràmetres que augmenta la probabilitat d'actuar en estat . El gradient de la política, doncs, és una mitjana ponderada de totes les direccions possibles per augmentar la probabilitat de prendre qualsevol acció en qualsevol estat, però ponderada per senyals de recompensa, de manera que si prendre una determinada acció en un estat determinat s'associa amb una recompensa alta, aleshores aquesta direcció es veuria molt reforçada, i viceversa.
Remove ads
Algorisme
L'algoritme REFORÇ és un bucle:
- Desplegament trajectòries en l'entorn, utilitzant com a funció política.
- Calculeu l'estimació del gradient de la política:
- Actualitzeu la política per ascens de gradient:
Aquí, és la taxa d'aprenentatge al pas d'actualització .
Remove ads
Gradient de política natural
El mètode del gradient de la política natural és una variant del mètode del gradient de la política, proposat per Sham Kakade l'any 2001.[6] A diferència dels mètodes estàndard de gradient de polítiques, que depenen de l'elecció dels paràmetres (fent que les actualitzacions depenguin de les coordenades), el gradient de política natural té com a objectiu proporcionar una actualització sense coordenades, geomètricament "natural".
Remove ads
Optimització de polítiques de regió de confiança (TRPO)
L'optimització de polítiques de la regió de confiança (TRPO) és un mètode de gradient de polítiques que amplia l'enfocament de gradient de política natural mitjançant l'aplicació d'una restricció de la regió de confiança a les actualitzacions de polítiques.[7] Desenvolupat per Schulman et al. el 2015, TRPO garanteix millores estables en les polítiques limitant la divergència de KL entre polítiques successives, abordant els reptes clau dels mètodes de gradient de polítiques naturals.
TRPO es basa en el gradient de política natural incorporant una restricció de regió de confiança. Si bé el gradient natural proporciona una direcció teòricament òptima, la cerca de línies de TRPO i la restricció KL mitiguen els errors de les aproximacions de Taylor, assegurant una millora monòtona de la política. Això fa que TRPO sigui més robust a la pràctica, especialment per a polítiques d'alta dimensió.
Remove ads
Optimització de polítiques proximals (PPO)
Una millora més és l'optimització de polítiques proximals (PPO), que evita fins i tot la informàtica i mitjançant una aproximació de primer ordre utilitzant relacions de probabilitat retallades.
Concretament, en lloc de maximitzar l'avantatge substitut sota una restricció de divergència KL, insereix directament la restricció a l'avantatge substitut: i PPO maximitza l'avantatge substitut mitjançant el descens de gradient estocàstic, com és habitual.
En paraules, el gradient ascendent de la nova funció d'avantatge substitutiva significa que, en algun estat , si l'avantatge és positiu: , llavors el gradient s'ha de dirigir cap a la direcció que augmenta la probabilitat de realitzar l'acció sota l'estat . Tanmateix, tan aviat com ha canviat tant que , aleshores el gradient hauria de deixar d'apuntar-lo en aquesta direcció. I de la mateixa manera si . Així, PPO evita pressionar massa l'actualització de paràmetres i evita canviar massa la política.
Remove ads
Referències
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads