Subir material

Suba sus trabajos a SEDICI, para mejorar notoriamente su visibilidad e impacto

 

Mostrar el registro sencillo del ítem

dc.date.accessioned 2012-11-28T20:54:36Z
dc.date.available 2012-11-28T20:54:36Z
dc.date.issued 1998-11
dc.identifier.uri http://sedici.unlp.edu.ar/handle/10915/24832
dc.description.abstract En los últimos años, el interés por el concepto de Reinforcement Learning (RL) se ha incrementado en forma considerable dentro de la comunidad de investigadores de Machine Learning e Inteligencia Artificial en general. El principal motivo fue el suceso que los métodos de RL tuvieron en la resolución de problemas, que no lograban atacar en forma satisfactoria enfoques tradicionales como Programación Dinámica y aprendizaje supervisado (por ejemplo Redes Neuronales). RL ataca el problema de aprender a controlar agentes autónomos (como por ejemplo robots), mediante interacciones por prueba y error con un ambiente dinámico, el cual le provee señales de refuerzo por cada acción que realiza. La principal virtud de RL es que permite atacar el problema de la asignación de crédito temporal, el cual consiste en asignar un apropiado crédito o censura a las acciones individuales cuando el efecto o recompensa de dichas acciones es demorado hasta que una serie de acciones se han realizado. Los conceptos teóricos fundamentales de RL, como así también algunos de sus principales métodos son descriptos a modo de survey, dirigidos a aquellas personas que tienen interés en introducirse en este área. Se presenta un análisis comparativo de los resultados obtenidos mediante métodos libres de modelo (Q-Learning) y métodos que integran aprendizaje y planificación (Dyna-Q y Prioritized Sweeping), tomando como referencia los valores obtenidos con los métodos clásicos de Programación Dinámica (Value Iteration). También se analiza el problema conocido como el dilema de la exploración-explotación, ya que en RL es el agente quien controla la distribución de los ejemplos de entrenamiento, eligiendo la secuencia de acciones a tomar. Estos métodos se aplicaron a problemas del mundo de los laberintos, típicamente usados en el área. es
dc.language es es
dc.subject inteligencia artifícial es
dc.subject Learning es
dc.subject reinforcement learning es
dc.subject Collaborative learning es
dc.subject machine learning es
dc.subject ARTIFICIAL INTELLIGENCE es
dc.subject programación dinámica asincrónica es
dc.subject métodos libres de modelo es
dc.subject arquitecturas para aprendizaje y planeamiento es
dc.title Reinforcement learning: Un estudio comparativo de la performance de sus principales métodos es
dc.type Objeto de conferencia es
sedici.creator.person Crespo, María Liz es
sedici.creator.person Errecalde, Marcelo Luis es
sedici.creator.person Montoya, Cecilia Inés es
sedici.description.note Sistemas Inteligentes - Sesión de pósters es
sedici.subject.materias Ciencias Informáticas es
sedici.subject.materias Informática es
sedici.description.fulltext true es
mods.originInfo.place Red de Universidades con Carreras en Informática (RedUNCI) es
sedici.subtype Objeto de conferencia es
sedici.rights.license Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5)
sedici.rights.uri http://creativecommons.org/licenses/by-nc-sa/2.5/ar/
sedici.date.exposure 1998-10
sedici.relation.event IV Congreso Argentina de Ciencias de la Computación es
sedici.description.peerReview peer-review es


Descargar archivos

Este ítem aparece en la(s) siguiente(s) colección(ones)

Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5) Excepto donde se diga explícitamente, este item se publica bajo la siguiente licencia Creative Commons Attribution-NonCommercial-ShareAlike 2.5 Argentina (CC BY-NC-SA 2.5)