Busque entre los 168474 recursos disponibles en el repositorio
Mostrar el registro sencillo del ítem
dc.date.accessioned | 2023-12-28T14:05:10Z | |
dc.date.available | 2023-12-28T14:05:10Z | |
dc.date.issued | 2023-11-01 | |
dc.identifier.uri | http://sedici.unlp.edu.ar/handle/10915/162037 | |
dc.description.abstract | La rapidez con la que la cantidad y disponibilidad de información aumenta ha tenido fuerte impacto en el modo en que los investigadores la utilizan. Es habitual que un investigador lea, acceda y utilice información extraída de artículos de otros colegas. Hasta hace algunas décadas atrás, el requisito de originalidad y el proceso de revisión por pares eran elementos suficientes para certificar la calidad del material con el que se trabajaba. Sin embargo, esto cambió de manera radical con el surgimiento de la Internet y de sistemas con mayor grado de automatización para la publicación y evaluación de documentos científicos. Un estudio realizado a finales del 2018 sugiere que al menos 3 millones de artículos fueron publicados en ese año, en aproximadamente 33100 revistas científicas. La necesidad de determinar calidad e impacto de recursos científicos se traduce en lo que hoy vemos como sistemas de evaluación, indicadores y métricas de revistas y artículos. Si bien no son una herramienta automatizada en su totalidad, ni mucho menos estandarizada, estos elementos permiten tener valores concretos o numéricos que pueden dar (o aproximar) respuestas a preguntas como: este recurso ¿es de buena calidad?, ¿es de alto impacto?, ¿es útil?, ¿es válido? Lamentablemente, los sistemas, métricas e indicadores mencionados anteriormente no están exentos de subjetividad ni de sesgos. En consecuencia, actualmente los miembros de la comunidad académica y científica se enfrentan a una tarea ardua y engorrosa cuando deben determinar la calidad y el impacto de una publicación científica. Esta situación se debe a dos factores. En primer lugar, al crecimiento exponencial en la disponibilidad de recursos que tuvo el área debido al desarrollo tecnológico. En segundo lugar, la ausencia de estándares y la consecuente existencia de múltiples métricas y sistemas de evaluación que, aunque comparten objetivos, no siempre lo llevan a cabo de la misma manera. Es en este contexto donde surge la Herramienta para Evaluación de Recursos Académicos (HERA), una herramienta web que apunta a simplificar, agilizar y apoyar el proceso de determinar la calidad y el impacto de un recurso académico. Para ello, recopila información proveniente de diferentes bases de datos académicas (principalmente indicadores/métricas de calidad e impacto) en forma rápida, para luego ser exhibidas de forma integrada y amigable al usuario. | es |
dc.language | es | es |
dc.subject | Ciencia de la ciencia | es |
dc.subject | evaluación científica | es |
dc.subject | indicadores científicos | es |
dc.title | Herramienta para Evaluación de Recursos Académicos: estado actual y perspectivas a futuro | es |
dc.type | Reporte | es |
sedici.creator.person | Rucci, Enzo | es |
sedici.creator.person | Villarreal, Gonzalo Luján | es |
sedici.description.note | Informe técnico realizado en el contexto del Proyecto N° 1/22, EX-2022-137624407-APN-DDYGD#MCT: Cartografía de la evaluación académica en Argentina. Estado del arte y agenda de cambio institucional para una ciencia más abierta, inclusiva y socialmente relevante (UNCuyo). | es |
sedici.subject.materias | Informática | es |
sedici.description.fulltext | true | es |
mods.originInfo.place | Instituto de Investigación en Informática | es |
mods.originInfo.place | Dirección PREBI-SEDICI | es |
sedici.subtype | Reporte tecnico | es |
sedici.rights.license | Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0) | |
sedici.rights.uri | http://creativecommons.org/licenses/by-nc-sa/4.0/ |