TesisTesis de grado, de posgrado y trabajos finaleshttp://sedici.unlp.edu.ar:80/handle/10915/372024-03-19T03:39:28Z2024-03-19T03:39:28ZMalware Information Sharing Platform y su integración a CERTUNLPMaddalena Kreff, Pablo Germánhttp://sedici.unlp.edu.ar:80/handle/10915/1635042024-03-06T20:12:34Z2024-01-01T00:00:00ZTesis de grado
Venosa, Paula
Licenciado en Sistemas; Universidad Nacional de La Plata
La investigación aplicada se centra en la investigación e implementación de una plataforma que permite compartir
indicadores de compromiso entre organizaciones. El objetivo principal es mejorar la colaboración y la comunicación entre las organizaciones, permitiendo un intercambio eficiente de información relevante.
Director profesional: Mateo Durante; Programa de Apoyo al Egreso para Alumnos con Práctica Profesional Supervisada
2024-01-01T00:00:00ZLa investigación aplicada se centra en la investigación e implementación de una plataforma que permite compartir
indicadores de compromiso entre organizaciones. El objetivo principal es mejorar la colaboración y la comunicación entre las organizaciones, permitiendo un intercambio eficiente de información relevante.Calidad de sensado y eficiencia energética en redes de sensores inalámbricos (WSN)Philco Asqui, Luis Orlandohttp://sedici.unlp.edu.ar:80/handle/10915/1624742024-02-09T04:09:11Z2023-01-01T00:00:00ZTesis de doctorado
Marrone, Luis Armando
Doctor en Ciencias Informáticas; Universidad Nacional de La Plata
En las redes de sensores inalámbricos (WSN), con despliegues aleatorios se producen agujeros de cobertura y mayormente originan zonas desatendidas (sin cobertura) y ocasionan errores entre los datos recolectados del nodo sensor. Para adquirir datos con precisión, es posible que sea necesario colocar sensores en ubicaciones específicas, pero en despliegues realistas esto no sucede así. Los datos son el puente entre la red y el mundo físico, y la calidad de los datos tiene un impacto importante en la aplicación.
Cuando el conjunto de datos no es confiable debido a numerosos errores en la red es necesario mejorar la calidad de los datos. Los errores entre los datos aparecen de diferentes modos, por ejemplo, la pérdida de datos por distancia indebida en ubicación entre los nodos para su comunicación, la falla o caída de datos debido a retrasos en la transmisión. Entonces se requiere que los datos se entreguen a la estación base o nodo sumidero sin ninguna pérdida de información, sin embargo, el conjunto de datos recopilado por el nodo sumidero puede dar lugar a la vez a estos errores antes mencionados. Estos problemas causan consumos de energía desequilibrados y acortan significativamente la vida útil de la red.
Las WSN operan muchas veces en un modo desatendido y, en muchos escenarios de difícil acceso, por aquello es imposible reemplazar la batería inservible del nodo después del despliegue. Un nodo sensor muere por el agotamiento prematuro de la energía en su batería y producirá en una región específica, la partición de la red o crea huecos de energía. Esto en la literatura científica se denomina agujeros de cobertura. Esto se define como la cantidad del área dentro del campo o región de interés que no está cubierta por ningún sensor ‘vivo’. Los agujeros también pueden ser creados por las operaciones dinámicas de los nodos sensores con movilidad.
Los agujeros de cobertura definitivamente aparecen en escenarios con despliegue realistas de los nodos, por lo tanto, la calidad del sensado de los datos dan como efecto una WSN con derroche de energía o elevado costo energético. Para este autor el diseño de estrategias de calidad de sensado para objetivos móviles en WSN tanto en topología estrella, malla y de tipo árbol es la motivación de esta tesis doctoral. La metodología de esta tesis tiene enfoque: cuantitativo de tipo pre experimental (basada en la simulación y resultados). Como métodos de investigación: descriptiva (teoría), explorativa (simulación) y explicativa (resultados).
Se plantean dos aportaciones; la primera destinada a una WSN con topología estrella y malla con despliegue aleatorio y con un sumidero estático y recopilación de datos utilizando un enfoque basado en nodos estático y movilidad de algunos nodos. Mediante un esquema de cuatro fases o niveles por cada fase hay un algoritmo que mejoran la calidad de sensado y se complementan con un óptimo enrutamiento entre los nodos. La segunda aportación es un mecanismo por aprendizaje de refuerzo habilitado por agentes inteligentes en topología de clústeres desiguales que por esta condición las operaciones de los nodos mayormente son dinámicas. Para la calidad de sensado se empleó métricas como tasa de cobertura, número de nodos muertos. Además de métricas de enrutamiento como throughput, retardo de paquetes, de tal forma que involucrando la calidad de sensado más técnicas eficientes de ruteo se alcance un consumo de energía eficiente para todos los nodos de la red.
2023-01-01T00:00:00ZEn las redes de sensores inalámbricos (WSN), con despliegues aleatorios se producen agujeros de cobertura y mayormente originan zonas desatendidas (sin cobertura) y ocasionan errores entre los datos recolectados del nodo sensor. Para adquirir datos con precisión, es posible que sea necesario colocar sensores en ubicaciones específicas, pero en despliegues realistas esto no sucede así. Los datos son el puente entre la red y el mundo físico, y la calidad de los datos tiene un impacto importante en la aplicación.
Cuando el conjunto de datos no es confiable debido a numerosos errores en la red es necesario mejorar la calidad de los datos. Los errores entre los datos aparecen de diferentes modos, por ejemplo, la pérdida de datos por distancia indebida en ubicación entre los nodos para su comunicación, la falla o caída de datos debido a retrasos en la transmisión. Entonces se requiere que los datos se entreguen a la estación base o nodo sumidero sin ninguna pérdida de información, sin embargo, el conjunto de datos recopilado por el nodo sumidero puede dar lugar a la vez a estos errores antes mencionados. Estos problemas causan consumos de energía desequilibrados y acortan significativamente la vida útil de la red.
Las WSN operan muchas veces en un modo desatendido y, en muchos escenarios de difícil acceso, por aquello es imposible reemplazar la batería inservible del nodo después del despliegue. Un nodo sensor muere por el agotamiento prematuro de la energía en su batería y producirá en una región específica, la partición de la red o crea huecos de energía. Esto en la literatura científica se denomina agujeros de cobertura. Esto se define como la cantidad del área dentro del campo o región de interés que no está cubierta por ningún sensor ‘vivo’. Los agujeros también pueden ser creados por las operaciones dinámicas de los nodos sensores con movilidad.
Los agujeros de cobertura definitivamente aparecen en escenarios con despliegue realistas de los nodos, por lo tanto, la calidad del sensado de los datos dan como efecto una WSN con derroche de energía o elevado costo energético. Para este autor el diseño de estrategias de calidad de sensado para objetivos móviles en WSN tanto en topología estrella, malla y de tipo árbol es la motivación de esta tesis doctoral. La metodología de esta tesis tiene enfoque: cuantitativo de tipo pre experimental (basada en la simulación y resultados). Como métodos de investigación: descriptiva (teoría), explorativa (simulación) y explicativa (resultados).
Se plantean dos aportaciones; la primera destinada a una WSN con topología estrella y malla con despliegue aleatorio y con un sumidero estático y recopilación de datos utilizando un enfoque basado en nodos estático y movilidad de algunos nodos. Mediante un esquema de cuatro fases o niveles por cada fase hay un algoritmo que mejoran la calidad de sensado y se complementan con un óptimo enrutamiento entre los nodos. La segunda aportación es un mecanismo por aprendizaje de refuerzo habilitado por agentes inteligentes en topología de clústeres desiguales que por esta condición las operaciones de los nodos mayormente son dinámicas. Para la calidad de sensado se empleó métricas como tasa de cobertura, número de nodos muertos. Además de métricas de enrutamiento como throughput, retardo de paquetes, de tal forma que involucrando la calidad de sensado más técnicas eficientes de ruteo se alcance un consumo de energía eficiente para todos los nodos de la red.Construyendo esperanza desde el mismísimo infierno: Sistema de administración y comercialización para un almacén carcelarioBernardi, Andréshttp://sedici.unlp.edu.ar:80/handle/10915/1622372024-02-02T20:10:02Z2023-01-01T00:00:00ZTesis de grado
Banchoff Tzancoff, Claudia Mariana; Queiruga, Claudia Alejandra
Licenciado en Sistemas; Universidad Nacional de La Plata
La irrupción de la pandemia de COVID-19 reestructuró toda la forma de vida y de organización social conocida hasta entonces y la situación carcelaria no fue la excepción. La autorización del uso de teléfonos móviles e Internet, junto con el nacimiento del Almacén Liberté dentro de la Unidad Penal N° 15 de Batán fueron avance hacia la restitución de derechos de las personas privadas de la libertad. En el presente trabajo de tesis de grado se desarrolló la herramienta Dignité, basada en tecnologías libres y de código fuente abierto que organiza, agiliza y facilita las tareas que llevan adelante los trabajadores del Almacén Social Liberté, el primer almacén que se desarrolla en un contexto de encierro en Argentina.
Asesor profesional: Fernando Ávila
2023-01-01T00:00:00ZLa irrupción de la pandemia de COVID-19 reestructuró toda la forma de vida y de organización social conocida hasta entonces y la situación carcelaria no fue la excepción. La autorización del uso de teléfonos móviles e Internet, junto con el nacimiento del Almacén Liberté dentro de la Unidad Penal N° 15 de Batán fueron avance hacia la restitución de derechos de las personas privadas de la libertad. En el presente trabajo de tesis de grado se desarrolló la herramienta Dignité, basada en tecnologías libres y de código fuente abierto que organiza, agiliza y facilita las tareas que llevan adelante los trabajadores del Almacén Social Liberté, el primer almacén que se desarrolla en un contexto de encierro en Argentina.Desarrollo de herramienta para la prevención de Smells de UX en prototipos tempranosFarinella, RobertinoFuentes, Agustín Ezequielhttp://sedici.unlp.edu.ar:80/handle/10915/1622362024-02-02T20:10:06Z2023-01-01T00:00:00ZTesis de grado
Garrido, Alejandra; Rodríguez, Andrés Santiago
Licenciado en Sistemas; Universidad Nacional de La Plata
El desarrollo de software se destaca por la adopción generalizada de metodologías ágiles. Estas metodologías aceleran la entrega de valor al cliente, mejorando la eficiencia y velocidad del equipo de trabajo. Sin embargo, esta evolución constante a menudo lleva a la falta de tiempo para detallar el diseño propuesto, generando conflictos y "malos olores" de diseño. Para abordar estos desafíos, se realizó un plugin de Figma que brinde orientación a los diseñadores y mejore la especificación del prototipo, evitando ambigüedades y Smells de UX. El objetivo es facilitar la colaboración entre diseñadores y desarrolladores en un contexto ágil.
2023-01-01T00:00:00ZEl desarrollo de software se destaca por la adopción generalizada de metodologías ágiles. Estas metodologías aceleran la entrega de valor al cliente, mejorando la eficiencia y velocidad del equipo de trabajo. Sin embargo, esta evolución constante a menudo lleva a la falta de tiempo para detallar el diseño propuesto, generando conflictos y "malos olores" de diseño. Para abordar estos desafíos, se realizó un plugin de Figma que brinde orientación a los diseñadores y mejore la especificación del prototipo, evitando ambigüedades y Smells de UX. El objetivo es facilitar la colaboración entre diseñadores y desarrolladores en un contexto ágil.Análisis y prototipado de un componente de visualización para usuarios finales en el marco de una herramienta de autor para recolección y análisis de datos: Un caso de estudio con perspectiva de géneroRodríguez Pau, LolaAcha Altamiranda, Pilarhttp://sedici.unlp.edu.ar:80/handle/10915/1622342024-02-02T20:10:10Z2023-01-01T00:00:00ZTesis de grado
http://sedici.unlp.edu.ar/handle/10915/116617
Bazán, Patricia Alejandra; Lliteras, Alejandra Beatriz
Licenciado en Sistemas; Universidad Nacional de La Plata
Este proyecto surge como extensión del proyecto "DEHIA: Una plataforma liviana para definir y ejecutar actividades con intervención humana basada en workflows" (ver "Documentos relacionados"), tesina de grado de José Arcidiacono (Arcidiacono, 2020), en el cual se presenta una aplicación web que permite a usuarios finales definir actividades que requieren de la intervención humana con el fin de realizar recolección y análisis de datos, así como una aplicación móvil para ejecutar dichas actividades.
2023-01-01T00:00:00ZEste proyecto surge como extensión del proyecto "DEHIA: Una plataforma liviana para definir y ejecutar actividades con intervención humana basada en workflows" (ver "Documentos relacionados"), tesina de grado de José Arcidiacono (Arcidiacono, 2020), en el cual se presenta una aplicación web que permite a usuarios finales definir actividades que requieren de la intervención humana con el fin de realizar recolección y análisis de datos, así como una aplicación móvil para ejecutar dichas actividades.Integración de bases de datos bioinformáticas a la plataforma Multiomix, para mejorar la interpretación de potencíales biomarcadores oncológicosBebczuk, Francohttp://sedici.unlp.edu.ar:80/handle/10915/1622312024-02-02T20:10:14Z2023-01-01T00:00:00ZTesis de grado
Pons, Claudia Fabiana
Licenciado en Sistemas; Universidad Nacional de La Plata
En el marco de la plataforma Multiomix,que tiene por objetivo acelerar la identificación y validación de biomarcadores en cáncer, el presente trabajo resolvió la necesidad de que los investigadores (usuarios de Multiomix) puedan disponer de información médica y molecular detallada durante la interpretación de los hallazgos. Esta etapa de interpretación es clave como complemento de los tests estadísticos que ofrece la plataforma. Para abordar este trabajo, se investigaron diferentes bases de datos y aplicaciones bioinformáticas como Gene Ontology, PharmGKB, STRING y Drugbank, para luego realizar la descarga, curación, transformación de la estructura para optimizar los accesos requeridos y exposición de la funcionalidad a través de una API.
Asesor profesional: Matías Butti
2023-01-01T00:00:00ZEn el marco de la plataforma Multiomix,que tiene por objetivo acelerar la identificación y validación de biomarcadores en cáncer, el presente trabajo resolvió la necesidad de que los investigadores (usuarios de Multiomix) puedan disponer de información médica y molecular detallada durante la interpretación de los hallazgos. Esta etapa de interpretación es clave como complemento de los tests estadísticos que ofrece la plataforma. Para abordar este trabajo, se investigaron diferentes bases de datos y aplicaciones bioinformáticas como Gene Ontology, PharmGKB, STRING y Drugbank, para luego realizar la descarga, curación, transformación de la estructura para optimizar los accesos requeridos y exposición de la funcionalidad a través de una API.Desarrollo de una plataforma web para eSports orientada a la gestión de competencias y al entrenamiento competitivoHandula, Lorenzohttp://sedici.unlp.edu.ar:80/handle/10915/1622282024-02-03T04:08:12Z2023-01-01T00:00:00ZTesis de grado
Sanz, Cecilia Verónica; Iglesias, Luciano
Licenciado en Sistemas; Universidad Nacional de La Plata
Esta tesina de grado se enfoca en una exploración del mundo de los eSports, desde su conceptualización y comparación con los deportes tradicionales hasta su intersección con la educación y la tecnología. A través de este enfoque multidisciplinario, se ofrece una compresión integral del fenómeno. El aporte principal es el diseño y desarrollo de una plataforma para la gestión de competencias y para el entrenamiento individual y grupal de los jugadores, atendiendo a los diferentes roles que intervienen. A partir de su uso y sesiones de prueba, se logró identificar opiniones positivas y de aceptación hacia la propuesta realizada.
2023-01-01T00:00:00ZEsta tesina de grado se enfoca en una exploración del mundo de los eSports, desde su conceptualización y comparación con los deportes tradicionales hasta su intersección con la educación y la tecnología. A través de este enfoque multidisciplinario, se ofrece una compresión integral del fenómeno. El aporte principal es el diseño y desarrollo de una plataforma para la gestión de competencias y para el entrenamiento individual y grupal de los jugadores, atendiendo a los diferentes roles que intervienen. A partir de su uso y sesiones de prueba, se logró identificar opiniones positivas y de aceptación hacia la propuesta realizada.Framework para la explotación de procedimientos semánticos para navegadores de RABecerra, Martín Ezequielhttp://sedici.unlp.edu.ar:80/handle/10915/1620072023-12-28T04:08:02Z2023-01-01T00:00:00ZTesis de doctorado
Ierache, Jorge Salvador; Abásolo Guerrero, María José
Doctor en Ciencias Informáticas; Universidad Nacional de La Plata
En la última década la Realidad Aumentada (RA), una tecnología que avanza fuertemente revolucionando a las tecnologías de la información, particularmente en el contexto 4.0, ha logrado expandirse a diferentes campos de aplicación como, turismo, el entretenimiento, la industria, la salud y la mercadotecnia. Este avance provocó la necesidad de establecer un acceso a datos estandarizados para lograr una interoperabilidad semántica de datos independientemente de la aplicación que la genere. Surgieron propuestas que integran los estándares de web semántica para lograr este propósito, por lo que emerge un nuevo desafío para lograr que estos contenidos virtuales sean utilizados por el usuario en sus rutinas diarias.
En este orden, se presenta como resultado de la investigación del presente trabajo de tesis un framework para navegadores de Realidad aumentada que aporta una interacción dinámica a los usuarios a través de procedimientos interoperables semánticos reusables compuestos por un conjunto de acciones a realizar en un entorno enriquecido por tecnologías de realidad aumentada.
La capacidad presentada en esta tesis impactará en diversas áreas, por ejemplo, en contextos 4.0, en casos de uso como la creación de una secuencia de tareas a realizar por de un operador inteligente en su puesto en una Smart factory o en la aumentación de tareas por hacer con un dispositivo/equipo IoT de la planta, como así también su potencial empleo en contextos masivos como lo representa el crecimiento de dispositivos IOT en contextos hogareños aumentados.
Este trabajo de investigación se radicó en el Grupo de Investigación de Realidad Aumentada e Inteligencia Artificial Aplicada en la Universidad Nacional de La Matanza.
2023-01-01T00:00:00ZEn la última década la Realidad Aumentada (RA), una tecnología que avanza fuertemente revolucionando a las tecnologías de la información, particularmente en el contexto 4.0, ha logrado expandirse a diferentes campos de aplicación como, turismo, el entretenimiento, la industria, la salud y la mercadotecnia. Este avance provocó la necesidad de establecer un acceso a datos estandarizados para lograr una interoperabilidad semántica de datos independientemente de la aplicación que la genere. Surgieron propuestas que integran los estándares de web semántica para lograr este propósito, por lo que emerge un nuevo desafío para lograr que estos contenidos virtuales sean utilizados por el usuario en sus rutinas diarias.
En este orden, se presenta como resultado de la investigación del presente trabajo de tesis un framework para navegadores de Realidad aumentada que aporta una interacción dinámica a los usuarios a través de procedimientos interoperables semánticos reusables compuestos por un conjunto de acciones a realizar en un entorno enriquecido por tecnologías de realidad aumentada.
La capacidad presentada en esta tesis impactará en diversas áreas, por ejemplo, en contextos 4.0, en casos de uso como la creación de una secuencia de tareas a realizar por de un operador inteligente en su puesto en una Smart factory o en la aumentación de tareas por hacer con un dispositivo/equipo IoT de la planta, como así también su potencial empleo en contextos masivos como lo representa el crecimiento de dispositivos IOT en contextos hogareños aumentados.
Este trabajo de investigación se radicó en el Grupo de Investigación de Realidad Aumentada e Inteligencia Artificial Aplicada en la Universidad Nacional de La Matanza.Bases de datos de series temporales y métodos estadísticos para la predicción de rendimientos de ETHHernández, Alejohttp://sedici.unlp.edu.ar:80/handle/10915/1614912023-12-15T04:07:28Z2023-01-01T00:00:00ZTrabajo de especializacion
Fernández Bariviera, Aurelio; Di Pasquale, Ricardo
Especialista en Inteligencia de Datos orientada a Big Data; Universidad Nacional de La Plata
Las bases de datos forman parte de nuestra vida diaria, aunque muchos de nosotros probablemente no seamos conscientes de este hecho. Esto es fácil de entender si tenemos en cuenta que la mayoría de las transacciones electrónicas nos ponen en contacto con una de ellas y que este tipo de transacciones se han vuelto ubicuas, dado el nivel de penetración que poseen los teléfonos celulares y el crecimiento exponencial que han experimentado los dispositivos conectados a internet (IoT, IoE).
Este uso intensivo de las bases de datos, combinado con la vastedad de escenarios en los cuales se ven involucradas, ha propiciado un proceso evolutivo que comenzó en la década del ’60 y continua hasta nuestros días. En este camino, varios tipos de bases de datos fueron creadas: relacionales, no-SQL, de almacenamiento en memoria, de grafos, geoespaciales y por último, las especıficas para series temporales (BDSTs).
Por otra parte, durante los últimos diez años la adopción de las criptomonedas como instrumento de inversión y/o de especulación fomentó el desarrollo de un mercado de negociación deslocalizado, de muy alta frecuencia y sin interrupciones significativas que, al día de hoy, se presenta como una alternativa viable para el manejo de divisas y el pago de bienes y servicios. Si bien en términos académicos, la mayoría de los trabajos publicados utilizan datos con frecuencias diarias, esta tendencia está cambiando, puesto que los investigadores han visto la importancia de extraer información de datos en más alta frecuencia para capturar el comportamiento de este mercado altamente dinámico.
Estas características particulares que presenta el mercado de criptomonedas se traducen en un flujo de datos continuo y de alta frecuencia, modulado mayoritariamente por operaciones de trading automatizadas. Esto evidencia la necesidad de contar, por un lado, con un sistema de almacenamiento y procesamiento de datos acorde con el volumen y velocidad de generación involucrados y por otro, con una serie de algoritmos robustos que permitan predecir los retornos de los activos de forma precisa y confiable. A fin de explorar más en profundidad estos aspectos, este trabajo se propone implementar un pipeline de datos soportado por una BDST a fin de realizar predicciones de rendimento de activos usando métodos estadísticos. Más concretamente, se implementa la BDST InfluxDB para predecir los retornos de Ethereum (ETH), la segunda criptomoneda en términos de capitalización de mercado. Desde el punto de vista del manejo de datos, se decidió trabajar con la BDST InfluxDB puesto que la misma cuenta con una suite de herramientas muy completa para gestionar los procesos de captura, almacenamiento, consulta y visualización de la información. Por otra parte, en lo relativo al modelado estadístico de los datos, se utilizó el paquete Statsmodels de Python que permite realizar la predicción de los retornos aplicando un modelo ARMA con intervalos de confianza corregidos mediante un modelo GARCH.
2023-01-01T00:00:00ZLas bases de datos forman parte de nuestra vida diaria, aunque muchos de nosotros probablemente no seamos conscientes de este hecho. Esto es fácil de entender si tenemos en cuenta que la mayoría de las transacciones electrónicas nos ponen en contacto con una de ellas y que este tipo de transacciones se han vuelto ubicuas, dado el nivel de penetración que poseen los teléfonos celulares y el crecimiento exponencial que han experimentado los dispositivos conectados a internet (IoT, IoE).
Este uso intensivo de las bases de datos, combinado con la vastedad de escenarios en los cuales se ven involucradas, ha propiciado un proceso evolutivo que comenzó en la década del ’60 y continua hasta nuestros días. En este camino, varios tipos de bases de datos fueron creadas: relacionales, no-SQL, de almacenamiento en memoria, de grafos, geoespaciales y por último, las especıficas para series temporales (BDSTs).
Por otra parte, durante los últimos diez años la adopción de las criptomonedas como instrumento de inversión y/o de especulación fomentó el desarrollo de un mercado de negociación deslocalizado, de muy alta frecuencia y sin interrupciones significativas que, al día de hoy, se presenta como una alternativa viable para el manejo de divisas y el pago de bienes y servicios. Si bien en términos académicos, la mayoría de los trabajos publicados utilizan datos con frecuencias diarias, esta tendencia está cambiando, puesto que los investigadores han visto la importancia de extraer información de datos en más alta frecuencia para capturar el comportamiento de este mercado altamente dinámico.
Estas características particulares que presenta el mercado de criptomonedas se traducen en un flujo de datos continuo y de alta frecuencia, modulado mayoritariamente por operaciones de trading automatizadas. Esto evidencia la necesidad de contar, por un lado, con un sistema de almacenamiento y procesamiento de datos acorde con el volumen y velocidad de generación involucrados y por otro, con una serie de algoritmos robustos que permitan predecir los retornos de los activos de forma precisa y confiable. A fin de explorar más en profundidad estos aspectos, este trabajo se propone implementar un pipeline de datos soportado por una BDST a fin de realizar predicciones de rendimento de activos usando métodos estadísticos. Más concretamente, se implementa la BDST InfluxDB para predecir los retornos de Ethereum (ETH), la segunda criptomoneda en términos de capitalización de mercado. Desde el punto de vista del manejo de datos, se decidió trabajar con la BDST InfluxDB puesto que la misma cuenta con una suite de herramientas muy completa para gestionar los procesos de captura, almacenamiento, consulta y visualización de la información. Por otra parte, en lo relativo al modelado estadístico de los datos, se utilizó el paquete Statsmodels de Python que permite realizar la predicción de los retornos aplicando un modelo ARMA con intervalos de confianza corregidos mediante un modelo GARCH.Medios de pagos digitales, desafíos y futuroYovovich, Pablohttp://sedici.unlp.edu.ar:80/handle/10915/1613582023-12-12T04:07:47Z2023-01-01T00:00:00ZTesis de grado
Bertone, Rodolfo Alfredo; Marrero, Luciano
Licenciado en Sistemas; Universidad Nacional de La Plata
Las billeteras virtuales se han establecido, en estos últimos años, en el mercado como una de las formas de pago más ágiles y utilizadas y su uso continúa creciendo. En este trabajo se presentan distintas opciones para facilitar pagos en línea o sin contacto, de todas las formas en la que los pagos vienen evolucionando junto a la digitalización y bancarización de los usuarios.
Director profesional: César Curcio; Tesina Programa de Apoyo al Egreso de Profesionales en Actividad (PAEPA)
2023-01-01T00:00:00ZLas billeteras virtuales se han establecido, en estos últimos años, en el mercado como una de las formas de pago más ágiles y utilizadas y su uso continúa creciendo. En este trabajo se presentan distintas opciones para facilitar pagos en línea o sin contacto, de todas las formas en la que los pagos vienen evolucionando junto a la digitalización y bancarización de los usuarios.Minería de procesos en la Ingeniería de Software: Análisis del proceso de distribución de piezas postalesMartínez, Víctorhttp://sedici.unlp.edu.ar:80/handle/10915/1609722023-12-02T04:07:17Z2023-01-01T00:00:00ZTesis de maestria
Lanzarini, Laura Cristina; Ronchetti, Franco
Magister en Ingeniería de Software; Universidad Nacional de La Plata
En los últimos años la Minería de Procesos tuvo un gran crecimiento debido a la gran disponibilidad de datos y los avances en algoritmos y herramientas. También se incrementó su utilidad en la Ingeniería de Software, ya que proporciona información valiosa sobre la ejecución real de los procesos.
Esto permite a las organizaciones analizar y generar productos de software orientados a mejorar el servicio al cliente. Con la Minería de Procesos, es posible identificar cuellos de botella, ineficiencias y desvíos de los comportamientos esperados; lo que lleva a una optimización de los procesos y a una mejor asignación de recursos. Al utilizar las técnicas de Minería de Procesos, los equipos de Ingeniería de Software pueden comprender a fondo los procesos, mejorar la toma de decisiones y entregar productos de software de mayor calidad.
En esta tesis de maestría se aplicó la Minería de Procesos a la distribución postal en la República Argentina con el objetivo de identificar oportunidades de mejora en el proceso, contribuyendo así a la reducción de conflictos operativos y a la mejora en la calidad del servicio.
El estudio se inició con una revisión bibliográfica del material disponible, seguido de la aplicación de técnicas de Minería de Procesos a un conjunto de datos relacionados con la distribución postal. Esto permitió obtener información valiosa sobre el rendimiento y la eficiencia del sistema de distribución.
Los resultados de estas investigaciones fueron difundidos a través de los siguientes artículos:
Martinez, V., Lanzarini, L., Ronchetti, F. (2021). Process Mining Applied to Postal Distribution. Pertenece al libro: Memorias del XXVII Congreso Argentino de Ciencias de la Computación. RedUNCI. ISBN: 978-987-633-574-4. Págs: 271-280.
Martinez, V., Lanzarini, L., Ronchetti, F. (2022). Distribution Analysis of Postal Mail in Argentina Using Process Mining. In: Pesado, P., Gil, G. (eds) Computer Science – CACIC 2021. CACIC 2021. Communications in Computer and Information Science, vol 1584. Springer, Cham.
El nuevo conocimiento adquirido a partir del modelo generado fue utilizado para desarrollar un prototipo de software que automatiza la aplicación de técnicas de Minería de Procesos a la distribución postal y genera alertas ante posibles desvíos operativos. De esta forma, las incidencias descubiertas pueden gestionarse de manera rápida y eficiente con una interfaz moderna y amigable para el usuario.
Los resultados obtenidos demuestran claramente que la aplicación de la Minería de Procesos en la distribución postal brindan un aporte significativo a la hora de modelizar el proceso subyacente. En el caso de estudio propuesto en esta tesis, han permitido la detección y gestión temprana de incidencias operativas en el proceso de distribución de piezas postales, proporcionando herramientas novedosas que permiten tomar acciones correctivas y/o predictivas mejorando el servicio a los clientes de manera efectiva y oportuna.; In recent years, Process Mining has experienced tremendous growth due to the great availability of data and advances in algorithms and tools. Its usefulness in Software Engineering has also increased, since it provides valuable information on the actual execution of processes. This allows organizations to analyze and generate software products aimed at improving customer service. With Process Mining, it is possible to identify bottlenecks, inefficiencies, and deviations from expected behaviors; which leads to an optimization of processes and a better estimation of resources. By using Process Mining techniques, Software Engineering teams can gain a deeper understanding of processes, improve decision making, and deliver higher-quality software products.
In this master’s thesis, Process Mining was applied to postal distribution in the Republic of Argentina with the objective of identifying opportunities for process improvement, thereby contributing to the reduction of operational conflicts and enhancing service quality.
The study commenced with an extensive literature review, followed by the application of Process Mining techniques to a large dataset pertaining to postal distribution. This facilitated the extraction of valuable insights into the performance and efficiency of the distribution system.
The results of these investigations were disseminated through the following articles:
Martinez, V., Lanzarini, L., Ronchetti, F. (2021). Process Mining Applied to Postal Distribution. From the book: Memorias del XXVII Congreso Argentino de Ciencias de la Computación. RedUNCI. ISBN: 978-987-633-574-4. Pages: 271-280.
Martinez, V., Lanzarini, L., Ronchetti, F. (2022). Distribution Analysis of Postal Mail in Argentina Using Process Mining. In: Pesado, P., Gil, G. (eds) Computer Science – CACIC 2021. CACIC 2021. Communications in Computer and Information Science, vol 1584. Springer, Cham.
The new knowledge acquired from the generated model was used to develop a software prototype that automates the application of Process Mining techniques to the distribution postal service and generates alerts in the event of possible operational deviations. In this way, the incidents discovered can be managed quickly and efficiently with a modern and user-friendly interface.
The results obtained clearly demonstrate that the application of Process Mining in postal distribution provide a significant contribution when it comes to modeling the underlying process. In the case study proposed in this thesis, they have allowed the detection and management of operational incidents in the distribution process of metal parts, providing innovative tools that allow corrective and/or predictive actions to be taken, improving the serve customers in an effective and timely manner.
2023-01-01T00:00:00ZEn los últimos años la Minería de Procesos tuvo un gran crecimiento debido a la gran disponibilidad de datos y los avances en algoritmos y herramientas. También se incrementó su utilidad en la Ingeniería de Software, ya que proporciona información valiosa sobre la ejecución real de los procesos.
Esto permite a las organizaciones analizar y generar productos de software orientados a mejorar el servicio al cliente. Con la Minería de Procesos, es posible identificar cuellos de botella, ineficiencias y desvíos de los comportamientos esperados; lo que lleva a una optimización de los procesos y a una mejor asignación de recursos. Al utilizar las técnicas de Minería de Procesos, los equipos de Ingeniería de Software pueden comprender a fondo los procesos, mejorar la toma de decisiones y entregar productos de software de mayor calidad.
En esta tesis de maestría se aplicó la Minería de Procesos a la distribución postal en la República Argentina con el objetivo de identificar oportunidades de mejora en el proceso, contribuyendo así a la reducción de conflictos operativos y a la mejora en la calidad del servicio.
El estudio se inició con una revisión bibliográfica del material disponible, seguido de la aplicación de técnicas de Minería de Procesos a un conjunto de datos relacionados con la distribución postal. Esto permitió obtener información valiosa sobre el rendimiento y la eficiencia del sistema de distribución.
Los resultados de estas investigaciones fueron difundidos a través de los siguientes artículos:
Martinez, V., Lanzarini, L., Ronchetti, F. (2021). Process Mining Applied to Postal Distribution. Pertenece al libro: Memorias del XXVII Congreso Argentino de Ciencias de la Computación. RedUNCI. ISBN: 978-987-633-574-4. Págs: 271-280.
Martinez, V., Lanzarini, L., Ronchetti, F. (2022). Distribution Analysis of Postal Mail in Argentina Using Process Mining. In: Pesado, P., Gil, G. (eds) Computer Science – CACIC 2021. CACIC 2021. Communications in Computer and Information Science, vol 1584. Springer, Cham.
El nuevo conocimiento adquirido a partir del modelo generado fue utilizado para desarrollar un prototipo de software que automatiza la aplicación de técnicas de Minería de Procesos a la distribución postal y genera alertas ante posibles desvíos operativos. De esta forma, las incidencias descubiertas pueden gestionarse de manera rápida y eficiente con una interfaz moderna y amigable para el usuario.
Los resultados obtenidos demuestran claramente que la aplicación de la Minería de Procesos en la distribución postal brindan un aporte significativo a la hora de modelizar el proceso subyacente. En el caso de estudio propuesto en esta tesis, han permitido la detección y gestión temprana de incidencias operativas en el proceso de distribución de piezas postales, proporcionando herramientas novedosas que permiten tomar acciones correctivas y/o predictivas mejorando el servicio a los clientes de manera efectiva y oportuna.
In recent years, Process Mining has experienced tremendous growth due to the great availability of data and advances in algorithms and tools. Its usefulness in Software Engineering has also increased, since it provides valuable information on the actual execution of processes. This allows organizations to analyze and generate software products aimed at improving customer service. With Process Mining, it is possible to identify bottlenecks, inefficiencies, and deviations from expected behaviors; which leads to an optimization of processes and a better estimation of resources. By using Process Mining techniques, Software Engineering teams can gain a deeper understanding of processes, improve decision making, and deliver higher-quality software products.
In this master’s thesis, Process Mining was applied to postal distribution in the Republic of Argentina with the objective of identifying opportunities for process improvement, thereby contributing to the reduction of operational conflicts and enhancing service quality.
The study commenced with an extensive literature review, followed by the application of Process Mining techniques to a large dataset pertaining to postal distribution. This facilitated the extraction of valuable insights into the performance and efficiency of the distribution system.
The results of these investigations were disseminated through the following articles:
Martinez, V., Lanzarini, L., Ronchetti, F. (2021). Process Mining Applied to Postal Distribution. From the book: Memorias del XXVII Congreso Argentino de Ciencias de la Computación. RedUNCI. ISBN: 978-987-633-574-4. Pages: 271-280.
Martinez, V., Lanzarini, L., Ronchetti, F. (2022). Distribution Analysis of Postal Mail in Argentina Using Process Mining. In: Pesado, P., Gil, G. (eds) Computer Science – CACIC 2021. CACIC 2021. Communications in Computer and Information Science, vol 1584. Springer, Cham.
The new knowledge acquired from the generated model was used to develop a software prototype that automates the application of Process Mining techniques to the distribution postal service and generates alerts in the event of possible operational deviations. In this way, the incidents discovered can be managed quickly and efficiently with a modern and user-friendly interface.
The results obtained clearly demonstrate that the application of Process Mining in postal distribution provide a significant contribution when it comes to modeling the underlying process. In the case study proposed in this thesis, they have allowed the detection and management of operational incidents in the distribution process of metal parts, providing innovative tools that allow corrective and/or predictive actions to be taken, improving the serve customers in an effective and timely manner.Seguridad en el enrutamiento utilizando tecnología BlockchainGómez, Marcelo Albertohttp://sedici.unlp.edu.ar:80/handle/10915/1607842023-11-28T20:08:47Z2023-01-01T00:00:00ZTesis de maestria
Bazán, Patricia Alejandra; Rio, Nicolás del
Magister en Redes de Datos; Universidad Nacional de La Plata
Para realizar una ataque de route hijacking no se saca provecho a ninguna vulnerabilidad o falla de protocolo, sino que se explota que la arquitectura de BGP está basada en la confianza mutua. Por este motivo es que estos ataques son tan antiguos como el mismo protocolo, y en la actualidad estos fallos se siguen produciendo y se continúa investigando cual es la mejor estrategia para brindar seguridad al ruteo en Internet. Las nuevas soluciones, como RPKI, están generando riesgos debido a la centralización de la autoridad de enrutamiento, las mismas no se basan en la confianza mutua, pero dependen de la confianza en la autoridad. Con este trabajo se busca implementar un modelo menos centralizado, basado en blockchain, donde mediante el despliegue de una aplicación específica para la asignación de recursos de Internet en la red Ethereum Sepolia, y la posterior utilización de esa información almacenada, se demuestra como brindar seguridad al protocolo BGP.
Asesor científico: Miguel A. Morandi
2023-01-01T00:00:00ZPara realizar una ataque de route hijacking no se saca provecho a ninguna vulnerabilidad o falla de protocolo, sino que se explota que la arquitectura de BGP está basada en la confianza mutua. Por este motivo es que estos ataques son tan antiguos como el mismo protocolo, y en la actualidad estos fallos se siguen produciendo y se continúa investigando cual es la mejor estrategia para brindar seguridad al ruteo en Internet. Las nuevas soluciones, como RPKI, están generando riesgos debido a la centralización de la autoridad de enrutamiento, las mismas no se basan en la confianza mutua, pero dependen de la confianza en la autoridad. Con este trabajo se busca implementar un modelo menos centralizado, basado en blockchain, donde mediante el despliegue de una aplicación específica para la asignación de recursos de Internet en la red Ethereum Sepolia, y la posterior utilización de esa información almacenada, se demuestra como brindar seguridad al protocolo BGP.Estrategia integrada de pruebas de software consciente de la situación y basada en escenariosTebes, Guido Sebastiánhttp://sedici.unlp.edu.ar:80/handle/10915/1602862023-11-17T20:08:29Z2023-01-01T00:00:00ZTesis de doctorado
Olsina Santos, Luis Antonio; Rossi, Gustavo Héctor
Doctor en Ciencias Informáticas; Universidad Nacional de La Plata
En la actualidad, las aplicaciones de software se han vuelto muy complejas ya que, en algunas situaciones particulares, dependen de otros sistemas o servicios para realizar correctamente sus funciones. En otras palabras, esto significa que un sistema no está aislado y está influenciado por entidades de contexto. Debido a su complejidad inherente, algunos enfoques o estrategias de pruebas de software existentes no son lo suficientemente efectivos para verificar y validar situaciones particulares en las que es relevante considerar y modelar las entidades de contexto. Además, hay un escaso número de metodologías que son útiles para probar este tipo de situaciones. Con la intención de contribuir en esta área, en esta tesis doctoral se propone una estrategia de pruebas de software basada en escenarios y consciente de la situación. Esta estrategia es consciente de la situación porque la situación debe ser modelada y considerada para producir casos de prueba. La misma fue inicialmente validada ya que se aplicó en dos empresas del ámbito privado por dos estudiantes de grado para sus proyectos finales de ingeniería.
Una estrategia es un recurso fundamental de una organización que define un curso específico de acción a seguir, es decir, especifica qué se debe hacer y cómo hacerlo. A su vez, una estrategia debería integrar tres capacidades fundamentales o pilares, a saber: i) una especificación de proceso, ii) una especificación de métodos, y iii) una especificación de base conceptual. Por lo tanto, la estrategia propuesta en este trabajo también considera estas tres capacidades. El beneficio de integrar estos tres pilares en una estrategia en particular es que la misma especificará qué actividades están involucradas, cómo llevarlas a cabo a través de métodos, y todo esto dentro de un marco semántico de un vocabulario de uso común y compartido.
Dado que una ontología es la representación más rica para modelar bases conceptuales, se considera que una estrategia integrada debería tener entonces una ontología como base conceptual y no meramente un glosario y/o taxonomía. Por ello, en esta tesis doctoral, se decidió desarrollar y utilizar una ontología de pruebas de software para dar soporte a la estrategia integrada. Además, las especificaciones de procesos y métodos deberían utilizar los conceptos que involucra esta base conceptual ontológica para que la estrategia sea consistente.
Por otro lado, es importante contar con procesos bien especificados como parte de una estrategia integrada. Un proceso bien especificado debería describir cuáles son las principales actividades que deben ser realizadas, sus productos de trabajo consumidos y producidos, qué roles intervienen, cuál es el flujo a seguir entre las diferentes actividades, entre otros aspectos. Además, otro aspecto que fortalece las especificaciones de procesos es el modelado de diferentes vistas o perspectivas de proceso. Como beneficio, un proceso bien especificado no solo permite el entendimiento del mismo, sino que también facilita la comunicación entre las partes interesadas. Además, asegura la repetibilidad y la reproducibilidad en la implementación de las actividades y tareas.
2023-01-01T00:00:00ZEn la actualidad, las aplicaciones de software se han vuelto muy complejas ya que, en algunas situaciones particulares, dependen de otros sistemas o servicios para realizar correctamente sus funciones. En otras palabras, esto significa que un sistema no está aislado y está influenciado por entidades de contexto. Debido a su complejidad inherente, algunos enfoques o estrategias de pruebas de software existentes no son lo suficientemente efectivos para verificar y validar situaciones particulares en las que es relevante considerar y modelar las entidades de contexto. Además, hay un escaso número de metodologías que son útiles para probar este tipo de situaciones. Con la intención de contribuir en esta área, en esta tesis doctoral se propone una estrategia de pruebas de software basada en escenarios y consciente de la situación. Esta estrategia es consciente de la situación porque la situación debe ser modelada y considerada para producir casos de prueba. La misma fue inicialmente validada ya que se aplicó en dos empresas del ámbito privado por dos estudiantes de grado para sus proyectos finales de ingeniería.
Una estrategia es un recurso fundamental de una organización que define un curso específico de acción a seguir, es decir, especifica qué se debe hacer y cómo hacerlo. A su vez, una estrategia debería integrar tres capacidades fundamentales o pilares, a saber: i) una especificación de proceso, ii) una especificación de métodos, y iii) una especificación de base conceptual. Por lo tanto, la estrategia propuesta en este trabajo también considera estas tres capacidades. El beneficio de integrar estos tres pilares en una estrategia en particular es que la misma especificará qué actividades están involucradas, cómo llevarlas a cabo a través de métodos, y todo esto dentro de un marco semántico de un vocabulario de uso común y compartido.
Dado que una ontología es la representación más rica para modelar bases conceptuales, se considera que una estrategia integrada debería tener entonces una ontología como base conceptual y no meramente un glosario y/o taxonomía. Por ello, en esta tesis doctoral, se decidió desarrollar y utilizar una ontología de pruebas de software para dar soporte a la estrategia integrada. Además, las especificaciones de procesos y métodos deberían utilizar los conceptos que involucra esta base conceptual ontológica para que la estrategia sea consistente.
Por otro lado, es importante contar con procesos bien especificados como parte de una estrategia integrada. Un proceso bien especificado debería describir cuáles son las principales actividades que deben ser realizadas, sus productos de trabajo consumidos y producidos, qué roles intervienen, cuál es el flujo a seguir entre las diferentes actividades, entre otros aspectos. Además, otro aspecto que fortalece las especificaciones de procesos es el modelado de diferentes vistas o perspectivas de proceso. Como beneficio, un proceso bien especificado no solo permite el entendimiento del mismo, sino que también facilita la comunicación entre las partes interesadas. Además, asegura la repetibilidad y la reproducibilidad en la implementación de las actividades y tareas.Primeras experiencias en la identificación de personas con riesgo de diabetes en la población argentina usando técnicas de aprendizaje automáticoTittarelli, Gonzalohttp://sedici.unlp.edu.ar:80/handle/10915/1598842023-11-07T20:08:43Z2023-01-01T00:00:00ZTesis de grado
Ronchetti, Franco; Rucci, Enzo
Licenciado en Sistemas; Universidad Nacional de La Plata
La detección temprana de Diabetes Tipo 2 (DT2) y prediabetes (PDM) representa un desafío para la medicina debido a la ausencia de síntomas patogenómicos y al desconocimiento de los factores de riesgo asociados. El diagnóstico tardío de esta enfermedad puede llevar a complicaciones graves de salud y costos médicos elevados. Asimismo, la remisión de la DT2 es posible en algunas personas, por lo que su detección temprana y control son cruciales. Si bien existen algunos modelos de aprendizaje automático que permiten identificar personas en riesgo, su aplicabilidad puede variar entre poblaciones. La presente investigación propone desarrollar y evaluar modelos predictivos que permitan identificar personas con riesgo de DT2 y PDM en la población Argentina.
2023-01-01T00:00:00ZLa detección temprana de Diabetes Tipo 2 (DT2) y prediabetes (PDM) representa un desafío para la medicina debido a la ausencia de síntomas patogenómicos y al desconocimiento de los factores de riesgo asociados. El diagnóstico tardío de esta enfermedad puede llevar a complicaciones graves de salud y costos médicos elevados. Asimismo, la remisión de la DT2 es posible en algunas personas, por lo que su detección temprana y control son cruciales. Si bien existen algunos modelos de aprendizaje automático que permiten identificar personas en riesgo, su aplicabilidad puede variar entre poblaciones. La presente investigación propone desarrollar y evaluar modelos predictivos que permitan identificar personas con riesgo de DT2 y PDM en la población Argentina.Un estudio de procesos de diseño de bases de datos NoSQLOlsowy, Verena Macarenahttp://sedici.unlp.edu.ar:80/handle/10915/1596252023-10-31T20:09:16Z2023-01-01T00:00:00ZTesis de grado
Thomas, Pablo Javier; Marrero, Luciano
Licenciado en Sistemas; Universidad Nacional de La Plata
Las bases de datos relacionales han sido la elección predominante en la historia de la gestión de datos, pero la creciente diversidad de requisitos ha generado la necesidad de explorar soluciones más flexibles. En este contexto, las bases de datos no relacionales surgen como una alternativa válida, aunque requieran enfoques y metodologías de diseño distintos a los tradicionales. Las metodologías tradicionales de diseño y construcción de bases de datos relacionales han sido ampliamente desarrolladas, pero no resultan apropiadas para las Bases de Datos no Relacionales. Adaptarse a estos cambios implica explorar nuevas formas de modelar y administrar los datos en el panorama actual.
Asesor profesional: Fernando Tesone
2023-01-01T00:00:00ZLas bases de datos relacionales han sido la elección predominante en la historia de la gestión de datos, pero la creciente diversidad de requisitos ha generado la necesidad de explorar soluciones más flexibles. En este contexto, las bases de datos no relacionales surgen como una alternativa válida, aunque requieran enfoques y metodologías de diseño distintos a los tradicionales. Las metodologías tradicionales de diseño y construcción de bases de datos relacionales han sido ampliamente desarrolladas, pero no resultan apropiadas para las Bases de Datos no Relacionales. Adaptarse a estos cambios implica explorar nuevas formas de modelar y administrar los datos en el panorama actual.Agrupamiento dinámico para flujos de datos no estacionariosOnofri, Camila Ayelénhttp://sedici.unlp.edu.ar:80/handle/10915/1592782023-10-25T04:08:12Z2023-01-01T00:00:00ZTesis de grado
Lanzarini, Laura Cristina; Estrebou, César Armando
Licenciado en Sistemas; Universidad Nacional de La Plata
El avance tecnológico permite generan datos a alta velocidad que deben procesarse sin ser almacenados. Estos datos analizados en línea son considerados flujos y su procesamiento en tiempo real debe lidiar con problemas tales como la capacidad limitada de memoria, el escaneo único de datos y la diferenciación entre anomalías y deriva de concepto. En esta tesina se estudian, implementan y aplican distintas técnicas de agrupamiento dinámico, principalmente aquellas abocadas al análisis dinámico de flujos de datos no estacionarios cuya distribución varía en el tiempo. Además, se emplean estas técnicas para la resolución de un problema del mundo real.
2023-01-01T00:00:00ZEl avance tecnológico permite generan datos a alta velocidad que deben procesarse sin ser almacenados. Estos datos analizados en línea son considerados flujos y su procesamiento en tiempo real debe lidiar con problemas tales como la capacidad limitada de memoria, el escaneo único de datos y la diferenciación entre anomalías y deriva de concepto. En esta tesina se estudian, implementan y aplican distintas técnicas de agrupamiento dinámico, principalmente aquellas abocadas al análisis dinámico de flujos de datos no estacionarios cuya distribución varía en el tiempo. Además, se emplean estas técnicas para la resolución de un problema del mundo real.Autorregulación del aprendizaje, estrategias de participación y rendimiento académico: Un estudio de su relación en comunidades virtuales de indagaciónDieser, María Paulahttp://sedici.unlp.edu.ar:80/handle/10915/1584342023-10-06T04:07:43Z2023-01-01T00:00:00ZTesis de maestria
Sanz, Cecilia Verónica; Zangara, María Alejandra
Magister en Tecnología Informática Aplicada en Educación; Universidad Nacional de La Plata
En las últimas décadas, las instituciones educativas, en particular las de nivel superior, han sido testigos y partícipes de múltiples cambios impulsados por las tecnologías digitales. Quienes habitan estos espacios, con diferente grado de mediación tecnológica e hibridación espacio – temporal, debieron adoptar nuevas formas de enseñar, de aprender, y de evaluar. En estos escenarios, de carácter flexible, accesible y colaborativo, con nuevas oportunidades de interacción, de acceso a recursos educativos y a la información en general, resulta vital la habilidad de los estudiantes para planificar, gestionar y controlar sus acciones de aprendizaje, con libertad de establecer sus propias metas y organizar sus tiempos. En otras palabras, la autonomía del estudiante permite hacer un mejor aprovechamiento de la estructura de la propuesta formativa y del diálogo que se genera entre los actores del hecho educativo. Y esto favorece el alcance de los logros académicos.
En esta tesis se abordan dos de estos tres elementos: la autonomía en términos de autorregulación del aprendizaje, y el diálogo entendido como una forma de interacción, relacional y discursiva, sociocultural y situada. Ambos constructos se estudian en vinculación con un tercero que preocupa en forma recurrente a las instituciones de educación superior y ha sido objeto de estudio permanente en la investigación educativa: el rendimiento académico. En particular, se intenta echar luz sobre estos tres elementos y las relaciones entre ellos en contextos formativos mediados tecnológicamente y entendidos como una comunidad virtual de indagación. El foro de debate es el espacio elegido para su abordaje.
Con esta meta, se comienza por ofrecer un marco conceptual que delimita los constructos de interés y los posiciona en el ámbito general de las propuestas de educación mediada. Asimismo, se describe el microcontexto tecnológico elegido para su evaluación y análisis, así como el modelo teórico empleado para dicho estudio.
Posteriormente, con base en una revisión sistemática de la producción académica y científica de los últimos años, se define uno de los principales aportes de esta tesis. Esto es, una metodología denominada APRendA, que puede servir a docentes e investigadores para evaluar: (a) la autorregulación del aprendizaje como una aptitud y como una serie de eventos asociados a una actividad basada en un foro y orientada a la construcción de conocimiento y el desarrollo del pensamiento crítico; (b) la interacción a partir de un conjunto de indicadores que dan cuenta de la cantidad, la calidad, la temporalidad, y las relaciones establecidas mediante la participación en la tarea en cuestión; (c) y el rendimiento académico en términos de los logros alcanzados y autopercibidos, y del nivel de pensamiento crítico evidenciado en el contenido de los aportes. La metodología, además, permite analizar posibles relaciones entre los elementos mencionados, y puede ser empleada en forma total o parcial según las necesidades.
APRendA se prueba y valida mediante un estudio de caso. El caso elegido como escenario de validación se compone de siete grupos de estudiantes distribuidos en tres cohortes (2019, 2020, 2021) de un seminario de postgrado ofrecido en una universidad argentina. Se trata del Seminario de Educación a Distancia incluido en el programa de estudios de la Especialización y la Maestría en Tecnología Informática aplicada en Educación, que forman parte de la oferta de postgrado permanente de la Facultad de Informática de la Universidad Nacional de La Plata.
Los resultados obtenidos permiten comprobar la eficacia de la metodología para evaluar diversas dimensiones de los tres constructos de interés en la actividad de foro implementada en el estudio de caso. En este proceso se identifican mejoras a realizar que derivan en posibles trabajos futuros.
Asimismo, la evidencia de relaciones significativas entre los posibles pares de constructos evaluados en el marco del estudio de caso, permite identificar las variables a considerar en el diseño, implementación, y andamiaje de este tipo de tareas que favorezcan un buen desempeño por parte del estudiante.
2023-01-01T00:00:00ZEn las últimas décadas, las instituciones educativas, en particular las de nivel superior, han sido testigos y partícipes de múltiples cambios impulsados por las tecnologías digitales. Quienes habitan estos espacios, con diferente grado de mediación tecnológica e hibridación espacio – temporal, debieron adoptar nuevas formas de enseñar, de aprender, y de evaluar. En estos escenarios, de carácter flexible, accesible y colaborativo, con nuevas oportunidades de interacción, de acceso a recursos educativos y a la información en general, resulta vital la habilidad de los estudiantes para planificar, gestionar y controlar sus acciones de aprendizaje, con libertad de establecer sus propias metas y organizar sus tiempos. En otras palabras, la autonomía del estudiante permite hacer un mejor aprovechamiento de la estructura de la propuesta formativa y del diálogo que se genera entre los actores del hecho educativo. Y esto favorece el alcance de los logros académicos.
En esta tesis se abordan dos de estos tres elementos: la autonomía en términos de autorregulación del aprendizaje, y el diálogo entendido como una forma de interacción, relacional y discursiva, sociocultural y situada. Ambos constructos se estudian en vinculación con un tercero que preocupa en forma recurrente a las instituciones de educación superior y ha sido objeto de estudio permanente en la investigación educativa: el rendimiento académico. En particular, se intenta echar luz sobre estos tres elementos y las relaciones entre ellos en contextos formativos mediados tecnológicamente y entendidos como una comunidad virtual de indagación. El foro de debate es el espacio elegido para su abordaje.
Con esta meta, se comienza por ofrecer un marco conceptual que delimita los constructos de interés y los posiciona en el ámbito general de las propuestas de educación mediada. Asimismo, se describe el microcontexto tecnológico elegido para su evaluación y análisis, así como el modelo teórico empleado para dicho estudio.
Posteriormente, con base en una revisión sistemática de la producción académica y científica de los últimos años, se define uno de los principales aportes de esta tesis. Esto es, una metodología denominada APRendA, que puede servir a docentes e investigadores para evaluar: (a) la autorregulación del aprendizaje como una aptitud y como una serie de eventos asociados a una actividad basada en un foro y orientada a la construcción de conocimiento y el desarrollo del pensamiento crítico; (b) la interacción a partir de un conjunto de indicadores que dan cuenta de la cantidad, la calidad, la temporalidad, y las relaciones establecidas mediante la participación en la tarea en cuestión; (c) y el rendimiento académico en términos de los logros alcanzados y autopercibidos, y del nivel de pensamiento crítico evidenciado en el contenido de los aportes. La metodología, además, permite analizar posibles relaciones entre los elementos mencionados, y puede ser empleada en forma total o parcial según las necesidades.
APRendA se prueba y valida mediante un estudio de caso. El caso elegido como escenario de validación se compone de siete grupos de estudiantes distribuidos en tres cohortes (2019, 2020, 2021) de un seminario de postgrado ofrecido en una universidad argentina. Se trata del Seminario de Educación a Distancia incluido en el programa de estudios de la Especialización y la Maestría en Tecnología Informática aplicada en Educación, que forman parte de la oferta de postgrado permanente de la Facultad de Informática de la Universidad Nacional de La Plata.
Los resultados obtenidos permiten comprobar la eficacia de la metodología para evaluar diversas dimensiones de los tres constructos de interés en la actividad de foro implementada en el estudio de caso. En este proceso se identifican mejoras a realizar que derivan en posibles trabajos futuros.
Asimismo, la evidencia de relaciones significativas entre los posibles pares de constructos evaluados en el marco del estudio de caso, permite identificar las variables a considerar en el diseño, implementación, y andamiaje de este tipo de tareas que favorezcan un buen desempeño por parte del estudiante.Modelado e implementación de algoritmos inteligentes de análisis de opiniónTessore, Juan Pablohttp://sedici.unlp.edu.ar:80/handle/10915/1582822023-10-04T04:07:47Z2023-01-01T00:00:00ZTesis de doctorado
Baldassarri, Sandra Silvia; Ramón, Hugo Dionisio
Doctor en Ciencias Informáticas; Universidad Nacional de La Plata
A la par de la amplia adopción que han tenido las redes sociales, ha crecido también la generación contenidos en ellas, en particular en forma de texto. La proliferación de este tipo de contenido ha creado la materia prima necesaria para aplicar técnicas de minería de textos a esos datos con el objetivo de extraer información valiosa.
Numerosos trabajos que intentan categorizar, mediante clasificadores basados en aprendizaje automático, textos provenientes de redes sociales, dependen del etiquetado manual del contenido o de la utilización de datasets públicos previamente etiquetados. Dichos abordajes presentan sus inconvenientes, uno de ellos es el tiempo que demanda la clasificación manual de los datos de entrenamiento. Otro problema es que los clasificadores suelen construirse utilizando datos de distinto origen a los que finalmente analizan, esto plantea un desafío debido a que, si el clasificador no fue expuesto, durante la etapa de entrenamiento, a datos similares a los que finalmente debe categorizar, difícilmente pueda hacerlo de manera adecuada. Por otro lado, la cantidad de recursos disponibles (tales como datasets etiquetados, corpus o diccionarios afectivos) no es abundante para idiomas distintos del inglés, limitando las posibilidades de construcción de los mencionados clasificadores de texto para otros idiomas, entre ellos el español.
La tarea de recopilación y validación de recursos en el idioma a utilizar se vuelve, en consecuencia, una necesidad para construir clasificadores de texto, basados en aprendizaje automático supervisado. Sin embargo, dichas tareas son extremadamente demandantes en tiempo y recursos humanos. Esta problemática se agrava para los casos en los que el criterio de clasificación no es objetivo, como por ejemplo para la clasificación de emociones en texto. En estas situaciones, se requiere que varios jueces clasifiquen el mismo contenido, de manera de poder validar la veracidad de la etiqueta asignada al mismo.
Con el objetivo de agilizar el desarrollo de clasificadores de emociones en texto para el idioma español basados en aprendizaje automático supervisado, resulta necesario reducir o eliminar la necesidad del etiquetado manual de los datasets utilizados para entrenamiento. En esta tesis, a diferencia de otros estudios, las etiquetas que denotan la emoción de cada comentario se obtienen automáticamente de los mismos usuarios que escriben el contenido, en lugar de clasificarlos de manera manual. Posteriormente, se define un procedimiento para realizar la validación de las etiquetas recopiladas, el cual requiere del etiquetado y validación manual de sólo una pequeña muestra de las mismas y posterior cálculo de métricas para establecer el nivel de consenso. A su vez, durante el proceso de captura de los documentos, se obtiene también información contextual relacionada con los mismos, con el objetivo de utilizarla para medir los cambios, ya sean mejoras o no, en el desempeño de distintos clasificadores basados en aprendizaje automático.
El proceso que se presenta en esta tesis, permite agilizar la construcción de clasificadores de emociones en texto basados en aprendizaje automático y a su vez mejorar su desempeño mediante el uso de información contextual. Estos clasificadores pueden ser utilizados para ofrecer una amplia variedad de propósitos potenciales, como detectar la emoción que surge de la opinión de grandes grupos de personas sobre ciertos productos, servicios o incluso políticas públicas. También podrían utilizarse para identificar demandas o quejas no satisfechas de ciudadanos; o, en seguridad, para la detección automática de factores de riesgo en redes sociales, como amenazas, hostigamiento o acoso.
Los clasificadores construidos a partir del proceso mencionado, alcanzan un desempeño similar al de otros entrenados con datasets etiquetados manualmente. Debe resaltarse que, en el trabajo presentado, la necesidad de etiquetado manual en el proceso de recolección y clasificación se reduce significativamente.
El conjunto de datos creado puede ser utilizado en diversas investigaciones que realicen Análisis de Sentimientos en español. Además, el proceso de recopilación y validación presentado en esta tesis puede adaptarse fácilmente para generar nuevos datasets en temas o idiomas específicos.; Alongside the widespread adoption of social media, the generation of content on these platforms, particularly in text, has also grown. The proliferation of this type of content has provided the necessary raw material to apply text-mining techniques to extract valuable information from the data.
Numerous studies attempting to categorize texts from social media using machine learning classifiers rely on manual content labeling or using pre-labeled public datasets. These approaches have their drawbacks, including the time-consuming process of manually classifying the training data. Another problem is that classifiers are often built using data from different sources than those they analyze. This poses a challenge because if the classifier hasn't been exposed to similar data during the training phase, it will have difficulty categorizing it correctly. Additionally, the availability of resources such as labeled datasets, corpora, or affective dictionaries is limited for languages other than English, restricting the possibilities of constructing aforementioned text classifiers for other languages, including Spanish.
As a result, the collection and validation of resources in the target language become necessary for building supervised machine learning-based text classifiers. However, these tasks are extremely time-consuming and resource-intensive. This problem is exacerbated in cases where the classification criterion is not objective, such as emotion classification in text. In these situations, multiple judges are required to classify the same content to validate the accuracy of the assigned label.
To expedite the development of supervised machine learning-based emotion classifiers for the Spanish language, reducing or eliminating the need for manual labeling of the datasets used for training is necessary. In this thesis, unlike other studies, the labels denoting the emotion of each comment are automatically obtained from the users who write the content rather than manually classifying them. Subsequently, a procedure is defined to validate the collected labels, which only requires manual labeling and validation of a small sample of them, followed by the calculation of metrics to establish the level of consensus. Furthermore, during the document collection process, contextual information related to the documents is also obtained and used to measure the changes, whether improvements or not, in the performance of different machine learning-based classifiers.
The process presented in this thesis allows for streamlining the construction of text-based emotion classifiers using machine learning and enhancing their performance using contextual information. These classifiers can be used for a wide variety of potential purposes, such as detecting the sentiment arising from the opinions of large groups of people about specific products, services, or even public policies. They could also be used to identify unmet demands or complaints from citizens or, in security, to automatically detect risk factors in social networks, such as threats, harassment, or bullying.
The classifiers built using the mentioned process perform similarly to others trained with manually labeled datasets. It should be emphasized that in the presented work, the need for manual labeling in the collection and classification process is significantly reduced.
The constructed dataset can be used for various research purposes involving Sentiment Analysis in Spanish. Furthermore, the collection and validation process presented in this thesis can be easily adapted to generate new resources for specific domains or languages.
2023-01-01T00:00:00ZA la par de la amplia adopción que han tenido las redes sociales, ha crecido también la generación contenidos en ellas, en particular en forma de texto. La proliferación de este tipo de contenido ha creado la materia prima necesaria para aplicar técnicas de minería de textos a esos datos con el objetivo de extraer información valiosa.
Numerosos trabajos que intentan categorizar, mediante clasificadores basados en aprendizaje automático, textos provenientes de redes sociales, dependen del etiquetado manual del contenido o de la utilización de datasets públicos previamente etiquetados. Dichos abordajes presentan sus inconvenientes, uno de ellos es el tiempo que demanda la clasificación manual de los datos de entrenamiento. Otro problema es que los clasificadores suelen construirse utilizando datos de distinto origen a los que finalmente analizan, esto plantea un desafío debido a que, si el clasificador no fue expuesto, durante la etapa de entrenamiento, a datos similares a los que finalmente debe categorizar, difícilmente pueda hacerlo de manera adecuada. Por otro lado, la cantidad de recursos disponibles (tales como datasets etiquetados, corpus o diccionarios afectivos) no es abundante para idiomas distintos del inglés, limitando las posibilidades de construcción de los mencionados clasificadores de texto para otros idiomas, entre ellos el español.
La tarea de recopilación y validación de recursos en el idioma a utilizar se vuelve, en consecuencia, una necesidad para construir clasificadores de texto, basados en aprendizaje automático supervisado. Sin embargo, dichas tareas son extremadamente demandantes en tiempo y recursos humanos. Esta problemática se agrava para los casos en los que el criterio de clasificación no es objetivo, como por ejemplo para la clasificación de emociones en texto. En estas situaciones, se requiere que varios jueces clasifiquen el mismo contenido, de manera de poder validar la veracidad de la etiqueta asignada al mismo.
Con el objetivo de agilizar el desarrollo de clasificadores de emociones en texto para el idioma español basados en aprendizaje automático supervisado, resulta necesario reducir o eliminar la necesidad del etiquetado manual de los datasets utilizados para entrenamiento. En esta tesis, a diferencia de otros estudios, las etiquetas que denotan la emoción de cada comentario se obtienen automáticamente de los mismos usuarios que escriben el contenido, en lugar de clasificarlos de manera manual. Posteriormente, se define un procedimiento para realizar la validación de las etiquetas recopiladas, el cual requiere del etiquetado y validación manual de sólo una pequeña muestra de las mismas y posterior cálculo de métricas para establecer el nivel de consenso. A su vez, durante el proceso de captura de los documentos, se obtiene también información contextual relacionada con los mismos, con el objetivo de utilizarla para medir los cambios, ya sean mejoras o no, en el desempeño de distintos clasificadores basados en aprendizaje automático.
El proceso que se presenta en esta tesis, permite agilizar la construcción de clasificadores de emociones en texto basados en aprendizaje automático y a su vez mejorar su desempeño mediante el uso de información contextual. Estos clasificadores pueden ser utilizados para ofrecer una amplia variedad de propósitos potenciales, como detectar la emoción que surge de la opinión de grandes grupos de personas sobre ciertos productos, servicios o incluso políticas públicas. También podrían utilizarse para identificar demandas o quejas no satisfechas de ciudadanos; o, en seguridad, para la detección automática de factores de riesgo en redes sociales, como amenazas, hostigamiento o acoso.
Los clasificadores construidos a partir del proceso mencionado, alcanzan un desempeño similar al de otros entrenados con datasets etiquetados manualmente. Debe resaltarse que, en el trabajo presentado, la necesidad de etiquetado manual en el proceso de recolección y clasificación se reduce significativamente.
El conjunto de datos creado puede ser utilizado en diversas investigaciones que realicen Análisis de Sentimientos en español. Además, el proceso de recopilación y validación presentado en esta tesis puede adaptarse fácilmente para generar nuevos datasets en temas o idiomas específicos.
Alongside the widespread adoption of social media, the generation of content on these platforms, particularly in text, has also grown. The proliferation of this type of content has provided the necessary raw material to apply text-mining techniques to extract valuable information from the data.
Numerous studies attempting to categorize texts from social media using machine learning classifiers rely on manual content labeling or using pre-labeled public datasets. These approaches have their drawbacks, including the time-consuming process of manually classifying the training data. Another problem is that classifiers are often built using data from different sources than those they analyze. This poses a challenge because if the classifier hasn't been exposed to similar data during the training phase, it will have difficulty categorizing it correctly. Additionally, the availability of resources such as labeled datasets, corpora, or affective dictionaries is limited for languages other than English, restricting the possibilities of constructing aforementioned text classifiers for other languages, including Spanish.
As a result, the collection and validation of resources in the target language become necessary for building supervised machine learning-based text classifiers. However, these tasks are extremely time-consuming and resource-intensive. This problem is exacerbated in cases where the classification criterion is not objective, such as emotion classification in text. In these situations, multiple judges are required to classify the same content to validate the accuracy of the assigned label.
To expedite the development of supervised machine learning-based emotion classifiers for the Spanish language, reducing or eliminating the need for manual labeling of the datasets used for training is necessary. In this thesis, unlike other studies, the labels denoting the emotion of each comment are automatically obtained from the users who write the content rather than manually classifying them. Subsequently, a procedure is defined to validate the collected labels, which only requires manual labeling and validation of a small sample of them, followed by the calculation of metrics to establish the level of consensus. Furthermore, during the document collection process, contextual information related to the documents is also obtained and used to measure the changes, whether improvements or not, in the performance of different machine learning-based classifiers.
The process presented in this thesis allows for streamlining the construction of text-based emotion classifiers using machine learning and enhancing their performance using contextual information. These classifiers can be used for a wide variety of potential purposes, such as detecting the sentiment arising from the opinions of large groups of people about specific products, services, or even public policies. They could also be used to identify unmet demands or complaints from citizens or, in security, to automatically detect risk factors in social networks, such as threats, harassment, or bullying.
The classifiers built using the mentioned process perform similarly to others trained with manually labeled datasets. It should be emphasized that in the presented work, the need for manual labeling in the collection and classification process is significantly reduced.
The constructed dataset can be used for various research purposes involving Sentiment Analysis in Spanish. Furthermore, the collection and validation process presented in this thesis can be easily adapted to generate new resources for specific domains or languages.Accesibilidad en documentos para personas con discapacidad visual y ceguera en CILSAHuertas Godoy, David Leonardohttp://sedici.unlp.edu.ar:80/handle/10915/1580322023-09-26T20:09:15Z2023-01-01T00:00:00ZTesis de grado
Harari, Ivana; Amadeo, Ana Paola
Licenciado en Sistemas; Universidad Nacional de La Plata
La tecnología se encuentra cada vez más inmersa en nuestras vidas, incluyendo el ámbito del aprendizaje. En este contexto, la accesibilidad desempeña un papel fundamental al facilitar el acceso a la información y proporcionar recursos de calidad, especialmente para las personas con discapacidad visual y ceguera. En esta Tesina, se presenta una herramienta web que tiene como objetivo abordar de manera automatizada los desafíos de accesibilidad en documentos de lectura digitales. Esta herramienta busca brindar soluciones prácticas para mejorar la accesibilidad y garantizar que todas las personas puedan acceder y utilizar dichos documentos de manera efectiva.
2023-01-01T00:00:00ZLa tecnología se encuentra cada vez más inmersa en nuestras vidas, incluyendo el ámbito del aprendizaje. En este contexto, la accesibilidad desempeña un papel fundamental al facilitar el acceso a la información y proporcionar recursos de calidad, especialmente para las personas con discapacidad visual y ceguera. En esta Tesina, se presenta una herramienta web que tiene como objetivo abordar de manera automatizada los desafíos de accesibilidad en documentos de lectura digitales. Esta herramienta busca brindar soluciones prácticas para mejorar la accesibilidad y garantizar que todas las personas puedan acceder y utilizar dichos documentos de manera efectiva.Estrategias de comunicación en escenarios educativos híbridos: implementación y
mejoras al sistema de notificaciones push de la aplicación de Moodle para
AulasWebColegios de la UNLPUngaro, Lucas Gustavohttp://sedici.unlp.edu.ar:80/handle/10915/1580232023-09-26T20:09:17Z2023-01-01T00:00:00ZTesis de grado
González, Alejandro Héctor
Licenciado en Sistemas; Universidad Nacional de La Plata
La Universidad Nacional de La Plata (UNLP) utiliza el entorno virtual basado en Moodle denominado AulasWebColegios para generar aulas virtuales para los colegios dependientes de la UNLP. Durante la pandemia, se observó un aumento en el uso de aulas virtuales y una demanda creciente de acceso vía dispositivo móvil. Se propone la puesta en marcha de una aplicación móvil personalizada basada en Moodle para mejorar la comunicación docente-estudiantes, enfocándose en la integración y mejora del módulo de notificaciones push. La misma puede descargarse para el celular y está disponible para docentes y estudiantes.
Asesor profesional: Leandro Matías Romanut
2023-01-01T00:00:00ZLa Universidad Nacional de La Plata (UNLP) utiliza el entorno virtual basado en Moodle denominado AulasWebColegios para generar aulas virtuales para los colegios dependientes de la UNLP. Durante la pandemia, se observó un aumento en el uso de aulas virtuales y una demanda creciente de acceso vía dispositivo móvil. Se propone la puesta en marcha de una aplicación móvil personalizada basada en Moodle para mejorar la comunicación docente-estudiantes, enfocándose en la integración y mejora del módulo de notificaciones push. La misma puede descargarse para el celular y está disponible para docentes y estudiantes.