<?xml version="1.0" encoding="UTF-8"?>
<feed xmlns="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
<title>Volumen 18 | Número 02</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/70109" rel="alternate"/>
<subtitle/>
<id>http://sedici.unlp.edu.ar:80/handle/10915/70109</id>
<updated>2026-04-14T13:04:17Z</updated>
<dc:date>2026-04-14T13:04:17Z</dc:date>
<entry>
<title>Interactions in Visualization</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/70126" rel="alternate"/>
<author>
<name>Ganuza, María Luján</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/70126</id>
<updated>2019-06-24T04:04:15Z</updated>
<published>2018-10-01T00:00:00Z</published>
<summary type="text">Revision
Journal of Computer Science &amp; Technology; vol. 18, no. 2
The overall goal of this thesis is to define the interactions and a classification of interactions in visualization valid in different application domains. The defined interactions will be applied to the states and transformations of the visualization process. In this context, it is necessary to define a representation for the data sets involved in the process. This representation must be sufficiently flexible to support the different classifications of data, attributes, data sets and visual mappings present in the visualization literature.
Resúmen de la Tesis de Doctorado presentada por la autora el 16 de marzo de 2018 en la UNS para la obtención del título de Doctor en Ciencias de la Computación; Es revisión de: https://digital.cic.gba.gob.ar/handle/11746/7863
</summary>
<dc:date>2018-10-01T00:00:00Z</dc:date>
<dc:description>The overall goal of this thesis is to define the interactions and a classification of interactions in visualization valid in different application domains. The defined interactions will be applied to the states and transformations of the visualization process. In this context, it is necessary to define a representation for the data sets involved in the process. This representation must be sufficiently flexible to support the different classifications of data, attributes, data sets and visual mappings present in the visualization literature.</dc:description>
</entry>
<entry>
<title>Formulation of an optimal academic exam</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/70124" rel="alternate"/>
<author>
<name>Tarifa, Enrique E.</name>
</author>
<author>
<name>Martínez, Sergio L.</name>
</author>
<author>
<name>Domínguez, Samuel Franco</name>
</author>
<author>
<name>Argañaraz, Jorgelina F.</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/70124</id>
<updated>2019-06-24T04:04:17Z</updated>
<published>2018-10-01T00:00:00Z</published>
<summary type="text">Articulo
Formulación de un examen académico óptimo
Journal of Computer Science &amp; Technology; vol. 18, no. 2
The aim of this paper is to formulate an optimal academic exam for a given subject. To do this, the probability is first modelled of a student passing the exam according to the number of units he studies and the professor evaluates. That simulation model is developed by performing a probabilistic analysis.&#13;
An optimal exam is then defined as the one that awards the grade that the student deserves.&#13;
Therefore, in an optimal exam, approve those who deserve to approve, and disapprove those that do not deserve to approve. Besides, this exam must respect the limitations of time and effort that the professor imposes. Based on this definition and using the simulation model, an INLP type optimization model is formulated. This optimization model determines the number of units the professor must evaluate to maximize the probability of getting an optimal exam.; El objetivo de este trabajo es formular un examen académico óptimo para una materia dada. Para ello, primero, se modela la probabilidad de que un estudiante apruebe el examen en función del número de unidades que estudia y de las que el profesor evalúa. Ese modelo de simulación es desarrollado realizando un análisis probabilístico. Un examen óptimo es luego definido como aquel que asigna la nota que el estudiante merece. Por lo tanto, en un examen óptimo, aprueban quienes merecen aprobar, y desaprueban quienes no merecen aprobar.&#13;
Además, el examen debe respetar las limitaciones de tiempo y esfuerzo que el profesor impone. En base a esta definición y usando el modelo de simulación, se formula un modelo de optimización del tipo INLP.&#13;
Este modelo de optimización determina el número de unidades que el profesor debe evaluar para maximizar la probabilidad de conseguir un examen óptimo.
</summary>
<dc:date>2018-10-01T00:00:00Z</dc:date>
<dc:description>The aim of this paper is to formulate an optimal academic exam for a given subject. To do this, the probability is first modelled of a student passing the exam according to the number of units he studies and the professor evaluates. That simulation model is developed by performing a probabilistic analysis.&#13;
An optimal exam is then defined as the one that awards the grade that the student deserves.&#13;
Therefore, in an optimal exam, approve those who deserve to approve, and disapprove those that do not deserve to approve. Besides, this exam must respect the limitations of time and effort that the professor imposes. Based on this definition and using the simulation model, an INLP type optimization model is formulated. This optimization model determines the number of units the professor must evaluate to maximize the probability of getting an optimal exam.

El objetivo de este trabajo es formular un examen académico óptimo para una materia dada. Para ello, primero, se modela la probabilidad de que un estudiante apruebe el examen en función del número de unidades que estudia y de las que el profesor evalúa. Ese modelo de simulación es desarrollado realizando un análisis probabilístico. Un examen óptimo es luego definido como aquel que asigna la nota que el estudiante merece. Por lo tanto, en un examen óptimo, aprueban quienes merecen aprobar, y desaprueban quienes no merecen aprobar.&#13;
Además, el examen debe respetar las limitaciones de tiempo y esfuerzo que el profesor impone. En base a esta definición y usando el modelo de simulación, se formula un modelo de optimización del tipo INLP.&#13;
Este modelo de optimización determina el número de unidades que el profesor debe evaluar para maximizar la probabilidad de conseguir un examen óptimo.</dc:description>
</entry>
<entry>
<title>Other potential problems in Qlink.it</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/70122" rel="alternate"/>
<author>
<name>Castro Lechtaler, Antonio</name>
</author>
<author>
<name>Cipriano, Marcelo</name>
</author>
<author>
<name>García, Edith</name>
</author>
<author>
<name>Lázaro, Pablo</name>
</author>
<author>
<name>Liporace, Julio César</name>
</author>
<author>
<name>Malvacio, Eduardo</name>
</author>
<author>
<name>Maiorano, Ariel</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/70122</id>
<updated>2019-06-24T04:04:22Z</updated>
<published>2018-10-01T00:00:00Z</published>
<summary type="text">Articulo
Otros problemas potenciales en Qlink.it
Journal of Computer Science &amp; Technology; vol. 18, no. 2
In previous work we presented preliminary results obtained by reviewing the source code of Qlink.it web application. In this article, after summarizing previous findings, results of the source code review of Qlink.it Android application will be described.&#13;
This analysis focused on the implementation of cryptographic functionalities. The aim of this publication is also to invite other researchers to analyze the application in order to determine if Qlink.it could be considered secure.; En un trabajo previo presentamos los resultados preliminares obtenidos al revisar el código fuente de la aplicación web de Qlink.it. En este artículo, después de resumir los hallazgos anteriores, se describirán los resultados de la revisión del código fuente de la aplicación Android de Qlink.it. Este análisis se centró en la implementación de funcionalidades criptográficas. El objetivo de esta publicación es invitar a otros investigadores a analizar la aplicación para determinar si Qlink.it podría considerarse seguro.
</summary>
<dc:date>2018-10-01T00:00:00Z</dc:date>
<dc:description>In previous work we presented preliminary results obtained by reviewing the source code of Qlink.it web application. In this article, after summarizing previous findings, results of the source code review of Qlink.it Android application will be described.&#13;
This analysis focused on the implementation of cryptographic functionalities. The aim of this publication is also to invite other researchers to analyze the application in order to determine if Qlink.it could be considered secure.

En un trabajo previo presentamos los resultados preliminares obtenidos al revisar el código fuente de la aplicación web de Qlink.it. En este artículo, después de resumir los hallazgos anteriores, se describirán los resultados de la revisión del código fuente de la aplicación Android de Qlink.it. Este análisis se centró en la implementación de funcionalidades criptográficas. El objetivo de esta publicación es invitar a otros investigadores a analizar la aplicación para determinar si Qlink.it podría considerarse seguro.</dc:description>
</entry>
<entry>
<title>Are GPUs Non-Green Computing Devices?</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/70121" rel="alternate"/>
<author>
<name>Pi Puig, Martín</name>
</author>
<author>
<name>De Giusti, Laura Cristina</name>
</author>
<author>
<name>Naiouf, Marcelo</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/70121</id>
<updated>2019-06-24T04:04:27Z</updated>
<published>2018-10-01T00:00:00Z</published>
<summary type="text">Articulo
¿Son las GPUs dispositivos eficientes energéticamente?
Journal of Computer Science &amp; Technology; vol. 18, no. 2
With energy consumption emerging as one of the biggest issues in the development of HPC (High Performance Computing) applications, the importance of detailed power-related research works becomes a priority. In the last years, GPU coprocessors have been increasingly used to accelerate many of these high-priced systems even though they are embedding millions of transistors on their chips delivering an immediate increase on power consumption necessities. This paper analyzes a set of applications from the Rodinia benchmark suite in terms of CPU and GPU performance and energy consumption. Specifically, it compares single-threaded and multi-threaded CPU versions with GPU implementations, and characterize the execution time, true instant power and average energy consumption to test the idea that GPUs are power-hungry computing devices.; Con el consumo de energía emergiendo como uno de los mayores problemas en el desarrollo de aplicaciones HPC (High Performance Computing), la importancia de trabajos específicos de investigación en este campo se convierte en una prioridad. En los últimos años, los coprocesadores GPU se han utilizado frecuentemente para acelerar muchos de estos costosos sistemas, a pesar de que incorporan millones de transistores en sus chips, lo que genera un aumento considerable en los requerimientos de energía. Este artículo analiza un conjunto de aplicaciones del benchmark Rodinia en términos de rendimiento y consumo de energía de CPU y GPU. Específicamente, se comparan las versiones secuenciales y multihilo en CPU con implementaciones GPU, caracterizando el tiempo de ejecución, la potencia real instantánea y el consumo promedio de energía, con el objetivo de probar la idea de que las GPU son dispositivos de baja eficiencia energética.
</summary>
<dc:date>2018-10-01T00:00:00Z</dc:date>
<dc:description>With energy consumption emerging as one of the biggest issues in the development of HPC (High Performance Computing) applications, the importance of detailed power-related research works becomes a priority. In the last years, GPU coprocessors have been increasingly used to accelerate many of these high-priced systems even though they are embedding millions of transistors on their chips delivering an immediate increase on power consumption necessities. This paper analyzes a set of applications from the Rodinia benchmark suite in terms of CPU and GPU performance and energy consumption. Specifically, it compares single-threaded and multi-threaded CPU versions with GPU implementations, and characterize the execution time, true instant power and average energy consumption to test the idea that GPUs are power-hungry computing devices.

Con el consumo de energía emergiendo como uno de los mayores problemas en el desarrollo de aplicaciones HPC (High Performance Computing), la importancia de trabajos específicos de investigación en este campo se convierte en una prioridad. En los últimos años, los coprocesadores GPU se han utilizado frecuentemente para acelerar muchos de estos costosos sistemas, a pesar de que incorporan millones de transistores en sus chips, lo que genera un aumento considerable en los requerimientos de energía. Este artículo analiza un conjunto de aplicaciones del benchmark Rodinia en términos de rendimiento y consumo de energía de CPU y GPU. Específicamente, se comparan las versiones secuenciales y multihilo en CPU con implementaciones GPU, caracterizando el tiempo de ejecución, la potencia real instantánea y el consumo promedio de energía, con el objetivo de probar la idea de que las GPU son dispositivos de baja eficiencia energética.</dc:description>
</entry>
<entry>
<title>Identifying Key Success Factors in Stopping Flaky Tests in Automated REST Service Testing</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/70119" rel="alternate"/>
<author>
<name>Mascheroni, Maximiliano Agustín</name>
</author>
<author>
<name>Irrazábal, Emanuel</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/70119</id>
<updated>2019-06-24T04:04:30Z</updated>
<published>2018-10-01T00:00:00Z</published>
<summary type="text">Articulo
Identificación de factores clave de éxito para evitar las pruebas automatizadas no determinísticas en servicios REST
Journal of Computer Science &amp; Technology; vol. 18, no. 2
A flaky test is a test which could fail or pass for the same version of a certain software code. In continuous software development environments, flaky tests represent a problem. It is difficult to get an effective and reliable testing pipeline with a set of flaky tests. Also, according to many practitioners, despite the persistence of flaky tests in software development, they have not drawn much attention from the research community. In this paper, we describe how a company faced this issue, and implemented solutions to solve flaky tests for REST web services. The paper concludes proposing a set of key success factors for stopping flaky tests in this type of testing.; Una prueba no determinística es una prueba que podría fallar o ser exitosa con la misma versión de un determinado código de software. En entornos de desarrollo de software continuo, las pruebas no determinísticas representan un problema. Es difícil obtener un proceso de pruebas efectivo y confiable con pruebas no determinísticas. Además, de acuerdo con muchos profesionales, a pesar de la persistencia de este tipo de pruebas, las mismas no han llamado mucho la atención de la comunidad científica. En este trabajo, describimos cómo una empresa se ha enfrentado este problema e implementado soluciones para resolver pruebas no determinísticas en servicios REST. Al final, se proponen un conjunto de factores clave de éxito para evitar este problema en pruebas de servicios.
</summary>
<dc:date>2018-10-01T00:00:00Z</dc:date>
<dc:description>A flaky test is a test which could fail or pass for the same version of a certain software code. In continuous software development environments, flaky tests represent a problem. It is difficult to get an effective and reliable testing pipeline with a set of flaky tests. Also, according to many practitioners, despite the persistence of flaky tests in software development, they have not drawn much attention from the research community. In this paper, we describe how a company faced this issue, and implemented solutions to solve flaky tests for REST web services. The paper concludes proposing a set of key success factors for stopping flaky tests in this type of testing.

Una prueba no determinística es una prueba que podría fallar o ser exitosa con la misma versión de un determinado código de software. En entornos de desarrollo de software continuo, las pruebas no determinísticas representan un problema. Es difícil obtener un proceso de pruebas efectivo y confiable con pruebas no determinísticas. Además, de acuerdo con muchos profesionales, a pesar de la persistencia de este tipo de pruebas, las mismas no han llamado mucho la atención de la comunidad científica. En este trabajo, describimos cómo una empresa se ha enfrentado este problema e implementado soluciones para resolver pruebas no determinísticas en servicios REST. Al final, se proponen un conjunto de factores clave de éxito para evitar este problema en pruebas de servicios.</dc:description>
</entry>
<entry>
<title>Experiences in Learning Problem-Solving through Computational Thinking</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/70118" rel="alternate"/>
<author>
<name>Fernández, Jacqueline</name>
</author>
<author>
<name>Zúñiga, Mariela Elizabeth</name>
</author>
<author>
<name>Rosas, María Verónica</name>
</author>
<author>
<name>Guerrero, Roberto A.</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/70118</id>
<updated>2019-06-24T04:04:32Z</updated>
<published>2018-10-01T00:00:00Z</published>
<summary type="text">Articulo
Experiencias en el aprendizaje de la resolución de problemas mediante pensamiento computacional
Journal of Computer Science &amp; Technology; vol. 18, no. 2
Computational Thinking (CT) represents a possible alternative for improving students’ academic performance in higher level degree related to Science, Technology, Engineering and Mathematics (STEM). This work describes two different experimental proposals with the aim of introducing computational thinking to the problem solving issue. The first one was an introductory course in the Faculty of Physical, Mathematical and Natural Sciences (FCFMyN) in 2017, for students enrolled in computer science related careers. The other experience was a first attempt to introduce CT to students and teachers belonging to not computer related faculties at the National University of San Luis (UNSL). Both initiatives use CT as a mean of improving the problem solving process based on the four following elementary concepts: Decomposition, Abstraction, Recognition of patterns and Algorithm.&#13;
The results of the experiences indicate the relevance of including CT in the learning problem solving issue in different fields. The experiences also conclude that a mandatory CT related course is necessary for those careers having computational problems solving and/or programming related subjects during the first year of their curricula. Part of this work was presented at the XXIII Argentine Congress of Computer Science (CACIC).; El Pensamiento Computacional (PC) representa una alternativa posible para la mejora del rendimiento académico de los estudiantes de nivel superior en áreas relacionadas a la Ciencia, Tecnología, Ingeniería y Matemáticas (STEM; por sus siglas en inglés). Este trabajo describe dos propuestas experimentales diferentes con el propósito de introducir el pensamiento computacional en la resolución de problemas. En el primero se describe un curso introductorio realizado a comienzos del 2017 en la Facultad de Ciencias Físico Matemáticas y Naturales (FCFMyN) destinado a estudiantes matriculados en carreras relacionadas a las ciencias de la computación. La otra experiencia fue una primera aproximación para introducir conceptos del PC a estudiantes y docentes pertenecientes a facultades de la UNSL que no están relacionadas directamente a la computación. Ambas iniciativas se valen del PC como medio para mejorar el proceso de resolución de problemas basado sobre cuatro pilares elementales: Descomposición, Abstracción, Reconocimiento de patrones y Algoritmo. Los resultados de las experiencias dan cuenta de la relevancia de incluir el PC en el aprendizaje de la resolución de problemas en diferentes áreas.&#13;
Además, se evidencia la necesidad de contar con un curso introductorio en modalidad obligatoria en aquellas carreras que tengan materias relacionadas a la resolución de problemas computacionales y/o programación durante el primer año de su plan de estudio. Parte de este trabajo fue presentado en el XXIII Congreso Argentino de Ciencias de la Computación (CACIC).
</summary>
<dc:date>2018-10-01T00:00:00Z</dc:date>
<dc:description>Computational Thinking (CT) represents a possible alternative for improving students’ academic performance in higher level degree related to Science, Technology, Engineering and Mathematics (STEM). This work describes two different experimental proposals with the aim of introducing computational thinking to the problem solving issue. The first one was an introductory course in the Faculty of Physical, Mathematical and Natural Sciences (FCFMyN) in 2017, for students enrolled in computer science related careers. The other experience was a first attempt to introduce CT to students and teachers belonging to not computer related faculties at the National University of San Luis (UNSL). Both initiatives use CT as a mean of improving the problem solving process based on the four following elementary concepts: Decomposition, Abstraction, Recognition of patterns and Algorithm.&#13;
The results of the experiences indicate the relevance of including CT in the learning problem solving issue in different fields. The experiences also conclude that a mandatory CT related course is necessary for those careers having computational problems solving and/or programming related subjects during the first year of their curricula. Part of this work was presented at the XXIII Argentine Congress of Computer Science (CACIC).

El Pensamiento Computacional (PC) representa una alternativa posible para la mejora del rendimiento académico de los estudiantes de nivel superior en áreas relacionadas a la Ciencia, Tecnología, Ingeniería y Matemáticas (STEM; por sus siglas en inglés). Este trabajo describe dos propuestas experimentales diferentes con el propósito de introducir el pensamiento computacional en la resolución de problemas. En el primero se describe un curso introductorio realizado a comienzos del 2017 en la Facultad de Ciencias Físico Matemáticas y Naturales (FCFMyN) destinado a estudiantes matriculados en carreras relacionadas a las ciencias de la computación. La otra experiencia fue una primera aproximación para introducir conceptos del PC a estudiantes y docentes pertenecientes a facultades de la UNSL que no están relacionadas directamente a la computación. Ambas iniciativas se valen del PC como medio para mejorar el proceso de resolución de problemas basado sobre cuatro pilares elementales: Descomposición, Abstracción, Reconocimiento de patrones y Algoritmo. Los resultados de las experiencias dan cuenta de la relevancia de incluir el PC en el aprendizaje de la resolución de problemas en diferentes áreas.&#13;
Además, se evidencia la necesidad de contar con un curso introductorio en modalidad obligatoria en aquellas carreras que tengan materias relacionadas a la resolución de problemas computacionales y/o programación durante el primer año de su plan de estudio. Parte de este trabajo fue presentado en el XXIII Congreso Argentino de Ciencias de la Computación (CACIC).</dc:description>
</entry>
<entry>
<title>Multi-agent Learning by Trial and Error for Resource Leveling during Multi-Project (Re)scheduling</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/70117" rel="alternate"/>
<author>
<name>Tosselli, Laura</name>
</author>
<author>
<name>Bogado, Verónica S.</name>
</author>
<author>
<name>Martínez, Ernesto</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/70117</id>
<updated>2019-06-24T04:04:37Z</updated>
<published>2018-10-01T00:00:00Z</published>
<summary type="text">Articulo
Aprendizaje multi-agente utilizando trial and error para la nivelación de recursos durante el (re)scheduling de múltiples proyectos
Journal of Computer Science &amp; Technology; vol. 18, no. 2
In a multi-project context within enterprise networks, reaching feasible solutions to the (re)scheduling problem represents a major challenge, mainly when scarce resources are shared among projects. Thus, the multi-project (re)scheduling must achieve the most efficient possible resource usage without increasing the prescribed project constraints, considering the Resource Leveling Problem (RLP), whose objective is to level the consumption of resources shared in order to minimize their idle times and to avoid overallocation conflicts.&#13;
In this work, a multi-agent solution that allows solving the Resource Constrained Multi-project Scheduling Problem (RCMPSP) and the Resource Investment Problem (RIP) is extended to incorporate indicators on agents’ payoff functions to address the Resource Leveling Problem in a decentralized and autonomous way, through decoupled rules based on Trial-and-Error approach. The proposed agent-based simulation model is tested through a set of project instances that vary in their structure, parameters, number of resources shared, etc. Results obtained are assessed through different scheduling goals, such as project total duration, project total cost and leveling resource usage. Our results are far better compared to the ones obtained with alternative approaches. This proposal shows that the interacting agents that implement decoupled learning rules find a solution which can be understood as a Nash equilibrium.; En un contexto de múltiples proyectos dentro de redes empresariales, alcanzar soluciones factibles al problema de (re)scheduling representa un gran desafío, principalmente al compartir recursos escasos entre proyectos. Así, el (re)scheduling de múltiples proyectos debe lograr el uso de recursos más eficiente posible sin incrementar las restricciones de proyecto planteadas, considerando el Problema de Nivelación de Recursos, cuyo objetivo es nivelar el consumo de recursos compartidos para minimizar tiempos ociosos y evitar conflictos de sobre-asignaciones.&#13;
En este trabajo, una solución multi-agente para resolver el Problema de Scheduling de Múltiples Proyectos con Restricción de Recursos y el Problema de Inversión de Recursos es extendida para incorporar indicadores en las funciones de recompensa de los agentes para abordar el Problema de Nivelación de Recursos de manera autónoma y descentralizada a través de reglas desacopladas basadas en el enfoque de Aprendizaje por prueba y error. El Modelo de Simulación basado en agentes propuesto es verificado mediante un conjunto de instancias de proyecto que varían en estructura, parámetros, número de recursos compartidos, etc.&#13;
Los resultados obtenidos se evalúan mediante diferentes objetivos de scheduling, como duración total del proyecto, costo total del proyecto y nivelación en el uso de recursos. Nuestros resultados presentan mejoras en comparación a los obtenidos en enfoques alternativos. Esta propuesta muestra que los agentes interactuantes que implementan reglas de aprendizaje desacopladas encuentran una solución que puede entenderse como un equilibrio de Nash.
</summary>
<dc:date>2018-10-01T00:00:00Z</dc:date>
<dc:description>In a multi-project context within enterprise networks, reaching feasible solutions to the (re)scheduling problem represents a major challenge, mainly when scarce resources are shared among projects. Thus, the multi-project (re)scheduling must achieve the most efficient possible resource usage without increasing the prescribed project constraints, considering the Resource Leveling Problem (RLP), whose objective is to level the consumption of resources shared in order to minimize their idle times and to avoid overallocation conflicts.&#13;
In this work, a multi-agent solution that allows solving the Resource Constrained Multi-project Scheduling Problem (RCMPSP) and the Resource Investment Problem (RIP) is extended to incorporate indicators on agents’ payoff functions to address the Resource Leveling Problem in a decentralized and autonomous way, through decoupled rules based on Trial-and-Error approach. The proposed agent-based simulation model is tested through a set of project instances that vary in their structure, parameters, number of resources shared, etc. Results obtained are assessed through different scheduling goals, such as project total duration, project total cost and leveling resource usage. Our results are far better compared to the ones obtained with alternative approaches. This proposal shows that the interacting agents that implement decoupled learning rules find a solution which can be understood as a Nash equilibrium.

En un contexto de múltiples proyectos dentro de redes empresariales, alcanzar soluciones factibles al problema de (re)scheduling representa un gran desafío, principalmente al compartir recursos escasos entre proyectos. Así, el (re)scheduling de múltiples proyectos debe lograr el uso de recursos más eficiente posible sin incrementar las restricciones de proyecto planteadas, considerando el Problema de Nivelación de Recursos, cuyo objetivo es nivelar el consumo de recursos compartidos para minimizar tiempos ociosos y evitar conflictos de sobre-asignaciones.&#13;
En este trabajo, una solución multi-agente para resolver el Problema de Scheduling de Múltiples Proyectos con Restricción de Recursos y el Problema de Inversión de Recursos es extendida para incorporar indicadores en las funciones de recompensa de los agentes para abordar el Problema de Nivelación de Recursos de manera autónoma y descentralizada a través de reglas desacopladas basadas en el enfoque de Aprendizaje por prueba y error. El Modelo de Simulación basado en agentes propuesto es verificado mediante un conjunto de instancias de proyecto que varían en estructura, parámetros, número de recursos compartidos, etc.&#13;
Los resultados obtenidos se evalúan mediante diferentes objetivos de scheduling, como duración total del proyecto, costo total del proyecto y nivelación en el uso de recursos. Nuestros resultados presentan mejoras en comparación a los obtenidos en enfoques alternativos. Esta propuesta muestra que los agentes interactuantes que implementan reglas de aprendizaje desacopladas encuentran una solución que puede entenderse como un equilibrio de Nash.</dc:description>
</entry>
<entry>
<title>Artificial Bee Colony Algorithm Improved with Evolutionary Operators</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/70115" rel="alternate"/>
<author>
<name>Minetti, Gabriela F.</name>
</author>
<author>
<name>Salto, Carolina</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/70115</id>
<updated>2019-06-24T04:04:39Z</updated>
<published>2018-10-01T00:00:00Z</published>
<summary type="text">Articulo
Algoritmo de colonia de abejas artificiales hibridado con algoritmos evolutivos
Journal of Computer Science &amp; Technology; vol. 18, no. 2
In this paper, we design, implement, and analysis the replacement of the method to create new solutions in artificial bee colony algorithm by recombination operators, since the original method is similar to the recombination process used in evolutionary algorithms.&#13;
For that purpose, we present a systematic investigation of the effect of using six different recombination operators for real-coded representations at the employed bee step. All the analysis is carried out using well known test problems. The experimental results suggest that the method to generate a new candidate food position plays an important role in the performance of the algorithm. Computational results and comparisons show that three of the six proposed algorithms are very competitive with the traditional bee colony algorithm.; En este trabajo, se ha diseñado, implementado y analizado el reemplazo del método para crear nuevas soluciones en algoritmos basados en colonia de abejas artificiales por operadores de recombinación, ya que el método original es similar al proceso de recombinación usado en los algoritmos evolutivos. Para cumplir con este propósito, se presenta una investigación sistemática del efecto de usar seis operadores de recombinación distintos en el procedimiento llevado a cabo por la abeja empleada. Para la experimentación se utilizan casos de pruebas complejos, habitualmente utilizados en la literatura. Los resultados obtenidos sugieren que el método generador de nuevas fuentes de comida afecta el desempeño del algoritmo. A partir del análisis y comparaciones de los resultados, se observa que tres de las seis propuestas algorítmicas son competitivas con respecto al algoritmo basado en colonia de abejas tradicional.
</summary>
<dc:date>2018-10-01T00:00:00Z</dc:date>
<dc:description>In this paper, we design, implement, and analysis the replacement of the method to create new solutions in artificial bee colony algorithm by recombination operators, since the original method is similar to the recombination process used in evolutionary algorithms.&#13;
For that purpose, we present a systematic investigation of the effect of using six different recombination operators for real-coded representations at the employed bee step. All the analysis is carried out using well known test problems. The experimental results suggest that the method to generate a new candidate food position plays an important role in the performance of the algorithm. Computational results and comparisons show that three of the six proposed algorithms are very competitive with the traditional bee colony algorithm.

En este trabajo, se ha diseñado, implementado y analizado el reemplazo del método para crear nuevas soluciones en algoritmos basados en colonia de abejas artificiales por operadores de recombinación, ya que el método original es similar al proceso de recombinación usado en los algoritmos evolutivos. Para cumplir con este propósito, se presenta una investigación sistemática del efecto de usar seis operadores de recombinación distintos en el procedimiento llevado a cabo por la abeja empleada. Para la experimentación se utilizan casos de pruebas complejos, habitualmente utilizados en la literatura. Los resultados obtenidos sugieren que el método generador de nuevas fuentes de comida afecta el desempeño del algoritmo. A partir del análisis y comparaciones de los resultados, se observa que tres de las seis propuestas algorítmicas son competitivas con respecto al algoritmo basado en colonia de abejas tradicional.</dc:description>
</entry>
<entry>
<title>Efficient Iris Recognition Management in Object-Related Databases</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/70113" rel="alternate"/>
<author>
<name>Alvez, Carlos E.</name>
</author>
<author>
<name>Miranda, Ernesto</name>
</author>
<author>
<name>Etchart, Graciela</name>
</author>
<author>
<name>Ruíz, Silvia</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/70113</id>
<updated>2019-06-25T04:04:22Z</updated>
<published>2018-10-01T00:00:00Z</published>
<summary type="text">Articulo
Gestión eficiente de reconocimiento del iris en bases de datos objetos-relacionales
Journal of Computer Science &amp; Technology; vol. 18, no. 2
Biometric applications have grown significantly in recent years, particularly iris-based systems. In the present work, an extension of an Object Relational Database Management System for the integral management of a biometric system based on the human iris was presented. Although at present, there are many database extensions for different domains, in no case for biometric applications. The proposed extension includes both the extension of the type system and the definition of domain indexes for performance improvement. The aim of this work is to provide a tool that facilitates the development of biometric applications based on the iris feature. Its development is based on a reference architecture that includes both the management of images of the iris trait, its associated metadata and the necessary methods for both manipulation and queries. An implementation of the extension is performed for PostgreSQL DBMS, and SP-GiST framework is used in the implementation of a domain index.&#13;
Experiments were carried out to evaluate the performance of the proposed index, which shows improvements in query execution times.; Las aplicaciones biométricas han crecido significativamente en los últimos años, en particular los sistemas basados en el iris. En el presente trabajo se presenta una ampliación de un Sistema de Gestión de Base de Datos Objeto-Relacional para la gestión integral de un sistema biométrico basado en el iris humano. Aunque en la actualidad existen muchas extensiones de bases de datos para diferentes dominios, en ningún caso existen para aplicaciones biométricas. La extensión propuesta incluye tanto la extensión del sistema de tipos como la definición de índices de dominio para la mejora del rendimiento.&#13;
El objetivo de este trabajo es proporcionar una herramienta que facilite el desarrollo de aplicaciones biométricas basadas en el iris. Su desarrollo se basa en una arquitectura de referencia que incluye tanto la gestión de las imágenes del rasgo del iris, sus metadatos asociados y los métodos necesarios, tanto para la manipulación como para las consultas. Se realiza una implementación de la extensión para PostgreSQL DBMS, y se utiliza el framework SPGiST en la implementación de un índice de dominio.&#13;
Se realizaron experimentos para evaluar el desempeño del índice propuesto, que muestra mejoras en los tiempos de ejecución de las consultas.
</summary>
<dc:date>2018-10-01T00:00:00Z</dc:date>
<dc:description>Biometric applications have grown significantly in recent years, particularly iris-based systems. In the present work, an extension of an Object Relational Database Management System for the integral management of a biometric system based on the human iris was presented. Although at present, there are many database extensions for different domains, in no case for biometric applications. The proposed extension includes both the extension of the type system and the definition of domain indexes for performance improvement. The aim of this work is to provide a tool that facilitates the development of biometric applications based on the iris feature. Its development is based on a reference architecture that includes both the management of images of the iris trait, its associated metadata and the necessary methods for both manipulation and queries. An implementation of the extension is performed for PostgreSQL DBMS, and SP-GiST framework is used in the implementation of a domain index.&#13;
Experiments were carried out to evaluate the performance of the proposed index, which shows improvements in query execution times.

Las aplicaciones biométricas han crecido significativamente en los últimos años, en particular los sistemas basados en el iris. En el presente trabajo se presenta una ampliación de un Sistema de Gestión de Base de Datos Objeto-Relacional para la gestión integral de un sistema biométrico basado en el iris humano. Aunque en la actualidad existen muchas extensiones de bases de datos para diferentes dominios, en ningún caso existen para aplicaciones biométricas. La extensión propuesta incluye tanto la extensión del sistema de tipos como la definición de índices de dominio para la mejora del rendimiento.&#13;
El objetivo de este trabajo es proporcionar una herramienta que facilite el desarrollo de aplicaciones biométricas basadas en el iris. Su desarrollo se basa en una arquitectura de referencia que incluye tanto la gestión de las imágenes del rasgo del iris, sus metadatos asociados y los métodos necesarios, tanto para la manipulación como para las consultas. Se realiza una implementación de la extensión para PostgreSQL DBMS, y se utiliza el framework SPGiST en la implementación de un índice de dominio.&#13;
Se realizaron experimentos para evaluar el desempeño del índice propuesto, que muestra mejoras en los tiempos de ejecución de las consultas.</dc:description>
</entry>
<entry>
<title>Unsupervised TOF Image Segmentation through Spectral Clustering and Region Merging</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/70111" rel="alternate"/>
<author>
<name>Lorenti, Luciano</name>
</author>
<author>
<name>Giacomantone, Javier</name>
</author>
<author>
<name>Bria, Oscar N.</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/70111</id>
<updated>2019-06-25T04:04:25Z</updated>
<published>2018-10-01T00:00:00Z</published>
<summary type="text">Articulo
Segmentación no supervisada de imágenes TOF vía clustering espectral y unión de regiones
Journal of Computer Science &amp; Technology; vol. 18, no. 2
Time of Flight (TOF) cameras generate two simultaneous images, one of intensity and one of range.&#13;
This allows to tackle segmentation problems in which the separate use of intensity or range information is not enough to extract objects of interest from the 3D scene. In turn, range information allows to obtain a normal vector estimation of each point of the captured surfaces. This article presents a semi-supervised spectral clustering method which combines intensity and range information as well as normal vector orientations to improve segmentation results. The main contribution of this article consists in the use of a statistical region merging as a final step of the segmentation method. The region merging process combines adjacent regions which satisfy a similarity criterion. The performance of the proposed method was evaluated over real images. The use of this final step presents preliminary improvements in the metrics evaluated.; Las cámaras de tiempo de vuelo (TOF) generan dos imágenes simultáneas, una de intensidad y una de rango. Esto permite abordar problemas de segmentación donde la información de intensidad o de rango separadamente es insuficiente para extraer los objetos de interés de la escena 3D. A su vez, la información de rango permite obtener una aproximación del vector normal de cada punto de las superficies capturadas. En este artículo se presenta un método de clustering espectral no supervisado que combina la información de intensidad, de rango y las orientaciones de los vectores normales para mejorar los resultados de la segmentación. La principal contribución de este artículo consiste en la utilización de un proceso estadístico de unión de regiones como paso final de método de segmentación. El proceso de unión de regiones combina regiones adjacentes que satisfacen un criterio de semejanza. El rendimiento del método propuesto fue evaluado sobre imágenes reales. El uso de este paso final presenta mejoras preliminares en las métricas evaluadas.
</summary>
<dc:date>2018-10-01T00:00:00Z</dc:date>
<dc:description>Time of Flight (TOF) cameras generate two simultaneous images, one of intensity and one of range.&#13;
This allows to tackle segmentation problems in which the separate use of intensity or range information is not enough to extract objects of interest from the 3D scene. In turn, range information allows to obtain a normal vector estimation of each point of the captured surfaces. This article presents a semi-supervised spectral clustering method which combines intensity and range information as well as normal vector orientations to improve segmentation results. The main contribution of this article consists in the use of a statistical region merging as a final step of the segmentation method. The region merging process combines adjacent regions which satisfy a similarity criterion. The performance of the proposed method was evaluated over real images. The use of this final step presents preliminary improvements in the metrics evaluated.

Las cámaras de tiempo de vuelo (TOF) generan dos imágenes simultáneas, una de intensidad y una de rango. Esto permite abordar problemas de segmentación donde la información de intensidad o de rango separadamente es insuficiente para extraer los objetos de interés de la escena 3D. A su vez, la información de rango permite obtener una aproximación del vector normal de cada punto de las superficies capturadas. En este artículo se presenta un método de clustering espectral no supervisado que combina la información de intensidad, de rango y las orientaciones de los vectores normales para mejorar los resultados de la segmentación. La principal contribución de este artículo consiste en la utilización de un proceso estadístico de unión de regiones como paso final de método de segmentación. El proceso de unión de regiones combina regiones adjacentes que satisfacen un criterio de semejanza. El rendimiento del método propuesto fue evaluado sobre imágenes reales. El uso de este paso final presenta mejoras preliminares en las métricas evaluadas.</dc:description>
</entry>
<entry>
<title>Towards Building Reuse-Based Digital Libraries for National Universities in Patagonia</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/70110" rel="alternate"/>
<author>
<name>Cechich, Alejandra</name>
</author>
<author>
<name>Buccella, Agustina</name>
</author>
<author>
<name>Manrique, Daniela</name>
</author>
<author>
<name>Pérez, Lucas</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/70110</id>
<updated>2019-06-25T04:04:28Z</updated>
<published>2018-10-01T00:00:00Z</published>
<summary type="text">Articulo
Hacia la construcción de librerías digitales basadas en reuso para universidades nacionales en la Patagonia
Journal of Computer Science &amp; Technology; vol. 18, no. 2
This article presents a case study exploring the use of software product lines and reference models as mechanisms of a reuse-based design process to build digital libraries. As a key component in a modern digital library, the reference architecture is responsible for helping define quality of the resulting repository. It is true that many efforts have been addressed towards providing interoperability; however, repositories are expected to provide high levels of reuse too, which goes beyond that of simple object sharing. This work presents the main steps we followed towards building a reusable digital library capable of accommodating such needs by (i) providing mechanisms to reuse resources, and (ii) enabling explicit sharing of commonalities in a distributed environment.; Este artículo presenta un caso de estudio que explora el uso de líneas de productos de software y modelos de referencia como mecanismos de un proceso de diseño basado en reuso para construir bibliotecas digitales. Como componente clave en una biblioteca digital moderna, la arquitectura de referencia es responsable de ayudar a definir la calidad del repositorio resultante. En la literatura se han realizado muchos esfuerzos para proporcionar interoperabilidad; sin embargo, se espera que los repositorios proporcionen también altos niveles de reutilización, que van más allá del simple intercambio de objetos. Este trabajo presenta los pasos principales para construir una biblioteca digital reusable capaz de acomodar tales necesidades mediante dos actividades específicas (i) proporcionar mecanismos para reutilizar recursos, y (ii) permitir el intercambio explícito de aspectos comunes en un entorno distribuido.
</summary>
<dc:date>2018-10-01T00:00:00Z</dc:date>
<dc:description>This article presents a case study exploring the use of software product lines and reference models as mechanisms of a reuse-based design process to build digital libraries. As a key component in a modern digital library, the reference architecture is responsible for helping define quality of the resulting repository. It is true that many efforts have been addressed towards providing interoperability; however, repositories are expected to provide high levels of reuse too, which goes beyond that of simple object sharing. This work presents the main steps we followed towards building a reusable digital library capable of accommodating such needs by (i) providing mechanisms to reuse resources, and (ii) enabling explicit sharing of commonalities in a distributed environment.

Este artículo presenta un caso de estudio que explora el uso de líneas de productos de software y modelos de referencia como mecanismos de un proceso de diseño basado en reuso para construir bibliotecas digitales. Como componente clave en una biblioteca digital moderna, la arquitectura de referencia es responsable de ayudar a definir la calidad del repositorio resultante. En la literatura se han realizado muchos esfuerzos para proporcionar interoperabilidad; sin embargo, se espera que los repositorios proporcionen también altos niveles de reutilización, que van más allá del simple intercambio de objetos. Este trabajo presenta los pasos principales para construir una biblioteca digital reusable capaz de acomodar tales necesidades mediante dos actividades específicas (i) proporcionar mecanismos para reutilizar recursos, y (ii) permitir el intercambio explícito de aspectos comunes en un entorno distribuido.</dc:description>
</entry>
</feed>
