<?xml version="1.0" encoding="UTF-8"?>
<feed xmlns="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
<title>Volumen 21 | Número 01</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/118006" rel="alternate"/>
<subtitle/>
<id>http://sedici.unlp.edu.ar:80/handle/10915/118006</id>
<updated>2026-03-10T22:55:19Z</updated>
<dc:date>2026-03-10T22:55:19Z</dc:date>
<entry>
<title>Using Text Classification to Estimate the Depression Level of Reddit Users</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/118067" rel="alternate"/>
<author>
<name>Burdisso, Sergio G.</name>
</author>
<author>
<name>Errecalde, Marcelo Luis</name>
</author>
<author>
<name>Montes y Gómez, Manuel</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/118067</id>
<updated>2021-04-29T20:02:19Z</updated>
<published>2021-04-17T00:00:00Z</published>
<summary type="text">Articulo
Usando Clasificación de Textos para Estimar el Nivel de Depresión de Usuarios de Reddit
Journal of Computer Science &amp; Technology; vol. 21, no. 1
Psychologists have used tests and carefully designed survey questions, such as Beck’s Depression Inventory (BDI), to identify the presence of depression and to assess its severity level. On the other hand, methods for automatic depression detection have gained increasing interest since all the information available in social media, such as Twitter and Facebook, enables novel approaches based on language use. More precisely, these methods have focused on learning to detect depressive users through their language usage. However, little effort has been put into going beyond mere detection, towards estimating users’ actual clinical depression level. The present study is a first step towards that direction: we try to develop a model able to estimate Reddit’s users’ clinical depression level by filling in the BDI depression questionnaire on behalf of each user. To carry out his task, the model answers all 21 questions of the questionnaire using the confidence value outputted by a binary text classifier trained to detect depressed users on Reddit. Our proposal was publicly tested in the CLEF’s eRisk 2019 lab obtaining the best and second-best performance among the other 13 submitted models.; Los psicólogos han utilizado cuestionarios cuidadosamente diseñadas, como el “Inventario de Depresión de Beck” (BDI), para identificar la presencia de depresión y evaluar su grado de severidad. Por otro lado, los métodos para automáticamente detectar depresión están ganando un creciente interés debido a la gran cantidad de información disponible en las redes sociales. Mas precisamente, estos métodos se han centrado en aprender a detectar usuarios depresivos a través de su uso del lenguaje. Sin embargo, poco esfuerzo se ha realizado en ir mas allá de la mera detección, hacia la estimación del nivel de depresión clínica real de los usuarios. El presente estudio es un primer paso hacia esa dirección, en donde intentamos desarrollar un modelo capaz de estimar el nivel de depresión clínica de usuarios de Reddit completando el cuestionario de depresión BDI por cada uno de ellos. Para llevar a cabo su tarea, el modelo responde las 21 preguntas del cuestionario utilizando el valor de confianza emitido por un clasificador de texto binario entrenado para detectar usuarios depresivos en Reddit. Nuestra propuesta fue probada públicamente en el eRisk 2019 obteniendo el mejor, y segundo mejor, desempeño entre los otros 13 modelos presentados.
</summary>
<dc:date>2021-04-17T00:00:00Z</dc:date>
<dc:description>Psychologists have used tests and carefully designed survey questions, such as Beck’s Depression Inventory (BDI), to identify the presence of depression and to assess its severity level. On the other hand, methods for automatic depression detection have gained increasing interest since all the information available in social media, such as Twitter and Facebook, enables novel approaches based on language use. More precisely, these methods have focused on learning to detect depressive users through their language usage. However, little effort has been put into going beyond mere detection, towards estimating users’ actual clinical depression level. The present study is a first step towards that direction: we try to develop a model able to estimate Reddit’s users’ clinical depression level by filling in the BDI depression questionnaire on behalf of each user. To carry out his task, the model answers all 21 questions of the questionnaire using the confidence value outputted by a binary text classifier trained to detect depressed users on Reddit. Our proposal was publicly tested in the CLEF’s eRisk 2019 lab obtaining the best and second-best performance among the other 13 submitted models.

Los psicólogos han utilizado cuestionarios cuidadosamente diseñadas, como el “Inventario de Depresión de Beck” (BDI), para identificar la presencia de depresión y evaluar su grado de severidad. Por otro lado, los métodos para automáticamente detectar depresión están ganando un creciente interés debido a la gran cantidad de información disponible en las redes sociales. Mas precisamente, estos métodos se han centrado en aprender a detectar usuarios depresivos a través de su uso del lenguaje. Sin embargo, poco esfuerzo se ha realizado en ir mas allá de la mera detección, hacia la estimación del nivel de depresión clínica real de los usuarios. El presente estudio es un primer paso hacia esa dirección, en donde intentamos desarrollar un modelo capaz de estimar el nivel de depresión clínica de usuarios de Reddit completando el cuestionario de depresión BDI por cada uno de ellos. Para llevar a cabo su tarea, el modelo responde las 21 preguntas del cuestionario utilizando el valor de confianza emitido por un clasificador de texto binario entrenado para detectar usuarios depresivos en Reddit. Nuestra propuesta fue probada públicamente en el eRisk 2019 obteniendo el mejor, y segundo mejor, desempeño entre los otros 13 modelos presentados.</dc:description>
</entry>
<entry>
<title>Blockchain-Based Music Wallet for Copyright Protection in Audio Files</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/118060" rel="alternate"/>
<author>
<name>Gürfidan, Remzi</name>
</author>
<author>
<name>Ersoy, Mevlüt</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/118060</id>
<updated>2021-04-29T20:02:23Z</updated>
<published>2021-04-17T00:00:00Z</published>
<summary type="text">Articulo
Billetera De Música Basada En Blockchain Para Protección De Derechos De Autor En Archivos De Audio
Journal of Computer Science &amp; Technology; vol. 21, no. 1
The works produced within the music industry are presented to their listeners on a digital platform, taking advantage of technology. The problems of the past, such as pirated cassettes and CDs, have left their place to the problem of copyright protection on digital platforms today. Block chain is one of the most reliable and preferred technology in recent times regarding data integrity and data security. In this study, a blockchain-based music wallet model is proposed for safe and legal listening of audio files. The user's selected audio files are converted into block chain structure using different techniques and algorithms and are kept securely in the user's music wallet. In the study, performance comparisons are made with the proposed model application in terms of the length of time an ordinary audio player can add new audio files to the list and the response times of the user. The findings suggest that the proposed model implementation has acceptable differences in performance with an ordinary audio player.; Las obras producidas dentro de la industria de la música se presentan a sus oyentes en una plataforma digital, aprovechando la tecnología. Los problemas del pasado, como los casetes y CD pirateados, han dejado su lugar al problema de la protección de los derechos de autor en las plataformas digitales de hoy. Blockchain es una de las tecnologías más confiables y preferidas en los últimos tiempos en lo que respecta a la integridad y seguridad de los datos. En este estudio, se propone un modelo de billetera de música basado en blockchain para escuchar archivos de audio de manera segura y legal. Los archivos de audio seleccionados por el usuario se convierten en una estructura de cadena de bloques utilizando diferentes técnicas y algoritmos y se guardan de forma segura en la billetera de música del usuario. En el estudio, se realizan comparaciones de rendimiento con la aplicación modelo propuesta en términos de la cantidad de tiempo que un reproductor de audio normal puede agregar nuevos archivos de audio a la lista y los tiempos de respuesta del usuario. Los hallazgos sugieren que la implementación del modelo propuesto tiene diferencias aceptables en el rendimiento con un reproductor de audio común.
</summary>
<dc:date>2021-04-17T00:00:00Z</dc:date>
<dc:description>The works produced within the music industry are presented to their listeners on a digital platform, taking advantage of technology. The problems of the past, such as pirated cassettes and CDs, have left their place to the problem of copyright protection on digital platforms today. Block chain is one of the most reliable and preferred technology in recent times regarding data integrity and data security. In this study, a blockchain-based music wallet model is proposed for safe and legal listening of audio files. The user's selected audio files are converted into block chain structure using different techniques and algorithms and are kept securely in the user's music wallet. In the study, performance comparisons are made with the proposed model application in terms of the length of time an ordinary audio player can add new audio files to the list and the response times of the user. The findings suggest that the proposed model implementation has acceptable differences in performance with an ordinary audio player.

Las obras producidas dentro de la industria de la música se presentan a sus oyentes en una plataforma digital, aprovechando la tecnología. Los problemas del pasado, como los casetes y CD pirateados, han dejado su lugar al problema de la protección de los derechos de autor en las plataformas digitales de hoy. Blockchain es una de las tecnologías más confiables y preferidas en los últimos tiempos en lo que respecta a la integridad y seguridad de los datos. En este estudio, se propone un modelo de billetera de música basado en blockchain para escuchar archivos de audio de manera segura y legal. Los archivos de audio seleccionados por el usuario se convierten en una estructura de cadena de bloques utilizando diferentes técnicas y algoritmos y se guardan de forma segura en la billetera de música del usuario. En el estudio, se realizan comparaciones de rendimiento con la aplicación modelo propuesta en términos de la cantidad de tiempo que un reproductor de audio normal puede agregar nuevos archivos de audio a la lista y los tiempos de respuesta del usuario. Los hallazgos sugieren que la implementación del modelo propuesto tiene diferencias aceptables en el rendimiento con un reproductor de audio común.</dc:description>
</entry>
<entry>
<title>Experiences from a Data Analysis of Crimes against Humanity</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/118055" rel="alternate"/>
<author>
<name>Manrique, Daniela</name>
</author>
<author>
<name>Troncoso, David</name>
</author>
<author>
<name>Buccella, Agustina</name>
</author>
<author>
<name>Cechich, Alejandra</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/118055</id>
<updated>2021-04-29T20:02:24Z</updated>
<published>2021-04-17T00:00:00Z</published>
<summary type="text">Articulo
Experiencias en Análisis de Datos sobre Crímenes de Lesa Humanidad
Journal of Computer Science &amp; Technology; vol. 21, no. 1
Data analysis is a widely researched field, where innumerable applications allow to discover domain particularities that are specially useful. In this paper, we introduce the data analysis process that we applied to two different systems storing information about statements and testimonies of crimes against Humanity. We describe the activities, design decisions and lessons learned from implementing a specific goal, which involves transforming text data into georeferenced information.; El análisis de datos es un área ampliamente estudiada y de la cual existen muchas aplicaciones que permiten descubrir particularidades en los dominios donde se aplica y que pueden ser de gran utilidad. En este trabajo describimos un proceso de análisis de datos aplicado a dos sistemas que almacenan declaraciones y testimonios de delitos de lesa humanidad. Siguiendo un objetivo específico, que involucra la transformación de datos de texto en información geo-referenciada, describimos la actividades necesarias para cumplirlo, las decisiones realizadas y las lecciones aprendidas.
</summary>
<dc:date>2021-04-17T00:00:00Z</dc:date>
<dc:description>Data analysis is a widely researched field, where innumerable applications allow to discover domain particularities that are specially useful. In this paper, we introduce the data analysis process that we applied to two different systems storing information about statements and testimonies of crimes against Humanity. We describe the activities, design decisions and lessons learned from implementing a specific goal, which involves transforming text data into georeferenced information.

El análisis de datos es un área ampliamente estudiada y de la cual existen muchas aplicaciones que permiten descubrir particularidades en los dominios donde se aplica y que pueden ser de gran utilidad. En este trabajo describimos un proceso de análisis de datos aplicado a dos sistemas que almacenan declaraciones y testimonios de delitos de lesa humanidad. Siguiendo un objetivo específico, que involucra la transformación de datos de texto en información geo-referenciada, describimos la actividades necesarias para cumplirlo, las decisiones realizadas y las lecciones aprendidas.</dc:description>
</entry>
<entry>
<title>Towards a Whole Body [&lt;sup&gt;18&lt;/sup&gt;&lt;i&gt;F&lt;/i&gt;] FDG Positron Emission Tomography Attenuation Correction Map Synthesizing using Deep Neural Networks</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/118045" rel="alternate"/>
<author>
<name>Rodríguez Colmeiro, Ramiro</name>
</author>
<author>
<name>Verrastro, Claudio</name>
</author>
<author>
<name>Minsky, Daniel</name>
</author>
<author>
<name>Grosges, Thomas</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/118045</id>
<updated>2021-04-29T20:02:29Z</updated>
<published>2021-04-17T00:00:00Z</published>
<summary type="text">Articulo
Hacia la Sintetización de Mapas de Atenuación de Cuerpo Completo para Tomografía por Emisión de Positrones de [&lt;sup&gt;18&lt;/sup&gt;&lt;i&gt;F&lt;/i&gt;] FDG usando Redes Neuronales Profundas
Journal of Computer Science &amp; Technology; vol. 21, no. 1
The correction of attenuation effects in Positron Emission Tomography (PET) imaging is fundamental to obtain a correct radiotracer distribution. However direct measurement of this attenuation map is not error-free and normally results in additional ionization radiation dose to the patient. Here, we explore the task of whole body attenuation map generation using 3D deep neural networks. We analyze the advantages that an adversarial training can provide to such models. The networks are trained to learn the mapping from non attenuation corrected [&lt;sup&gt; 18&lt;/sup&gt;&lt;i&gt;F&lt;/i&gt;]-fluorodeoxyglucose PET images to a synthetic Computerized Tomography (sCT) and also to label the input voxel tissue. Then the sCT image is further refined using an adversarial training scheme to recover higher frequency details and lost structures using context information. This work is trained and tested on public available datasets, containing several PET images from different scanners with different radiotracer administration and reconstruction modalities. The network is trained with 108 samples and validated on 10 samples. The sCT generation was tested on 133 samples from 8 distinct datasets. The resulting mean absolute error of the tested networks is 96 ± 20 HU and 103 ± 18 HU with a peak signal to noise ratio of 19.3 ± 1.7 dB and 18.6 ± 1.5 dB, for the base model and adversarial model respectively. The attenuation correction is tested by means of attenuation sinograms, obtaining a line of response attenuation mean error lower than 1% with a standard deviation lower than 8%. The proposed deep learning topologies are capable of generating whole body attenuation maps from uncorrected PET image data. Moreover, the accuracy of both methods holds in the presence of data from multiple sources and modalities and are trained on publicly available datasets. Finally, while the adversarial layer enhances visual appearance of the produced samples, the 3D U-Net achieves higher metric performance.; La corrección de los efectos de la atenuación en las imágenes de Tomografía por Emisión de Positrones (PET) es fundamental para obtener la correcta distribución del radio trazador. Sin embargo la medición directa del mapa de atenuación no está libre de errores y normalmente resulta en la absorción de una dosis superior de radiación ionizante por parte del paciente. Aquí, exploramos la tarea de la generación del mapa de atenuación de cuerpo completo usando redes neuronales profundas 3D. Se analizan las ventajas que un entrenamiento adversario puede proveer a estos modelos. Las redes son entrenadas para aprender la conversión desde una imagen de [&lt;sup&gt; 18&lt;/sup&gt;&lt;i&gt;F&lt;/i&gt;]-fluorodeoxyglucosa PET sin corrección de atenuación a una imagen sintética de Tomografía Computada (sCT) y además obtener una etiqueta del tipo de tejido en los voxeles de la imagen. Luego la imagen de sCT es refinada usando un entrenamiento de tipo adversario para recobrar detalles de alta frecuencia y estructuras perdidas usando información contextual. Este trabajo es entrenado y probado sobre conjuntos de datos públicos, conteniendo distintas imágenes PET de diferentes tomógrafos, distintos modos de administración de dosis y modos de reconstrucción. La red es entrenada con 108 muestras y validada con 10 muestras. La generación del sCT fue probada con 133 muestras de 8 conjuntos de datos independientes. El error medio absoluto de las redes es de 96 ± 20 HU y 103 ± 18 HU con una relación señal ruido pico de 103 ± 18 HU y 18.6 ± 1.5 dB para el modelo base y el modelo adversario respectivamente. La corrección de atenuación es probada por medio de sinogramas, obteniendo un error medio en la atenuación de las líneas de respuesta menor al 1% con un desvío estándar menor al 8%. Las topologías de aprendizaje profundo propuestas son capaces de generar mapas de atenuación de cuerpo completo a partir de imágenes PET sin corregir. Además, la exactitud de los métodos se sostiene en presencia de datos de múltiples fuentes y modalidades y son entrenadas en conjuntos de datos públicos. Finalmente, mientras se observa que el entrenamiento adversario mejora la apariencia visual de los mapas generados, la topologa 3D U-Net obtiene mejor rendimiento en las métricas.
</summary>
<dc:date>2021-04-17T00:00:00Z</dc:date>
<dc:description>The correction of attenuation effects in Positron Emission Tomography (PET) imaging is fundamental to obtain a correct radiotracer distribution. However direct measurement of this attenuation map is not error-free and normally results in additional ionization radiation dose to the patient. Here, we explore the task of whole body attenuation map generation using 3D deep neural networks. We analyze the advantages that an adversarial training can provide to such models. The networks are trained to learn the mapping from non attenuation corrected [&lt;sup&gt; 18&lt;/sup&gt;&lt;i&gt;F&lt;/i&gt;]-fluorodeoxyglucose PET images to a synthetic Computerized Tomography (sCT) and also to label the input voxel tissue. Then the sCT image is further refined using an adversarial training scheme to recover higher frequency details and lost structures using context information. This work is trained and tested on public available datasets, containing several PET images from different scanners with different radiotracer administration and reconstruction modalities. The network is trained with 108 samples and validated on 10 samples. The sCT generation was tested on 133 samples from 8 distinct datasets. The resulting mean absolute error of the tested networks is 96 ± 20 HU and 103 ± 18 HU with a peak signal to noise ratio of 19.3 ± 1.7 dB and 18.6 ± 1.5 dB, for the base model and adversarial model respectively. The attenuation correction is tested by means of attenuation sinograms, obtaining a line of response attenuation mean error lower than 1% with a standard deviation lower than 8%. The proposed deep learning topologies are capable of generating whole body attenuation maps from uncorrected PET image data. Moreover, the accuracy of both methods holds in the presence of data from multiple sources and modalities and are trained on publicly available datasets. Finally, while the adversarial layer enhances visual appearance of the produced samples, the 3D U-Net achieves higher metric performance.

La corrección de los efectos de la atenuación en las imágenes de Tomografía por Emisión de Positrones (PET) es fundamental para obtener la correcta distribución del radio trazador. Sin embargo la medición directa del mapa de atenuación no está libre de errores y normalmente resulta en la absorción de una dosis superior de radiación ionizante por parte del paciente. Aquí, exploramos la tarea de la generación del mapa de atenuación de cuerpo completo usando redes neuronales profundas 3D. Se analizan las ventajas que un entrenamiento adversario puede proveer a estos modelos. Las redes son entrenadas para aprender la conversión desde una imagen de [&lt;sup&gt; 18&lt;/sup&gt;&lt;i&gt;F&lt;/i&gt;]-fluorodeoxyglucosa PET sin corrección de atenuación a una imagen sintética de Tomografía Computada (sCT) y además obtener una etiqueta del tipo de tejido en los voxeles de la imagen. Luego la imagen de sCT es refinada usando un entrenamiento de tipo adversario para recobrar detalles de alta frecuencia y estructuras perdidas usando información contextual. Este trabajo es entrenado y probado sobre conjuntos de datos públicos, conteniendo distintas imágenes PET de diferentes tomógrafos, distintos modos de administración de dosis y modos de reconstrucción. La red es entrenada con 108 muestras y validada con 10 muestras. La generación del sCT fue probada con 133 muestras de 8 conjuntos de datos independientes. El error medio absoluto de las redes es de 96 ± 20 HU y 103 ± 18 HU con una relación señal ruido pico de 103 ± 18 HU y 18.6 ± 1.5 dB para el modelo base y el modelo adversario respectivamente. La corrección de atenuación es probada por medio de sinogramas, obteniendo un error medio en la atenuación de las líneas de respuesta menor al 1% con un desvío estándar menor al 8%. Las topologías de aprendizaje profundo propuestas son capaces de generar mapas de atenuación de cuerpo completo a partir de imágenes PET sin corregir. Además, la exactitud de los métodos se sostiene en presencia de datos de múltiples fuentes y modalidades y son entrenadas en conjuntos de datos públicos. Finalmente, mientras se observa que el entrenamiento adversario mejora la apariencia visual de los mapas generados, la topologa 3D U-Net obtiene mejor rendimiento en las métricas.</dc:description>
</entry>
<entry>
<title>Practical Design of Flow Meter for Mechanical Ventilation Equipment</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/118043" rel="alternate"/>
<author>
<name>Dugarte, Nelson</name>
</author>
<author>
<name>Alvarez, Antonio</name>
</author>
<author>
<name>Dugarte, Edison</name>
</author>
<author>
<name>Alvarado, Negman</name>
</author>
<author>
<name>Bhaskar, Sonu</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/118043</id>
<updated>2021-04-29T20:02:30Z</updated>
<published>2021-04-17T00:00:00Z</published>
<summary type="text">Articulo
Diseño Práctico de Caudalímetro para Equipos de Ventilación Mecánica
Journal of Computer Science &amp; Technology; vol. 21, no. 1
This paper introduces a practical technique for the design of an instrument used in air flow measurement or flowmeter. This instrument is an essential component in the hospital medical ventilation equipment functioning, therefore, the parameters design presented in this article focus on this purpose. However, this instrument can be employed to any measurement scale. The technique is based on indirect flow measurement, using a sensor that converts the flow parameter into a differential pressure measurement. An electronic transducer allows the differential pressure values to be obtained as an electrical signal, which is then digitized and analyzed to obtain the original parameter. The experimental procedure presented in this paper utilizes a computational algorithm to perform the signal analysis; however, given the simplicity of the procedure, this could be adapted to any digital processing card or platform, to show the measurement obtained immediately. Preliminary analyses demonstrated instrument efficiency with sensitivity of 0.0681 liters per second (L/s). Accuracy evaluation showed an average measurement error lesser than 1.4%, with a standard deviation of 0.0612 and normal distribution over the set of test measurements.; En este artículo se presenta una técnica simple pero eficiente para el diseño de un instrumento utilizado en la medición de flujo de aire o caudalímetro. Este instrumento es de uso imprescindible en el funcionamiento de equipos de ventilación médica hospitalaria, por consiguiente, los parámetros de diseño presentados en este artículo se enfocan para este fin. Sin embargo, este desarrollo se puede aplicar a cualquier escala de medición. La técnica se basa en la medición indirecta del caudal, utilizando un sensor que convierte el parámetro de flujo en una medición de presión diferencial. Un transductor electrónico permite obtener los valores de presión diferencial como una señal eléctrica, que luego se digitaliza y se analiza para obtener el parámetro que originalmente se desea medir. El procedimiento experimental que se presenta utiliza un computador para realizar el análisis de la señal, pero se puede adaptar a cualquier tarjeta de procesamiento digital, con el propósito de mostrar la medición obtenida de forma inmediata. Las pruebas preliminares de funcionamiento demuestran la eficiencia del instrumento con una sensibilidad de 0.0681 L/s. La evaluación de exactitud presenta un error promedio en la medición inferior a 1.4 %, con desviación standard de 0.0612 y distribución normal sobre el conjunto de mediciones de prueba.
</summary>
<dc:date>2021-04-17T00:00:00Z</dc:date>
<dc:description>This paper introduces a practical technique for the design of an instrument used in air flow measurement or flowmeter. This instrument is an essential component in the hospital medical ventilation equipment functioning, therefore, the parameters design presented in this article focus on this purpose. However, this instrument can be employed to any measurement scale. The technique is based on indirect flow measurement, using a sensor that converts the flow parameter into a differential pressure measurement. An electronic transducer allows the differential pressure values to be obtained as an electrical signal, which is then digitized and analyzed to obtain the original parameter. The experimental procedure presented in this paper utilizes a computational algorithm to perform the signal analysis; however, given the simplicity of the procedure, this could be adapted to any digital processing card or platform, to show the measurement obtained immediately. Preliminary analyses demonstrated instrument efficiency with sensitivity of 0.0681 liters per second (L/s). Accuracy evaluation showed an average measurement error lesser than 1.4%, with a standard deviation of 0.0612 and normal distribution over the set of test measurements.

En este artículo se presenta una técnica simple pero eficiente para el diseño de un instrumento utilizado en la medición de flujo de aire o caudalímetro. Este instrumento es de uso imprescindible en el funcionamiento de equipos de ventilación médica hospitalaria, por consiguiente, los parámetros de diseño presentados en este artículo se enfocan para este fin. Sin embargo, este desarrollo se puede aplicar a cualquier escala de medición. La técnica se basa en la medición indirecta del caudal, utilizando un sensor que convierte el parámetro de flujo en una medición de presión diferencial. Un transductor electrónico permite obtener los valores de presión diferencial como una señal eléctrica, que luego se digitaliza y se analiza para obtener el parámetro que originalmente se desea medir. El procedimiento experimental que se presenta utiliza un computador para realizar el análisis de la señal, pero se puede adaptar a cualquier tarjeta de procesamiento digital, con el propósito de mostrar la medición obtenida de forma inmediata. Las pruebas preliminares de funcionamiento demuestran la eficiencia del instrumento con una sensibilidad de 0.0681 L/s. La evaluación de exactitud presenta un error promedio en la medición inferior a 1.4 %, con desviación standard de 0.0612 y distribución normal sobre el conjunto de mediciones de prueba.</dc:description>
</entry>
<entry>
<title>Proposed extended analytic hierarchical process for selecting data science methodologies</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/118039" rel="alternate"/>
<author>
<name>Eckert, Karina</name>
</author>
<author>
<name>Britos, Paola Verónica</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/118039</id>
<updated>2021-04-29T20:02:32Z</updated>
<published>2021-04-17T00:00:00Z</published>
<summary type="text">Articulo
Propuesta del Proceso Analítico Jerárquico Extendido para la Selección de Metodologías de Ciencias de Datos
Journal of Computer Science &amp; Technology; vol. 21, no. 1
Decision making can present a considerable amount of complexity in competitive environments; where methods that support possess great relevance. The article presents an extension of the Hierarchy Analytical Process; complemented with Personal Construct Theory, which purpose is to reduce ambiguity when defining and establishing values for the criteria in a determined problem. In recent years, the scope for decision making based on data has considerably raised, which is why Data Science as a scientific field is rising in popularity; where one of the main activities for data scientists is selecting an adequate methodology to guide a project with this traits. The steps defined in the proposed model guide this task, from establishing and prioritizing criteria based on degrees of compliance, grouping them by levels, completing the hierarchical structure of the problem, performing the correct comparisons through different levels in an ascendant manner, to finally obtaining the definitive priorities of each methodology for each validation case and sorting them by their adequacy percentages. Both disparate cases, one referred to an industrial/commercial field and the other to an academic field, were effective to corroborate the extent of usefulness of the proposed model; for which in both cases MoProPEI obtained the best results.; Los problemas de toma de decisiones son complejos en entornos competitivos; donde los métodos que ayudan a esta disciplina tienen gran relevancia. Este artículo presenta una extensión al proceso analítico jerárquico; complementado con la teoría de la construcción personal, con el propósito de disminuir la ambigüedad en la definición y valoración de criterios del problema. En los últimos años ha ido tomando mayor envergadura las decisiones tomadas a partir de los datos, es por ello que la ciencia de dato es una disciplina en pleno auge; donde una de las actividades principales de los científicos de datos es la elección de la metodología adecuada para guiar un proyecto de estas características. Los pasos definidos en el modelo propuesto guían esta tarea, desde el establecimiento y priorización de los criterios según el grado de cumplimiento, agrupándolos por niveles, completando la estructura jerárquica del problema, realizando las comparaciones pertinentes subiendo por niveles, hasta obtener las prioridades finales y ordenándolas según los porcentajes de adecuación de cada metodología para cada caso de validación. Ambos casos disimiles, uno referido al ámbito académico y otro al industrial/comercial, sirvieron para corroborar la utilidad del modelo propuesto; donde para ambos casos la metodología MoProPEI obtuvo mejores resultados.
</summary>
<dc:date>2021-04-17T00:00:00Z</dc:date>
<dc:description>Decision making can present a considerable amount of complexity in competitive environments; where methods that support possess great relevance. The article presents an extension of the Hierarchy Analytical Process; complemented with Personal Construct Theory, which purpose is to reduce ambiguity when defining and establishing values for the criteria in a determined problem. In recent years, the scope for decision making based on data has considerably raised, which is why Data Science as a scientific field is rising in popularity; where one of the main activities for data scientists is selecting an adequate methodology to guide a project with this traits. The steps defined in the proposed model guide this task, from establishing and prioritizing criteria based on degrees of compliance, grouping them by levels, completing the hierarchical structure of the problem, performing the correct comparisons through different levels in an ascendant manner, to finally obtaining the definitive priorities of each methodology for each validation case and sorting them by their adequacy percentages. Both disparate cases, one referred to an industrial/commercial field and the other to an academic field, were effective to corroborate the extent of usefulness of the proposed model; for which in both cases MoProPEI obtained the best results.

Los problemas de toma de decisiones son complejos en entornos competitivos; donde los métodos que ayudan a esta disciplina tienen gran relevancia. Este artículo presenta una extensión al proceso analítico jerárquico; complementado con la teoría de la construcción personal, con el propósito de disminuir la ambigüedad en la definición y valoración de criterios del problema. En los últimos años ha ido tomando mayor envergadura las decisiones tomadas a partir de los datos, es por ello que la ciencia de dato es una disciplina en pleno auge; donde una de las actividades principales de los científicos de datos es la elección de la metodología adecuada para guiar un proyecto de estas características. Los pasos definidos en el modelo propuesto guían esta tarea, desde el establecimiento y priorización de los criterios según el grado de cumplimiento, agrupándolos por niveles, completando la estructura jerárquica del problema, realizando las comparaciones pertinentes subiendo por niveles, hasta obtener las prioridades finales y ordenándolas según los porcentajes de adecuación de cada metodología para cada caso de validación. Ambos casos disimiles, uno referido al ámbito académico y otro al industrial/comercial, sirvieron para corroborar la utilidad del modelo propuesto; donde para ambos casos la metodología MoProPEI obtuvo mejores resultados.</dc:description>
</entry>
<entry>
<title>BPM and Socialization Tools Integrated to Improve Acquisition and Management of Information During Design and Execution of business processes: BPM-Social Tool: a proposal</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/118023" rel="alternate"/>
<author>
<name>Mennuto, Pablo</name>
</author>
<author>
<name>Meca Belahonia, Julio César</name>
</author>
<author>
<name>Bazán, Patricia Alejandra</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/118023</id>
<updated>2021-04-29T20:02:34Z</updated>
<published>2021-04-17T00:00:00Z</published>
<summary type="text">Articulo
Herramientas de BPM y de socialización integradas para mejorar la adquisición y gestión de información durante el diseño y ejecución de procesos de negocio. BPM-Social: una propuesta
Journal of Computer Science &amp; Technology; vol. 21, no. 1
The use of BPM (Business Process Management) has matured over the years, reaching high levels of acceptance and utilization. Despite this, there are still points that BPM does not fully resolve. One of the main limitations of the use of BPM is the lack of a complete acquisition of valuable information during the design stage, taking place in contexts where communication between the stakeholders is not appropriate and it is not possible to fully collect essential data. At the execution stage, the participation of users has not been studied in depth to record detected problems or indicate improvements in business processes. The emergence and development of Web 2.0 opened a way to solve these problems. This work proposes to base how the socialization tools can solve current problems in BPM through a theoretical analysis added to the practical development of a socialization tool integrated to a BPMS (Business Process Management System).; La utilización de BPM (Business Process Management) ha ido madurando a lo largo de los años llegando a altos niveles de aceptación y utilización. A pesar de esto, todavía existen puntos que BPM no termina de resolver en su totalidad. Una de las principales limitaciones del uso de BPM es la falta de una completa adquisición de información valiosa durante la etapa de diseño, dándose en contextos donde la comunicación entre los actores involucrados no es apropiada y no se logra recopilar por completo los datos esenciales. En la etapa de ejecución no se ha profundizado en la participación de los usuarios para registrar problemas detectados o indicar mejoras en los procesos de negocio. El surgimiento y desarrollo de la Web 2.0 abrió un camino para resolver estas problemáticas. Este trabajo propone fundamentar cómo las herramientas de socialización pueden resolver problemáticas presentes en BPM mediante un análisis teórico sumado al desarrollo práctico de una herramienta de socialización integrada a un BPMS (Business Process Management System).
</summary>
<dc:date>2021-04-17T00:00:00Z</dc:date>
<dc:description>The use of BPM (Business Process Management) has matured over the years, reaching high levels of acceptance and utilization. Despite this, there are still points that BPM does not fully resolve. One of the main limitations of the use of BPM is the lack of a complete acquisition of valuable information during the design stage, taking place in contexts where communication between the stakeholders is not appropriate and it is not possible to fully collect essential data. At the execution stage, the participation of users has not been studied in depth to record detected problems or indicate improvements in business processes. The emergence and development of Web 2.0 opened a way to solve these problems. This work proposes to base how the socialization tools can solve current problems in BPM through a theoretical analysis added to the practical development of a socialization tool integrated to a BPMS (Business Process Management System).

La utilización de BPM (Business Process Management) ha ido madurando a lo largo de los años llegando a altos niveles de aceptación y utilización. A pesar de esto, todavía existen puntos que BPM no termina de resolver en su totalidad. Una de las principales limitaciones del uso de BPM es la falta de una completa adquisición de información valiosa durante la etapa de diseño, dándose en contextos donde la comunicación entre los actores involucrados no es apropiada y no se logra recopilar por completo los datos esenciales. En la etapa de ejecución no se ha profundizado en la participación de los usuarios para registrar problemas detectados o indicar mejoras en los procesos de negocio. El surgimiento y desarrollo de la Web 2.0 abrió un camino para resolver estas problemáticas. Este trabajo propone fundamentar cómo las herramientas de socialización pueden resolver problemáticas presentes en BPM mediante un análisis teórico sumado al desarrollo práctico de una herramienta de socialización integrada a un BPMS (Business Process Management System).</dc:description>
</entry>
<entry>
<title>Target Tracking in Wireless Sensor Networks</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/118020" rel="alternate"/>
<author>
<name>Ahmad, Tauseef</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/118020</id>
<updated>2021-04-29T20:02:37Z</updated>
<published>2021-04-17T00:00:00Z</published>
<summary type="text">Revision
Journal of Computer Science &amp; Technology; vol. 21, no. 1
A Wireless Sensor Network (WSN) consists of a group of tiny devices called sensors that communicate through wireless links. Sensors are used to collect data about some parameters and send the collected data for further processing to a designated station. The designated station is often called &lt;i&gt;command and control center&lt;/i&gt; (CCC), &lt;i&gt;fusion center&lt;/i&gt; (FC), or sink. Sensors forward the collected data to their leaders or cluster heads, which in turn send it to the centralized station. There are many applications of a WSN such as environmental monitoring, raising alarms for fires in forests and multi-storied buildings, monitoring habitats of wild animals, monitoring children in a kindergarten, support system in play grounds, monitoring indoor patients in a hospital, precision agriculture, detection of infiltration along international boundaries, tracking an object or a target, etc.
</summary>
<dc:date>2021-04-17T00:00:00Z</dc:date>
<dc:description>A Wireless Sensor Network (WSN) consists of a group of tiny devices called sensors that communicate through wireless links. Sensors are used to collect data about some parameters and send the collected data for further processing to a designated station. The designated station is often called &lt;i&gt;command and control center&lt;/i&gt; (CCC), &lt;i&gt;fusion center&lt;/i&gt; (FC), or sink. Sensors forward the collected data to their leaders or cluster heads, which in turn send it to the centralized station. There are many applications of a WSN such as environmental monitoring, raising alarms for fires in forests and multi-storied buildings, monitoring habitats of wild animals, monitoring children in a kindergarten, support system in play grounds, monitoring indoor patients in a hospital, precision agriculture, detection of infiltration along international boundaries, tracking an object or a target, etc.</dc:description>
</entry>
<entry>
<title>Editor’s Note</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/118010" rel="alternate"/>
<author>
<name>De Giusti, Armando Eduardo</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/118010</id>
<updated>2021-04-28T20:02:49Z</updated>
<published>2021-04-17T00:00:00Z</published>
<summary type="text">Contribucion a revista
Journal of Computer Science &amp; Technology; vol. 21, no. 1
This issue presents seven papers related to data science and engineering, text mining, deep learning, business process management, and medical instrumentation. 23 different authors from 14 different Universities of  Argentina, Australia, France, Mexico, Turkey, and Venezuela were involved.
</summary>
<dc:date>2021-04-17T00:00:00Z</dc:date>
<dc:description>This issue presents seven papers related to data science and engineering, text mining, deep learning, business process management, and medical instrumentation. 23 different authors from 14 different Universities of  Argentina, Australia, France, Mexico, Turkey, and Venezuela were involved.</dc:description>
</entry>
</feed>
