<?xml version="1.0" encoding="UTF-8"?>
<feed xmlns="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
<title>Volumen 18 | Número 03</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/71619" rel="alternate"/>
<subtitle/>
<id>http://sedici.unlp.edu.ar:80/handle/10915/71619</id>
<updated>2026-04-14T08:17:42Z</updated>
<dc:date>2026-04-14T08:17:42Z</dc:date>
<entry>
<title>Cloud Computing Application Model for Online Recommendation through Fuzzy Logic System</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/71688" rel="alternate"/>
<author>
<name>Shojaei, Elham</name>
</author>
<author>
<name>Luque Fadón, Emilio</name>
</author>
<author>
<name>Rexachs del Rosario, Dolores</name>
</author>
<author>
<name>Epelde, Francisco</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/71688</id>
<updated>2019-06-25T04:04:30Z</updated>
<published>2018-12-01T00:00:00Z</published>
<summary type="text">Articulo
Modelo de utilización de la computación en la nube para realizar recomendaciones a través del sistema de lógica difusa online
VI Jornadas de Cloud Computing &amp; Big Data - JCC&amp;BD 2018 (La Plata, junio 2018); Journal of Computer Science &amp; Technology; vol. 18, no. 3; http://sedici.unlp.edu.ar/handle/10915/69916
Cloud computing can offer us different distance services over the internet. We propose an online application model for using health care systems that works by using cloud computing. It can provide a higher quality of services remotely and along with that, it decreases the cost of chronic patients. This model is composed of two sub-model, each of which uses a different service.&#13;
One of these is software as a service (SaaS), which is user related, and the other one is Platform as a service (PaaS), that is engineer related. Doctors classify the chronic diseases into different stages according to their symptoms. As the clinical data has a non-numeric value, we use the fuzzy logic system in the Paas model to design this online application model.&#13;
Based on this classification, patients can receive the proper recommendation through smart devices (SaaS model).; La computación en nube nos puede ofrecer diferentes servicios a distancia a través de Internet. El sistema sanitario puede beneficiarse del uso de cloud computing para proporcionar un servicio de atención al paciente crónico de mayor calidad incorporando servicios que se pueden realizar de forma remota, esto ayudaría a tener un sistema de atención personalizado y al mismo tiempo más sostenible. Este modelo está compuesto por dos sub-modelo que cada uno usa un servicio cloud diferente, se utiliza el software como un servicio (SaaS) para la atención al usuario y la plataforma como servicio (PaaS) para el desarrollo de servicios. Las enfermedades crónicas se pueden clasificar en diferentes etapas según sus síntomas. Como los datos clínicos tienen un valor no numérico, se propone la utilización de un sistema de lógica difusa en el modelo PaasS para dar soporte al diseño. Basado en esta clasificación, los pacientes pueden recibir la recomendación adecuada a través de dispositivos inteligentes (utilizando SaaS).
</summary>
<dc:date>2018-12-01T00:00:00Z</dc:date>
<dc:description>Cloud computing can offer us different distance services over the internet. We propose an online application model for using health care systems that works by using cloud computing. It can provide a higher quality of services remotely and along with that, it decreases the cost of chronic patients. This model is composed of two sub-model, each of which uses a different service.&#13;
One of these is software as a service (SaaS), which is user related, and the other one is Platform as a service (PaaS), that is engineer related. Doctors classify the chronic diseases into different stages according to their symptoms. As the clinical data has a non-numeric value, we use the fuzzy logic system in the Paas model to design this online application model.&#13;
Based on this classification, patients can receive the proper recommendation through smart devices (SaaS model).

La computación en nube nos puede ofrecer diferentes servicios a distancia a través de Internet. El sistema sanitario puede beneficiarse del uso de cloud computing para proporcionar un servicio de atención al paciente crónico de mayor calidad incorporando servicios que se pueden realizar de forma remota, esto ayudaría a tener un sistema de atención personalizado y al mismo tiempo más sostenible. Este modelo está compuesto por dos sub-modelo que cada uno usa un servicio cloud diferente, se utiliza el software como un servicio (SaaS) para la atención al usuario y la plataforma como servicio (PaaS) para el desarrollo de servicios. Las enfermedades crónicas se pueden clasificar en diferentes etapas según sus síntomas. Como los datos clínicos tienen un valor no numérico, se propone la utilización de un sistema de lógica difusa en el modelo PaasS para dar soporte al diseño. Basado en esta clasificación, los pacientes pueden recibir la recomendación adecuada a través de dispositivos inteligentes (utilizando SaaS).</dc:description>
</entry>
<entry>
<title>Cloud Computing, Big Data and the Industry 4.0 Reference Architectures</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/71687" rel="alternate"/>
<author>
<name>Velásquez, Nancy</name>
</author>
<author>
<name>Estévez, Elsa Clara</name>
</author>
<author>
<name>Pesado, Patricia Mabel</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/71687</id>
<updated>2019-06-25T04:04:32Z</updated>
<published>2018-12-01T00:00:00Z</published>
<summary type="text">Articulo
Cloud Computing, Big Data y las Arquitecturas de Referencia de la Industria 4.0
VI Jornadas de Cloud Computing &amp; Big Data - JCC&amp;BD 2018 (La Plata, junio 2018); Journal of Computer Science &amp; Technology; vol. 18, no. 3; http://sedici.unlp.edu.ar/handle/10915/69948
The Industry 4.0 promotes the use of Information and Communication Technologies (ICT) in manufacturing processes to obtain customized products satisfying demanding needs of new consumers. The Industry 4.0 approach transforms the traditional pyramid model of automation to a network model of interconnected services, combining operational technology (OT) with Information Technology (IT). This new model allows the creation of ecosystems enabling more flexible production processes through connecting systems and sharing data. In this context, cloud computing and big data are critical technologies for leveraging the approach. Thus, this paper analyzes cloud computing and big data under the lenses of two leading reference architectures for implementing Industry 4.0: 1) the Industrial Internet Reference Architecture (IIRA), and 2) the Reference Architecture Model Industrie 4.0 (RAMI 4.0). A main contribution of this paper is to present a comparative analysis of IIRA and RAMI 4.0, discussing needs, benefits, and challenges of applying cloud computing and big data in the Industry 4.0.; La Industria 4.0 promueve el uso de las Tecnologías de la Información y la Comunicación (TIC) en los procesos de fabricación para obtener productos personalizados que satisfagan las necesidades más exigentes de los nuevos consumidores. El enfoque de Industria 4.0 transforma el modelo tradicional piramidal de automatización en un modelo de red de servicios interconectados, combinando la tecnología operacional (OT, en inglés) con la tecnología de la información (TI). Este nuevo modelo permite la creación de ecosistemas para hacer el proceso de producción más flexible mediante la conexión de sistemas y el intercambio de datos. En este contexto, la computación en la nube y el big data (grandes volúmenes de datos) son tecnologías fundamentales para implementar la Industria 4.0. Por lo tanto, este documento analiza la computación en la nube y grandes volúmenes de datos bajo las lentes de dos arquitecturas de referencia líderes para la implementación de Industria 4.0: 1) la Arquitectura de Referencia de Internet Industrial (IIRA), y 2) el Modelo de Arquitectura de Referencia Industrie 4.0 (RAMI 4.0). La contribución principal de este artículo es presentar una guía comparativa de IIRA y RAMI 4.0 y discutir las necesidades, los beneficios y los desafíos de la aplicación de computación en la nube y grandes volúmenes de datos en Industria 4.0.
</summary>
<dc:date>2018-12-01T00:00:00Z</dc:date>
<dc:description>The Industry 4.0 promotes the use of Information and Communication Technologies (ICT) in manufacturing processes to obtain customized products satisfying demanding needs of new consumers. The Industry 4.0 approach transforms the traditional pyramid model of automation to a network model of interconnected services, combining operational technology (OT) with Information Technology (IT). This new model allows the creation of ecosystems enabling more flexible production processes through connecting systems and sharing data. In this context, cloud computing and big data are critical technologies for leveraging the approach. Thus, this paper analyzes cloud computing and big data under the lenses of two leading reference architectures for implementing Industry 4.0: 1) the Industrial Internet Reference Architecture (IIRA), and 2) the Reference Architecture Model Industrie 4.0 (RAMI 4.0). A main contribution of this paper is to present a comparative analysis of IIRA and RAMI 4.0, discussing needs, benefits, and challenges of applying cloud computing and big data in the Industry 4.0.

La Industria 4.0 promueve el uso de las Tecnologías de la Información y la Comunicación (TIC) en los procesos de fabricación para obtener productos personalizados que satisfagan las necesidades más exigentes de los nuevos consumidores. El enfoque de Industria 4.0 transforma el modelo tradicional piramidal de automatización en un modelo de red de servicios interconectados, combinando la tecnología operacional (OT, en inglés) con la tecnología de la información (TI). Este nuevo modelo permite la creación de ecosistemas para hacer el proceso de producción más flexible mediante la conexión de sistemas y el intercambio de datos. En este contexto, la computación en la nube y el big data (grandes volúmenes de datos) son tecnologías fundamentales para implementar la Industria 4.0. Por lo tanto, este documento analiza la computación en la nube y grandes volúmenes de datos bajo las lentes de dos arquitecturas de referencia líderes para la implementación de Industria 4.0: 1) la Arquitectura de Referencia de Internet Industrial (IIRA), y 2) el Modelo de Arquitectura de Referencia Industrie 4.0 (RAMI 4.0). La contribución principal de este artículo es presentar una guía comparativa de IIRA y RAMI 4.0 y discutir las necesidades, los beneficios y los desafíos de la aplicación de computación en la nube y grandes volúmenes de datos en Industria 4.0.</dc:description>
</entry>
<entry>
<title>Secure Computer Network: Strategies and Challengers in Big Data Era</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/71686" rel="alternate"/>
<author>
<name>Barrionuevo, Mercedes</name>
</author>
<author>
<name>Lopresti, Mariela</name>
</author>
<author>
<name>Miranda, Natalia Carolina</name>
</author>
<author>
<name>Piccoli, María Fabiana</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/71686</id>
<updated>2019-06-25T04:04:34Z</updated>
<published>2018-12-01T00:00:00Z</published>
<summary type="text">Articulo
Seguridad en redes de computadoras: estrategias y desafíos en la era de big data
VI Jornadas de Cloud Computing &amp; Big Data - JCC&amp;BD 2018 (La Plata, junio 2018); Journal of Computer Science &amp; Technology; vol. 18, no. 3; http://sedici.unlp.edu.ar/handle/10915/70001
As computer networks have transformed in essential tools, their security has become a crucial problem for computer systems. Detecting unusual values from large volumes of information produced by network traffic has acquired huge interest in the network security area. Anomaly detection is a starting point to prevent attacks, therefore it is important for all computer systems in a network have a system of detecting anomalous events in a time near their occurrence. Detecting these events can lead network administrators to identify system failures, take preventive actions and avoid a massive damage.&#13;
This work presents, first, how identify network traffic anomalies through applying parallel computing techniques and Graphical Processing Units in two algorithms, one of them a supervised classification algorithm and the other based in network traffic image processing. Finally, it is proposed as a challenge to resolve the anomalies detection using an unsupervised algorithm as Deep Learning.; Dado que las redes de computadoras se han transformado en una herramienta esencial, su seguridad se ha convertido en un problema crucial para los sistemas de computación. Detectar valores inusuales en grandes volúmenes de información producidos por el tráfico de red ha adquirido un enorme interés en el área de seguridad de redes. La detección de anomalías es el punto de partida para prevenir ataques, por lo tanto es importante para todos los sistemas de computación pertenecientes a una red tener un sistema de detección de eventos anómalos en un tiempo cercano a su ocurrencia. Detectar estos eventos permitiría a los administradores de red identificar fallas en el sistema, tomar acciones preventivas y evitar daños masivos.&#13;
Este trabajo presenta, primero, cómo identificar anomalías de tráfico en la red aplicando técnicas de computación paralela y Unidades de Procesamiento Gráfico en dos algoritmos, un algoritmo de clasificación supervisada y otro basado en procesamiento de imágenes de tráfico de red. Finalmente, se propone como desafío resolver la detección de anomalías usando un algoritmo no supervisado como Aprendizaje Profundo.
</summary>
<dc:date>2018-12-01T00:00:00Z</dc:date>
<dc:description>As computer networks have transformed in essential tools, their security has become a crucial problem for computer systems. Detecting unusual values from large volumes of information produced by network traffic has acquired huge interest in the network security area. Anomaly detection is a starting point to prevent attacks, therefore it is important for all computer systems in a network have a system of detecting anomalous events in a time near their occurrence. Detecting these events can lead network administrators to identify system failures, take preventive actions and avoid a massive damage.&#13;
This work presents, first, how identify network traffic anomalies through applying parallel computing techniques and Graphical Processing Units in two algorithms, one of them a supervised classification algorithm and the other based in network traffic image processing. Finally, it is proposed as a challenge to resolve the anomalies detection using an unsupervised algorithm as Deep Learning.

Dado que las redes de computadoras se han transformado en una herramienta esencial, su seguridad se ha convertido en un problema crucial para los sistemas de computación. Detectar valores inusuales en grandes volúmenes de información producidos por el tráfico de red ha adquirido un enorme interés en el área de seguridad de redes. La detección de anomalías es el punto de partida para prevenir ataques, por lo tanto es importante para todos los sistemas de computación pertenecientes a una red tener un sistema de detección de eventos anómalos en un tiempo cercano a su ocurrencia. Detectar estos eventos permitiría a los administradores de red identificar fallas en el sistema, tomar acciones preventivas y evitar daños masivos.&#13;
Este trabajo presenta, primero, cómo identificar anomalías de tráfico en la red aplicando técnicas de computación paralela y Unidades de Procesamiento Gráfico en dos algoritmos, un algoritmo de clasificación supervisada y otro basado en procesamiento de imágenes de tráfico de red. Finalmente, se propone como desafío resolver la detección de anomalías usando un algoritmo no supervisado como Aprendizaje Profundo.</dc:description>
</entry>
<entry>
<title>Fire Propagation Visualization in Real Time</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/71659" rel="alternate"/>
<author>
<name>Waidelich, Sigfrido</name>
</author>
<author>
<name>Laneri, Karina</name>
</author>
<author>
<name>Denham, Mónica Malén</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/71659</id>
<updated>2019-06-25T04:04:37Z</updated>
<published>2018-12-01T00:00:00Z</published>
<summary type="text">Articulo
Visualización de la propagación del fuego en incendios forestales en tiempo real
VI Jornadas de Cloud Computing &amp; Big Data - JCC&amp;BD 2018 (La Plata, junio 2018); Journal of Computer Science &amp; Technology; vol. 18, no. 3; http://sedici.unlp.edu.ar/handle/10915/69918
Our motivation comes from the need of a tailored computational tool for simulation and prediction of forest fire propagation, to be used by firefighters in Patagonia, Argentina. Based on previous works on Graphic Processing Units (GPU) for fitting and simulating fires in our region, we developed a visualization interface for real time computing, simulation and prediction of fire propagation. We have the possibility of changing the ensemble of raster maps layers to change the region in which fire will propagate. The visualization platform runs on GPUs and the user can rotate and zoom the landscape to select the optimal view of fire propagation. Opacity of different layers can be regulated by the user, allowing to see fire propagation at the same time that underlying vegetation, wind direction and intensity. The ignition point can also be selected by the user, and firebreaks can be plotted while simulation is going on. After the performance of a high number of stochastic simulations in parallel in GPUs, the application shows a map of the final fire surface colored according to the probability that a given cell burns. In this way the user can visually identify the most critical direction for fire propagation, a useful information to stop fire optimizing resources, which is specially important when they are scarce like is the case of our Patagonia region.; La motivación de nuestro trabajo es la evidente necesidad de disponer de un simulador del avance del fuego en incendios forestales para ser utilizado en nuestro país. Basado en trabajos previos que, usando GPGPUs, simulan el avance del fuego en la zona andino patagónica, hemos desarrollado una aplicación con interfaz visual para la simulación y predicción del avance del fuego en incendios forestales. El mismo utiliza archivos raster como entrada para describir el entorno del incendio. Cambiando dichos archivos de entrada, se puede utilizar el simulador para cualquier región. Se utilizan placas gráficas para ejecutar y resolver la interfaz visual del simulador, resolviendo también la interacción con el usuario. El usuario puede rotar, acercar o alejar, desplazar la imagen, eligiendo en cada momento la mejor visualización del incendio. Usando múltiples capas de información, el usuario puede combinar distintos datos: vegetación, viento (dirección y velocidad), celdas quemadas, altura, etc. El usuario define el punto de inicio del fuego, como así también puede definir cortafuegos en tiempo de simulación. La interfaz visual muestra el resultado de múltiples avances del fuego (proceso estocástico), coloreando cada zona del incendio con un color acorde a la probabilidad de que dicha zona sea alcanzada por el fuego. De esta forma, el usuario puede identificar las zonas más críticas de avance del fuego, información ´util para hacer más efectivo el combate contra el incendio.
</summary>
<dc:date>2018-12-01T00:00:00Z</dc:date>
<dc:description>Our motivation comes from the need of a tailored computational tool for simulation and prediction of forest fire propagation, to be used by firefighters in Patagonia, Argentina. Based on previous works on Graphic Processing Units (GPU) for fitting and simulating fires in our region, we developed a visualization interface for real time computing, simulation and prediction of fire propagation. We have the possibility of changing the ensemble of raster maps layers to change the region in which fire will propagate. The visualization platform runs on GPUs and the user can rotate and zoom the landscape to select the optimal view of fire propagation. Opacity of different layers can be regulated by the user, allowing to see fire propagation at the same time that underlying vegetation, wind direction and intensity. The ignition point can also be selected by the user, and firebreaks can be plotted while simulation is going on. After the performance of a high number of stochastic simulations in parallel in GPUs, the application shows a map of the final fire surface colored according to the probability that a given cell burns. In this way the user can visually identify the most critical direction for fire propagation, a useful information to stop fire optimizing resources, which is specially important when they are scarce like is the case of our Patagonia region.

La motivación de nuestro trabajo es la evidente necesidad de disponer de un simulador del avance del fuego en incendios forestales para ser utilizado en nuestro país. Basado en trabajos previos que, usando GPGPUs, simulan el avance del fuego en la zona andino patagónica, hemos desarrollado una aplicación con interfaz visual para la simulación y predicción del avance del fuego en incendios forestales. El mismo utiliza archivos raster como entrada para describir el entorno del incendio. Cambiando dichos archivos de entrada, se puede utilizar el simulador para cualquier región. Se utilizan placas gráficas para ejecutar y resolver la interfaz visual del simulador, resolviendo también la interacción con el usuario. El usuario puede rotar, acercar o alejar, desplazar la imagen, eligiendo en cada momento la mejor visualización del incendio. Usando múltiples capas de información, el usuario puede combinar distintos datos: vegetación, viento (dirección y velocidad), celdas quemadas, altura, etc. El usuario define el punto de inicio del fuego, como así también puede definir cortafuegos en tiempo de simulación. La interfaz visual muestra el resultado de múltiples avances del fuego (proceso estocástico), coloreando cada zona del incendio con un color acorde a la probabilidad de que dicha zona sea alcanzada por el fuego. De esta forma, el usuario puede identificar las zonas más críticas de avance del fuego, información ´util para hacer más efectivo el combate contra el incendio.</dc:description>
</entry>
<entry>
<title>Implementing Cloud-based Parallel Metaheuristics: an Overview</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/71658" rel="alternate"/>
<author>
<name>González, Patricia</name>
</author>
<author>
<name>Pardo, Xoán C.</name>
</author>
<author>
<name>Doallo, Ramón</name>
</author>
<author>
<name>Banga, Julio R.</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/71658</id>
<updated>2019-06-25T04:04:38Z</updated>
<published>2018-12-01T00:00:00Z</published>
<summary type="text">Articulo
Una visión general sobre la implementación de metaheurísticas paralelas en la nube
VI Jornadas de Cloud Computing &amp; Big Data - JCC&amp;BD 2018 (La Plata, junio 2018); Journal of Computer Science &amp; Technology; vol. 18, no. 3; http://sedici.unlp.edu.ar/handle/10915/69947
Metaheuristics are among the most popular methods for solving hard global optimization problems in many areas of science and engineering. Their parallel implementation applying HPC techniques is a common approach for efficiently using available resources to reduce the time needed to get a good enough solution to hard-to-solve problems. Paradigms like MPI or OMP are the usual choice when executing them in clusters or supercomputers. Moreover, the pervasive presence of cloud computing and the emergence of programming models like MapReduce or Spark have given rise to an increasing interest in porting HPC workloads to the cloud, as is the case with parallel metaheuristics. In this paper we give an overview of our experience with different alternatives for porting parallel metaheuristics to the cloud, providing some useful insights to the interested reader that we have acquired through extensive experimentation.; Las metaheurísticas son uno de los métodos más populares en muchas áreas de la ciencia y la ingeniera para la resolución de problemas de optimización global difíciles.&#13;
Su implementación paralela, aplicando técnicas de HPC, es una aproximación común a la hora de reducir el tiempo necesario para obtener una solución lo suficientemente buena con un uso eficiente de los recursos disponibles. Paradigmas como MPI u OMP son las opciones habituales cuando se ejecutan en clústeres o supercomputadores. Además, la utilización generalizada de la computación en la nube y la aparición de modelos de programación como MapReduce o Spark, han generado un interés creciente por portar aplicaciones HPC a la nube, como ocurre en el caso de las metaheursticas paralelas. En este trabajo recogemos una visión general de nuestra experiencia con diferentes opciones a la hora de portar metaheursticas paralelas a la nube, proporcionando información útil al lector interesado, que hemos ido adquiriendo a través de nuestra experiencia practica.
</summary>
<dc:date>2018-12-01T00:00:00Z</dc:date>
<dc:description>Metaheuristics are among the most popular methods for solving hard global optimization problems in many areas of science and engineering. Their parallel implementation applying HPC techniques is a common approach for efficiently using available resources to reduce the time needed to get a good enough solution to hard-to-solve problems. Paradigms like MPI or OMP are the usual choice when executing them in clusters or supercomputers. Moreover, the pervasive presence of cloud computing and the emergence of programming models like MapReduce or Spark have given rise to an increasing interest in porting HPC workloads to the cloud, as is the case with parallel metaheuristics. In this paper we give an overview of our experience with different alternatives for porting parallel metaheuristics to the cloud, providing some useful insights to the interested reader that we have acquired through extensive experimentation.

Las metaheurísticas son uno de los métodos más populares en muchas áreas de la ciencia y la ingeniera para la resolución de problemas de optimización global difíciles.&#13;
Su implementación paralela, aplicando técnicas de HPC, es una aproximación común a la hora de reducir el tiempo necesario para obtener una solución lo suficientemente buena con un uso eficiente de los recursos disponibles. Paradigmas como MPI u OMP son las opciones habituales cuando se ejecutan en clústeres o supercomputadores. Además, la utilización generalizada de la computación en la nube y la aparición de modelos de programación como MapReduce o Spark, han generado un interés creciente por portar aplicaciones HPC a la nube, como ocurre en el caso de las metaheursticas paralelas. En este trabajo recogemos una visión general de nuestra experiencia con diferentes opciones a la hora de portar metaheursticas paralelas a la nube, proporcionando información útil al lector interesado, que hemos ido adquiriendo a través de nuestra experiencia practica.</dc:description>
</entry>
<entry>
<title>Automatic and Early Detection of the Deterioration of Patients in Intensive and Intermediate Care Units: Technological Challenges and Solutions</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/71656" rel="alternate"/>
<author>
<name>Balladini, Javier</name>
</author>
<author>
<name>Bruno, Pablo</name>
</author>
<author>
<name>Zurita, Rafael</name>
</author>
<author>
<name>Orlandi, Cristina</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/71656</id>
<updated>2019-06-25T04:04:39Z</updated>
<published>2018-12-01T00:00:00Z</published>
<summary type="text">Articulo
Detección automática y temprana del deterioro de pacientes en unidades de cuidados intensivos: desafíos tecnológicos y soluciones
VI Jornadas de Cloud Computing &amp; Big Data - JCC&amp;BD 2018 (La Plata, junio 2018); Journal of Computer Science &amp; Technology; vol. 18, no. 3; http://sedici.unlp.edu.ar/handle/10915/69915
In the Intensive and Intermediate Care Units of healthcare centres, many sensors are connected to patients to measure high frequency physiological data. In order to analyse the state of a patient, the medical staff requires both appropriately presented and easily accessed information. As most medical devices do not support the extraction of digital data in known formats, medical staff need to fill out forms manually.&#13;
The traditional methodology is prone to human errors due to the large volume of information, with variable origins and complexity. The automatic and real-time detection of changes in parameters, based on known medical rules, will make possible to avoid these errors and, in addition, to detect deterioration early. In this article, we propose and discuss a high-level system architecture, an embedded system that extracts the electrocardiogram signal from an analog output of a medical monitor, and a real-time Big Data infrastructure that integrate Free Software products. We believe that the experimental results, obtained with a simple prototype of the system, demonstrate the viability of the techniques and technologies used, leaving solid foundations for the construction of a reliable system for medical use, able to scale and support an increasing number of patients and captured data.; En las unidades de cuidados intensivos e intermedios de centros de salud, muchos sensores están conectados a los pacientes para medir datos fisiológicos de alta frecuencia. Para analizar el estado de un paciente, el personal médico requiere información presentada de manera apropiada y de fácil acceso. Como la mayoría del equipamiento médico no admite la extracción de datos digitales en formatos conocidos, el personal médico completa formularios manualmente.&#13;
Esta metodología es propensa a errores humanos debido al gran volumen de información, con orígenes y complejidad variable. La detección automática y en tiempo real de cambios en los parámetros, basados en reglas médicas conocidas, permitirá evitar estos errores y, además, detectar el deterioro de forma temprana.&#13;
En este artículo, proponemos una arquitectura de alto nivel del sistema, un sistema embebido que extrae la señal del electrocardiograma de una salida analógica de un monitor médico, y una infraestructura Big Data de tiempo real que integra productos Software Libre. Creemos que los resultados experimentales, obtenidos con un prototipo, demuestran la viabilidad de las técnicas y tecnologías utilizadas, dejando sólidas bases para la construcción de un sistema confiable para uso médico, y capaz de escalar para soportar un número creciente de pacientes y datos capturados.
</summary>
<dc:date>2018-12-01T00:00:00Z</dc:date>
<dc:description>In the Intensive and Intermediate Care Units of healthcare centres, many sensors are connected to patients to measure high frequency physiological data. In order to analyse the state of a patient, the medical staff requires both appropriately presented and easily accessed information. As most medical devices do not support the extraction of digital data in known formats, medical staff need to fill out forms manually.&#13;
The traditional methodology is prone to human errors due to the large volume of information, with variable origins and complexity. The automatic and real-time detection of changes in parameters, based on known medical rules, will make possible to avoid these errors and, in addition, to detect deterioration early. In this article, we propose and discuss a high-level system architecture, an embedded system that extracts the electrocardiogram signal from an analog output of a medical monitor, and a real-time Big Data infrastructure that integrate Free Software products. We believe that the experimental results, obtained with a simple prototype of the system, demonstrate the viability of the techniques and technologies used, leaving solid foundations for the construction of a reliable system for medical use, able to scale and support an increasing number of patients and captured data.

En las unidades de cuidados intensivos e intermedios de centros de salud, muchos sensores están conectados a los pacientes para medir datos fisiológicos de alta frecuencia. Para analizar el estado de un paciente, el personal médico requiere información presentada de manera apropiada y de fácil acceso. Como la mayoría del equipamiento médico no admite la extracción de datos digitales en formatos conocidos, el personal médico completa formularios manualmente.&#13;
Esta metodología es propensa a errores humanos debido al gran volumen de información, con orígenes y complejidad variable. La detección automática y en tiempo real de cambios en los parámetros, basados en reglas médicas conocidas, permitirá evitar estos errores y, además, detectar el deterioro de forma temprana.&#13;
En este artículo, proponemos una arquitectura de alto nivel del sistema, un sistema embebido que extrae la señal del electrocardiograma de una salida analógica de un monitor médico, y una infraestructura Big Data de tiempo real que integra productos Software Libre. Creemos que los resultados experimentales, obtenidos con un prototipo, demuestran la viabilidad de las técnicas y tecnologías utilizadas, dejando sólidas bases para la construcción de un sistema confiable para uso médico, y capaz de escalar para soportar un número creciente de pacientes y datos capturados.</dc:description>
</entry>
<entry>
<title>H-RADIC: A Fault Tolerance Framework for Virtual Clusters on Multi-Cloud Environments</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/71655" rel="alternate"/>
<author>
<name>Royo, Ambrosio</name>
</author>
<author>
<name>Villamayor, Jorge</name>
</author>
<author>
<name>Castro-León, Marcela</name>
</author>
<author>
<name>Rexachs del Rosario, Dolores</name>
</author>
<author>
<name>Luque Fadón, Emilio</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/71655</id>
<updated>2019-06-25T04:04:41Z</updated>
<published>2018-12-01T00:00:00Z</published>
<summary type="text">Articulo
H-RADIC: una solución de tolerancia a fallos para clústeres virtuales en ambientes multi-nube
VI Jornadas de Cloud Computing &amp; Big Data - JCC&amp;BD 2018 (La Plata, junio 2018); Journal of Computer Science &amp; Technology; vol. 18, no. 3; http://sedici.unlp.edu.ar/handle/10915/69674
Even though the cloud platform promises to be reliable, several availability incidents prove that it is not. How can we be sure that a parallel application finishes it´s execution even if a site is affected by a failure? This paper presents H-RADIC, an approach based on RADIC architecture, that executes parallel applications protected by RADIC in at least 3 different virtual clusters or sites. The execution state of each site is saved periodically in another site and it is recovered in case of failure. The paper details the configuration of the architecture and the experiment´s results using 3 clusters running NAS parallel applications protected with DMTCP, a very well-known distributed multi-threaded checkpoint tool. Our experiments show that by adding a cluster protector it will be possible to implement the next level in the hierarchy, where the first level in the RADIC hierarchy works as an observer at a site level. In adition, the experiments showed that the protection implementation is out of the critical path of the application and it depends on the utilized resources.; Aunque las plataformas en la nube parecen ser muy confiables, varios incidentes de disponibilidad han podemos asegurarnos que una aplicación paralela termina su ejecución cuando el sitio en la nube ha sido afectado por una falla? Este articulo presenta HRADIC, un enfoque basado en la arquitectura RADIC, esta ejecuta aplicaciones paralelas en al menos 3 diferentes sitios o clústeres virtuales, todos protegidos por RADIC, donde el estado de la ejecución de cada sitio es guardado periódicamente en otro de los sitios y de ahí es recuperado en el caso de una falla. El articulo detalla la configuración de la arquitectura y los resultados de los experimentos usando 3 clústeres ejecutando aplicaciones NAS en paralelo, protegidas con DMTCP (una herramienta para realizar múltiples checkpoints). Nuestros experimentos muestran que al agregar un protector del clúster es posible implementar un nivel más en la jerarquía de RADIC, donde el primer nivel funciona como observador. Los experimentos muestran que la implementación de este protector esta fuera del camino critico de la ampliación y depende solamente de la utilización de recursos.
</summary>
<dc:date>2018-12-01T00:00:00Z</dc:date>
<dc:description>Even though the cloud platform promises to be reliable, several availability incidents prove that it is not. How can we be sure that a parallel application finishes it´s execution even if a site is affected by a failure? This paper presents H-RADIC, an approach based on RADIC architecture, that executes parallel applications protected by RADIC in at least 3 different virtual clusters or sites. The execution state of each site is saved periodically in another site and it is recovered in case of failure. The paper details the configuration of the architecture and the experiment´s results using 3 clusters running NAS parallel applications protected with DMTCP, a very well-known distributed multi-threaded checkpoint tool. Our experiments show that by adding a cluster protector it will be possible to implement the next level in the hierarchy, where the first level in the RADIC hierarchy works as an observer at a site level. In adition, the experiments showed that the protection implementation is out of the critical path of the application and it depends on the utilized resources.

Aunque las plataformas en la nube parecen ser muy confiables, varios incidentes de disponibilidad han podemos asegurarnos que una aplicación paralela termina su ejecución cuando el sitio en la nube ha sido afectado por una falla? Este articulo presenta HRADIC, un enfoque basado en la arquitectura RADIC, esta ejecuta aplicaciones paralelas en al menos 3 diferentes sitios o clústeres virtuales, todos protegidos por RADIC, donde el estado de la ejecución de cada sitio es guardado periódicamente en otro de los sitios y de ahí es recuperado en el caso de una falla. El articulo detalla la configuración de la arquitectura y los resultados de los experimentos usando 3 clústeres ejecutando aplicaciones NAS en paralelo, protegidas con DMTCP (una herramienta para realizar múltiples checkpoints). Nuestros experimentos muestran que al agregar un protector del clúster es posible implementar un nivel más en la jerarquía de RADIC, donde el primer nivel funciona como observador. Los experimentos muestran que la implementación de este protector esta fuera del camino critico de la ampliación y depende solamente de la utilización de recursos.</dc:description>
</entry>
<entry>
<title>SMOTE-BD: An Exact and Scalable Oversampling Method for Imbalanced Classification in Big Data</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/71652" rel="alternate"/>
<author>
<name>Basgall, María José</name>
</author>
<author>
<name>Hasperué, Waldo</name>
</author>
<author>
<name>Naiouf, Marcelo</name>
</author>
<author>
<name>Fernández, Alberto</name>
</author>
<author>
<name>Herrera, Francisco</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/71652</id>
<updated>2019-06-25T04:04:43Z</updated>
<published>2018-12-01T00:00:00Z</published>
<summary type="text">Articulo
SMOTE-BD: un método de sobremuestreo exacto y escalable para la clasificación no balanceada en big data
VI Jornadas de Cloud Computing &amp; Big Data - JCC&amp;BD 2018 (La Plata, junio 2018); Journal of Computer Science &amp; Technology; vol. 18, no. 3; http://sedici.unlp.edu.ar/handle/10915/69676
The volume of data in today’s applications has meant a change in the way Machine Learning issues are addressed.&#13;
Indeed, the Big Data scenario involves scalability constraints that can only be achieved through intelligent model design and the use of distributed technologies. In this context, solutions based on the Spark platform have established themselves as a de facto standard.&#13;
In this contribution, we focus on a very important framework within Big Data Analytics, namely classification with imbalanced datasets. The main characteristic of this problem is that one of the classes is underrepresented, and therefore it is usually more complex to find a model that identifies it correctly. For this reason, it is common to apply preprocessing techniques such as oversampling to balance the distribution of examples in classes.&#13;
In this work we present SMOTE-BD, a fully scalable preprocessing approach for imbalanced classification in Big Data. It is based on one of the most widespread preprocessing solutions for imbalanced classification, namely the SMOTE algorithm, which creates new synthetic instances according to the neighborhood of each example of the minority class. Our novel development is made to be independent of the number of partitions or processes created to achieve a higher degree of efficiency. Experiments conducted on different standard and Big Data datasets show the quality of the proposed design and implementation.; El volumen de datos en las aplicaciones de hoy en día ha significado un cambio en la forma de abordar los problemas de Machine Learning. De hecho, el escenario Big Data implica restricciones de escalabilidad que sólo se pueden lograr a través del diseño de modelos inteligentes y el uso de tecnologías distribuidas.&#13;
En este contexto, las soluciones basadas en la plataforma Spark se han establecido como un estándar de facto.&#13;
En esta contribución, nos centramos en un marco muy importante dentro de Big Data Analytics, a saber, la clasificación con conjuntos de datos desequilibrados.&#13;
La principal característica de este problema es que una de las clases está sub-representada y, por lo tanto, generalmente es más complejo encontrar un modelo que la identifique correctamente. Por esta razón, es común aplicar técnicas de preprocesamiento como el sobremuestreo, para equilibrar la distribución de ejemplos en las clases.&#13;
En este trabajo presentamos SMOTE-BD, un enfoque de preprocesamiento totalmente escalable para la clasificación no balanceada en Big Data. El mismo se basa en una de las soluciones de preprocesamiento más extendidas para la clasificación desequilibrada, a saber, el algoritmo SMOTE, el cual crea nuevas instancias sintéticas de acuerdo con la vecindad de cada ejemplo de la clase minoritaria. Nuestro novedoso desarrollo está hecho para ser independiente de la cantidad de particiones o procesos creados, para lograr un mayor grado de eficiencia. Los experimentos realizados en diferentes conjuntos de datos estándar y de Big Data muestran la calidad del diseño y la implementación propuestos.
</summary>
<dc:date>2018-12-01T00:00:00Z</dc:date>
<dc:description>The volume of data in today’s applications has meant a change in the way Machine Learning issues are addressed.&#13;
Indeed, the Big Data scenario involves scalability constraints that can only be achieved through intelligent model design and the use of distributed technologies. In this context, solutions based on the Spark platform have established themselves as a de facto standard.&#13;
In this contribution, we focus on a very important framework within Big Data Analytics, namely classification with imbalanced datasets. The main characteristic of this problem is that one of the classes is underrepresented, and therefore it is usually more complex to find a model that identifies it correctly. For this reason, it is common to apply preprocessing techniques such as oversampling to balance the distribution of examples in classes.&#13;
In this work we present SMOTE-BD, a fully scalable preprocessing approach for imbalanced classification in Big Data. It is based on one of the most widespread preprocessing solutions for imbalanced classification, namely the SMOTE algorithm, which creates new synthetic instances according to the neighborhood of each example of the minority class. Our novel development is made to be independent of the number of partitions or processes created to achieve a higher degree of efficiency. Experiments conducted on different standard and Big Data datasets show the quality of the proposed design and implementation.

El volumen de datos en las aplicaciones de hoy en día ha significado un cambio en la forma de abordar los problemas de Machine Learning. De hecho, el escenario Big Data implica restricciones de escalabilidad que sólo se pueden lograr a través del diseño de modelos inteligentes y el uso de tecnologías distribuidas.&#13;
En este contexto, las soluciones basadas en la plataforma Spark se han establecido como un estándar de facto.&#13;
En esta contribución, nos centramos en un marco muy importante dentro de Big Data Analytics, a saber, la clasificación con conjuntos de datos desequilibrados.&#13;
La principal característica de este problema es que una de las clases está sub-representada y, por lo tanto, generalmente es más complejo encontrar un modelo que la identifique correctamente. Por esta razón, es común aplicar técnicas de preprocesamiento como el sobremuestreo, para equilibrar la distribución de ejemplos en las clases.&#13;
En este trabajo presentamos SMOTE-BD, un enfoque de preprocesamiento totalmente escalable para la clasificación no balanceada en Big Data. El mismo se basa en una de las soluciones de preprocesamiento más extendidas para la clasificación desequilibrada, a saber, el algoritmo SMOTE, el cual crea nuevas instancias sintéticas de acuerdo con la vecindad de cada ejemplo de la clase minoritaria. Nuestro novedoso desarrollo está hecho para ser independiente de la cantidad de particiones o procesos creados, para lograr un mayor grado de eficiencia. Los experimentos realizados en diferentes conjuntos de datos estándar y de Big Data muestran la calidad del diseño y la implementación propuestos.</dc:description>
</entry>
<entry>
<title>Processing Collections of Geo-Referenced Images for Natural Disasters</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/71622" rel="alternate"/>
<author>
<name>Loor, Fernando</name>
</author>
<author>
<name>Gil-Costa, Verónica</name>
</author>
<author>
<name>Marín, Mauricio</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/71622</id>
<updated>2019-06-25T04:04:46Z</updated>
<published>2018-12-01T00:00:00Z</published>
<summary type="text">Articulo
Procesamiento de colecciones de imágenes georreferenciadas pra desastres naturales
VI Jornadas de Cloud Computing &amp; Big Data - JCC&amp;BD 2018 (La Plata, junio 2018); Journal of Computer Science &amp; Technology; vol. 18, no. 3; http://sedici.unlp.edu.ar/handle/10915/70000
After disaster strikes, emergency response teams need to work fast. In this context, crowdsourcing has emerged as a powerful mechanism where volunteers can help to process different tasks such as processing complex images using labeling and classification techniques.&#13;
In this work we propose to address the problem of how to efficiently process large volumes of georeferenced images using crowdsourcing in the context of high risk such as natural disasters. Research on citizen science and crowdsourcing indicates that volunteers should be able to contribute in a useful way with a limited time to a project, supported by the results of usability studies. We present the design of a platform for real-time processing of georeferenced images. In particular, we focus on the interaction between the crowdsourcing server and the volunteers connected to a P2P network.
</summary>
<dc:date>2018-12-01T00:00:00Z</dc:date>
<dc:description>After disaster strikes, emergency response teams need to work fast. In this context, crowdsourcing has emerged as a powerful mechanism where volunteers can help to process different tasks such as processing complex images using labeling and classification techniques.&#13;
In this work we propose to address the problem of how to efficiently process large volumes of georeferenced images using crowdsourcing in the context of high risk such as natural disasters. Research on citizen science and crowdsourcing indicates that volunteers should be able to contribute in a useful way with a limited time to a project, supported by the results of usability studies. We present the design of a platform for real-time processing of georeferenced images. In particular, we focus on the interaction between the crowdsourcing server and the volunteers connected to a P2P network.</dc:description>
</entry>
<entry>
<title>Short Term Cloud Nowcasting for a Solar Power Plant based on Irradiance Historical Data</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/71620" rel="alternate"/>
<author>
<name>Caballero, Rafael</name>
</author>
<author>
<name>Zarzalejo, Luis F.</name>
</author>
<author>
<name>Otero, Álvaro</name>
</author>
<author>
<name>Piñuel, Luis</name>
</author>
<author>
<name>Wilbert, Stefan</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/71620</id>
<updated>2019-06-25T04:04:47Z</updated>
<published>2018-12-01T00:00:00Z</published>
<summary type="text">Articulo
Predicción de nubes a corto plazo para una planta solar a partir de datos históricos
VI Jornadas de Cloud Computing &amp; Big Data - JCC&amp;BD 2018 (La Plata, junio 2018); Journal of Computer Science &amp; Technology; vol. 18, no. 3; http://sedici.unlp.edu.ar/handle/10915/69922
This work considers the problem of forecasting the normal solar irradiance with high spatial and temporal resolution (5 minutes). The forecasting is based on a dataset registered during one year from the high resolution radiometric network at a operational solar power plan at Almeria, Spain. In particular, we show a technique for forecasting the irradiance in the next few minutes from the irradiance values obtained on the previous hour.&#13;
Our proposal employs a type of recurrent neural network known as LSTM, which can learn complex patterns and that has proven its usability for forecasting temporal series. The results show a reasonable improvement with respect to other prediction methods typically employed in the studies of temporal series.; Es este trabajo se aborda el problema de la predicción de radiación global sobre superficie horizontal con alta resolución espacial y temporal (5 minutos) a partir de los datos registrados durante un año en la red radiométrica de alta resolución ubicada en la Plataforma Solar de Almería. En particular se muestra un método capaz de predecir el valor de radiación en los siguientes minutos a partir de los valores de los minutos anteriores. El método emplea el tipo de red neuronal recurrente conocido como LSTM, capaz de aprender patrones complejos y predecir el próximo elemento de una serie temporal.&#13;
Los resultados muestran una mejora apreciable en con respecto a los métodos de predicción empleados habitualmente en el estudio de series temporales.
</summary>
<dc:date>2018-12-01T00:00:00Z</dc:date>
<dc:description>This work considers the problem of forecasting the normal solar irradiance with high spatial and temporal resolution (5 minutes). The forecasting is based on a dataset registered during one year from the high resolution radiometric network at a operational solar power plan at Almeria, Spain. In particular, we show a technique for forecasting the irradiance in the next few minutes from the irradiance values obtained on the previous hour.&#13;
Our proposal employs a type of recurrent neural network known as LSTM, which can learn complex patterns and that has proven its usability for forecasting temporal series. The results show a reasonable improvement with respect to other prediction methods typically employed in the studies of temporal series.

Es este trabajo se aborda el problema de la predicción de radiación global sobre superficie horizontal con alta resolución espacial y temporal (5 minutos) a partir de los datos registrados durante un año en la red radiométrica de alta resolución ubicada en la Plataforma Solar de Almería. En particular se muestra un método capaz de predecir el valor de radiación en los siguientes minutos a partir de los valores de los minutos anteriores. El método emplea el tipo de red neuronal recurrente conocido como LSTM, capaz de aprender patrones complejos y predecir el próximo elemento de una serie temporal.&#13;
Los resultados muestran una mejora apreciable en con respecto a los métodos de predicción empleados habitualmente en el estudio de series temporales.</dc:description>
</entry>
</feed>
