<?xml version="1.0" encoding="UTF-8"?>
<feed xmlns="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
<title>VI Simposio Argentino de Ciencia de Datos y GRANdes DAtos (AGRANDA 2020)</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/114620" rel="alternate"/>
<subtitle/>
<id>http://sedici.unlp.edu.ar:80/handle/10915/114620</id>
<updated>2026-03-12T04:07:50Z</updated>
<dc:date>2026-03-12T04:07:50Z</dc:date>
<entry>
<title>A evolução da aviação brasileira sob a perspectiva da analise de redes sociais</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/116425" rel="alternate"/>
<author>
<name>Pereira Bitencourt, Tulio</name>
</author>
<author>
<name>Silva Camargo, Sandro da</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/116425</id>
<updated>2021-04-07T20:03:37Z</updated>
<published>2020-01-01T00:00:00Z</published>
<summary type="text">Objeto de conferencia
VI Simposio Argentino de Ciencia de Datos y GRANdes DAtos (AGRANDA 2020) - JAIIO 49 (Modalidad virtual)
Durante as ultimas décadas, a aviação civil brasileira cresceu significativamente, permitindo que a população pudesse se locomover dentro e fora do paés com maior facilidade e rapidez. Contudo, aléem de ter crescido muito, a aviaçcaão brasileira continua sendo limitada quando comparada com outros paises. Parte disso estaé relacionado a uma grande concentracçaão de hubs na regiaão sudeste do paés. Para obter uma melhor compreensãao desta situacçãao, a abordagem de anaélise de redes sociais foi aplicada sobre dados abertos de voos disponibilizados pelo governo brasileiro. Como resultado, este trabalho apresenta uma anaélise sobre o crescimento da aviacçaão civil brasileira entre os anos de 2000 e 2019, aléem de uma anaélise sobre a formaçcaão dos hubs que existem hoje.
</summary>
<dc:date>2020-01-01T00:00:00Z</dc:date>
<dc:description>Durante as ultimas décadas, a aviação civil brasileira cresceu significativamente, permitindo que a população pudesse se locomover dentro e fora do paés com maior facilidade e rapidez. Contudo, aléem de ter crescido muito, a aviaçcaão brasileira continua sendo limitada quando comparada com outros paises. Parte disso estaé relacionado a uma grande concentracçaão de hubs na regiaão sudeste do paés. Para obter uma melhor compreensãao desta situacçãao, a abordagem de anaélise de redes sociais foi aplicada sobre dados abertos de voos disponibilizados pelo governo brasileiro. Como resultado, este trabalho apresenta uma anaélise sobre o crescimento da aviacçaão civil brasileira entre os anos de 2000 e 2019, aléem de uma anaélise sobre a formaçcaão dos hubs que existem hoje.</dc:description>
</entry>
<entry>
<title>First Steps in Creating a Methodology to Develop and Test Scheduling Policies for Internet of Things</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/116422" rel="alternate"/>
<author>
<name>Verghelet, Paula</name>
</author>
<author>
<name>Mocskos, Esteban</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/116422</id>
<updated>2021-04-07T20:03:38Z</updated>
<published>2020-01-01T00:00:00Z</published>
<summary type="text">Resumen
VI Simposio Argentino de Ciencia de Datos y GRANdes DAtos (AGRANDA 2020) - JAIIO 49 (Modalidad virtual)
Internet of Things (IoT) refers to a paradigm in which all objects can send information and collaborate with their computing resources through the Internet. The combination of Fog and Cloud Computing defines a distributed system composed of heterogeneous resources interconnected by different communication technologies. Despite its theoretical capacity, using these computational resources poses a challenge to distributed applications and scheduling policies.&#13;
In this work [1], we show the initial steps in developing a tool to support the creation of scheduling policies combining simulation and validation. We show the details to be considered when selecting and configuring the different layers of software. To evaluate the proposal, we use a segmentation method in both platforms and a theoretical model to predict the total compute time. Our results show that both simulation and validation platforms agree in the obtained results which also can be explained in terms of a theoretical model.
</summary>
<dc:date>2020-01-01T00:00:00Z</dc:date>
<dc:description>Internet of Things (IoT) refers to a paradigm in which all objects can send information and collaborate with their computing resources through the Internet. The combination of Fog and Cloud Computing defines a distributed system composed of heterogeneous resources interconnected by different communication technologies. Despite its theoretical capacity, using these computational resources poses a challenge to distributed applications and scheduling policies.&#13;
In this work [1], we show the initial steps in developing a tool to support the creation of scheduling policies combining simulation and validation. We show the details to be considered when selecting and configuring the different layers of software. To evaluate the proposal, we use a segmentation method in both platforms and a theoretical model to predict the total compute time. Our results show that both simulation and validation platforms agree in the obtained results which also can be explained in terms of a theoretical model.</dc:description>
</entry>
<entry>
<title>Language modeling tools for massive historical OCR post-processing</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/116420" rel="alternate"/>
<author>
<name>Xamena, Eduardo</name>
</author>
<author>
<name>Maguitman, Ana Gabriela</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/116420</id>
<updated>2021-04-07T20:03:39Z</updated>
<published>2020-01-01T00:00:00Z</published>
<summary type="text">Objeto de conferencia
VI Simposio Argentino de Ciencia de Datos y GRANdes DAtos (AGRANDA 2020) - JAIIO 49 (Modalidad virtual)
Upon these days, there is a large number of available historical documentary collections that have not been exploited to extract information. Many efforts are being made to digitize these volumes and make them available for digital platforms. However, various obstacles appear in the task of processing their content. Due to the deterioration of documents and other factors such as the different dialects and language variants, the quality of the digitizations is usually low. By means of NLP tools it is possible to increase the quality of texts. The current proposal consists in the employment of NLP tools, particularly neural language models, for processing the output of different OCR mechanisms. Important improvements in the quality of the texts are expected, as this has been the case in many related tasks. The ultimate purpose of this work is the use of the resulting digitized texts in information retrieval (IR) and information extraction (IE) platforms.
</summary>
<dc:date>2020-01-01T00:00:00Z</dc:date>
<dc:description>Upon these days, there is a large number of available historical documentary collections that have not been exploited to extract information. Many efforts are being made to digitize these volumes and make them available for digital platforms. However, various obstacles appear in the task of processing their content. Due to the deterioration of documents and other factors such as the different dialects and language variants, the quality of the digitizations is usually low. By means of NLP tools it is possible to increase the quality of texts. The current proposal consists in the employment of NLP tools, particularly neural language models, for processing the output of different OCR mechanisms. Important improvements in the quality of the texts are expected, as this has been the case in many related tasks. The ultimate purpose of this work is the use of the resulting digitized texts in information retrieval (IR) and information extraction (IE) platforms.</dc:description>
</entry>
<entry>
<title>Multicompresión de grandes listas de enteros para sistemas de búsquedas</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/116419" rel="alternate"/>
<author>
<name>González, Agustín</name>
</author>
<author>
<name>Tolosa, Gabriel Hernán</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/116419</id>
<updated>2021-04-08T04:02:33Z</updated>
<published>2020-01-01T00:00:00Z</published>
<summary type="text">Objeto de conferencia
VI Simposio Argentino de Ciencia de Datos y GRANdes DAtos (AGRANDA 2020) - JAIIO 49 (Modalidad virtual)
La búsqueda en grandes repositorios de documentos (como la web) exige que los sistemas se ejecuten bajo estrictas restricciones de performance. En la actualidad, dada la cantidad de documentos que un sistema gestiona, resulta indispensable aplicar técnicas tales como la compresión de las estructuras de datos. Particularmente, aquí se aborda el problema de la compresión de un índice invertido mediante un esquema “multicompresión” que procesa diferentes porciones de una lista utilizando diversos codees. Los resultados preliminares muestran que es posible compensar el overhead requerido para mantener este esquema, mientras que se mejora el tiempo de descompresión.
</summary>
<dc:date>2020-01-01T00:00:00Z</dc:date>
<dc:description>La búsqueda en grandes repositorios de documentos (como la web) exige que los sistemas se ejecuten bajo estrictas restricciones de performance. En la actualidad, dada la cantidad de documentos que un sistema gestiona, resulta indispensable aplicar técnicas tales como la compresión de las estructuras de datos. Particularmente, aquí se aborda el problema de la compresión de un índice invertido mediante un esquema “multicompresión” que procesa diferentes porciones de una lista utilizando diversos codees. Los resultados preliminares muestran que es posible compensar el overhead requerido para mantener este esquema, mientras que se mejora el tiempo de descompresión.</dc:description>
</entry>
<entry>
<title>Validando domicilios mediante técnicas de clustering</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/116418" rel="alternate"/>
<author>
<name>Negrotto, Daniel</name>
</author>
<author>
<name>Bertero, Federico</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/116418</id>
<updated>2021-04-08T04:02:35Z</updated>
<published>2020-01-01T00:00:00Z</published>
<summary type="text">Objeto de conferencia
VI Simposio Argentino de Ciencia de Datos y GRANdes DAtos (AGRANDA 2020) - JAIIO 49 (Modalidad virtual)
Los grandes volúmenes de información y, el tiempo de respuesta esperado por los usuarios que consumen algún tipo de plataforma basada en la toma de decisiones a partir de datos, hacen de la validación automática de estos un proceso clave. Es decir, hoy en día se espera que un sistema sea capaz de verificar información brindada por un usuario, consultando diversas fuentes y dando una respuesta en un rango de tiempo relativamente corto.&#13;
En este trabajo, se busca abordar este desafío computacional cuando la información declarada por el usuario se corresponde con domicilios en los que desarrolla alguna actividad y, la fuente a utilizar para la verificación son los datos a los que se tiene acceso de su dispositivo móvil.
</summary>
<dc:date>2020-01-01T00:00:00Z</dc:date>
<dc:description>Los grandes volúmenes de información y, el tiempo de respuesta esperado por los usuarios que consumen algún tipo de plataforma basada en la toma de decisiones a partir de datos, hacen de la validación automática de estos un proceso clave. Es decir, hoy en día se espera que un sistema sea capaz de verificar información brindada por un usuario, consultando diversas fuentes y dando una respuesta en un rango de tiempo relativamente corto.&#13;
En este trabajo, se busca abordar este desafío computacional cuando la información declarada por el usuario se corresponde con domicilios en los que desarrolla alguna actividad y, la fuente a utilizar para la verificación son los datos a los que se tiene acceso de su dispositivo móvil.</dc:description>
</entry>
<entry>
<title>Identificación de comunidades en intervalos de tiempo a través del lenguaje</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/116417" rel="alternate"/>
<author>
<name>Igal Browarnik, Martín</name>
</author>
<author>
<name>Ortíz de Zárate, Juan Manuel</name>
</author>
<author>
<name>Feuerstein, Esteban</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/116417</id>
<updated>2021-04-08T04:02:36Z</updated>
<published>2020-01-01T00:00:00Z</published>
<summary type="text">Objeto de conferencia
VI Simposio Argentino de Ciencia de Datos y GRANdes DAtos (AGRANDA 2020) - JAIIO 49 (Modalidad virtual)
En este trabajo desarrollamos distintas metodologías para entrenar modelos PLN que logren identificar comunidades en redes sociales exclusivamente a través de su jerga, es decir por el lenguaje que utilizan, a lo largo del tiempo. Analizamos 3 experimentos distintos logrando resultados con un ROC AUC superior al 0.8
</summary>
<dc:date>2020-01-01T00:00:00Z</dc:date>
<dc:description>En este trabajo desarrollamos distintas metodologías para entrenar modelos PLN que logren identificar comunidades en redes sociales exclusivamente a través de su jerga, es decir por el lenguaje que utilizan, a lo largo del tiempo. Analizamos 3 experimentos distintos logrando resultados con un ROC AUC superior al 0.8</dc:description>
</entry>
<entry>
<title>Noise Based Approach for the Detection of Adversarial Examples</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/116415" rel="alternate"/>
<author>
<name>Kloster, Matias Alejandro</name>
</author>
<author>
<name>Cúñale, Ariel Hernán</name>
</author>
<author>
<name>Mato, Germán</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/116415</id>
<updated>2021-04-08T04:02:39Z</updated>
<published>2020-01-01T00:00:00Z</published>
<summary type="text">Objeto de conferencia
VI Simposio Argentino de Ciencia de Datos y GRANdes DAtos (AGRANDA 2020) - JAIIO 49 (Modalidad virtual)
We propose a new method for detecting adversarial examples based on a stochastic approach. An example is presented to the network several times and classified as adversarial if the fraction of times the output label is different from the label generated by the deterministic network is above some threshold value. We analyze the performance of the method for three attack methods (DeepFool, Fast Gradient Sign Method and norm 2 Carlini Wagner) and two datasets (MNIST and CIFAR-10). We find that our approach works best for stronger attacks such as DeepFool and CW2, and could be used as part of a scheme where several methods are applied simultaneously in order to estimate if a given input is adversarial or not.
</summary>
<dc:date>2020-01-01T00:00:00Z</dc:date>
<dc:description>We propose a new method for detecting adversarial examples based on a stochastic approach. An example is presented to the network several times and classified as adversarial if the fraction of times the output label is different from the label generated by the deterministic network is above some threshold value. We analyze the performance of the method for three attack methods (DeepFool, Fast Gradient Sign Method and norm 2 Carlini Wagner) and two datasets (MNIST and CIFAR-10). We find that our approach works best for stronger attacks such as DeepFool and CW2, and could be used as part of a scheme where several methods are applied simultaneously in order to estimate if a given input is adversarial or not.</dc:description>
</entry>
<entry>
<title>Towards a platform to evaluate the impact of resource information distribution in IOT&#13;
environments</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/115972" rel="alternate"/>
<author>
<name>Verghelet, Paula</name>
</author>
<author>
<name>Mocskos, Esteban</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/115972</id>
<updated>2021-03-29T20:03:47Z</updated>
<published>2020-01-01T00:00:00Z</published>
<summary type="text">Objeto de conferencia
VI Simposio Argentino de Ciencia de Datos y GRANdes DAtos (AGRANDA 2020) - JAIIO 49 (Modalidad virtual)
Internet of Things (IoT) is a paradigm in which every object has the capacity of communicating through the Internet. Cloud Computing is designed to provide computational resources to costumers geographically distributed following an elastic payment strategy. Fog/Edge Computing aims to decrease bandwidth usage keeping the computation near the source of data and avoiding the collapse of network infrastructure when moving all the data from the edge to the cloud data centers.&#13;
Fog and Cloud environments de ne a large scale distributed system com-posed of heterogeneous resources, which has huge theoretical computing power. But using these computational resources poses challenges to dis- tributed applications and scheduling policies.&#13;
In this work , we show the initial steps to develop a tool to support evaluate the impact of resource information quality to guide scheduling policies. This tool combines simulation and validation and simpli es the deployment of experiments on both sides. The evaluation of this initial proof of concept consists of the deployment of experiments with a different number of devices in a single site and in three different sites across France. Our results show that both simulation and validation platforms present good agreement.
</summary>
<dc:date>2020-01-01T00:00:00Z</dc:date>
<dc:description>Internet of Things (IoT) is a paradigm in which every object has the capacity of communicating through the Internet. Cloud Computing is designed to provide computational resources to costumers geographically distributed following an elastic payment strategy. Fog/Edge Computing aims to decrease bandwidth usage keeping the computation near the source of data and avoiding the collapse of network infrastructure when moving all the data from the edge to the cloud data centers.&#13;
Fog and Cloud environments de ne a large scale distributed system com-posed of heterogeneous resources, which has huge theoretical computing power. But using these computational resources poses challenges to dis- tributed applications and scheduling policies.&#13;
In this work , we show the initial steps to develop a tool to support evaluate the impact of resource information quality to guide scheduling policies. This tool combines simulation and validation and simpli es the deployment of experiments on both sides. The evaluation of this initial proof of concept consists of the deployment of experiments with a different number of devices in a single site and in three different sites across France. Our results show that both simulation and validation platforms present good agreement.</dc:description>
</entry>
<entry>
<title>Sistema de rápida implementación de alerta temprana de colapso de cuidados intensivos basados en predicciones con el modelo SEIHR</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/114892" rel="alternate"/>
<author>
<name>Bellassai, Juan Carlos</name>
</author>
<author>
<name>Alasino, Gustavo</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/114892</id>
<updated>2021-03-16T04:03:40Z</updated>
<published>2020-01-01T00:00:00Z</published>
<summary type="text">Objeto de conferencia
VI Simposio Argentino de Ciencia de Datos y GRANdes DAtos (AGRANDA 2020) - JAIIO 49 (Modalidad virtual)
En el contexto del nuevo coronavirus COVID-19 que ha llevado al colapso del sistema de salud en gran número de países y dejando miles de fallecidos a nivel mundial, tanto autoridades nacionales como sub-nacionales, se ven en el dilema de aplicar o no medidas de distanciamiento social para evitar el colapso del sistema sanitario. Diferentes estudios hoy se enfocan en desarrollar modelos epidemiológicos que puedan guiar a las autoridades en la toma de decisiones y definición políticas adecuadas. En su mayoría, estos estudios se centran en conseguir un alto grado de acierto en sus estimaciones y/o conseguir que el modelo proponga dinámicas variables de predicción, haciendo que los modelos se vuelvan de formulación compleja o con gran número de parámetros necesarios. Este trabajo propone un sistema de fácil aplicación capaz de generar una alerta temprana para evitar un posible colapso del sistema de cuidados intensivos basándonos en el modelo epidemiológico SEIR.
</summary>
<dc:date>2020-01-01T00:00:00Z</dc:date>
<dc:description>En el contexto del nuevo coronavirus COVID-19 que ha llevado al colapso del sistema de salud en gran número de países y dejando miles de fallecidos a nivel mundial, tanto autoridades nacionales como sub-nacionales, se ven en el dilema de aplicar o no medidas de distanciamiento social para evitar el colapso del sistema sanitario. Diferentes estudios hoy se enfocan en desarrollar modelos epidemiológicos que puedan guiar a las autoridades en la toma de decisiones y definición políticas adecuadas. En su mayoría, estos estudios se centran en conseguir un alto grado de acierto en sus estimaciones y/o conseguir que el modelo proponga dinámicas variables de predicción, haciendo que los modelos se vuelvan de formulación compleja o con gran número de parámetros necesarios. Este trabajo propone un sistema de fácil aplicación capaz de generar una alerta temprana para evitar un posible colapso del sistema de cuidados intensivos basándonos en el modelo epidemiológico SEIR.</dc:description>
</entry>
<entry>
<title>Where would you open a new Pizza Restaurant in Buenos Aires?</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/114889" rel="alternate"/>
<author>
<name>Maraggi, Santiago</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/114889</id>
<updated>2021-03-16T04:03:40Z</updated>
<published>2020-01-01T00:00:00Z</published>
<summary type="text">Objeto de conferencia
VI Simposio Argentino de Ciencia de Datos y GRANdes DAtos (AGRANDA 2020) - JAIIO 49 (Modalidad virtual)
The goal of the work is to extract an initial guideline to determine the best place to open a new Pizza Restaurant in Buenos Aires.&#13;
In this work the K-Means algorithm was applied to classify the neighborhoods of Buenos Aires, according with their most common venue types. For each neighborhood, top 50 most common venue types were established, and then, 10 neighborhood clusters were obtained with the mentioned algorithm in order to provide some clues about which neighborhoods could be best investment options.
</summary>
<dc:date>2020-01-01T00:00:00Z</dc:date>
<dc:description>The goal of the work is to extract an initial guideline to determine the best place to open a new Pizza Restaurant in Buenos Aires.&#13;
In this work the K-Means algorithm was applied to classify the neighborhoods of Buenos Aires, according with their most common venue types. For each neighborhood, top 50 most common venue types were established, and then, 10 neighborhood clusters were obtained with the mentioned algorithm in order to provide some clues about which neighborhoods could be best investment options.</dc:description>
</entry>
<entry>
<title>Análisis de sentimiento aplicado a la detección de ciberacoso en YouTube como red social</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/114887" rel="alternate"/>
<author>
<name>Llampa, Álvaro F.</name>
</author>
<author>
<name>Farfán, José</name>
</author>
<author>
<name>Rodríguez, Mariela E.</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/114887</id>
<updated>2021-03-16T04:03:41Z</updated>
<published>2020-01-01T00:00:00Z</published>
<summary type="text">Objeto de conferencia
VI Simposio Argentino de Ciencia de Datos y GRANdes DAtos (AGRANDA 2020) - JAIIO 49 (Modalidad virtual)
En un mundo en el que las personas están constantemente en comunicación sin importar las barreras de distancia o idioma gracias al internet, las redes sociales han significado una gran oportunidad para transformar la interacción humana posibilitando la creación de comunidades en línea donde se puede compartir conocimiento o simplemente generar contenido para entretenimiento. YouTube es un atractivo para las personas, más aún los jóvenes, por el sueño de poder generar ingresos monetarios al realizar videos que atraigan visitas. Sin embargo, esta situación también da lugar a personas con malas intenciones. El ciberacoso es una preocupación constante debido a los efectos negativos que pueden causar en los afectados como depresión, baja autoestima, dificultad para relacionarse, etc. Afortunadamente existen herramientas con las que se puede colaborar a su detección para poder tomar acción. El trabajo realizado en el campo del pro-cesamiento del lenguaje natural es amplio en el idioma inglés y no tanto en español, por esto, se busca que con el análisis de sentimientos junto a un algoritmo de machine learning trabajar en un proceso para obtener un modelo automático que dé resultados efectivos en español. Se diseñarán etapas de tratamiento de texto ajustadas al contexto, se seleccionará y entrenará el modelo de aprendizaje supervisado Support Vector Machine y que el resultado final pueda proveer datos valiosos para el análisis de cualquier video de la plataforma YouTube.
</summary>
<dc:date>2020-01-01T00:00:00Z</dc:date>
<dc:description>En un mundo en el que las personas están constantemente en comunicación sin importar las barreras de distancia o idioma gracias al internet, las redes sociales han significado una gran oportunidad para transformar la interacción humana posibilitando la creación de comunidades en línea donde se puede compartir conocimiento o simplemente generar contenido para entretenimiento. YouTube es un atractivo para las personas, más aún los jóvenes, por el sueño de poder generar ingresos monetarios al realizar videos que atraigan visitas. Sin embargo, esta situación también da lugar a personas con malas intenciones. El ciberacoso es una preocupación constante debido a los efectos negativos que pueden causar en los afectados como depresión, baja autoestima, dificultad para relacionarse, etc. Afortunadamente existen herramientas con las que se puede colaborar a su detección para poder tomar acción. El trabajo realizado en el campo del pro-cesamiento del lenguaje natural es amplio en el idioma inglés y no tanto en español, por esto, se busca que con el análisis de sentimientos junto a un algoritmo de machine learning trabajar en un proceso para obtener un modelo automático que dé resultados efectivos en español. Se diseñarán etapas de tratamiento de texto ajustadas al contexto, se seleccionará y entrenará el modelo de aprendizaje supervisado Support Vector Machine y que el resultado final pueda proveer datos valiosos para el análisis de cualquier video de la plataforma YouTube.</dc:description>
</entry>
<entry>
<title>Análisis del funcionamiento de medidores de energía eléctrica a partir de aplicar la Ley de Benford</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/114884" rel="alternate"/>
<author>
<name>Morales, Héctor Rubén</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/114884</id>
<updated>2021-03-16T04:03:44Z</updated>
<published>2020-01-01T00:00:00Z</published>
<summary type="text">Objeto de conferencia
VI Simposio Argentino de Ciencia de Datos y GRANdes DAtos (AGRANDA 2020) - JAIIO 49 (Modalidad virtual)
La Ley de Benford considera que en un conjunto determinado de números más del 30% de estos empiezan con el dígito 1, con el dígito 2 inician casi el 18%, y desciende sucesivamente hasta el 9 donde menos del 5% comienzan con este dígito. Este comportamiento ha sido verificado para conjuntos de números que son objeto de estudio en distintos ámbitos científicos.&#13;
El objetivo de este trabajo es verificar si la distribución estadística de Benford se aplica a la lectura de los medidores que registran el consumo de energía eléctrica de usuarios comunes de la Empresa Provincial de Energía de Córdoba.&#13;
Los resultados alcanzados confirman esa hipótesis. Bajo esa certeza, el estudio se profundiza analizando si la distribución de Benford se aplica a las lecturas de los medidores agrupados por cada marca y modelo de fábrica, para lo cual se recurre a la medida de ajuste de bondad de la desviación media absoluta (MAD). Se verifica que algunos de estos conjuntos están muy alejados de la distribución, otros menos distantes y muchos próximos al ajuste de la distribución. Las medidas que no logran el ajuste, y según el grado, se interpretan como aquellos medidores que denotan un funcionamiento defectuoso, indicando en la mayoría de los casos, que estos atrasan o registran por debajo del consumo real.&#13;
Las conclusiones obtenidas bajo dichos parámetros estadísticos se confirman al ser comparadas con resultados de mediciones y contrastes técnicos en laboratorio de medición. Es decir, el análisis de Benford y la medida MAD resultan ser herramientas eficientes para determinar errores de funcionamiento o de registros de consumos en medidores de electricidad, sirviendo, en consecuencia, a la toma de decisiones para su reemplazo o compra.
</summary>
<dc:date>2020-01-01T00:00:00Z</dc:date>
<dc:description>La Ley de Benford considera que en un conjunto determinado de números más del 30% de estos empiezan con el dígito 1, con el dígito 2 inician casi el 18%, y desciende sucesivamente hasta el 9 donde menos del 5% comienzan con este dígito. Este comportamiento ha sido verificado para conjuntos de números que son objeto de estudio en distintos ámbitos científicos.&#13;
El objetivo de este trabajo es verificar si la distribución estadística de Benford se aplica a la lectura de los medidores que registran el consumo de energía eléctrica de usuarios comunes de la Empresa Provincial de Energía de Córdoba.&#13;
Los resultados alcanzados confirman esa hipótesis. Bajo esa certeza, el estudio se profundiza analizando si la distribución de Benford se aplica a las lecturas de los medidores agrupados por cada marca y modelo de fábrica, para lo cual se recurre a la medida de ajuste de bondad de la desviación media absoluta (MAD). Se verifica que algunos de estos conjuntos están muy alejados de la distribución, otros menos distantes y muchos próximos al ajuste de la distribución. Las medidas que no logran el ajuste, y según el grado, se interpretan como aquellos medidores que denotan un funcionamiento defectuoso, indicando en la mayoría de los casos, que estos atrasan o registran por debajo del consumo real.&#13;
Las conclusiones obtenidas bajo dichos parámetros estadísticos se confirman al ser comparadas con resultados de mediciones y contrastes técnicos en laboratorio de medición. Es decir, el análisis de Benford y la medida MAD resultan ser herramientas eficientes para determinar errores de funcionamiento o de registros de consumos en medidores de electricidad, sirviendo, en consecuencia, a la toma de decisiones para su reemplazo o compra.</dc:description>
</entry>
<entry>
<title>DEHIA, una plataforma para la generación y ejecución de actividades de recolección de datos con intervención humana aplicada en el Programa E-Basura</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/114882" rel="alternate"/>
<author>
<name>Arcidiacono, José</name>
</author>
<author>
<name>Lliteras, Alejandra Beatriz</name>
</author>
<author>
<name>Bazán, Patricia Alejandra</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/114882</id>
<updated>2021-03-16T04:03:46Z</updated>
<published>2020-01-01T00:00:00Z</published>
<summary type="text">Objeto de conferencia
VI Simposio Argentino de Ciencia de Datos y GRANdes DAtos (AGRANDA 2020) - JAIIO 49 (Modalidad virtual)
En este trabajo se presenta el desarrollo, en progreso, de DEHIA una plataforma para crear, clonar y gestionar workflows de actividades de recolección de datos, que involucren la intervención humana, y cuya ejecución se realiza desde una aplicación móvil. Para ello, se presenta una arquitectura de solución conformada, por tres componentes: una plataforma Web que permite a usuarios finales crear, clonar y gestionar sus propias actividades de recolección de datos en diferentes dominios, una aplicación móvil para que voluntarios participen de la actividad de recolección de datos y una API responsable de la comunicación entre las dos primeras componentes. Se presenta, además, un caso de uso proponiendo una alternativa tecnológica inclusiva y en este caso particular, con la expectativa de aportar a la labor social que el programa E-Basura realiza desde el año 2009. La propuesta de este trabajo espera abrir un espacio de debate en miras de la democratización y apertura de este tipo de actividad para ser empleado en diferentes disciplinas.
</summary>
<dc:date>2020-01-01T00:00:00Z</dc:date>
<dc:description>En este trabajo se presenta el desarrollo, en progreso, de DEHIA una plataforma para crear, clonar y gestionar workflows de actividades de recolección de datos, que involucren la intervención humana, y cuya ejecución se realiza desde una aplicación móvil. Para ello, se presenta una arquitectura de solución conformada, por tres componentes: una plataforma Web que permite a usuarios finales crear, clonar y gestionar sus propias actividades de recolección de datos en diferentes dominios, una aplicación móvil para que voluntarios participen de la actividad de recolección de datos y una API responsable de la comunicación entre las dos primeras componentes. Se presenta, además, un caso de uso proponiendo una alternativa tecnológica inclusiva y en este caso particular, con la expectativa de aportar a la labor social que el programa E-Basura realiza desde el año 2009. La propuesta de este trabajo espera abrir un espacio de debate en miras de la democratización y apertura de este tipo de actividad para ser empleado en diferentes disciplinas.</dc:description>
</entry>
<entry>
<title>Using case based data stream processing for smart house systems</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/114880" rel="alternate"/>
<author>
<name>Martínez, Alejandro Maximiliano</name>
</author>
<author>
<name>Granado Martínez, Natalia Lucía</name>
</author>
<author>
<name>Martín, María de los Ángeles</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/114880</id>
<updated>2021-03-16T04:03:49Z</updated>
<published>2020-01-01T00:00:00Z</published>
<summary type="text">Objeto de conferencia
VI Simposio Argentino de Ciencia de Datos y GRANdes DAtos (AGRANDA 2020) - JAIIO 49 (Modalidad virtual)
The latest technological advances have allowed the development of smart home systems that establish a connection between humans and the devices that surround them, living in homes and working in fully automated companies.&#13;
While these systems improve the quality of life of people in terms of comfort, safety and energy savings, as they automate aspects such as lighting, temperature, humidity, among others; they lack an organizational memory that manages the knowledge of the preferences, customs and behavior patterns of the inhabitants of the home or company they automate. The aforementioned lack shows an opportunity to improve these products, taking into account that the market trend in domestic devices, is to maximize automation, making them increasingly intelligent, to make decisions proactively, and to collaborate with each other and with the human being for his better quality of life. In this paper we show that it is possible to improve the management of the data stream captured by the devices, providing them with interoperability through the use of ontologies and metadata, so that "intelligent modules" process the acquired knowledge automatically, with little intervention from the humans. Specifically, we will use the Processing Architecture based on Measurement Metadata (PAbMM) and the Case based Reasoning (CBR) technology to intelligently establish the environmental conditions of the home, in order to improve comfort and reduce energy consumption.
</summary>
<dc:date>2020-01-01T00:00:00Z</dc:date>
<dc:description>The latest technological advances have allowed the development of smart home systems that establish a connection between humans and the devices that surround them, living in homes and working in fully automated companies.&#13;
While these systems improve the quality of life of people in terms of comfort, safety and energy savings, as they automate aspects such as lighting, temperature, humidity, among others; they lack an organizational memory that manages the knowledge of the preferences, customs and behavior patterns of the inhabitants of the home or company they automate. The aforementioned lack shows an opportunity to improve these products, taking into account that the market trend in domestic devices, is to maximize automation, making them increasingly intelligent, to make decisions proactively, and to collaborate with each other and with the human being for his better quality of life. In this paper we show that it is possible to improve the management of the data stream captured by the devices, providing them with interoperability through the use of ontologies and metadata, so that "intelligent modules" process the acquired knowledge automatically, with little intervention from the humans. Specifically, we will use the Processing Architecture based on Measurement Metadata (PAbMM) and the Case based Reasoning (CBR) technology to intelligently establish the environmental conditions of the home, in order to improve comfort and reduce energy consumption.</dc:description>
</entry>
<entry>
<title>Social Media Text Streaming Visualization</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/114636" rel="alternate"/>
<author>
<name>Pustilnik, Martín</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/114636</id>
<updated>2021-03-11T04:04:05Z</updated>
<published>2020-01-01T00:00:00Z</published>
<summary type="text">Objeto de conferencia
VI Simposio Argentino de Ciencia de Datos y GRANdes DAtos (AGRANDA 2020) - JAIIO 49 (Modalidad virtual)
Social media registers millions of messages per second. This paper aims to develop a visual analysis that allows identifying events of particular interest and the time intervals in which they occur. This analysis uses text mining techniques and sentiment analysis.
</summary>
<dc:date>2020-01-01T00:00:00Z</dc:date>
<dc:description>Social media registers millions of messages per second. This paper aims to develop a visual analysis that allows identifying events of particular interest and the time intervals in which they occur. This analysis uses text mining techniques and sentiment analysis.</dc:description>
</entry>
<entry>
<title>Capturing and analyzing social representations: a first application of Natural Language Processing techniques to reader’s comments in COVID-19 news: Argentina, 2020</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/114634" rel="alternate"/>
<author>
<name>Rosati, Germán</name>
</author>
<author>
<name>Domenech, Laia</name>
</author>
<author>
<name>Chazarreta, Adriana Silvina</name>
</author>
<author>
<name>Maguire, Tomás</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/114634</id>
<updated>2021-03-11T04:04:06Z</updated>
<published>2020-01-01T00:00:00Z</published>
<summary type="text">Objeto de conferencia
VI Simposio Argentino de Ciencia de Datos y GRANdes DAtos (AGRANDA 2020) - JAIIO 49 (Modalidad virtual)
We present a first approximation to the quantification of social representations about the COVID-19, using news comments. A web crawler was developed to construct the dataset of reader’s comments. We detect relevant topics in the dataset using Latent Dirichlet Allocation, and analyze its evolution during time. Finally, we show a first prototype to the prediction of the majority topics, using FastText.
</summary>
<dc:date>2020-01-01T00:00:00Z</dc:date>
<dc:description>We present a first approximation to the quantification of social representations about the COVID-19, using news comments. A web crawler was developed to construct the dataset of reader’s comments. We detect relevant topics in the dataset using Latent Dirichlet Allocation, and analyze its evolution during time. Finally, we show a first prototype to the prediction of the majority topics, using FastText.</dc:description>
</entry>
<entry>
<title>Sistema de clasificación para predicción de fracasos en implantes dentales validado por expertos humanos</title>
<link href="http://sedici.unlp.edu.ar:80/handle/10915/114633" rel="alternate"/>
<author>
<name>Ganz, Nancy</name>
</author>
<author>
<name>Ares, Alicia</name>
</author>
<author>
<name>Kuna, Horacio Daniel</name>
</author>
<id>http://sedici.unlp.edu.ar:80/handle/10915/114633</id>
<updated>2021-03-12T04:03:12Z</updated>
<published>2020-01-01T00:00:00Z</published>
<summary type="text">Objeto de conferencia
VI Simposio Argentino de Ciencia de Datos y GRANdes DAtos (AGRANDA 2020) - JAIIO 49 (Modalidad virtual)
Hoy en día, la predicción del éxito o fracaso de un implante dental está determinado a través de una evaluación clínica y radiológica. Por esta razón, las predicciones dependen en gran medida de la experiencia del implantólogo.&#13;
Este trabajo tiene por objetivo investigar el beneficio de la utilización de múltiples algoritmos de clasificación, para la predicción de fracasos en implantes dentales de la provincia de Misiones, Argentina validado por expertos humanos.&#13;
El modelo abarca la combinación de los clasificadores Random Forest, SVM, KNN, Naive Bayes y perceptrón multicapa. La experimentación es realizada con cuatro conjuntos de datos, un conjunto de implantes dentales confeccionado para el estudio de caso, un conjunto generado artificialmente y otros dos conjuntos obtenidos de distintos repositorios de datos. Nuestro enfoque logra sobre el conjunto de datos de implantes un porcentaje de acierto del 93% de casos correctamente identificados, mientras que los expertos humanos consiguen un 86% de precisión. En base a esto podemos alegar, que los sistemas de múltiple clasificadores son un buen enfoque para la predicción de fracasos en implantes dentales.
</summary>
<dc:date>2020-01-01T00:00:00Z</dc:date>
<dc:description>Hoy en día, la predicción del éxito o fracaso de un implante dental está determinado a través de una evaluación clínica y radiológica. Por esta razón, las predicciones dependen en gran medida de la experiencia del implantólogo.&#13;
Este trabajo tiene por objetivo investigar el beneficio de la utilización de múltiples algoritmos de clasificación, para la predicción de fracasos en implantes dentales de la provincia de Misiones, Argentina validado por expertos humanos.&#13;
El modelo abarca la combinación de los clasificadores Random Forest, SVM, KNN, Naive Bayes y perceptrón multicapa. La experimentación es realizada con cuatro conjuntos de datos, un conjunto de implantes dentales confeccionado para el estudio de caso, un conjunto generado artificialmente y otros dos conjuntos obtenidos de distintos repositorios de datos. Nuestro enfoque logra sobre el conjunto de datos de implantes un porcentaje de acierto del 93% de casos correctamente identificados, mientras que los expertos humanos consiguen un 86% de precisión. En base a esto podemos alegar, que los sistemas de múltiple clasificadores son un buen enfoque para la predicción de fracasos en implantes dentales.</dc:description>
</entry>
</feed>
