I Simposio Argentino de Imágenes y Visión (SAIV 2019)http://sedici.unlp.edu.ar:80/handle/10915/891382024-03-29T08:44:11Z2024-03-29T08:44:11ZContent Based Image Retrieval(CBIR): aplicando descriptor ORBCabero, Gerardo AntonioBarboza, Héctor Emanuelhttp://sedici.unlp.edu.ar:80/handle/10915/892002020-02-18T20:04:04Z2019-01-01T00:00:00ZObjeto de conferencia
I Simposio Argentino de Imágenes y Visión (SAIV 2019) - JAIIO 48 (Salta)
Por cada segundo se suben centenares de imágenes que hacen referencia a artículos para el consumo a través de sitios especializados de e-commerce como por ejemplo eBay o Alibaba. Las personas realizan búsquedas sobre artículos de consumo diario como ropa, zapatos, jeans, o cualquier tipo de prenda que se usa cotidianamente. Habitualmente los motores de búsqueda de imágenes de estas empresas y de otros motores como Google, Bing o DuckDuckGo, buscan imágenes basadas en textos que las etiquetan. Las consultas se realizan a través del ingreso de alguna palabra “clave”, y ´este devuelve una serie de imágenes relacionadas a la misma. El objetivo del presente trabajo es crear un motor de búsqueda y recuperación de imágenes, aplicando técnicas de minería de datos y procesamiento de imágenes en donde no se realiza la utilización de texto para realizar una consulta sino una imagen.
2019-01-01T00:00:00ZPor cada segundo se suben centenares de imágenes que hacen referencia a artículos para el consumo a través de sitios especializados de e-commerce como por ejemplo eBay o Alibaba. Las personas realizan búsquedas sobre artículos de consumo diario como ropa, zapatos, jeans, o cualquier tipo de prenda que se usa cotidianamente. Habitualmente los motores de búsqueda de imágenes de estas empresas y de otros motores como Google, Bing o DuckDuckGo, buscan imágenes basadas en textos que las etiquetan. Las consultas se realizan a través del ingreso de alguna palabra “clave”, y ´este devuelve una serie de imágenes relacionadas a la misma. El objetivo del presente trabajo es crear un motor de búsqueda y recuperación de imágenes, aplicando técnicas de minería de datos y procesamiento de imágenes en donde no se realiza la utilización de texto para realizar una consulta sino una imagen.Estimación del parámetro de Hurst en imágenes SARHamkalo, Juan L.Medina, Juan MiguelMailing, AgustínDobarro, FernandoFernández, DanielCernuschi Frías, Brunohttp://sedici.unlp.edu.ar:80/handle/10915/891982020-02-18T20:04:05Z2019-01-01T00:00:00ZObjeto de conferencia
I Simposio Argentino de Imágenes y Visión (SAIV 2019) - JAIIO 48 (Salta)
En el presente trabajo se desarrollan y aplican técnicas basadas en hipótesis de fractalidad sobre imágenes generadas a partir de capturas de radar SAR. Se consideran escenarios que abarcan mar y tierra con preponderancia mayormente marina. Se obtuvo la estimación del parámetro de autosimilitud de Hurst H. El algoritmo utilizado se aplicó concurrentemente sobre una pequeña porción de la imagen donde la imagen original se reemplaza por una sintética a fin de validar una correcta implementación computacional. Los valores obtenidos para H permiten una clara diferenciación entre tierra, agua y agua con cierta rugosidad para las imágenes utilizadas.
2019-01-01T00:00:00ZEn el presente trabajo se desarrollan y aplican técnicas basadas en hipótesis de fractalidad sobre imágenes generadas a partir de capturas de radar SAR. Se consideran escenarios que abarcan mar y tierra con preponderancia mayormente marina. Se obtuvo la estimación del parámetro de autosimilitud de Hurst H. El algoritmo utilizado se aplicó concurrentemente sobre una pequeña porción de la imagen donde la imagen original se reemplaza por una sintética a fin de validar una correcta implementación computacional. Los valores obtenidos para H permiten una clara diferenciación entre tierra, agua y agua con cierta rugosidad para las imágenes utilizadas.An Open Source Quantitative Evaluation Framework for Automatic Video Summarization AlgorithmsBalmaceda, LeandroDiaz, Ariel I.Rostagno, AdriánAggio, Santiago L.Blanco, AnibalIparraguirre, Javierhttp://sedici.unlp.edu.ar:80/handle/10915/891882020-02-17T20:03:52Z2019-01-01T00:00:00ZObjeto de conferencia
I Simposio Argentino de Imágenes y Visión (SAIV 2019) - JAIIO 48 (Salta)
The creation, consumption, and manipulation of video play a central role in everyday life as the amount of video data is growing at an exponential rate. Video summarization consists on producing a condensed output from a video that allows humans to rapidly understand and browse the content of the original source. Although there are several evaluation approaches proposed in the literature, multiple challenges make the quantitative evaluation of a summarization a complex process. In this paper we present a completely open video summarization evaluation framework that is compatible with existing datasets and published results. Standard metrics are considered and a new metric that captures unbalanced-class video summarization evaluation is proposed. Two legacy datasets are integrated in a standard format. Finally, new quantitative results based on already published algorithms are presented.
2019-01-01T00:00:00ZThe creation, consumption, and manipulation of video play a central role in everyday life as the amount of video data is growing at an exponential rate. Video summarization consists on producing a condensed output from a video that allows humans to rapidly understand and browse the content of the original source. Although there are several evaluation approaches proposed in the literature, multiple challenges make the quantitative evaluation of a summarization a complex process. In this paper we present a completely open video summarization evaluation framework that is compatible with existing datasets and published results. Standard metrics are considered and a new metric that captures unbalanced-class video summarization evaluation is proposed. Two legacy datasets are integrated in a standard format. Finally, new quantitative results based on already published algorithms are presented.Measuring Opencv.js performance with Wasm execution engine in desktop, embedded and mobile browsersPérez, Carlos A.http://sedici.unlp.edu.ar:80/handle/10915/891862020-02-17T20:03:54Z2019-01-01T00:00:00ZObjeto de conferencia
I Simposio Argentino de Imágenes y Visión (SAIV 2019) - JAIIO 48 (Salta)
Current browsers have sophisticated execution environments for Javascript, and fast rendering engines. With the advent of HTML5, they accept digital cameras, and they can process, in real time, video streaming between browsers, allowing instant communications. In addition, the introduction of the low-level virtual machine (LLVM) allows image-processing libraries to be delivered, alongside web pages, as specialized scripts that execute in browser, with significant speed gains when compared to traditional Javascript engines. This make the browser a very suitable platform to deliver web applications with heavy image processing tasks, that execute at native speeds. However, measuring such performance in modern browsers is a demanding challenge. In this paper, a set of recommended practices to use and to benchmark Opencv.js are presented and obtained figures on several testbeds are discussed. Measurements involved a desktop PC, a selection of smartphones with mainstream processors, and a Raspberry Pi single-board computer, which resulted in several findings that confirm the maturity of mobile an embedded browser for image-processing with Javascript at client side, running at native speeds.
2019-01-01T00:00:00ZCurrent browsers have sophisticated execution environments for Javascript, and fast rendering engines. With the advent of HTML5, they accept digital cameras, and they can process, in real time, video streaming between browsers, allowing instant communications. In addition, the introduction of the low-level virtual machine (LLVM) allows image-processing libraries to be delivered, alongside web pages, as specialized scripts that execute in browser, with significant speed gains when compared to traditional Javascript engines. This make the browser a very suitable platform to deliver web applications with heavy image processing tasks, that execute at native speeds. However, measuring such performance in modern browsers is a demanding challenge. In this paper, a set of recommended practices to use and to benchmark Opencv.js are presented and obtained figures on several testbeds are discussed. Measurements involved a desktop PC, a selection of smartphones with mainstream processors, and a Raspberry Pi single-board computer, which resulted in several findings that confirm the maturity of mobile an embedded browser for image-processing with Javascript at client side, running at native speeds.Modelos para el análisis de pérdidas de AFR en sistema paralelo de mejor esfuerzoPerez-Monte, Cristian F.Ocampo, Pablo IgnacioCrespillo, Enzo RaúlCaballero, Gabriel AndrésCantón, Mariana LorenaPiccoli, María FabianaLuciano, Cristian JavierRizzi, Silviohttp://sedici.unlp.edu.ar:80/handle/10915/891852020-02-17T20:03:55Z2019-01-01T00:00:00ZObjeto de conferencia
I Simposio Argentino de Imágenes y Visión (SAIV 2019) - JAIIO 48 (Salta)
En este trabajo se presentan dos modelos de aproximación para la determinación de la relación de pérdidas de cuadros de la técnica de paralelización Alternate Frame Rendering en un sistema de renderización de mejor esfuerzo. El primero de los modelos considera que la velocidad de cuadros por nodo es constante en el tiempo, mientras que en el segundo, la velocidad de cuadros por nodo varía en el tiempo pero, la velocidad de cuadros promedio es constante entre todos los nodos. Finalmente, se presentan resultados de desempeño teórico simulados hasta 512 nodos y se concluye que, para ambos modelos, el sistema posee una buen desempeño para menos de 16 nodos.
2019-01-01T00:00:00ZEn este trabajo se presentan dos modelos de aproximación para la determinación de la relación de pérdidas de cuadros de la técnica de paralelización Alternate Frame Rendering en un sistema de renderización de mejor esfuerzo. El primero de los modelos considera que la velocidad de cuadros por nodo es constante en el tiempo, mientras que en el segundo, la velocidad de cuadros por nodo varía en el tiempo pero, la velocidad de cuadros promedio es constante entre todos los nodos. Finalmente, se presentan resultados de desempeño teórico simulados hasta 512 nodos y se concluye que, para ambos modelos, el sistema posee una buen desempeño para menos de 16 nodos.Desarrollo de un sistema de detección de pérdidas de atención en la conducción basado en visión computacionalFarré, GonzaloMartínez, César E.Albornoz, Enriquehttp://sedici.unlp.edu.ar:80/handle/10915/891832020-02-17T20:03:57Z2019-01-01T00:00:00ZObjeto de conferencia
I Simposio Argentino de Imágenes y Visión (SAIV 2019) - JAIIO 48 (Salta)
Los accidentes de tránsito debido a errores humanos son muy habituales a pesar de los avances en seguridad que presentan los vehículos modernos. En este trabajo se presenta el diseño e implementación de un sistema que evalúa las distracciones de los conductores, a través del procesamiento de video obtenido con un dispositivo móvil. El sistema permite evaluar cuando los conductores no prestan la debida atención, que incluye situaciones donde no miran al frente o los parpadeos son excesivos y pueden evidenciar somnoliencia. Adicionalmente, se diseño y registró una base de datos de videos que permite la evaluación de la conducción en diferentes escenarios.
2019-01-01T00:00:00ZLos accidentes de tránsito debido a errores humanos son muy habituales a pesar de los avances en seguridad que presentan los vehículos modernos. En este trabajo se presenta el diseño e implementación de un sistema que evalúa las distracciones de los conductores, a través del procesamiento de video obtenido con un dispositivo móvil. El sistema permite evaluar cuando los conductores no prestan la debida atención, que incluye situaciones donde no miran al frente o los parpadeos son excesivos y pueden evidenciar somnoliencia. Adicionalmente, se diseño y registró una base de datos de videos que permite la evaluación de la conducción en diferentes escenarios.Towards a Handwritten Text Interpretation Framework for Ancient Spanish ManuscriptsXamena, EduardoOrozco, Carlos IsmaelCarrasco Cabrera, Gastónhttp://sedici.unlp.edu.ar:80/handle/10915/891802020-02-17T20:03:59Z2019-01-01T00:00:00ZObjeto de conferencia
I Simposio Argentino de Imágenes y Visión (SAIV 2019) - JAIIO 48 (Salta)
Handwritten Text Recognition is an extensively studied research topic.We implement a widely known binarization method in order to preprocess handwritten text images efficiently and accurately, acquiring adequate binary black-white images for later recognition processes.
Afterwards, the characters present in the documents are used to train and evaluate deep-learning mechanisms for the recognition task. Our framework provides good source images for the recognition phase in terms of noise removal and processing of low contrast images. Besides, the process of character recognition is also improved by means of deep-learning techniques.
2019-01-01T00:00:00ZHandwritten Text Recognition is an extensively studied research topic.We implement a widely known binarization method in order to preprocess handwritten text images efficiently and accurately, acquiring adequate binary black-white images for later recognition processes.
Afterwards, the characters present in the documents are used to train and evaluate deep-learning mechanisms for the recognition task. Our framework provides good source images for the recognition phase in terms of noise removal and processing of low contrast images. Besides, the process of character recognition is also improved by means of deep-learning techniques.Utilización de imágenes de dosis portal para el cálculo de dosis pre-tratamiento: resultados preliminaresYoung, EduardoBregains, F.Larragueta, N.Moglia, BelénBiurrun Manresa, J.http://sedici.unlp.edu.ar:80/handle/10915/891782020-02-17T20:04:00Z2019-01-01T00:00:00ZObjeto de conferencia
I Simposio Argentino de Imágenes y Visión (SAIV 2019) - JAIIO 48 (Salta)
Los detectores de mega-voltaje se utilizan como herramientas de verificación pre-tratamiento de los planes de irradiación, comparando las mediciones obtenidas por el dispositivo y aquellas predichas por el sistema de planificación utilizando el índice gamma. Sin embargo, esto puede enmascarar errores de significancia clínica en términos de dosis recibida por el paciente. El presente artículo registra el estado de avance de un proyecto de investigación cuyo objetivo es el de realizar una herramienta que permita evaluar la distribución volumétrica de dosis a partir de imágenes provenientes del detector de mega-voltaje. De esta manera, se constatará la dosis 3D medida contra aquella calculada por el sistema de planificación de tratamiento. Al momento de remitir este artículo, se ha cumplimentado de manera parcial la etapa correspondiente a la deconvolución de las imágenes portales para la obtención de la fluencia primaria de fotones.
2019-01-01T00:00:00ZLos detectores de mega-voltaje se utilizan como herramientas de verificación pre-tratamiento de los planes de irradiación, comparando las mediciones obtenidas por el dispositivo y aquellas predichas por el sistema de planificación utilizando el índice gamma. Sin embargo, esto puede enmascarar errores de significancia clínica en términos de dosis recibida por el paciente. El presente artículo registra el estado de avance de un proyecto de investigación cuyo objetivo es el de realizar una herramienta que permita evaluar la distribución volumétrica de dosis a partir de imágenes provenientes del detector de mega-voltaje. De esta manera, se constatará la dosis 3D medida contra aquella calculada por el sistema de planificación de tratamiento. Al momento de remitir este artículo, se ha cumplimentado de manera parcial la etapa correspondiente a la deconvolución de las imágenes portales para la obtención de la fluencia primaria de fotones.Sustracción de fondo por varias características estables en el modeloDominguez, LeonardoPérez, Alejandro DanielD'Amato, Juan P.Barbuzza, Rosanahttp://sedici.unlp.edu.ar:80/handle/10915/891752020-02-17T20:04:01Z2019-01-01T00:00:00ZObjeto de conferencia
I Simposio Argentino de Imágenes y Visión (SAIV 2019) - JAIIO 48 (Salta)
Los métodos de sustracción de fondo basados en modelo con una única característica como la intensidad del píxel, suelen fallar en la clasi ficación de escenas complejas. En este trabajo se propone ampliar los descriptores del modelo de fondo para considerar otras característica como la textura, la distribución de intensidades, escala de grises, color, y de esta manera mejorar la clasifi cación de cada píxel. Para clasi ficar además se tiene en cuenta la característica principal y secundaria en cada región de imágenes tomadas con c amaras estáticas. En particular para la textura, se utilizó una modi ficación del descriptor simple y tradicional Local Binary Pattern (LBP) que resulta invariante a los cambios de tonalidades en escala de grises, y la rotación. Los descriptores fueron incorporados al algoritmo de sustracción de fondo Visual Background Extraction (ViBE), que identifi ca zonas de movimiento en las escenas, comparando distintas características del modelo de fondo. El algoritmo propuesto se puede aplicar para detectar personas o vehículos en aplicaciones para seguridad ciudadana, monitoreo de tráfi co, entre otros. Los resultados preliminares obtenidos en la detección de objetos muestran que es factible utilizar varios descriptores del modelo de fondo para lograr mejorar la tasa de acierto y con bajo costo computacional, con la consiguiente ventaja para etapas de procesamiento posteriores, como el reconocimiento y el seguimiento de los objetos.
2019-01-01T00:00:00ZLos métodos de sustracción de fondo basados en modelo con una única característica como la intensidad del píxel, suelen fallar en la clasi ficación de escenas complejas. En este trabajo se propone ampliar los descriptores del modelo de fondo para considerar otras característica como la textura, la distribución de intensidades, escala de grises, color, y de esta manera mejorar la clasifi cación de cada píxel. Para clasi ficar además se tiene en cuenta la característica principal y secundaria en cada región de imágenes tomadas con c amaras estáticas. En particular para la textura, se utilizó una modi ficación del descriptor simple y tradicional Local Binary Pattern (LBP) que resulta invariante a los cambios de tonalidades en escala de grises, y la rotación. Los descriptores fueron incorporados al algoritmo de sustracción de fondo Visual Background Extraction (ViBE), que identifi ca zonas de movimiento en las escenas, comparando distintas características del modelo de fondo. El algoritmo propuesto se puede aplicar para detectar personas o vehículos en aplicaciones para seguridad ciudadana, monitoreo de tráfi co, entre otros. Los resultados preliminares obtenidos en la detección de objetos muestran que es factible utilizar varios descriptores del modelo de fondo para lograr mejorar la tasa de acierto y con bajo costo computacional, con la consiguiente ventaja para etapas de procesamiento posteriores, como el reconocimiento y el seguimiento de los objetos.CNN-LSTM Architecture for Action Recognition in VideosOrozco, Carlos IsmaelBuemi, María E.Berlles, Julio Jacobohttp://sedici.unlp.edu.ar:80/handle/10915/891442020-02-18T04:02:29Z2019-01-01T00:00:00ZObjeto de conferencia
I Simposio Argentino de Imágenes y Visión (SAIV 2019) - JAIIO 48 (Salta)
Action recognition in videos is currently a topic of interest in the area of computer vision, due to potential applications such as: multimedia indexing, surveillance in public spaces, among others. In this paper we propose a CNN{LSTM architecture. First, a pre-trained VGG16 convolutional neuronal networks extracts the features of the input video. Then, a LSTM classi es the video in a particular class.
To carry out the training and the test, we used the UCF-11 dataset.
Evaluate the performance of our system using the evaluation metric in accuracy. We apply LOOCV with k = 25, we obtain ~ 98% and ~ 91% for training and test respectively.
2019-01-01T00:00:00ZAction recognition in videos is currently a topic of interest in the area of computer vision, due to potential applications such as: multimedia indexing, surveillance in public spaces, among others. In this paper we propose a CNN{LSTM architecture. First, a pre-trained VGG16 convolutional neuronal networks extracts the features of the input video. Then, a LSTM classi es the video in a particular class.
To carry out the training and the test, we used the UCF-11 dataset.
Evaluate the performance of our system using the evaluation metric in accuracy. We apply LOOCV with k = 25, we obtain ~ 98% and ~ 91% for training and test respectively.Método integral de segmentación automática de cromosomas basado en redes neuronales profundasFenoglio, SebastiánMartínez, César E.Gerard, Matíashttp://sedici.unlp.edu.ar:80/handle/10915/891422020-02-18T04:02:32Z2019-01-01T00:00:00ZObjeto de conferencia
I Simposio Argentino de Imágenes y Visión (SAIV 2019) - JAIIO 48 (Salta)
En este trabajo se aborda el problema de la segmentación automática de cromosomas con tinción en banda G mediante la aplicación de redes convolucionales profundas. Se propone una metodología para generación de datos sintéticos y se exploran diferentes arquitecturas. Los resultados muestran desempeños mayores a 93% en recall y cercanos a 90% con el coeficiente de Jaccard. Además, se aplican métodos de post-procesamiento para mejorar la probabilidad de que la red convolucional acierte en el número de cromosomas presentes en un solapamiento.
2019-01-01T00:00:00ZEn este trabajo se aborda el problema de la segmentación automática de cromosomas con tinción en banda G mediante la aplicación de redes convolucionales profundas. Se propone una metodología para generación de datos sintéticos y se exploran diferentes arquitecturas. Los resultados muestran desempeños mayores a 93% en recall y cercanos a 90% con el coeficiente de Jaccard. Además, se aplican métodos de post-procesamiento para mejorar la probabilidad de que la red convolucional acierte en el número de cromosomas presentes en un solapamiento.