Subir material

Suba sus trabajos a SEDICI, para mejorar notoriamente su visibilidad e impacto

 

Mostrar el registro sencillo del ítem

dc.date.accessioned 2021-04-29T15:16:58Z
dc.date.available 2021-04-29T15:16:58Z
dc.date.issued 2021-04-17
dc.identifier.uri http://sedici.unlp.edu.ar/handle/10915/118045
dc.description.abstract The correction of attenuation effects in Positron Emission Tomography (PET) imaging is fundamental to obtain a correct radiotracer distribution. However direct measurement of this attenuation map is not error-free and normally results in additional ionization radiation dose to the patient. Here, we explore the task of whole body attenuation map generation using 3D deep neural networks. We analyze the advantages that an adversarial training can provide to such models. The networks are trained to learn the mapping from non attenuation corrected [ 18F]-fluorodeoxyglucose PET images to a synthetic Computerized Tomography (sCT) and also to label the input voxel tissue. Then the sCT image is further refined using an adversarial training scheme to recover higher frequency details and lost structures using context information. This work is trained and tested on public available datasets, containing several PET images from different scanners with different radiotracer administration and reconstruction modalities. The network is trained with 108 samples and validated on 10 samples. The sCT generation was tested on 133 samples from 8 distinct datasets. The resulting mean absolute error of the tested networks is 96 ± 20 HU and 103 ± 18 HU with a peak signal to noise ratio of 19.3 ± 1.7 dB and 18.6 ± 1.5 dB, for the base model and adversarial model respectively. The attenuation correction is tested by means of attenuation sinograms, obtaining a line of response attenuation mean error lower than 1% with a standard deviation lower than 8%. The proposed deep learning topologies are capable of generating whole body attenuation maps from uncorrected PET image data. Moreover, the accuracy of both methods holds in the presence of data from multiple sources and modalities and are trained on publicly available datasets. Finally, while the adversarial layer enhances visual appearance of the produced samples, the 3D U-Net achieves higher metric performance. en
dc.description.abstract La corrección de los efectos de la atenuación en las imágenes de Tomografía por Emisión de Positrones (PET) es fundamental para obtener la correcta distribución del radio trazador. Sin embargo la medición directa del mapa de atenuación no está libre de errores y normalmente resulta en la absorción de una dosis superior de radiación ionizante por parte del paciente. Aquí, exploramos la tarea de la generación del mapa de atenuación de cuerpo completo usando redes neuronales profundas 3D. Se analizan las ventajas que un entrenamiento adversario puede proveer a estos modelos. Las redes son entrenadas para aprender la conversión desde una imagen de [ 18F]-fluorodeoxyglucosa PET sin corrección de atenuación a una imagen sintética de Tomografía Computada (sCT) y además obtener una etiqueta del tipo de tejido en los voxeles de la imagen. Luego la imagen de sCT es refinada usando un entrenamiento de tipo adversario para recobrar detalles de alta frecuencia y estructuras perdidas usando información contextual. Este trabajo es entrenado y probado sobre conjuntos de datos públicos, conteniendo distintas imágenes PET de diferentes tomógrafos, distintos modos de administración de dosis y modos de reconstrucción. La red es entrenada con 108 muestras y validada con 10 muestras. La generación del sCT fue probada con 133 muestras de 8 conjuntos de datos independientes. El error medio absoluto de las redes es de 96 ± 20 HU y 103 ± 18 HU con una relación señal ruido pico de 103 ± 18 HU y 18.6 ± 1.5 dB para el modelo base y el modelo adversario respectivamente. La corrección de atenuación es probada por medio de sinogramas, obteniendo un error medio en la atenuación de las líneas de respuesta menor al 1% con un desvío estándar menor al 8%. Las topologías de aprendizaje profundo propuestas son capaces de generar mapas de atenuación de cuerpo completo a partir de imágenes PET sin corregir. Además, la exactitud de los métodos se sostiene en presencia de datos de múltiples fuentes y modalidades y son entrenadas en conjuntos de datos públicos. Finalmente, mientras se observa que el entrenamiento adversario mejora la apariencia visual de los mapas generados, la topologa 3D U-Net obtiene mejor rendimiento en las métricas. es
dc.language en es
dc.subject Attenuation Correction es
dc.subject Deep Learning es
dc.subject Generative Models es
dc.subject Positron Emission Tomography es
dc.subject Corrección de atenuación es
dc.subject Aprendizaje profundo es
dc.subject Modelos generativos es
dc.subject Tomografía por Emisión de Positrones es
dc.title Towards a Whole Body [18F] FDG Positron Emission Tomography Attenuation Correction Map Synthesizing using Deep Neural Networks en
dc.title.alternative Hacia la Sintetización de Mapas de Atenuación de Cuerpo Completo para Tomografía por Emisión de Positrones de [18F] FDG usando Redes Neuronales Profundas es
dc.type Articulo es
sedici.identifier.uri https://journal.info.unlp.edu.ar/JCST/article/view/1519 es
sedici.identifier.other 10.24215/16666038.21.e04 es
sedici.identifier.issn 1666-6038 es
sedici.creator.person Rodríguez Colmeiro, Ramiro es
sedici.creator.person Verrastro, Claudio es
sedici.creator.person Minsky, Daniel es
sedici.creator.person Grosges, Thomas es
sedici.subject.materias Ciencias Informáticas es
sedici.description.fulltext true es
mods.originInfo.place Facultad de Informática es
sedici.subtype Articulo es
sedici.rights.license Creative Commons Attribution-NonCommercial 4.0 International (CC BY-NC 4.0)
sedici.rights.uri http://creativecommons.org/licenses/by-nc/4.0/
sedici.description.peerReview peer-review es
sedici.relation.journalTitle Journal of Computer Science & Technology es
sedici.relation.journalVolumeAndIssue vol. 21, no. 1 es


Descargar archivos

Este ítem aparece en la(s) siguiente(s) colección(ones)

Creative Commons Attribution-NonCommercial 4.0 International (CC BY-NC 4.0) Excepto donde se diga explícitamente, este item se publica bajo la siguiente licencia Creative Commons Attribution-NonCommercial 4.0 International (CC BY-NC 4.0)