En inglés
Convolutional neural networks are a technique that has demonstrated great success in computer vision tasks, such as image classification and object detection. Like any machine learning model, they have limitations and vulnerabilities that must be carefully considered for safeand effective use. One of the main limitations lies in their complexity and the difficulty of interpreting their internal workings, which can be exploited for malicious purposes. The goal of these attacks is to make deliberate changes to the input data in order to deceive the model and cause it to make incorrect decisions. These attacks are known as adversarial attacks. This work focuses on the generation of adversarial images using genetic algorithms for a convolutional neural network trained on the MNIST dataset. Several strategies are employed, including targeted and untargeted attacks, as well as the presentation of interpretable and non-interpretable images that are unrecognizable to humans but are misidentified and confidently classified by the network. The experiment demonstrates the ability to generate adversarial images in a relatively short time, highlighting the vulnerability of neural networks and the ease with which they can be deceived. These results underscore the importance of developing more secure and reliable artificial intelligence systems capable of resisting such attacks.
En español
Las redes neuronales convolucionales conforman una tecnica que ha demostrado un gran éxito en tareas de visión artificial, como laclasificación de imágenes y detección de objetos. Como cualquier modelo de aprendizaje automático, tiene limitaciones y vulnerabilidades quedeben ser consideradas cuidadosamente para utilizarlas de manera segura y efectiva. Una de las limitaciones principales se encuentra en sucomplejidad y la dificultad de interpretar su funcionamiento interno, lo que puede ser explotado con fines maliciosos. El objetivo de estos ataquesconsiste en hacer cambios deliberados en la entrada de datos, de forma tal de engañar al modelo y hacer que tome decisiones incorrectas. Estosataques son conocidos como ataques adversarios. Este trabajo se centra en la generación de imágenes adversarias utilizando algoritmos genéticos para una red neuronal convolucional entrenada con el dataset MNIST. Se utilizan varias estrategias incluyendo ataques dirigidos y no dirigidos, así como también se presentan imágenes interpretables y no interpretables, no reconocibles para los humanos, pero que la red identifica y clasifica erróneamente con alta confianza. El experimento muestra la posibilidad de generar imágenes adversarias en un tiempo relativamente corto, lo que pone en evidencia la vulnerabilidad de las redes neuronales y la facilidad con la que pueden ser engañadas. Estos resultados resaltan la importancia de desarrollar sistemas de inteligencia artificial más seguros y confiables, capaces de resistir estos ataques.