Imágenes construidas por algoritmos protegerían páginas web de ciberataques
Minuto a Minuto

 

 

07 de julio de 2022

La protección de datos en la red –o ciberseguridad– es un tema prioritario en esta era digital, en la que el ojo humano compite con robots para identificar formas seguras de ingresar a portales y redes sociales, entre otros. Matemáticos de la UNAL crearon dos algoritmos que ponen a prueba la capacidad de los dos competidores para reconocer e interpretar imágenes (rostros y objetos): el ojo humano superó a la máquina.

El profesor Agustín Moreno Cañadas, del Departamento de Matemáticas de la Universidad Nacional de Colombia (UNAL), explica que el objetivo del CAPTCHA (test utilizado por sitios y servicios en la red para comprobar si el usuario es un humano o un robot) es “proteger las páginas web de ciberataques que hagan que estas presenten fallos, o que queden expuestos datos sensibles de empresas y usuarios, por ejemplo”.

Agrega que “incluso para abrir las cuentas de redes sociales, siempre se debe resolver un CAPTCHA, se necesita saber que quien abre la cuenta es un humano y no un bot (programa informático que efectúa automáticamente tareas)”.

La investigación de imágenes emergentes nace hace 12 años en la Universidad para crear cada vez mejores sistemas de autenticación que confirmen que las transacciones en internet son seguras para los usuarios y no se vean vulneradas por las máquinas.

El concepto de emergencia es importante para la investigación. Este surge de un principio de la percepción humana, presente en la teoría psicológica de la escuela de la Gestalt en el que se habla acerca de la capacidad para identificar e interpretar formas sin necesidad de ver su totalidad (por ejemplo un círculo con espacios sin completar), habilidad que aún no puede realizar un programa o máquina.

Con imágenes de textos clásicos

La investigación del profesor Moreno se realizó por medio de una recolección de imágenes conocidas de textos clásicos como la Biblia, cuentos tradicionales como El rey Arturo, o películas como La historia de Esther (aquí se recopilaron cuadros por minuto).

Una de las temáticas principales fue el tiempo, con subcategorías como los siglos en los que se usaron imágenes del Antiguo Testamento, dibujos y pinturas de Leonardo da Vinci, Pedro Pablo Rubens y Michelangelo Merisi Caravaggio; años, como el calendario chino o el año del perro o de la rata, entre otros; y meses, ilustraciones de los signos zodiacales.

Otro campo de imágenes giraba en torno a lo que se entiende por diversión (forma en que se representaba en distintas épocas), con pinturas y dibujos de actos circenses (además de cuadros de la película mencionada) y cuentos infantiles clásicos.

De 44.000 imágenes se producen trasparencias cuánticas, término que hace referencia al proceso mediante el cual se extraen dos imágenes de ese número para ponerlas a prueba a una serie de usuarios.

Este proceso utiliza dos algoritmos: reducción y completación, cuyo papel es extraer las imágenes (de un repositorio o base de datos), y limpieza, lo que significa que se busca que la imagen sea lo más clara posible, eliminando el “ruido” o efectos indeseados.

Luego las imágenes se pusieron a prueba en forma de test para medir qué tan efectivas era en humanos y en máquinas.

“En las encuestas y sondeos, después de mostrar una imagen por 3 segundos, se les pidió a los participantes que dieran clic sobre un rostro (ojos, nariz y boca), u objetos específicos, como la ropa, y además preguntar si la persona en la imagen era joven o vieja, y el test se encargaba de decir si la respuesta era correcta o no”, indica el experto.

La investigación se llevó a cabo en personas desde los 5 hasta los 70 años, y se evidenció que la edad sí importa, ya que el bagaje cultural y social hace que sea más fácil reconocer imágenes, lo que quiere decir que la capacidad de emergencia es mayor.

Probando a la máquina

Por otro lado, se contrastaron estos datos con una red de inteligencia neuronal (AdaBoost), que también se encargó de hacer la tarea de reconocer las imágenes.

“El contraste entre estas dos evaluaciones mostró que para la red fue más difícil que para los humanos descifrar las imágenes emergentes (reconocer rostros y objetos), lo cual evidencia que los programas y las máquinas aún no tienen esa capacidad de distinguir e interpretar las características que se desprenden del contexto”, asegura.

Esto también se produce debido a la ambigüedad de las imágenes, y a las múltiples percepciones e interpretaciones que el ser humano tiene en su mente y la máquina no.

Investigaciones como esta permiten tener cada vez mejores test informáticos para reconocer a los usuarios en la web, dinámica que genera una ciberseguridad más estructurada y previene delitos informáticos.

Aunque es verdad que en un futuro podrían llegar a crearse programas que estén a la par con el ser humano en el reconocimiento de estas particularidades en las imágenes, hoy este no es el caso, por lo que el ser humano sigue ganando esta ronda de la competencia.

Fuente: agenciadenoticias.unal.edu.co
next
prev

Hay 1158 invitados y ningún miembro en línea