Un sistema de visión por computador ha sido creado basado en deep learning que aprovecha una base de datos de más de 1,7 millones de fotografías
Un equipo internacional de investigadores ha desarrollado un sistema computacional de aprendizaje profundo capaz de detectar desastres naturales a partir de imágenes compartidas en las redes sociales.
Esta investigación ha aplicado herramientas de visión por computación que, tras ser entrenadas con 1,7 millones de fotografías, han demostrado su eficacia en el análisis, filtrado y detección de catástrofes reales.
Liderado por el Massachusetts Institute of Technology (MIT), el trabajo contó con la participación de Ágata Lapedriza, líder del grupo de investigación especializada en inteligencia artificial para el bienestar humano (AIWELL), adscrito al eHealth Center y profesora de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC).
En un contexto de calentamiento global que ha incrementado la frecuencia y gravedad de los desastres naturales como inundaciones, tornados e incendios forestales, resulta crucial contar con herramientas para predecir dónde y cuándo ocurrirán estos incidentes. Responder rápidamente a estos eventos es fundamental para salvar vidas y coordinar la ayuda de servicios de emergencia y cooperación internacional.
"Afortunadamente, la tecnología puede desempeñar un papel importante en estas situaciones. Las publicaciones en redes sociales pueden utilizarse como fuente de datos de baja latencia para comprender la progresión y las consecuencias de un desastre", explicó Lapedriza.
Hasta ahora, los estudios previos se habían centrado en el análisis de texto, pero esta investigación, publicada en la revista Transactions on Pattern Analysis and Machine Intelligence, fue más allá.
Los autores crearon un conjunto de datos denominado Incidents1M, que contiene 1.787.154 imágenes, para posteriormente entrenar el modelo de detección.
Durante una estancia en el laboratorio de informática e inteligencia artificial del MIT, Lapedriza contribuyó en la definición de la taxonomía de incidentes, la creación de una base de datos para entrenar los modelos de aprendizaje profundo, así como la ejecución de los experimentos para validar esta tecnología.
Los investigadores establecieron una lista de 43 categorías de incidentes, que incluían desastres naturales como avalanchas, tormentas de arena, terremotos, erupciones volcánicas y sequías, así como diferentes tipos de accidentes con intervención humana, como accidentes aéreos o de construcción. Esta lista, junto con una tipología de 49 ubicaciones, permitió etiquetar las fotografías utilizadas para entrenar el sistema.
Los autores crearon un conjunto de datos denominado Incidents1M, que contiene 1.787.154 imágenes, para posteriormente entrenar el modelo de detección. De estas imágenes, 977.088 tienen al menos una etiqueta positiva relacionada con alguno de los incidentes categorizados, mientras que 810.066 imágenes contienen etiquetas de incidentes clasificados como negativos. En cuanto a las ubicaciones, 764.124 imágenes son clasificadas como positivas y 1.023.030 como negativas.
Estas etiquetas negativas permitieron entrenar al sistema para eliminar falsos positivos y comprender, por ejemplo, que una fotografía de una hoguera no corresponde a un incendio real, a pesar de tener características visuales similares.
Con esta base, el equipo entrenó un modelo de detección utilizando el paradigma de aprendizaje multitarea y una red neuronal convolucional.
Una vez que el modelo de aprendizaje profundo fue entrenado para detectar incidentes en imágenes, se sometió a varias pruebas utilizando un gran volumen de imágenes descargadas de redes sociales como Flickr y Twitter.
Estas etiquetas negativas permitieron entrenar al sistema para eliminar falsos positivos y comprender, por ejemplo, que una fotografía de una hoguera no corresponde a un incendio real, a pesar de tener características visuales similares.
"Dentro de estos conjuntos de imágenes, nuestro modelo pudo detectar aquellas que se correspondían con incidentes reales, y verificamos que existía correspondencia con incidentes específicos que ya tenían registros, como los terremotos de 2015 en Nepal y Chile", explicó Lapedriza.
Los autores de la investigación han demostrado, con datos reales, el potencial de utilizar un enfoque basado en el aprendizaje profundo para obtener información de las redes sociales sobre desastres naturales y situaciones que requieran ayuda humanitaria.
"Esto abre la puerta para que las organizaciones de ayuda humanitaria puedan obtener información de manera más eficiente y mejorar la gestión de la ayuda en casos de necesidad", añadió la experta en computación de la UOC.
Si bien se ha logrado este hito, surgen nuevos desafíos científicos, como aprovechar las mismas imágenes de inundaciones, incendios u otros sucesos para cuantificar automáticamente la gravedad de los incidentes, o incluso realizar un seguimiento más efectivo de su evolución a lo largo del tiempo.
Los autores de la investigación también plantean la posibilidad de combinar el análisis de imágenes con el análisis de texto que las acompaña, para lograr una clasificación más precisa y cuidadosa de los incidentes.
Este avance en la detección de desastres naturales a través del análisis de imágenes en las redes sociales representa un paso significativo en la utilización de la inteligencia artificial y el aprendizaje profundo para mejorar la respuesta y la gestión de situaciones de emergencia a nivel mundial.