En resumen
- Google ha creado el conjunto de datos más grande sobre inundaciones repentinas utilizando Gemini para analizar dos décadas de informes de noticias globales.
- Este conjunto de datos ahora alimenta un modelo de IA que predice inundaciones urbanas hasta 24 horas antes de que ocurran.
- El sistema cubre una importante brecha de datos que durante mucho tiempo obstaculizó la previsión de inundaciones repentinas.
Las inundaciones repentinas causan miles de muertes cada año. Se presentan de forma rápida, golpeando las ciudades con gran intensidad. Durante décadas, los científicos apenas contaron con herramientas para anticipar este fenómeno debido a la falta de datos para entrenar modelos de predicción.
El pasado jueves, Google anunció que encontró una solución a este problema: leyendo noticias.
La compañía presentó Groundsource, un sistema que utiliza la IA de Gemini para analizar millones de artículos de noticias publicados desde el año 2000, extraer referencias a eventos de inundación y asociar cada una a una ubicación y una fecha. El resultado es un conjunto de datos de 2.6 millones de inundaciones históricas, abarcando más de 150 países, ahora disponible para descarga y uso público.
Este conjunto de datos sirvió para entrenar un nuevo modelo de IA capaz de prever si es probable que una inundación repentina afecte a una zona urbana en las próximas 24 horas. Las previsiones están disponibles en Flood Hub de Google, la misma plataforma que la compañía ya utiliza para alertar a aproximadamente 2 mil millones de personas sobre inundaciones relacionadas con ríos en todo el mundo.
El desafío que enfrenta Groundsource es bastante básico. Los ríos cuentan con estaciones de medición—sensores en el agua que registran niveles desde hace décadas. Así es como los pronosticadores han aprendido a anticipar cuándo un río puede desbordarse. En cambio, las calles urbanas carecen de esos dispositivos. Cuando una intensa lluvia golpea el pavimento y sobrepasa los sistemas de drenaje, las inundaciones ocurren demasiado rápido y en zonas demasiado específicas para ser monitoreadas con los instrumentos tradicionales.
Sin registros históricos, no se puede entrenar a un modelo de IA para que reconozca el patrón. La solución de Google fue tratar los artículos de noticias como el sensor ausente.
“Al convertir la información pública en datos útiles, no solo analizamos el pasado, sino que estamos construyendo un futuro más resiliente para todos, con el objetivo de que nadie se sorprenda por un desastre natural”, declaró Google.
Después de filtrar anuncios, menús de navegación y duplicados, y traducir artículos de otros idiomas al inglés, el equipo transformó millones de descripciones textuales desordenadas en datos temporales geolocalizados.
El modelo entrenado con estos datos utiliza una red neuronal LSTM, un tipo de IA diseñada para procesar secuencias en el tiempo. Incorpora pronósticos meteorológicos por hora junto con factores locales como la densidad de urbanización, tasas de absorción de suelos y topografía. El resultado es una señal sencilla: riesgo medio o alto de inundación en las próximas 24 horas para cualquier área urbana con una densidad poblacional superior a 100 personas por kilómetro cuadrado.
Sin embargo, el sistema presenta limitaciones reales. Solo cubre áreas de aproximadamente 20 kilómetros cuadrados a la vez, no puede predecir la severidad de una inundación y no funcionará bien en regiones donde la cobertura informativa es escasa.
A pesar de esto, los resultados iniciales son prometedores. Una autoridad de desastres regional en África del Sur recibió una alerta del Flood Hub durante la fase beta, confirmó la inundación en el terreno y envió a un trabajador humanitario para gestionar la respuesta. Según Juliet Rothenberg, directora de resiliencia ante crisis de Google, “ese encadenamiento de eventos, desde una predicción en Flood Hub hasta las acciones sobre el terreno, es exactamente para lo que fue diseñado Flood Hub”.
Fuente: decrypt.co