Resumen
- Los oficiales del ICAC informan que la inteligencia artificial de Meta genera una avalancha de informes inutilizables que abrumán a los investigadores.
- Esto ocurre en medio de acusaciones en una demanda del estado de Nuevo México, que argumenta que la IA de Meta complica las investigaciones sobre explotación infantil.
- Meta se defiende afirmando que colabora rápidamente con las fuerzas del orden y revisa los informes antes de su envío.
El uso de inteligencia artificial por parte de Meta para supervisar sus plataformas está generando grandes volúmenes de informes de baja calidad que drenan recursos y ralentizan las investigaciones sobre abuso infantil, según un informe de The Guardian.
La noticia surge después de que funcionarios de las fuerzas del orden de Nuevo México testificaran la semana pasada que los informes generados por IA están abrumando a los investigadores y ralentizando los casos de explotación infantil.
Los oficiales del programa de la Fuerza de Tarea de Delitos en Línea contra Niños (ICAC) mencionaron específicamente los sistemas automatizados de Meta, indicando que generan miles de tips inutilizables cada mes que son enviados a las fuerzas del orden.
“Recibimos muchos tips de Meta que son simplemente basura”, declaró Benjamin Zwiebel, un agente especial de la fuerza de tarea ICAC en Nuevo México, durante el juicio del estado contra la compañía.
Otro oficial del ICAC, hablando de manera anónima, informó a The Guardian que los ciber-informes del departamento se duplicaron de 2024 a 2025.
“Es bastante abrumador porque estamos recibiendo tantos informes, pero la calidad de los mismos realmente carece de lo necesario para tomar acciones serias”, dijeron.
En un comunicado compartido con Decrypt, un portavoz de Meta indicó que la empresa ha colaborado durante mucho tiempo con las fuerzas del orden y que el Departamento de Justicia y el Centro Nacional para Niños Desaparecidos y Explotados han elogiado su proceso de informes.
“En 2024, recibimos más de 9,000 solicitudes de emergencia de autoridades estadounidenses y las resolvimos en un promedio de 67 minutos, incluso más rápidamente en casos que involucraron la seguridad infantil y suicidio”, señaló el portavoz.
“Conforme a la ley aplicable, también informamos sobre imágenes de aparente explotación sexual infantil al NCMEC y los apoyamos para priorizar informes, ayudando a construir su herramienta de gestión de casos y etiquetando los ciber-informes para que sepan cuáles son urgentes”, añadieron.
Los oficiales del ICAC, sin embargo, afirmaron que algunos de los informes enviados por Meta no son de naturaleza criminal, mientras que otros carecen de la evidencia creíble necesaria para avanzar con un caso.
El aumento en los informes sigue el Report Act, que se firmó en mayo de 2024 y ampliaron los requisitos de informes para incluir abuso previsto o inminente, trata de niños y explotación relacionada, al mismo tiempo que requiere que las empresas conserven la evidencia por más tiempo.
Por los números
Meta sigue siendo la fuente más grande de informes a la línea de ciberinforme del NCMEC, representando aproximadamente dos tercios de los 20.5 millones de tips recibidos en 2024, una disminución respecto a los 36.2 millones en 2023. Esta caída se atribuye en parte a cambios en las prácticas de informes de Meta.
En su informe de integridad de agosto de 2025, Meta indicó que Facebook, Instagram y Threads enviaron más de 2 millones de informes de ciberinforme al NCMEC en el segundo trimestre de 2025. De los cuales, más de 528,000 involucraron interacciones inapropiadas con niños, mientras que más de 1.5 millones involucraron el compartir o volver a compartir material de abuso sexual infantil.
A pesar de esas cifras, JB Branch, un defensor de políticas en Public Citizen, afirmó que la creciente dependencia de la IA ha hecho que el Report Act sea menos eficiente para los investigadores que revisan casos. Sosteniendo que, si bien los algoritmos han ayudado en la reducción de la carga de trabajo de los moderadores, los revisores humanos son los filtros más efectivos.
“Parte del problema aquí es que muchas de estas empresas tecnológicas han despedido a moderadores de contenido y los han reemplazado por funciones de seguridad basadas en IA”, comentó Branch a Decrypt. “Como resultado, hay una abundancia excesiva de falsos positivos seleccionados por un exceso de cautela”.
En el pasado, Branch indicó que generalmente había más revisores humanos en la cadena de revisión que podían identificar y eliminar contenido que no merecía ser escalado.
“Debido a que estas empresas han eliminado moderadores o revisores humanos de la cadena, muchas más cosas están siendo pasadas por alto porque prefieren pecar de precaución”, explicó. “Básicamente están arrastrando una red más amplia y capturando cosas que ni siquiera califican, y están confiando en gran medida en herramientas de IA para hacerlo”.
Los investigadores afirman que el impacto de los informes erróneos generados por la IA se está sintiendo dentro de las fuerzas de tarea que los revisan.
“Está matando la moral. Estamos ahogándonos en tips y queremos salir y hacer este trabajo”, comentó un oficial del ICAC. “No tenemos el personal para sostener eso. No hay manera de que podamos mantenernos al día con la inundación que está llegando”.
Fuente: decrypt.co