En resumen

  • El Comité del Tesoro del Reino Unido advirtió que los reguladores se están basando demasiado en las normas existentes a medida que el uso de la inteligencia artificial se acelera en los servicios financieros.
  • Instó a una guía más clara sobre la protección al consumidor y la responsabilidad ejecutiva para finales de 2026.
  • Los observadores afirman que la ambigüedad regulatoria puede obstaculizar la implementación responsable de la IA a medida que los sistemas se vuelven más difíciles de supervisar.

Un comité del Parlamento del Reino Unido ha señalado que la rápida adopción de la inteligencia artificial en los servicios financieros está superando la capacidad de los reguladores para gestionar los riesgos que enfrentan los consumidores y el sistema financiero, lo que genera preocupaciones sobre la responsabilidad, la supervisión y la dependencia de grandes proveedores de tecnología.

En los hallazgos publicados por la Cámara de los Comunes a principios de este mes, el Comité del Tesoro aseguró que los reguladores británicos, incluyendo la Autoridad de Conducta Financiera, el Banco de Inglaterra y el Tesoro de Su Majestad, están confiando demasiado en las normas establecidas mientras el uso de la IA se expande entre bancos, aseguradoras y empresas de pago.

“Al adoptar un enfoque de esperar y ver ante la IA en los servicios financieros, las tres autoridades están exponiendo a los consumidores y al sistema financiero a daños potencialmente graves”, indicó el comité.

La IA ya está integrada en funciones financieras clave, según el comité, mientras que la supervisión no ha evolucionado a la par de la escala u opacidad de estos sistemas.

Estos hallazgos surgen en el contexto en que el gobierno británico busca ampliar la adopción de la IA en toda la economía, con el Primer Ministro Keir Starmer comprometiéndose aproximadamente hace un año a “impulsar” el futuro de Gran Bretaña mediante esta tecnología.

Aunque el comité señala que “la IA y otros desarrollos tecnológicos podrían traer considerables beneficios a los consumidores”, también subraya que los reguladores no han proporcionado expectativas claras a las empresas sobre cómo se aplican las normas existentes en la práctica.

El comité instó a la Autoridad de Conducta Financiera a publicar una guía integral antes de finales de 2026 sobre cómo se aplican las normas de protección al consumidor en el uso de la IA y cómo debería atribuirse la responsabilidad a los ejecutivos senior bajo las normas de responsabilidad existentes cuando los sistemas de IA causen daño.

Se espera que las actas formales se publiquen más adelante esta semana.

“A su favor, el Reino Unido se adelantó en fintech: la ‘sandbox’ de la FCA en 2015 fue la primera de su tipo, y 57 países la han imitado desde entonces. Londres sigue siendo un centro de poder en fintech a pesar del Brexit”, declaró Dermot McGrath, cofundador del estudio de estrategia y crecimiento ZenGen Labs en Shanghai, en una entrevista con Decrypt.

Sin embargo, mientras que ese enfoque “funcionó porque los reguladores podían ver lo que las empresas estaban haciendo y intervenir cuando era necesario”, la inteligencia artificial “rompe completamente ese modelo”, afirmó McGrath.

La tecnología ya se utiliza ampliamente en las finanzas del Reino Unido. Aun así, muchas empresas carecen de una comprensión clara de los propios sistemas en los que confían, explicó McGrath. Esto deja a los reguladores y a las empresas a inferir cómo se aplican las normas de equidad a decisiones opacas impulsadas por modelos.

McGrath argumenta que el mayor problema es que las normas poco claras pueden frenar a las empresas que intentan implementar la IA hasta el punto en que “la ambigüedad regulatoria sofoca a las empresas que lo hacen de manera cuidadosa”.

La responsabilidad en la IA se vuelve más compleja cuando los modelos son creados por empresas tecnológicas, adaptados por terceros y utilizados por bancos, dejando a los gerentes responsables de decisiones que pueden tener dificultades para explicar, indicó McGrath.

Fuente: decrypt.co