El trilema de la blockchain volvió a ser un tema candente en el evento Consensus en Hong Kong en febrero, donde Charles Hoskinson, fundador de Cardano, se encontró en una posición compleja, teniendo que tranquilizar a los asistentes sobre los riesgos que presentan los gigantes tecnológicos como Google Cloud y Microsoft Azure para la descentralización.

Se argumentó que los grandes proyectos de blockchain necesitan de estos hiperescaladores, y que no hay motivo para preocuparse por un punto único de fallo, debido a que:

  • La criptografía avanzada neutraliza el riesgo
  • El cálculo multipartito distribuye el material de claves
  • La computación confidencial protege los datos en uso

El mensaje se basó en la idea de que, “si la nube no puede ver los datos, la nube no puede controlar el sistema”, aunque el debate se interrumpió por limitaciones de tiempo.

Sin embargo, existe una perspectiva alternativa a la propuesta de Hoskinson sobre la necesidad de los hiperescaladores que merece más atención.

La Computación Multipartita y la Computación Confidencial Reducen la Exposición

Este aspecto fue un bastión estratégico en el argumento de Charles: tecnologías como el cálculo multipartito (MPC) y la computación confidencial aseguran que los proveedores de hardware no tengan acceso a los datos subyacentes.

Estas son herramientas poderosas, pero no eliminan el riesgo subyacente.

El MPC distribuye el material de claves entre múltiples partes, de modo que ningún participante individual puede reconstruir un secreto. Esto reduce significativamente el riesgo de un nodo comprometido. No obstante, la superficie de seguridad se expande en otras direcciones. La capa de coordinación, los canales de comunicación y la gobernanza de los nodos participantes se vuelven críticos.

En lugar de confiar en un único portador de claves, el sistema ahora depende de un conjunto distribuido de actores que deben comportarse correctamente, además de la correcta implementación del protocolo. El punto único de fallo no desaparece; simplemente se convierte en una superficie de confianza distribuida.

La computación confidencial, en particular los entornos de ejecución confiable, introduce un diferente tipo de compensación. Los datos están cifrados durante la ejecución, lo que limita la exposición al proveedor de alojamiento.

Sin embargo, los entornos de ejecución confiable (TEEs) dependen de suposiciones de hardware. Estas dependen de la aislación microarquitectónica, la integridad del firmware y una implementación correcta. La literatura académica ha demostrado en múltiples ocasiones que siguen emergiendo vulnerabilidades en los canales laterales y arquitectónicos en tecnologías de enclave. La frontera de seguridad es más estrecha que la de la nube tradicional, pero no es absoluta.

Más importante aún, tanto el MPC como los TEEs operan a menudo sobre la infraestructura de hiperescaladores. El hardware físico, la capa de virtualización y la cadena de suministro siguen concentrados. Si un proveedor de infraestructura controla el acceso a las máquinas, el ancho de banda o las regiones geográficas, mantiene un poder operativo. La criptografía puede evitar la inspección de datos, pero no previene restricciones de rendimiento, cierres o intervenciones políticas.

Las herramientas criptográficas avanzadas dificultan ataques específicos, pero aún no eliminan el riesgo de fallos a nivel infraestructura; simplemente sustituyen una concentración visible por una más compleja.

El Argumento de ‘Ningún L1 Puede Manejar Cómputo Global’

Hoskinson afirmó que los hiperescaladores son necesarios porque ninguna Layer 1 puede manejar las demandas computacionales de sistemas globales, haciendo referencia a los billones de dólares que han contribuido a la construcción de tales centros de datos.

Por supuesto, las redes Layer 1 no fueron diseñadas para ejecutar bucles de entrenamiento de inteligencia artificial, motores de comercio de alta frecuencia o pipelines de análisis empresarial. Su propósito es mantener el consenso, verificar transiciones de estado y proporcionar disponibilidad de datos duradera.

Su argumentación sobre el propósito de Layer 1 es correcta. Pero los sistemas globales principalmente necesitan resultados que cualquiera pueda verificar, aunque el cálculo ocurra en otro lugar.

En la infraestructura moderna de criptomonedas, la computación pesada ocurre cada vez más fuera de la cadena. Lo que importa es que los resultados puedan ser probados y verificados en la cadena. Esta es la base de los rollups, los sistemas de cero conocimiento y las redes de computación verificable.

Centrarse en si un L1 puede realizar cómputo global se pierde en la cuestión central de quién controla la infraestructura de ejecución y almacenamiento detrás de la verificación.

Si el cálculo ocurre fuera de la cadena pero depende de infraestructura centralizada, el sistema hereda modos de fallo centralizados. La liquidación permanece descentralizada en teoría, pero el camino para producir transiciones de estado válidas se concentra en la práctica.

El enfoque debería centrarse en la dependencia a nivel de infraestructura, no en la capacidad computacional dentro de Layer 1.

La Neutralidad Criptográfica No Es Lo Mismo Que La Neutralidad de Participación

La neutralidad criptográfica es una idea poderosa que Hoskinson mencionó en su argumentación. Significa que las reglas no pueden cambiarse arbitrariamente, no se pueden introducir puertas traseras ocultas y el protocolo permanece justo.

Pero la criptografía depende de hardware.

Este componente físico determina quién puede participar, quién puede permitirse hacerlo y quién termina excluido, ya que el rendimiento y la latencia están, en última instancia, limitados por las máquinas reales y la infraestructura sobre la que operan. Si la producción, distribución y alojamiento del hardware siguen siendo centralizados, la participación se convierte en un acceso económico restringido, incluso cuando el protocolo en sí es matemáticamente neutral.

En sistemas de alta computación, el hardware es el factor decisivo. Determina la estructura de costos, quién puede escalar y la resiliencia ante presiones de censura. Un protocolo neutral que opera en infraestructura concentrada es neutral en teoría, pero restringido en la práctica.

La prioridad debería cambiar hacia una combinación de criptografía y propiedad de hardware diversificada.

Sin diversidad en la infraestructura, la neutralidad se vuelve frágil bajo estrés. Si un pequeño conjunto de proveedores puede limitar las cargas de trabajo, restringir regiones o imponer barreras de cumplimiento, el sistema hereda su poder. La equidad de las reglas por sí sola no garantiza la equidad de participación.

La Especialización Supera la Generalización en los Mercados de Cómputo

Competir con AWS a menudo se enmarca como una cuestión de escala, pero esto también es engañoso.

Los hiperescaladores optimizan para la flexibilidad. Su infraestructura está diseñada para servir miles de cargas de trabajo simultáneamente. Las capas de virtualización, los sistemas de orquestación, las herramientas de cumplimiento empresarial y las garantías de elasticidad son fortalezas para el cómputo de propósito general, pero también son capas de costo.

La prueba de cero conocimiento y la computación verificable son deterministas, densas en cómputo, restringidas por el ancho de banda de memoria y sensibles al pipeline. En otras palabras, recompensan la especialización.

Una red de pruebas diseñada con un propósito compite en términos de prueba por dólar, prueba por vatio y prueba por latencia. Cuando el hardware, el software de prueba, el diseño de circuitos y la lógica de agregación están verticalmente integrados, la eficiencia se multiplica. Eliminar capas de abstracción innecesarias reduce los costos. Un rendimiento sostenido en clústeres persistentes supera la escalabilidad elástica para trabajos estrechos y constantes.

En los mercados de cómputo, la especialización consistently supera la generalización en tareas constantes y de alto volumen. AWS optimiza para la opcionalidad, mientras que una red de pruebas dedicada optimiza para una clase específica de trabajo.

La estructura económica también difiere. Los hiperescaladores establecen precios para márgenes empresariales y variabilidad en la demanda amplia. Una red alineada con incentivos del protocolo puede amortizar el hardware de manera diferente y ajustar el rendimiento alrededor de una utilización sostenida en lugar de modelos de alquiler a corto plazo.

La competencia se convierte en una cuestión de eficiencia estructural para una carga de trabajo definida.

Utiliza Hiperescaladores, Pero No Seas Dependiente de Ellos

Los hiperescaladores no son el enemigo. Son proveedores de infraestructura eficientes, confiables y distribuidos globalmente. El problema radica en la dependencia.

Una arquitectura resiliente utiliza a los grandes vendedores para capacidad de sobresalto, redundancia geográfica y distribución en el borde, pero no ancla las funciones centrales a un único proveedor o a un pequeño grupo de proveedores.

La liquidación, verificación final y disponibilidad de artefactos críticos deben mantenerse intactas incluso si una región de la nube falla, un proveedor sale del mercado o se intensifican las restricciones políticas.

Es aquí donde el almacenamiento descentralizado y la infraestructura de cómputo se convierten en una alternativa viable. Los artefactos de prueba, los registros históricos y las entradas de verificación no deberían ser retirables a discreción de un proveedor. En cambio, deberían residir en una infraestructura que está alineada económicamente con el protocolo y que es estructuralmente difícil de desactivar.

Los hiperescaladores deben ser utilizados como un acelerador opcional, no como algo fundamental para el producto. La nube puede seguir siendo útil para el alcance y los picos de carga, pero la capacidad del sistema para producir pruebas y persistir lo que depende de la verificación no debe estar limitada por un solo proveedor.

En un sistema así, si un hiperescalador desapareciera mañana, la red solo se ralentizaría, porque las partes más críticas son propiedad y operadas por una red más amplia en lugar de alquiladas desde un punto crítico de una marca grande.

Este es el camino para fortalecer la ética de descentralización en el mundo cripto.

Fuente: www.coindesk.com