En la actualidad son muchos los medios que nos vienen hablando de la computación cuántica, definida por Gartner como aquella que opera en el estado cuántico de partículas subatómicas.
Tratando de resumir de la forma más sencilla posible, se trata de una revolucionaria nueva tecnología que puede llegar a potenciar áreas tan importantes como la medicina, la IA o la ciberseguridad. La característica más fundamental de la computación cuántica parte de la información representada en elementos denominados bits cuánticos (qubits) y que la diferencia de la computación que conocemos (bits) por sus altas capacidades para escalar de forma exponencial facilitando la realización de cálculos simultáneos gracias al fenómeno conocido como “entrelazamiento” que favorece que se realicen múltiples combinaciones de información representadas de forma simultánea, es decir a través del entrelazado de qubits. Uno de los grandes debates que debemos afrontar para prepararnos para la llegada de la computación cuántica es el cambio de los algoritmos de cifrado y descifrado dentro de un entorno de qubit. Se cree que las computadoras cuánticas podrán romper los estándares de cifrado actuales en cuestión de segundos, se tomará 10 años o más migrar a un nuevo estándar de cifrado más seguro, algo que nos sugiere una buena idea de empezar a definir el estándar ahora.
La creación de una computadora cuántica puede dar solución a una gran cantidad de problemas que llevan aparejadas múltiples variables, siendo muy beneficiosa para predecir los mercados financieros o en la lucha contra enfermedades tales como el Alzheimer. Sin embargo, según nuestro responsable de Ingeniería, Pep Alfonso “debemos tener en cuenta que en la mayoría de aplicaciones, la computación clásica seguirá siendo, mucho más eficiente que la cuántica, al menos en un futuro previsible y cercano. Por esta razón los servicios en el cloud seguirán ejecutándose en la CPU de un servidor y ciertas cargas de trabajo, se enviarán a una QPU (Quantum processing Unit), del mismo modo que ahora se emplea una GPU para procesar cargas de trabajo en paralelo de forma eficiente, muy usadas para minar distintas criptomonedas.”
Todo ello, sumado al estudio realizado por IDC junto a Atos y que presentaron el pasado mes de noviembre en el que se prevé que en 2023 el 76% de los CPD mundiales utilicen computación cuántica con el fin de lograr el máximo rendimiento de la informática de alto rendimiento con garantías de seguridad y resiliencia. En este caso, añade Pep, que “tenemos que tener en cuenta que las computadoras cuánticas, pueden tener grandes dimensiones, ocupando grandes espacios que, a su vez, pueden requerir de sistemas de enfriamiento costosos y complejos. La refrigeración del Data Center deberá reinventarse por completo para mantenerse al día con las demandas de la computación cuántica y la inestabilidad de los qubits, donde estos avances, financiados por la industria de la computación cuántica, podrían abrir la puerta a otra tecnología de enfriamiento en los próximos años.”
Aún a día de hoy continúan las incógnitas de cómo se relacionará la computación cuántica con la infraestructura HPC clásica de ahí la importancia de asociarse a un partner tecnológico con capacidad y experiencia suficiente para adaptarse a estas nuevas tecnologías en continua evolución para desarrollar nuestros negocios a la velocidad adecuada dentro de un entorno basado en la analítica de datos así como en analíticas de riesgos.
En resumen: la computación cuántica ha venido para complementar más que para sustituir a la clásica. Estamos a las puertas de nuevas tecnologías de enfriamiento, ciberseguridad y cambios en los Data Center y Edge Data Centers, y es fundamental una coordinación entre todo lo nuevo y lo no tan nuevo, que va cediendo poco a poco su espacio al avance de la ciencia y la tecnología.