Este artículo representa el criterio de quien lo firma. Los artículos de opinión publicados no reflejan necesariamente la posición editorial de este medio.

Posiblemente, la libertad y la paz mental tienen su punto de arranque cuando no se depende de la opinión de otros para graduar el estado de ánimo o la autoestima. Sin embargo, creo que este es el artículo que siempre he querido escribir y el más difícil de lograr, ya que debe existir un delicado balance entre la rigurosidad científica y alcanzar el interés y la comprensión de los lectores.

Para darles un contexto de mi afición por la ciencia, les diré que, en el medievo de mi infancia, no había llegado a primer grado de la escuela primaria, cuando la directora me castigó frente a todo el alumnado, poniéndome de rodillas sobre granos de maíz mientras yo sostenía, en un dudoso equilibrio, dos maceteras con todo y plantas, y el sol de abril pringaba mi cara de una cascada de sudor. ¿Mi pecado o falta grave? Haberle preguntado a mi maestra cómo afectaría el proceso de la vida en la tierra si el eje de rotación de la tierra fuese variable con independencia de los cambios estacionales. O algo así; desde muy temprano, aprendí que es mejor callar a lo Galileo, a regañadientes, que ser incinerado como Giordano Bruno. Después de todo, siendo católico, ya debería estar acostumbrado a la Inquisición.

El asunto es que nunca cambié, quienes me conocen dan fe de ello y, por ende, se me colocó la etiqueta de “problemático”, en el mejor de los casos. En el año 2000, comencé a pensar cómo relacionar el derecho penal con la física cuántica, pero me quedé calladito. Cuando abrí la boca en el año 2007, la primera reacción fueron risas nerviosas, hoy es una nueva vertiente a nivel mundial que se abre paso y ya nadie se burla más, habrá quién niegue la categoría o esté en desacuerdo, pero el debate está servido. No obstante, esa es harina para otro pan. Hoy vengo a tratar un tema que les va a ser más cercano, con o sin su voluntad, a ustedes, sus hijos y las siguientes generaciones.

En 1900, un alemán llamado Max Planck, perseveró en una explicación, que inicialmente se planteó como la Ley de Radiación, es decir, pensó cómo correlacionar la entropía de un oscilador con su energía, mediante argumentos termodinámicos y estadísticos. En esta comparación, la fórmula de Planck necesitaba incorporar un ingrediente contrario a la física clásica: la energía emitida o absorbida por un oscilador que solamente puede tomar valores múltiples de una energía elemental y relacionarlo con la unidad mínima posible de materia (cuantos). Se sumaron en 1905, Einstein, después Borhr, Schrödinger, Heisenberg, Dirac, Fermi, entre muchos otros, y la comprensión del mundo cambió para siempre con la conquista del átomo, y como consecuencia del secreto Proyecto Manhattan liderado por Robert Oppenheimer, la Primera Revolución Cuántica tuvo su punto de inflexión el 16 de julio de 1945, con la llamada prueba Trinity en el desierto de Alamogordo en Nuevo México, se detonó una explosión nuclear equivalente a 19,000 toneladas de dinamita, basada en la fisión de plutonio, y fue utilizada después en Nagasaki. A partir del álgebra del discreto inglés George Boole y el aporte indiscutible de Alan Turing, nació el código binario para lo que se conocería como computación. Los bits de la computación tradicional se traducen en dos estados posibles. Cualquier elemento de un ordenador clásico está escrito en un código binario (1 o 0), que se traduce en electricidad: si el voltaje es alto se representa en 1, si es más bajo se representa en 0. Primero llegaron las inmensas máquinas (mainframes) con cintas, después las tarjetas perforadas y finalmente los chips de silicio. Existe un orden inverso en el mundo binario: con el paso del tiempo, a menor tamaño en la arquitectura de hardware, mayor capacidad de almacenamiento de datos y más velocidad de procesamiento de estos.

La Ley de Moore, enunciada en 1965 predijo que el número de transistores en un microprocesador se duplicaría aproximadamente cada 24 meses. Se ha cumplido con asombrosa precisión, reduciendo gradualmente el tamaño de los transistores para producir microchips cada vez más pequeños y logrando, de esta forma, mayores velocidades de proceso. Actualmente, los transistores más modernos se fabrican con tecnología de 14 nanómetros (1nm = 1 mil millonésimas de metro) y se ha logrado alcanzar los 5nm en el 2020. El inconveniente es que a medida que se reduce el tamaño es más complicado disipar el calor. Y no sólo eso. A esta escala las leyes de la física clásica dejan de funcionar, y los electrones, que son partículas cuánticas, se pueden ir “por donde no deben”. En otras palabras, la computación binaria tiene un límite físico y, por ende, también los días contados. Aunque coexistirá con la computación cuántica, si algo ha enseñado la historia, es que nunca un medio ha desplazado completamente a uno anterior.

La computación cuántica, al igual que la inteligencia artificial, no es algo nuevo. Se puede decir que surgió en 1981, cuando Paul Benioff propuso aplicar las leyes cuánticas al mundo de la computación. Es necesario dejar muy claro, que la computación cuántica no es un paso evolutivo lógico que surge de la computación binaria. No, no lo es, es una especie completamente diferente. En vez de usar los bits que permiten dos estados posibles para representar la realidad binaria, se utiliza la unidad fundamental de información en computación cuántica: el quantum bit o qubit. Los qubits son, por definición, sistemas cuánticos de dos niveles, que al igual que los bits pueden estar en el nivel bajo, que se corresponde con un estado de baja excitación o energía definido como 0, o en el nivel alto, que se corresponde con un estado de mayor excitación o definido como 1. Sin embargo, y aquí radica la diferencia fundamental con la computación clásica, los qubits también pueden estar en cualquiera de los infinitos estados intermedios entre el 0 y el 1, como por ejemplo un estado que sea mitad 0 y mitad 1, o tres cuartos de 0 y un cuarto de 1. Este fenómeno se conoce como superposición cuántica y es natural en sistemas cuánticos. Se rompe con la lógica aristotélica del principio de identidad, porque es posible ser y no ser al mismo tiempo.  La capacidad de estar simultáneamente en múltiples estados se llama superposición cuántica. Para poner los qubits en superposición, los investigadores los manipulan con láseres de precisión o haces de microondas. Gracias a este contradictorio fenómeno, un ordenador cuántico con varios qubits en superposición puede llegar a una gran cantidad de posibles resultados de forma simultánea. Las máquinas cuánticas prometen superar incluso a los superordenadores tradicionales más poderosos, un hito conocido como supremacía cuántica. De hecho, existe una competencia feroz por lograrla, los qubits o bits cuánticos (análogos a los bits de la computación clásica) se pueden generar mediante circuitos superconductores, como hacen IBM y Google, o bien dentro de semiconductores como el silicio. Como resultado, una computadora basada en qubits puede hacer muchos más cálculos a mayor velocidad que una máquina convencional. Pero los qubits son altamente inestables y propensos a las interferencias o el "ruido" procedente de otras fuentes de energía, lo que puede generar errores en los cálculos. Así que la carrera, es (en realidad) por encontrar una forma de estabilizarlos para la producción en masa. En cualquiera de los casos, las plataformas para crearlos necesitan enfriarse a temperaturas extremadamente bajas, ya que las vibraciones del calor alteran los qubits que impiden un buen funcionamiento. Generalmente estos dispositivos operan a alrededor de 0,1 kelvin (-273,05 grados Celsius), es decir cercano al cero absoluto, lo que requiere costosísimos equipos de refrigeración. Sin embargo, dos equipos independientes de investigadores de Australia y Países Bajos presentaron recientemente nuevas plataformas para producir qubits usando el spin de electrones confinados en silicio, y por primera vez lo hacen operando a temperaturas superiores a 1 kelvin. Es un gran avance, y la idea es reducir costos a medida que los qubits sean más estables a mayores temperaturas.

El gigante de la computación IBM apuesta firmemente por los qubits superconductores de tipo transmón, que es una variante del qubit superconductor de carga, en donde la energía inductiva asociada con la(s) unión(es) de Josephson no sigue una función cuadrática, sino una cosenoidal del flujo magnético a través de la(s) unión(es); estos son los más prometedores en el campo de la computación cuántica y tienen tres prototipos de procesadores cuánticos a los que el público puede acceder en la nube. Hasta el momento, más de 94.000 personas han accedido a las computadoras cuánticas de IBM en la nube. Se han hecho más de cinco millones de experimentos y escrito 110 artículos, según Robert Sutor, vicepresidente de estrategia de computación cuántica y ecosistema de IBM Research.

En el siglo XXI estamos experimentado lo que se llama la “Segunda Revolución Cuántica". En la práctica, una computadora cuántica no tiene ni disco duro, ni memoria RAM, ni gráficos. Es un sistema puramente computacional en el que, de momento, no hay entornos de desarrollo, ni compiladores, ni lenguajes de programación. La computación cuántica suma, no reemplaza la computación binaria o booleana como se afirmó antes, de hecho, están destinadas a entenderse y complementarse. Así, la computación cuántica puede verse como un recurso para acelerar ciertos algoritmos y cálculos concretos, que en la computación clásica se tardaría miles de años en procesar y en la computación cuántica se tarda minutos en resolver.

El mayor temor que genera esta tecnología relativamente nueva (en su infancia) y estrechamente ligada por definición a la Inteligencia Artificial, es que las criptomonedas actuales no pueden estar seguras de sus sistemas de encriptación binario, dado que las redes blockchain se han jactado hasta ahora de su capacidad para superar cualquier método de hackeo en el cifrado tradicional, en sí el proceso de minería de datos con alto consumo energético es un proceso tedioso y complejo que podría (va) a ser reemplazado por la computación cuántica también. Ello representa un peligro para el sistema de encriptación vigente hasta el 2020, sin embargo, el encriptado cuántico basado en fotones y electrones es físicamente imposible de romper por la propia naturaleza cuántica de sus componentes y vendrá a dar mayor seguridad a todos los sistemas financieros. No es casualidad que JP Morgan, esté invirtiendo enormes cantidades de dinero en esta tecnología.

La computación cuántica permitirá, en un futuro cercano, descubrir materiales superconductores a temperatura ambiente que permitirían la transmisión de energía sin pérdidas. Mejorarán las baterías y los componentes electrónicos. También se producirá el advenimiento de las llamadas finanzas cuánticas. Este modelo generará simulaciones biomédicas, capaces de crear, y modelar estructuras moleculares que pueden ser la base de nuevos y potentes fármacos. Se podrá crear complejas reacciones químicas que tienen grandes costos energéticos y medio ambientales. Por ejemplo, el método Haber-Bosch de fijación del nitrógeno ambiental para la obtención de fertilizantes, fundamental para mejorar la producción mundial de alimentos y reducir el efecto invernadero.

En enero del año 2019, IBM presentó el IBM Q System One de 20 qubits el primer ordenador cuántico para uso comercial. IBM ha anunciado que ya tiene listo el primer ordenador cuántico comercial de 53 qubits. Tras décadas en los laboratorios, la tecnología está empezando a hacer la transición desde los experimentos científicos a prototipos rudimentarios que afectan a campos tan diversos como la química y la banca, y que dan pie a que ya se estén realizando estudios en compañías que van desde Samsung a Daimler-Benz, JP Morgan Chase, IBM, Google, Rigetti, Intel y Microsoft.

En la actualidad, físicos, ingenieros e informáticos alrededor del mundo están intentando desarrollar cuatro tipos de computadoras cuánticas muy distintas: basados en partículas de luz, trampas iónicas, qubits superconductores o centros nitrógeno-vacantes en diamantes (la idea de utilizar el diamante consiste en emplear un sistema de dos espines nucleares, formado por un núcleo de nitrógeno implantado en el centro del diamante, y una vacante en una posición vecina, inmediata al nitrógeno, en una red de cadenas nucleares).

Esto es un resumen de lo que ya esta sucediendo, y que puede sonar a ciencia ficción, igual que en su momento lo fueron las invenciones narradas en los libros de Julio Verne, o la comunicación por aparatos portátiles con imagen del programa televisivo “Viaje a las Estrellas”, de tal manera que son solo postales de un presente pasado, porque cada minuto que transcurre la ciencia se supera a sí misma, no espero menos de cada uno de nosotros.