Computación Cuántica: ¿un nuevo paradigma?

Hay consenso en que lo que mejor caracteriza al mundo moderno, es el uso intensivo y masivo de la tecnología. Es tan amplia su penetración en la sociedad, que es difícil encontrar algún ámbito del quehacer humano en que se prescinda de ella, y entre los usuarios se genera un nivel de dependencia tal, que para muchos puede resultar inimaginable la existencia, si se ven privados de algunos de los tantos artilugios que nos acompañan en la vida cotidiana. Por otra parte, esta tecnología avanza a un ritmo tan vertiginoso, que nadie deja de sorprenderse -ni siquiera los especialistas- de la velocidad embriagadora con que se superan las prestaciones de toda variedad de aparatos y dispositivos (ya es una constante: lo que ayer nos deslumbraba con su modernidad, mañana será abandonado por obsoleto).

Pero de todas las tecnologías, son aquellas asociadas a la electrónica (en especial la computación, informática y comunicaciones) las que avanzan más rápido. Incluso en el año 1965 se enunció una máxima que por mucho tiempo ha regido el desarrollo de la industria informática. Es la llamada Ley de Moore, que señala que cada 18 meses las capacidades se duplican y los precios disminuyen a la mitad, esto debido a que los componentes electrónicos se tornan cada vez más pequeños y rápidos. Todos podemos dar fe del cumplimiento inexorable, hasta ahora, de esta famosa Ley de la tecnología.

La clave que explica el incremento sostenido en las capacidades de los equipos electrónicos, ha sido la miniaturización, es decir al proceso tecnológico que permite reducir significativamente el tamaño de los componentes, y aumentar su rendimiento. Los primeros computadores, fabricados con tubos de vacío, ocupaban varias habitaciones, posteriormente con la invención de los transistores, los tamaños se redujeron de manera importante. Pero es con la llegada de los circuitos integrados, que realmente comienza la Era de la miniaturización. Actualmente se fabrican “chips” que son capaces de almacenar varios miles de millones de transistores en un pequeño elemento que se puede sostener en la punta de un dedo. Con la moderna tecnología, un microprocesador incrustado en cualquiera de los muchos artefactos de uso cotidiano (teléfonos celulares, electrodomésticos, tarjetas inteligentes, etc.) resulta ser miles de veces más poderoso que cualquiera de aquellos primeros computadores, que pesaban toneladas y ocupaban varios pisos de un edificio.

En los límites de la miniaturización

En estos momentos (2009) la miniaturización está llegando al nivel de fabricar componentes de tamaño del orden de 45 nm (un nanómetro –nm- es la mil millonésima parte de un metro), y ya una conocida empresa de la industria de los microprocesadores ha anunciado el lanzamiento de un “chips” de 32 nm que contendrá 1.900 millones de transistores. Pero pronto ya no será posible continuar con esta reducción, ya que a esas diminutas escalas, se estará a un paso de alcanzar el tamaño de las moléculas y átomos individuales.

Anticipándose al fin de la miniaturización de la electrónica tradicional (que se estima ocurrirá dentro de pocos años), diferentes equipos de investigadores están ya explorando nuevos escenarios. Una de las líneas de desarrollo es la construcción de transistores del tamaño de moléculas individuales (nanotecnología). Ya están en fase de diseño experimental algunos microprocesadores basados en la llamada electrónica molecular, y también se está trabajando con transistores construidos con moléculas orgánicas, las que funcionando químicamente, emulan el comportamiento de los organismos vivos.

Las proyecciones de estas tecnologías son insospechadas, no sólo porque pueden constituir el futuro de la industria de la computación y las comunicaciones, sino también por las aplicaciones que se puedan desarrollar en aspectos relacionados con la salud humana, tales como nuevos tipos de implantes inteligentes o procedimientos médicos que permitan la reparación molecular de tejidos aquejados por enfermedades. Aunque ya existen varios prototipos funcionando, se estima que estas tecnologías estarán disponibles en aplicaciones comerciales dentro de diez años.

Pero es importante destacar que las soluciones basadas en la electrónica molecular, en esencia operan de la misma forma que la electrónica tradicional, ya que su base de funcionamiento (tanto para la representación de la información como para el procesamiento de la misma) se basa en la aritmética y lógica binaria. Con el Sistema Binario se puede representar cualquier número o carácter por secuencias de bits (dígitos binarios), los que pueden tener el valor de “1” o “0”. En tanto que para el procesamiento de la información, se utilizan los circuitos lógicos, que son conjuntos de compuertas (transistores) que, dependiendo del paso, o no, de una cierta señal entregan como resultado un valor de “V” o “F” (verdadero o falso).

La computación cuántica

Sin embargo, hay quienes proponen una solución revolucionaria que consiste en llevar a la computación al territorio del átomo. Esto significa sobrepasar el umbral crítico, tras el cual la materia deja de obedecer a la física clásica y comienza a ser dominada por la Mecánica Cuántica, es decir por un conjunto de leyes especiales que describen el comportamiento de las partículas atómicas y subatómicas, cuyo movimiento e interacción es distinto al actuar de los objetos de nuestro mundo cotidiano. La Mecánica Cuántica es compleja, muy difícil de entender, y describe fenómenos que parecen desafiar al sentido común. Y en ese escenario, regido por leyes físicas exóticas y sorprendentes, las bases de funcionamiento de la electrónica y computación tradicional (basada en el sistema binario) dejan de tener sentido.

En particular, existen dos fenómenos cuánticos que se aplican directamente a este nuevo modelo de computación, se trata de la superposición de estados y el entrelazamiento. Ambos fenómenos nos muestran cuan extraño y perturbador es el comportamiento de la materia en la escala del microcosmos.

La superposición es la propiedad de una partícula subatómica que le permite estar en más de un estado (o posición) al mismo tiempo. En superposición no podemos asegurar si cierta partícula está en una posición u otra (en realidad está en ambas al mismo tiempo). Se trata de un estado muy frágil, el cual colapsará en un valor determinado, en el momento en que interactuemos con dicha partícula (al observarla o medirla). El entrelazamiento, en tanto, es una propiedad que conecta o “amarra” a más de una partícula, de manera tal que el estado de cualquiera de ellas depende (instantáneamente) de la observación que se haga sobre la otra, sin importar la distancia que las separa.

Basándose en estas propiedades, a principios de los años 80 (del siglo pasado) fue propuesto el primer modelo teórico de computación cuántica. Pero a diferencia de la computación tradicional que representa a la información en término de secuencias de bits (dígitos binarios que pueden tener el valor de “0” o “1”), en este nuevo modelo se utiliza el qubits (quantum bit) que es un bit dotado de la propiedad cuántica de la superposición y que además se encuentra entrelazado con otros qubits. De este modo un qubits podrá almacenar al mismo tiempo los valores de “0” y “1”. Y en el caso de tener dos qubits se podrán almacenar en paralelo los valores “0,0”, “0,1”, “1,0” y “1,1”. Lo relevante, y aunque cueste asimilarlo, es que todos esos valores se almacenan ¡simultáneamente!

Con respecto a las compuertas lógicas, aunque su funcionamiento es similar al modelo tradicional, la gran diferencia radica en que estos nuevos circuitos deben ser capaces de asegurar la persistencia del estado de superposición de los qubits que participan de las operaciones lógicas, y permitir que esa superposición colapse de manera controlada, en un valor específico, y en el momento preciso. Demás está decir que se trata de una funcionalidad muy difícil de lograr, pero se están experimentando novedosas tecnologías a fin de dar con la mejor solución.

A la luz de estas especiales propiedades cuánticas, es fácil percibir las potencialidades de este nuevo modelo. En primer lugar, la capacidad de almacenamiento será significativamente mayor que en el modelo tradicional, ya que con una sola palabra computacional compuestas por “n” qubits, se podrán almacenar 2**n valores simultáneamente. Del mismo modo, gracias a la superposición y al entrelazamiento, el procesamiento será “naturalmente” en paralelo, con lo cual los tiempos de proceso se reducirán drásticamente. En teoría, problemas que potencialmente demorarían años en resolverse con la actual tecnología, al modelo cuántico sólo le tomaría segundos en encontrar la solución.

Pero las novedades no se circunscriben sólo al ámbito de la arquitectura computacional, también se aplican a la programación. En la computación tradicional, las instrucciones deben indicar, en forma lineal (secuencial), todas las posibles alternativas a analizar, y dependiendo de los datos o condiciones presentes, se llega a la solución por un camino específico Pero los algoritmos cuánticos requieren pensar en términos de superposición, es decir, se debe escribir un programa considerando todas los posibles alternativas de solución al mismo tiempo. Ya se han desarrollado varios algoritmos cuánticos experimentales, creados para resolver problemas difíciles de abordar por la computación tradicional, como casos de factorización (los tiempos de proceso se incrementan exponencialmente a medida que crecen los números a manipular), búsquedas masivas de datos (en grandes bases de datos) y criptografía (búsqueda de mecanismos que aseguren la inviolabilidad de los datos transmitidos por las redes de comunicación).

Desarrollo actual

Los orígenes teóricos de la computación cuántica son relativamente recientes. En el año 1981 Paul Benioff habló por primera vez sobre las posibilidades de la computación cuántica. Al año siguiente, el científico, y ganador del Premio Nobel de Física, Richard Feynman sugirió aprovechar algunas propiedades cuánticas para realizar cálculos computacionales. Posteriormente, en el año 1985, el físico David Deutsch describió el modelo de un computador cuántico Universal.

Con esta base teórica, diferentes grupos científicos, comenzaron a explorar las posibilidades de esta exótica tecnología. Así, en el año 1993, investigadores de IBM lograron efectuar la primera teleportación cuántica (aplicación práctica del efecto de entrelazamiento). En forma simultánea se comienzan a experimentar con la superposición y a desarrollar algoritmos cuánticos. Ya para 1998 se presentan los primeros computadores de 1 Qubit y 2 Qubit.

El progreso ha continuado ininterrumpido. En el 2005 se dio a conocer una máquina de 8 Qubits y para el 2007 la empresa canadiense D-Wave presentó uno de 16 Qubits. Al mismo tiempo se han ido desarrollando elementos complementarios, tales como medios de almacenamiento, buses de comunicación, etc. Pero es necesario dejar en claro que todas estas tecnologías son todavía experimentales, y falta aún mucho tiempo para que sean producidas comercialmente.

Expectativas

Según muchos, el futuro de la informática está en las tecnologías cuánticas, ya que en ese escenario las capacidades, tanto de procesamiento como de almacenamiento, de los computadores se multiplicarán exponencialmente, y por lo tanto se podrán resolver muchos problemas que no ha sido posible abordar con la actual tecnología.

Pero también existe una corriente de opinión, no tan optimista, que no cree en las (casí) ilimitadas posibilidades que con tanto entusiasmo se publicitan en muchos medios. El profesor Scott Aaronson (del MIT) escribió un interesante artículo al respecto, titulado “Limitaciones de la computación cuántica” (archivo .pdf), en donde explica muy bien las verdaderas, según él, potencialidades de este modelo.

¿Cuál será entonces el futuro de la computación? Se trata de una pregunta difícil de responder, pero lo más probable es que coexistirán muchas tecnologías, respondiendo cada una de ellas a necesidades muy específicas, y seguramente también se implementarán arquitecturas híbridas.

Por una parte, la computación tradicional continuará existiendo. Aunque la miniaturización haya alcanzado su límite, se recurrirá (ya se está haciendo) a desarrollos basados en la disposición de múltiples procesadores en un mismo equipo, también a potenciar los procesadores con arquitecturas de múltiples núcleos y seguramente a muchas otras soluciones que iremos conociendo en los años venideros. Por todo el camino recorrido, y también por las impresionantes capacidades que ha alcanzado, se prevé que ésta seguirá siendo, por razones de costo y eficiencia, la tecnología de uso masivo por mucho tiempo más.

En lo que respecta a la computación basada en la electrónica molecular, es predecible que tendrá una amplia aplicación en la biónica. Con el desarrollo de la ingeniería genética y el mejor conocimiento del funcionamiento del cuerpo humano, es inevitable el surgimiento de tecnologías que apunten, ya no sólo a corregir enfermedades o lesiones, sino a construir órganos o sistemas artificiales que potencien muchas de nuestras funciones orgánicas, y quizá también intelectuales. Esto, que para muchos pueda parecer ciencia ficción y que para otros resulte perturbador, en poco tiempo más será una realidad cotidiana. Y para estas futuristas tecnologías, el medio natural de implementación será con pequeños computadores orgánicos (ya existe la computación basada en ADN).

Y por último, la computación cuántica también tendrá su nicho de aplicación, y éste será un conjunto (no menor) de problemas que jamás podrán ser eficientemente resueltos por la computación basada en la electrónica digital. Esto ocurre porque la base matemática de la ciencia de computación tradicional (conocida como matemática discreta), impone serias limitaciones a la potencialidad de las máquinas, al obligarlas a trabajar con estructuras finitas y numerables (sólo con números naturales y representables como “1” y “0”). En circunstancia que lo que generalmente pedimos al computador es que recree virtualmente (mediante el software) aspectos del mundo real, los cuales, en su gran mayoría, obedecen a la matemática del continuo (universo de números reales, infinitos e innumerables). Para resolver este impasse recurrimos al cálculo numérico, disciplina que nos provee de métodos para transformar las complejas ecuaciones que representan a los fenómenos físicos del continuo, en series finitas de operaciones aritméticas básicas, las cuales pueden ser fácilmente resueltas por el computador. Pero esa transformación, del “continuo” al “discreto” (cuando es posible), nos entrega como resultado sólo una aproximación a la solución verdadera.

Y es aquí donde la computación cuántica surge como un nuevo modelo que permitirá liberarse de las amarras de la lógica binaria, y enfrentar con propiedad el desafío que significa la solución de problemas muy específicos que, por su naturaleza (gran complejidad, comportamiento caótico, inmensos volúmenes de datos, etc.), no han podido ser abordados adecuadamente por la computación tradicional. Como ejemplo, basta mencionar a la Inteligencia Artificial. Cuando ésta surgió como disciplina, a mediados del siglo pasado, generó muchas expectativas, la mayoría de las cuales no se han cumplido. Se esperaba que para el año 2000 ya habrían máquinas pensantes (en el amplio sentido de la palabra), sin embargo a pesar de todos los progresos logrados, estamos tan lejos, como al principio, de alcanzar ese objetivo. Después de todo se trata de un desafío mayor, emular el funcionamiento de uno de los órganos más complejos a que ha dado lugar la Evolución: El cerebro y la mente humana. Quizá si con este nuevo paradigma computacional sea posible, finalmente, llegar a esa anhelada meta, y también a muchas otras.[x]

4 thoughts on “Computación Cuántica: ¿un nuevo paradigma?

  1. Que clarificador artículo.

    La pregunta es, ¿cuanto nos demoraremos en adaptarnos a esta eventual nueva manera de hacer computación?.
    Aun hay muchos que le tienen fobia a windows vista, siendo que tiene varios beneficios en comparación a su predecesores (como el afán de ser más intuitivo, que estructurado en ramificaciones). imaginense un salto astronómico.
    Y el tema de los costos de la transición de un sistema a otro. es cosa de ver el caos que hay con el cambio de moneda de $100.-

    Bueno, por lo poco que entiendo de mecánica cuántica, y refiriendose a este tema, el gran beneficio será la inmensamente mayor capacidad de almacenamiento que tendría en comparación al sistema binario, pero aun tengo dudas de como se logrará evitar el colapso de información que pueda llegar a tener. Es cierto que segun la experiencia y las teorías cuanticas, existen problemas que la matemática clásica no logra resolver, o no lo hace con satisfacción. pero el sistema actual es bastante eficiente en cuanto a ciertas tareas simples, como el uso cotidiano que todos le damos a nuestros queridos tarros. Talvez usar un sistema cuántico en un equipo de hogar, sería como ir a comprar pan en un ferrari formula 1.
    creo que existirán ( de llegarse a desarrollar el sistema cuántico) de forma paralela, hasta que los usuarios lleguemos dimensionar las colosales posibilidades de la mecánica cuántica.

  2. «Por otra parte, esta tecnología avanza a un ritmo tan vertiginoso, que nadie deja de sorprenderse»

    El avance vertiginoso de la tecnología es casi un dogma aceptado por las mayorías, pero no por todos. En efecto, hay evidencia de que el ritmo de la invención está desacelerando. Hay muchas tecnologías prometidas durante mucho tiempo, que todavía están en promesas: autos voladores, inteligencias artificiales, mundos automáticos donde el trabajo humano ya no existe, reactores de fusión nuclear, etc. Es más, hay otras tecnologías que parecen estancadas hace rato (motores de barco, por nombra una).

    Es verdad que estamos llegando al límite de miniaturización de los circuitos electrónicos, pero esto no significa que de inmediato la tecnología estándar -basada en la microelectrónica y en el procesador Von Neuman- será reemplazada por la cuántica de inmediato y de un plumazo. Para que eso ocurra se requiere el desarrollos teóricos detallados, de un nuevo modelo de computadoras (que no existe) y de mucha experiencia. Para que eso ocurra podría pasar una década o varios siglos. A veces las ideas audaces se enfrentan con paredes que les impiden avanzar, y esto es muy real en computación.

    Por ejemplo, en 1984 más o menos, los japoneses invirtieron billones de dólares en un plan maestro para hacer un computador cuyo lenguaje de maquina no sería ya ensamblador sino Prolog, (un lenguaje de cálculos de predicados). La idea era desarrollar máquinas de inteligencia artificial con increíble poder de cálculo.
    A poco andar, los japoneses se dieron cuenta que habían errado el camino, asi que calladitos se olvidaron del asunto. El proyecto se llamó Quinta Generación, y fue el fracaso más grande del Japón en tecnología de todos los tiempos.

    Por eso, está bien tener esperanza en el futuro, pero un poco de escepticismo y cautela no hace mal a nadie.

    Saludos,

    O.V.

  3. Pensemos un poco en como se haría el salto de simple binaria a la cuántica, debieran existir «unidades especiales» en estas nuevos procesadores? para que se adopte la transición son el menor impacto, sería como lo que pasaba con los procesadores de 64 bits, cuando salieron al mercado, casi no existía software escrito para 64 bits, todo era 32 bits, por lo que debían hacer saltos para leer instrucciones de 32 bits (hablamos que eran casi el 90% de aplicaciones escritas en 32 bits)esto a la larga no aprovechaba la cualidades de esta nueva arquitectura,
    bueno el tiempo dirá si se hace este cambio y que tan pronto vendrá…

Comments are closed.