Enormes computadoras que llegan a ocupar 3250 metros cuadrados son capaces de realizar miles de millones de operaciones por segundo. Se utilizan en finanzas, geofísica, bases de datos, telecomunicaciones, cálculos climáticos y meteorológicos, entre otros campos. Estados Unidos encabeza el Top 500 de estas maravillas del cálculo.

(21/03/06 – CyTA-Instituto Leloir. Por Bruno Geller) – La potencia de las supercomputadoras actuales es de tal magnitud, que la primera calculadora electrónica creada en los años `40 del siglo XX podría hoy compararse con un Abaco, el instrumento de cálculo creado en China 3000 años a.C.

Hace miles de años, la ciencia fue empírica, más tarde se agregó un componente teórico, y hace medio siglo aproximadamente surgió una nueva rama, “la ciencia del cálculo”, que se está desarrollando velozmente para encontrar soluciones formales a modelos matemáticos complejos. Los teraflops, que equivalen a billones de operaciones de cálculo por segundo, dan una idea de la potencia necesaria en las actuales computadoras para resolver estos modelos.

“Una PC común sería capaz de operar en sólo unos pocos Gigaflops, es decir, unos pocos miles de millones de operaciones por segundo”, aclara Juan José Dellacqua, especialista en Sistemas y Director del Centro de Emprendedores de la ORT (CEO). Y agrega: “En general, las supercomputadoras se utilizan para problemas de cálculo matemático muy complejo, que las PC convencionales tardarían como mínimo décadas en realizar”.

Según datos publicados en La Recherche en enero del 2006, BlueGene/L, fabricada por IBM, ocupa el primer lugar en el Top 500 de las supercomputadoras. Tiene una potencia de 281 Teraflops, nada menos que 281 billones de operaciones de cálculo por segundo. Fue construida para el departamento de energía de EE.UU y una de sus funciones es simular el envejecimiento de las cabezas nucleares en el Laboratorio Nacional Lawrence Livermoore. Está hecha con 131.072 procesadores POWER distribuidos en 64 estantes y figura dentro de la categoría de máquinas masivamente paralelas basadas en arquitecturas escalares. Esto significa que posee un sistema de memoria distribuida, dado que cada procesador, similar en lógica al procesador de una PC común, dispone de una memoria propia e intercambia datos con las otras a través de una red de interconexión sofisticada.

Lo que caracteriza a las máquinas masivamente paralelas basadas en arquitecturas escalares es que a veces un mismo proceso lógico es descompuesto en varios sub-procesos de software, y algunos de estos sub-procesos de software se ejecutan en paralelo. Los resultados descompuestos se integran finalmente en un disco compartido.

Si bien la mayoría de las supercomputadoras son paralelas, existen las vectoriales, que también funcionan a partir de la interrelación de miles de procesadores.

Dellacqua explica que “el concepto de procesamiento vectorial significa que se pueden procesar simultáneamente múltiples datos en un mismo CPU, a diferencia del procesamiento escalar de las supercomputadoras paralelas, en las que solo se maneja un dato por vez, como ocurre en la vasta mayoría de las computadoras de uso hogareño, industrial y otros ámbitos.”

De las diez supercomputadoras más potentes del mundo, siete están en EEUU. Las otras tres pertenecen a España, Holanda y Japón. Sólo una máquina vectorial figura entre las 10 primeras del top 500, la japonesa Earth Simulator Japonais, en séptimo lugar. Realiza cálculos en el campo de la climatología y la geofísica y fue fabricada por la empresa NEC. Es muy voluminosa y dado que consume grandes cantidades de energía resulta ser muy cara, aunque también muy precisa. Está dotada con 5120 procesadores distribuidos en 320 estantes, que ocupan 3250 metros cuadrados, y su poder es de 36 Teraflops, una pavada de 36 billones de operaciones de cálculo por segundo.

De las Top 500, sólo 18 son máquinas vectoriales y esta tecnología va en disminución. La tendencia es un viraje hacia las paralelas, debido a que las maquinas vectoriales son muy costosas por el enorme consumo de energía que producen. Además, el calor que descargan los procesadores es directamente proporcional a la electricidad que consumen. En el caso de las supercomputadoras vectoriales, esto conduce a la instalación de costosos sistemas de extracción de calor para mantenerlas a temperaturas razonables y que no se fundan.

Esta realidad económica pesó en la decisión de Alan Gara, director del equipo de BlueGene/L, cuando eligió procesadores que liberan poco calor. Aunque su poder individual es muy “modesto”, 2.8 gigaflops – 2.8 mil millones de operaciones por segundo- y no son precisamente los más rápidos, estos procesadores integran a las computadoras más poderosas del mundo. Un claro ejemplo de cómo las restricciones de naturaleza económica condicionan la evolución tecnológica del cálculo científico.

Otra que figura en la lista de las Top 500 es la francesa Tera-10, con una potencia superior a los 60 teraflops – 60 billones de operaciones por segundo. Fue construida por la empresa Bull a pedido de la Dirección de Aplicaciones Militares del Comisariado de Energía Atómica, de Francia.

Tera-10 es una consecuencia de la ratificación por parte del parlamento francés en 1998 del Tratado de Prohibición de Ensayos Nucleares. La simulación numérica tomó el relevo de los ensayos nucleares, ya que con Tera-10 se pueden realizar predicciones con múltiples ecuaciones, lo que evita experimentar con poderosas armas en la naturaleza. Francia es conocida por sus pruebas nucleares en el Pacífico Sur, principalmente en el atolón de Mururoa, de la polinesia francesa.

Dellacqua destaca que “además del uso militar a las supercomputadoras se las utiliza en modelos de cambio climático, uso mundial de petróleo, cosechas agrícolas y cálculo de los niveles del mar a nivel mundial, entre otras funciones.”

Desde el mismo comienzo de la historia de la computación, en los años `50, se busco aumentar la velocidad de las máquinas. Los límites están marcados por los materiales disponibles en cada etapa tecnológica. Por eso, la investigación está orientada a encontrar componentes en base a nuevos materiales que permitan incrementar la velocidad de las supercomputadoras, como los semiconductores, que son parte de la tecnología actual.

“Se ha llegado a notables extremos de rendimiento. Aunque no se puede decir que se haya alcanzado el techo, es necesario experimentar con otra clase de materiales que permitan salir de las limitaciones actuales, como se hizo experimentalmente con computadoras hechas de carbono”, concluye Dellacqua.