7
LOLA SÁNCHEZ Teraflops, Petaflops, el avance hacía la Exaescala. Cuando se trata de super- computación tendemos a li- mitarnos a hablar en términos de potencia. No obstante, lo verdaderamente importante es el uso que se hace de toda esa capacidad de cálculo. En la práctica, ha sido recientemen- te cuando se superó la barrera de los 10 Petaflops, es decir, 10 cuatrillones de operaciones por segundo, pero ¿a qué se aplica toda esa potencia?. Para dar respuesta a una pregunta que ciertamente no es sencilla, lo lógico es empe- zar a buscar por la base, es de- cir, la arquitectura, un punto de vista desde cual los super- ordenadores son ‘raras-avis’. En muchos casos los superor- denadores están construidos con procesadores x86, sean de Intel o de AMD, y GPU de AMD o Nvidia, fundamen- talmente; pero tienen poco más en común con otros sis- temas de proceso como, por ejemplo, un PC. Lo más habitual es que es- tos gigantes de la supercom- putación utilicen unidades de cálculo personalizadas en las que normalmente se alojan varios nodos CPU/GPU. Un ejemplo sería el Cray XK6, el supercomputador blade más potente del mundo, cuyos cuatro blades contienen cua- tro nodos y cada uno de ellos 16 cores AMD Opteron y Nvida Tesla GPU. Estos no- dos están conectados con in- terconexiones propietarias ge- neralmente ópticas. Los diferentes blades tienden a es- tructurarse en racks, igual- mente conectados por fibra, haciendo posible el trabajo conjunto de decenas de miles de nodos. Esta supercolmena de pro- ceso requiere lógicamente de refrigeración, una exigencia que suele satisfacerse con agua, permitiendo ahorrar e incrementar al tiempo la ve- locidad de proceso. El siste- ma de refrigeración con agua del superordenador K de Fu- jitsu, a la cabeza del ‘Top 500’ con sus 88.128 nodos, es pro- bablemente a día de hoy el más complejo del mundo. A semejanza del ‘espíritu’ en la colmena, los superorde- nadores también requieren de control y es aquí donde apa- rece el software, en la práctica mayoría de los superordena- dores una versión personaliza- da de Linux. Y, a tener tam- bién muy en cuenta, el almacenamiento, que suele consistir en un mix de miles de Gb de RAM y Petabytes en disco. Titanes del cálculo y la simulación Pero, dejando a un lado las en- trañas, ¿a qué se aplican estas bestias del proceso?. En reali- dad sus tareas son pocas, aun- que apasionantes. Básicamen- te, la realización de cálculos que manejan ingentes canti- dades de datos y la simulación de modelos. Resumiendo mucho, la predicción del tiempo y la si- mulación aerodinámica fue- ron durante la década de los 70 los principales campos de actuación de la supercompu- tación. En los 80 y coinci- diendo con la Guerra Fría ga- naron peso la simulación nuclear y el modelado. Y más recientemente el foco se ha trasladado a la descodificación y la dinámica molecular, ám- bito en el que sobresale el chi- no Tianhe 1A, el segundo su- percomputador más potentes del mundo. “La supercomputación es- tá obligada a proporcionar la capacidad de cálculo que de- mandan los grandes retos científicos e industriales”, in- dica el director del Centro de Supercomputación de Galicia (CESGA), Javier García To- bío. Y, para ello, “se trabaja en distintos frentes: diseño de sis- temas con capacidad de cál- culo Exaflops para el final de esta década, al mismo tiempo que se buscan soluciones en tecnologías complementarias con arquitecturas distribui- das sobre Cloud o Grid”. Dentro del abanico de ten- dencias que caracteriza el ac- tual escenario de la super- computación, el director del Servicio de Informática de la Universidad de Valencia, Sal- vador Roca, entiende que las principales están ligadas a dos tecnologías: GPU y chips multicore. “El desafío”, seña- la Roca, “es hacer que los pro- gramas que hasta ahora eje- cutábamos en un solo procesador lo hagan, de forma eficiente en miles de procesa- dores o usen las tarjetas gráfi- cas a modo de aceleradores”. No obstante, existen barre- ras. Y es que “si bien la po- A la búsqueda del espíritu de la ‘supercolmena’ Los planes de la Comisión Europea (CE) contemplan doblar la inversión en HPC desde 630 a 1.200 millones Más allá del reto Exaescala con el horizonte 2020, el uso de GPUs como procesadores o la eficiencia energética, la supercomputación afronta otro desa- fío: la colaboración. En base a la filosofía que sus- tenta modelos de enorme potencial como grid, la Unión Europa y España, en tanto que participantes en la iniciativa PRACE, apuestan por el High Perfor- mance Computing (HPC) como palanca para el des- arrollo de la investigación, la ciencia y la innovación. Sistemas Exaflops, arquitecturas cloud o grid, GPUs, eficiencia energética y chips multicores emergen como los grandes retos [Especial Supercomputación] 1 mayo 2012 18

Los planes de la Comisión Europea (CE) contemplan doblar ... · haciendo posible el trabajo conjunto de decenas de miles de nodos. Esta supercolmena de pro-ceso requiere lógicamente

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Los planes de la Comisión Europea (CE) contemplan doblar ... · haciendo posible el trabajo conjunto de decenas de miles de nodos. Esta supercolmena de pro-ceso requiere lógicamente

LOLA SÁNCHEZ

� Teraflops, Petaflops, elavance hacía la Exaescala.Cuando se trata de super-computación tendemos a li-mitarnos a hablar en términosde potencia. No obstante, loverdaderamente importante esel uso que se hace de toda esacapacidad de cálculo. En lapráctica, ha sido recientemen-te cuando se superó la barrerade los 10 Petaflops, es decir,10 cuatrillones de operacionespor segundo, pero ¿a qué seaplica toda esa potencia?.

Para dar respuesta a unapregunta que ciertamente noes sencilla, lo lógico es empe-zar a buscar por la base, es de-cir, la arquitectura, un puntode vista desde cual los super-ordenadores son ‘raras-avis’.En muchos casos los superor-denadores están construidoscon procesadores x86, sean deIntel o de AMD, y GPU de

AMD o Nvidia, fundamen-talmente; pero tienen pocomás en común con otros sis-temas de proceso como, porejemplo, un PC.

Lo más habitual es que es-tos gigantes de la supercom-putación utilicen unidades de

cálculo personalizadas en lasque normalmente se alojanvarios nodos CPU/GPU. Unejemplo sería el Cray XK6, elsupercomputador blade máspotente del mundo, cuyoscuatro blades contienen cua-tro nodos y cada uno de ellos16 cores AMD Opteron y

Nvida Tesla GPU. Estos no-dos están conectados con in-terconexiones propietarias ge-neralmente ópticas. Losdiferentes blades tienden a es-tructurarse en racks, igual-mente conectados por fibra,haciendo posible el trabajo

conjunto de decenas de milesde nodos.

Esta supercolmena de pro-ceso requiere lógicamente derefrigeración, una exigenciaque suele satisfacerse conagua, permitiendo ahorrar eincrementar al tiempo la ve-locidad de proceso. El siste-

ma de refrigeración con aguadel superordenador K de Fu-jitsu, a la cabeza del ‘Top 500’con sus 88.128 nodos, es pro-bablemente a día de hoy elmás complejo del mundo.

A semejanza del ‘espíritu’en la colmena, los superorde-nadores también requieren decontrol y es aquí donde apa-rece el software, en la prácticamayoría de los superordena-dores una versión personaliza-da de Linux. Y, a tener tam-bién muy en cuenta, elalmacenamiento, que sueleconsistir en un mix de milesde Gb de RAM y Petabytes endisco.

Titanes del cálculo y la simulaciónPero, dejando a un lado las en-trañas, ¿a qué se aplican estasbestias del proceso?. En reali-dad sus tareas son pocas, aun-que apasionantes. Básicamen-te, la realización de cálculos

que manejan ingentes canti-dades de datos y la simulaciónde modelos.

Resumiendo mucho, lapredicción del tiempo y la si-mulación aerodinámica fue-ron durante la década de los70 los principales campos deactuación de la supercompu-tación. En los 80 y coinci-diendo con la Guerra Fría ga-naron peso la simulaciónnuclear y el modelado. Y másrecientemente el foco se hatrasladado a la descodificacióny la dinámica molecular, ám-bito en el que sobresale el chi-no Tianhe 1A, el segundo su-percomputador más potentesdel mundo.

“La supercomputación es-tá obligada a proporcionar lacapacidad de cálculo que de-mandan los grandes retoscientíficos e industriales”, in-dica el director del Centro deSupercomputación de Galicia(CESGA), Javier García To-

bío. Y, para ello, “se trabaja endistintos frentes: diseño de sis-temas con capacidad de cál-culo Exaflops para el final deesta década, al mismo tiempoque se buscan soluciones entecnologías complementariascon arquitecturas distribui-das sobre Cloud o Grid”.

Dentro del abanico de ten-dencias que caracteriza el ac-tual escenario de la super-computación, el director delServicio de Informática de laUniversidad de Valencia, Sal-vador Roca, entiende que lasprincipales están ligadas a dostecnologías: GPU y chipsmulticore. “El desafío”, seña-la Roca, “es hacer que los pro-gramas que hasta ahora eje-cutábamos en un soloprocesador lo hagan, de formaeficiente en miles de procesa-dores o usen las tarjetas gráfi-cas a modo de aceleradores”.No obstante, existen barre-ras. Y es que “si bien la po-

A la búsqueda del espíritu de la ‘supercolmena’Los planes de la Comisión Europea (CE) contemplan doblar la inversión en HPC desde 630 a 1.200 millones

Más allá del reto Exaescala con el horizonte 2020, eluso de GPUs como procesadores o la eficienciaenergética, la supercomputación afronta otro desa -

fío: la colaboración. En base a la filosofía que sus-tenta modelos de enorme potencial como grid, laUnión Europa y España, en tanto que participantes

en la iniciativa PRACE, apuestan por el High Perfor-mance Computing (HPC) como palanca para el des-arrollo de la investigación, la ciencia y la innovación.

Sistemas Exaflops, arquitecturascloud o grid, GPUs, eficiencia energética y chips multicoresemergen como los grandes retos

[Especial Supercomputación]1 mayo 2012

www

18

18-19 Repor:01-518-Portada 27/4/12 11:09 Página 1

Page 2: Los planes de la Comisión Europea (CE) contemplan doblar ... · haciendo posible el trabajo conjunto de decenas de miles de nodos. Esta supercolmena de pro-ceso requiere lógicamente

1 mayo 2012[Especial Supercomputación]

www

19

Esquema actual de la Red Española de Supercomputación (RES)Fuente: Barcelona Supercomputing Center

tencia de las GPU es muygrande, la dificultad para pro-gramarlas puede hacer que so-lo se usen en casos muy espe-cíficos”.

El director técnico de laFundación Centro de Super-computación de Castilla y Le-ón (FSCS), Antonio Ruiz Fal-có, pone por su parte el acentoen otro aspecto candente: laeficiencia energética. Y es que,“por su propia naturaleza, lossuperordenadores son muy in-tensivos en consumo de ener-gía”, recuerda el técnico, quellama la atención sobre el pro-yecto MONICA en el que tra-baja la FSCS con el punto demira puesto en el desarrollo deun sistema de monitorizacióncon control inteligente de laeficiencia energética.

Junto a la mejora sustan-cial de la eficiencia energética

de los superordenadores, Gar-cía Tobío identifica otros obs-táculos. “Para avanzar”, cons-dera que “es necesario superarbarreras existentes como ladisponibilidad de códigos efi-cientes para arquitecturas querequieren un muy alto nivelde paralelización, la estanda-rización de nuevos compila-dores y herramientas de desa-rrollo y la diseminación delconocimiento de estas nuevastecnologías”.

Envite PRACECon todos estos desafíos pordelante, la supercomputa-ción continúa avanzando y sibien Estados Unidos siguesiendo la primera potenciaen HPC (High PerformanceComputing), la región Asia-Pacífico continúa ganandoterreno y el Viejo Continen-

te, a pesar del contexto eco-nómico, no quiere perder eltren. No en vano y como re-cuerda García Tobío, “la su-percomputación es una he-rramienta imprescindiblepara el desarrollo de la cien-cia, la competitividad de la in-dustria, la mejora de la gestióndel medioambiente y de losservicios a los ciudadanos”.

El envite de Europa en su-percomputación se materiali-za en el consorcio PRACE(Partnership for AdvancedComputer in Europe) que,presentado en Barcelona en ju-nio de 2010, persigue la crea-ción de una infraestructura eu-ropea de supercomputación enla que España actúa como unode los ‘hosting partners’.

A la vista está que Europano se encuentra actualmenteen su mejor momento para

grandes inversiones. Sin em-bargo, parece que el ViejoContinente es consciente de laimportancia de no perder eltren de la investigación y laciencia; ámbitos en los que lasupercomputación juega unpapel clave.

Así, el pasado febrero laComisión Europea (CE)anunciaba un plan que con-templa doblar las inversionesen HPC desde 630 millonesa 1.200 millones a fin de apa-lancar la posición de Europaen HPC. Con motivo delanuncio la vicepresidenta dela CE responsable de la Agen-cia Digital, Neelie Kroes, su-brayó que “tenemos que in-vertir de forma inteligente eneste campo porque no pode-mos permitirnos que seannuestros competidores losque innoven”.

Red Española de Supercomputación (RES)El trabajo en red también es el modelo enel que se asienta la estrategia de Españaen supercomputación, que se materializaen la bautizada como RES (Red Españolade Supercomputación), una infraestructu-ra virtual distribuida de supercomputado-res situados en distintas localizaciones.

Tras su creación hace ahora un lustro,la RES cuenta ya con 10 nodos que se si-túan en Barcelona, Canarias, Cantabria,Madrid, Málaga, Valencia y Zaragoza, su-mando una capacidad total que superalos 400 Tflops. Se trata, concretamente,de los superordenadores MareNostrum yMinoTauro en el Barcelona Supercompu-ting Center (BSC - CNS), el Magerit2 en elCentro de Supercomputación y Visualiza-ción (CeSViMa) de la Universidad Politéc-nica de Madrid (UPM), los superordena-dores LaPalma y Atlante del Instituto deAstrofísica de Canarias y el Instituto Tec-nológico de Canarias (ITC), Altamira en elInstituto de Física de Cantabria (IFCA),Pablo y Picasso en el Centro de Super-computación y Bioinformática de la Uni-versidad de Málaga (UMA), el Tirant de laUniversidad de Valencia (UV) y el Caesa-ragusta en el Instituto de Biocomputa-ción y Física de Sistemas Complejos (BIFI)de la Universidad de Zaragoza.

Como política general, cada nodo reserva un 20% de sus recursoscomputaciones para sus científicos y el 80% restante está a disposiciónde la comunidad científica. “La RES provee de un marco común de tra-bajo donde compartir conocimiento y experiencias”, comenta Roca,quien destaca que “cuando crece la RES, crecen todos sus nodos, lo queimplica centralizar la inversión y sacarle el máximo rendimiento; ade-más, ofrece una imagen de ventanilla única de cara al usuario”.

A pesar de no formar parte todavía de la RES, otros centros como elCESGA o la FSCS valoran positivamente la iniciativa. “Toda iniciativaque tenga como objetivo coordinar la actividad HPC en España, redun-dará en beneficio de la sociedad y, en este sentido, la RES ha supuestoun valioso primer paso”, entiende García Tobío, quien considera que“en esta época de dificultad económica, esta colaboración debería in-tensificarse, estrechando para ello las relaciones entre los diferentesactores o participantes de la supercomputación: industria, proveedoresde hardware y software, sector público, universidades e infraestructu-ras singulares existentes”.

En la misma línea, Ruiz Falcó también destaca el rol de la RES y en-tiende que “la coordinación de centros y recursos de distinta titularidaddebe consolidarse como una ventaja competitiva y una garantía de acce-so a programas, proyectos y líneas de actuación y financiación suprana-cionales y como mecanismo de racionalización de los recursos propios enel que la eficiencia sea un criterio de la máxima prioridad”.

Aplicación empresarial, asignatura pendienteAunque la supercomputación en España ha crecido de forma importanteen los últimos años, su aplicación sigue siendo principalmente académi-ca. Como comenta Tobío, “la ciencia se beneficia de la supercomputaciónmediante las infraestructuras dependientes de las Administraciones pú-blicas, a las que acceden las comunidades investigadores y las cualestambién prestan servicios a la sociedad en áreas como la predicción me-teorológica, la defensa, la sanidad, el medioambiente, etc.”.

No obstante, el uso de la supercomputación en el entorno empresa-rial español todavía es muy poco intensivo. “Se trata de una utilizacióndiscreta en ámbitos como el de la banca, la aeronáutica, la automo-ción, la biotecnología y la farmaindustria, o la energía”, apunta Tobío,para añadir que “la modelización y la simulación numérica aplicada enla industria es una asignatura pendiente en nuestro país”.

UC

UZ

BSC-CNS

UV

UPN

UMA

IACITC

Antonio Ruiz Falcó, director técnicode la FSCS.

Javier García Tobío, director delCESGA.

Salvador Roca, director del Serviciode Informática de la UV.

18-19 Repor:01-518-Portada 27/4/12 11:09 Página 2

Page 3: Los planes de la Comisión Europea (CE) contemplan doblar ... · haciendo posible el trabajo conjunto de decenas de miles de nodos. Esta supercolmena de pro-ceso requiere lógicamente

España debe pasar a un modelo industrialpara aprovechar la supercomputación

El Big Data y el cloud son los grandes dinamizadores de la computación de alto rendimiento

� En unos momentos en queEuropa se está rearmando pa-ra competir con la pujanteAsia y el omnipresente Esta-dos Unidos, COMPUTINGha organizado una tertulia pa-ra recoger todas las tendenciasy evoluciones de un mercadoen crecimiento como el deHigh Perfomance Computing(HPC), cada vez más próximoa los sistemas corporativos y alusuario profesional. En dichoencuentro se ha querido darcabida a los tres modelos másavanzados en supercomputa-ción: el japonés representadopor Fujitsu; el americano re-presentado por HP; y el eu-ropeo, por Bull. El contra-punto lo ha puesto el Ciemat,como usuario científico de lacomputación de alto rendi-miento.

Con esta nueva situación,los proveedores TIC tienen elreto de ofrecer a las organiza-ciones (bancos, institucionespúblicas, fabricantes...) los re-cursos tecnológicos más inno-vadores, así como una mayorcapacidad para afrontar losnuevas exigencias de compu-tación derivadas del Big Data,para que sector público y pri-vado puedan extraer todo elvalor de la supercomputación.No en vano, como adelantabaEsther de Nicolás, HPC Bu-siness Manager de HP, la su-percomputación es uno de losmercados de servidores dondepuede haber un mayor creci-miento, junto con el cloudcomputing y el Big Data. “HPlleva muchos años dedicadoal mundo de los servidores yla computación de alto rendi-miento con una estrategia, quese diversifica en tecnología ydesarrollo conjunto y cooperación entre el cliente yel proveedor. Tenemos unaasociación de usuarios, HP-CAST, donde compartimos

experiencias, innovaciones tec-nológicas, datos confidencia-les de producto… con objetode facilitar desarrollos especí-ficos en supercomputación,tanto para el ámbito científi-co como empresarial. Las ne-cesidades son distintas en elentorno empresarial donde lagestión debe ser muy estándar,tener una capacidad energéti-ca eficiente, el rendimiento de-be tener un buen balanceo delsistema… Un resultado de es-tos esfuerzos, por ejemplo, esel proyecto Moonshot, queaún está en fase beta, pero quesentará las bases de un nuevomodelo de sistemas basados enmuchos nodos de computa-ción ultradensos que reduciránun 90% lo que ocupan las uni-dades de tecnología, así comoel consumo energético”, expli-caba la directiva.

La visión de Bull en super-computación, en cambio, esdiferente aunque compartecon HP el interés de la cola-boración. Como empresa eu-ropea, su objetivo es situar alViejo Continente en una po-sición más adelantada frentea otras potencias como Japóno Estados Unidos. Por ello,como aclaraba Óscar de Bus-tos, director de Supercompu-tación de la división BullComputing Solutions, “no-sotros tenemos en Europa 600personas dedicadas a super-computación, el equipo másgrande incluso sumando a to-dos los proveedores, para ayu-dar a que el continente creetecnología HPC propia parapoder competir con EstadosUnidos y Japón. No en vano,en Bull no lo denominamosasí sino Extreme Computingporque debemos dar un pasomás adelante y dar supercom-putación extrema. Asimismo,comparto que las solucionesque se deben dar al entorno

Si pensamos en tecnologías de supercomputación, la men-te se nos va a bunkers científicos llenos de batas blancasinmersos en complicados proyectos de innovación. Sin

embargo, con el tiempo, ha dejado de ser exclusividad delámbito científico, revelándose como un factor clave para elavance económico y social ante el amplio radio de aplica-

ciones que proporciona en los diferentes sectores de activi-dad.En este encuentro, desvelamos algunos de estos usos,y aplicaciones así como las tendencias de futuro.

1 mayo 2012 [Especial Supercomputación]

www

20

20-21 computing tertulia :01-518-Portada 26/4/12 14:47 Página 1

Page 4: Los planes de la Comisión Europea (CE) contemplan doblar ... · haciendo posible el trabajo conjunto de decenas de miles de nodos. Esta supercolmena de pro-ceso requiere lógicamente

empresarial deben diferir delas de la esfera científica; y yase están dando. Hoy en día,muchas cosas que vemos anuestro alrededor están he-chas con supercomputacióncomo el diseño de un pañal,de un coche, climatología,medicina… Nosotros provee-mos soluciones hechas a me-dida para un sector específicoque cumpla los retos del Exa-flop, y consuma poca energíay densidad; y no sólo hard-ware, también software HPCpara mover grandes sistemasde supercomputación, tole-rante a fallos”.

En Fujitsu, que lidera elmercado HPC japonés, la in-novación va muy ligada aconstruir una sociedad de se-res humanos inteligentes co-nectados donde los serviciosque se les presta están contex-tualizados. Y en este mundo,la supercomputación juega unpapel muy importante juntocon los dispositivos ubicuos,redes fotónicas, cloud com-puting y Big Data. “En la vi-da se emplea mucha super-computación y muchas vecesno somos conscientes de ello.El problema es que los políti-cos tampoco son conscientes ypor ello no invierten en HPCal desconocer los usos que pue-de tener en buscar nuevasfuentes de energía, salvar vidashumanas… es importante quelos políticos lo entiendan e in-viertan”, evidenciaba AdrianoGalano, director de Desarro-llo de Negocio de Servidoresespecialista en Supercomputa-ción y Big Data de Fujitsu.“Estamos en un punto de in-flexión muy importante y Eu-ropa se tiene que poner las pi-las. En Japón, crisis significaoportunidad, en Europa, no.Estamos muy preocupadoscon los recortes presupuesta-rios y no nos damos cuentaque otros continentes van a ve-locidad de crucero. No digoque Europa se quede rezagada,pero si es verdad que tanto Es-tados Unidos como China oJapón van muy por delante”,apuntaba.

“Es cierto que las cosas es-tán cambiando rápidamente”,objetaba Esther de Nicolás deHP. “China está creciendomuy rápido, y en la lista Top500 de los superordenadores,Japón ha ido perdiendo posi-ciones”.

En paralelo a esta evoluciónque está experimentando elmercado de la supercompu-tación, se está produciendouna metamorfosis en la for-

ma actual de trabajar con estetipo de tecnologías en la esfe-ra científica. Así lo manifesta-ba Rafael Mayo, responsablede Informática Científica deCiemat, quien lo concibe co-mo el mayor cambio que hahabido en los últimos tiem-pos. “Hemos pasado de unmodelo en el que un físico te-nía un problema y lo solucio-naba desarrollando un código,a una nueva metodología don-de ahora el científico, juntocon el asesoramiento de unprofesional de tecnología, di-señan la fórmula. Cada vez esmas útil la colaboración entreel grupo de I+D y el provee-dor de recursos”, explica.

El Big Data, ¿un dinamizador?Aparte del fomento de esta co-laboración investigación-pro-veedor TIC, desde Ciematacusan otras tendencias rela-cionadas con la explosión delBig Data, y son la estandari-zación y análisis de los datos.“Casi todos los países tienensus agencias de meteorología,que generan su propia infor-mación, en formatos y arqui-tecturas diferentes. Para poderhacer un mejor uso de ello yque las distintas agencias com-partieran dicha información,creo que se tenderá hacia la es-tandarización de los datos yacoplamiento de códigos pa-ra que exista un formato es-tándar. Asimismo, no debe-

mos quedarnos en elalmacenamiento de la infor-mación; hay que analizarla.Esto, obviamente requieremuchos desarrollos de algorit-mos matemáticos y aquí esdonde entran los proveedores,que deben crear un territoriocomún donde los investiga-dores de un área concreta pue-dan compartir de manera mástransparente la informaciónya que cada vez se trabaja másen conjunto”, concretaba Ra-fael Mayo.

Opinaba lo mismo AdrianoGalano de Fujitsu, aunqueañadiendo el matiz de que ensupercomputación, la gestióny análisis de tales cantidadesde datos, “se deberían aplicaren procesos menos científicos

y más empresariales como,por ejemplo, averiguar qué seestá comentando de mi em-presa o producto en Twitter.Bajo esta perspectiva, el BigData puede popularizar elHPC quitándole ese halocientífico”.

HP, en cambio, es de otraopinión ya que en palabras deEsther de Nicolás, “HPC y

Big Data se unen, pero BigData es ´The next big thing’.Hoy en día es importante sa-car uso de los datos, sobre to-do, de los desestructurados; yla carrera de los proveedoresva en esa dirección. Aquí losproveedores debemos dar so-luciones para ver qué se hacecon esa información y solu-cionar el tema de la estanda-rización. En mi opinión per-sonal, tenemos parte de culpaen este tema porque cada unotenemos nuestros laboratoriospor separado, sacamos pro-ductos distintos… y al finalel estándar de facto es la solu-ción que más usa la industria”.

“Pero el Big Data no esnuevo”, replicaba Óscar deBustos de Bull. “Todos los

centros de investigación hanmanejado cientos de Teraby-tes desde hace años. Ahora elBig Data es un término mar-ketiniano que se está usandomucho en otros sectores por-que ahora comprar un Pe-tabyte es más económico, loque está explosionando mu-cho los sistemas de almacena-miento. Asimismo, es ciertoque no hay un estándar en laindustria. Los datos están aso-ciados a sistemas, redes de co-nexión… que se montan enprotocolos estándar, y ahí losproveedores no tenemos mu-cha culpa”, postulaba.

¿Es rentable la supercom-putación en España?En España, el tejido empresa-rial es mayoritariamente pymepor lo que desde HP propo-nen hacer una labor divulga-tiva sobre las ventajas compe-titivas de utilizar lasupercomputación en las em-presas. “En Estados Unidos yen otros países, las empresassí usan la supercomputación,como la firma de las patatasPringles que consiguió metermás patatas en el bote. Las tec-nologías HPT permiten si-mular entornos y hacer queun entorno informático pue-da predecir comportamientos.Debemos ayudar a las empre-sas españolas a usar estos me-canismos para que sean máscompetitivas”, indicaba Es-ther de Nicolás.

Sin embargo, deben sermodelos más modestos puescomo advertía Rafael Mayo deCiemat, “no todo el mundo eso puede ser usuario de la su-percomputación a gran esca-la. Desde el punto de vistacientífico, a los centros de in-vestigación hay que propor-cionar tecnologías HPC quesatisfagan sus necesidades ensu justa medida. De hecho,puede que un científico de ungrupo de trabajo del MareNostrum en Barcelona tam-poco necesite una gran capa-cidad de procesamiento”.

Óscar Bustos añadía en estepunto la problemática y/o ne-cesidad de juntar universidad ycentros de investigación conla industria española. “En Es-paña también tenemos indus-tria, pero no somos Alemaniani Francia. Nuestro PIB se ba-sa más en la economía de ser-vicios y turismo. Deberíamoscambiar hacia un modelo másindustrial. Pero, si en lugar deinvertir en investigación, lo re-ducimos, como este año, un25%, hacemos el camino a lainversa. Debemos invertir másen I+D y generar industria y yatodo iría bien. En España síhay supercomputación porquese ha destinado dinero de Eu-ropa. En los últimos cinco añosse han recibido subvencionesde los Fondos Feder y se notaque ha aumentado el uso de lasupercomputación. Ahora, Eu-ropa está invirtiendo mucho en

estas tecnologías, pero quedapor ver el papel que jugará Es-paña”.

“España ha representado el5-6% del mercado HPC de Eu-ropa y va hacia abajo por losrecortes”, ratificaba AdrianoGalano de Fujitsu. “No se tra-ta de recortar, sino de definircuál es el modelo de competiti-vidad e innovación del país queestamos construyendo. Hay uncentro de supercomputación encasi todas las Comunidades Au-tónomas, y tampoco es eso; hayque ir a un modelo más soste-nible de centros. En este senti-do, debemos generar un deba-te social entre gobierno,industria y proveedores sin ex-cluir a los científicos, porque,¿es rentable encontrar una curacontra el cáncer sin tener que re-cortar? La supercomputaciónno es cuánto cuesta la máquina,sino qué uso tiene en la socie-dad e industria española. Haypolíticos que no creen en el mo-delo de sostenibilidad porquehay que invertir en actualizar elsuperordenador que tienen des-de hace siete años. Como los in-vestigadores no hablan el len-guaje político, ni los políticos,el científico, hay un gap tre-mendo. Existe tecnología perohay que saber trasladar el usoque proporciona”, declaraba.

“Pero, la pregunta no debeser cuánto me cuesta innovar,sino cuánto me costará el no ha-ber invertido en innovación”,concluía Esther de Nicolás.

“Debemos ayudar ala empresa españolaa usar los mecanis-mos de la computa-ción de alto rendi-miento para que seamás competitiva”.

Esther de Nicolás, HPC Bu-siness Manager de HP.

1 mayo 2012[Especial Supercomputación]

www

21

“Hemos pasado deun modelo donde elfísico desarrollaba elcódigo, a otro dondeel investigador lo di-seña con ayuda deun informático”.

Rafael Mayo, responsablede Informática Científica delCiemat.

“La cuestión no es cuántocuesta innovar, sino cuántocostará el no hacerlo”

“Queremos ayudara Europa a crearHPC propia paraque pueda competircontra Estados Unidos y Japón”.

Óscar de Bustos, director deSupercomputación de BullComputing Solutions.

“España ha represen-tado el 5-6% delmercado europeo dela supercomputación,pero bajará por losrecortes aplicados”.

Adriano Galano, director deDesarrollo de Negocio de Ser-vidores de Fujitsu.

20-21 computing tertulia :01-518-Portada 26/4/12 14:47 Página 2

Page 5: Los planes de la Comisión Europea (CE) contemplan doblar ... · haciendo posible el trabajo conjunto de decenas de miles de nodos. Esta supercolmena de pro-ceso requiere lógicamente

R. CONTRERAS

¿Puede ilustrarnos sobre cuáles el estado actual de la su-percomputación en España?Cumplidos los cinco años defuncionamiento de la RES(Red Española de Supercom-putación), creo que ya pode-mos decir que la red públicade supercomputación se en-cuentra en un estado de ma-durez considerable.

Nuestros científicos se hanhabituado a utilizar la super-computación con la mismaasiduidad que lo utilizan suscolegas europeos. Esto nos

permite ser competitivos enciencia e innovación, y nosobliga a continuar apostandopor la supercomputación pa-ra continuar siéndolo.

¿Cuáles son los objetivos de BSCy cuál es su aportación al ám-bito científico y universitario?Tenemos un triple objetivo:impulsar la supercomputación;realizar y fomentar la investi-gación a través de la HPC (loque ya se conoce como e-cien-cia), y contribuir al desarrollode la innovación en las empre-sas, ofreciendo nuestros servi-cios y nuestra experiencia enel uso de esta tecnología.

¿De qué manera se reflejan loslogros de la supercomputa-ción en el día a día de las em-presas y de los usuarios de tec-nología?Hay un amplio abanico deempresas que se pueden be-neficiar de la supercomputa-ción, desde ingenierías que de-sean hacer simulacionesdurante sus pruebas de dise-ño -con importantes ahorrosde tiempo y costes-, a empre-sas de servicios que manejangrandes cantidades de datos.

Una de nuestras colabora-ciones más emblemáticas conla empresa privada ha sido lade Repsol, para quien hemos

desarrollado un sistema deanálisis de fondos marinos,que les está siendo de gran uti-lidad en sus prospecciones pa-ra encontrar petróleo. Y tam-bién estamos trabajando conIberdrola, para ayudarles a de-finir cuál es la colocación óp-tima de los molinos de vientoen parques eólicos.

Mare Nostrum es el baluartede su organización, ¿cuálesson sus principales funcionesy de qué manera interactúacon MinoTauro, su otro granreferente computacional?Son dos máquinas de arqui-tecturas y prestaciones dife-rentes, que se complementanmuy bien en cuanto al gradode eficiencia que ofrecen paradiferentes tipos de cálculos yaplicaciones, pero que com-parten un mismo objetivo: darservicio a los usuarios que ne-cesitan de la supercomputa-ción para sus investigaciones.

BSC cerró un acuerdo con Intelpara establecer un laborato-rio de I+D sobre supercompu-tación. ¿Qué avances han ob-tenido en este sentido?El centro se creó en noviembrey por parte del BSC lo dirigepersonalmente el director deldepartamento de Ciencias dela Computación, Jesús Labar-ta, que es uno de los investiga-dores más respetados a nivel in-ternacional en su disciplina.

La finalidad del centro esla investigación conjunta conmiras al reto del Exaescala, esdecir, los futuros supercom-putadores de Exaflops, mil ve-ces más potentes que las má-quinas más rápidas instaladasahora mismo en Europa.

La colaboración se basa enlas tecnologías que desarrollael BSC, en las áreas de pro-gramación y de análisis deprestaciones (OmpSs y BSCtools, principalmente), con el

objetivo de estudiar cómopueden ayudar a mejorar elrendimiento de las infraes-tructuras Exaescala.

¿Y en relación con la alianzacon ARM en el marco del pro-yecto Montblanc?

El proyecto Montblanc-que nace desde PRACE(Partnership for AdvancedComputer in Europe)- con-siste en experimentar con laposibilidad de crear arquitec-turas de supercomputaciónbasadas en componentes debajo consumo, en este caso losque fabrica ARM para smart-phones y tablets. Es todo unreto, porque son componen-tes menos estables que requie-ren un esfuerzo extraordinariode programación, y porquesupondría la construcción deun supercomputador basadoen tecnología europea.

BSC es el coordinador de laRed Española de Supercom-putación (RES). ¿Cómo está or-ganizada esta red y qué con-quistas puede reseñar?Actualmente la RES ya dispo-ne de diez nodos, situados enBarcelona, Canarias, Madrid,Málaga, Santander, Valencia yZaragoza. El principal logro dela RES es ser un instrumentoal servicio de la investigacióncientífica. En cinco años, cer-ca de 2.000 proyectos han pa-sado por sus instalaciones, des-pués de un cuidadoso procesode selección y análisis del Co-mité de Acceso a la RES, queestá formado por cuarentacientíficos de alto nivel y dife-rentes disciplinas.

¿Cuáles son a día de hoy losprincipales servicios que pres-ta la RES y cuál es la planifica-ción establecida de cara a suextensión?El principal servicio es sin du-da el acceso a la supercomputa-

ción, pero no sería posible sinotros servicios complementa-rios, como la formación a cien-tíficos de diferentes disciplinas.Es por ello que cada año orga-nizamos encuentros anuales, se-minarios científicos, jornadasde formación técnica y otras ac-ciones divulgativas, para acercarla HPC a los investigadores.

En cuanto a la extensión dela red, en 2011 hubo avances,como la instalación del Mi-notauro y la actualización delMagerit. En 2012 están pre-vistas actuaciones en el Slan-der y el Marenostrum.

En último término, ¿estánprosperando los intentos de laUE de potenciar la supercom-putación europea? ¿Estamosmuy rezagados en relacióncon Asia y Estados Unidos?Desde 2012, PRACE da ser-vicio a los mejores investiga-dores de la UE para poder sercompetitivos con Asia y losEstados Unidos. Unos 70 pro-yectos de grandes dimensionesy de distintas áreas de la cien-cia, han tenido acceso a losmayores computadores de Eu-ropa. De estos proyectos,ocho están liderados por cien-tíficos españoles. La capacidadeuropea de supercomputaciónpara uso científico ya se estáequiparando a la de los Esta-dos Unidos y estamos muypor encima de Asia, donde eluso de computación para laciencia es menor.

¿Qué papel juega España den-tro de la estrategia europeade supercomputación?En investigación, estamos enuna posición de liderazgo, gra-cias a proyectos como el Mont-blanc. En cuanto a servicios, es-tamos en una buena posición,ya que somos uno de los hos-ting partnes de PRACE, peronecesitamos seguir impulsandonuestras instalaciones.

"La High Performance Computing nos ayudaa ser competitivos en ciencia e innovación"

Mateo Valero, director de Barcelona Supercomputing Center (BSC)

El Centro de Supercomputación de Barcelona tiene elobjetivo de impulsar el uso de la supercomputación,la e-ciencia a través del High Performance Compu-

ting y ayudar a la innovación dentro de las empresas.Mateo Valero, también responsable de la coordina-ción de la Red Española de Supercomputación (RES),

está convencido del peso que nuestro país tiene eneste ámbito, como ilustra el hecho de que sea BSCquien lidere el proyecto europeo Montblanc.

[Especial Supercomputación]1 mayo 2012

www

22

22 entrevista:01-518-Portada 26/4/12 14:46 Página 1

Page 6: Los planes de la Comisión Europea (CE) contemplan doblar ... · haciendo posible el trabajo conjunto de decenas de miles de nodos. Esta supercolmena de pro-ceso requiere lógicamente

� En los últimos 30 años, lacomputación ha jugado un pa-pel cada vez más importanteen nuestras vidas. El desarro-llo del PC, la aparición de In-ternet, la informática móvil, ...Todo esto ha ocurrido a un rit-mo muy rápido y con una ta-sa de cambio muy elevada. To-dos los ciudadanos sonconscientes, en mayor o me-nor medida, de estos avances.

¿Qué ha pasado con el merca-do de la supercomputación? En junio de 1993, la super-computadora más potente delMundo tenía una potencia de60 GigaFLOPs. En noviem-bre de 2011, tenía una poten-cia de 10 PetaFLOPs, un in-cremento de potencia de unas170 mil veces. Podemos ob-servar que la potencia de unportátil de hoy en día es muysimilar al de la supercompu-tadora del año 1993, pero quela potencia de las supercom-putadoras ha aumentado deforma mucho más radical queen el caso de los portátiles. Es-to nos demuestra que aunqueno sea algo tan visible, la su-percomputación ha tenidouna importancia mucho ma-yor de la que nos imaginamos.La supercomputación ha te-nido y tiene más repercusiónen nuestras vidas de lo que nospodemos imaginar y de lo que

puede suponer la evolución enlos dispositivos de consumocomo es un portátil. Entoncesla pregunta que nos debemosformular es ¿por qué ha teni-do tanto crecimiento e im-portancia la supercomputa-ción y por qué no se percibe?

La supercomputación esuna rama de la informáticaque se dedica a dar respuestaa las grandes necesidades decómputo de los centros de in-vestigación, laboratorios yUniversidades, tanto públicoscomo privados. La supercom-putación se utiliza para el di-seño de productos tan comu-nes como coches, pañales ybañadores como para el dise-ño de productos tan poco fre-cuentes como son armas nu-cleares o transbordadoresespaciales, pasando por el di-seño de vacunas, estudios fi-logenéticos de los seres vivos,detección de fraudes, creaciónde efectos especiales de la úl-tima superproducción cine-matográfica, predicción delvalor de las acciones de unaempresa o pronóstico deltiempo. Como se puede ver,la supercomputación está pre-sente en nuestras vidas a dia-rio y lo estará cada vez más.

Por esta razón, invertir ensupercomputación debería seruna de las grandes priorida-des, tanto de empresas como

de gobiernos. Quedarse atrásen la supercomputación su-pone correr el riesgo de no po-der competir con otras em-presas o países en innovacióny desarrollo, en mejora delbienestar y de la salud públi-ca, en nuevas carreras y for-mación de especialistas, encreación de nuevos puestosde trabajo. Supone correr elriesgo de sufrir la temida “fu-ga de cerebros” a otros paíseso empresas que sí inviertenen supercomputación.

Es importante tener encuenta que se va a producir ungran salto en el mundo de lasupercomputación en los pró-ximos 8 a 10 años. Se va a pa-sar de la era del PetaFLOP a laera del ExaFLOP, se va a mul-tiplicar por 1000 una vez másla capacidad y potencia de cál-culo de las supercomputado-ras. Este hecho supone muchomás que un mero aumento delnúmero de procesadores o unmero aumento del número denodos de cómputo. El cambiova a ser tan radical que va aafectar todo lo que compren-de el entorno de supercompu-tación, desde el número deprocesadores y su tipo hasta eltipo de redes que se usarán, pa-sando por tener que reescribirmuchas (si no son todas) lasaplicaciones, sin olvidarnos delos sistemas de refrigeración y

de consumo eléctrico, inclusovan a tener que aparecer nue-vas especialidades en las Uni-versidades. Va a ser un cam-bio tan radical que los propiospaíses han decidido incluir elpaso de PetaFLOP a ExaFLOPcomo una prioridad, apare-ciendo proyectos como PRA-CE (Partnership for Advan-ced Computing in Europe) enEuropa. La misión de PRACEes poder producir un elevadoimpacto en los descubrimien-tos científicos y de ingenieríaa nivel europeo para mejorar lacompetitividad europea. Paraconseguir esto, se utilizará lasupercomputación como he-rramienta para las nuevas in-vestigaciones y diseños.

Por esta misma razón, Bullse ha convertido en la empre-sa europea líder en supercom-putación creando más de 600puestos de trabajo dedicadosexclusivamente a supercom-putación y basando su I+D enel área de supercomputación.Pero, Bull no se queda sóloen innovar y crear nuevospuestos de trabajo sino que in-vierte en la creación de gruposque comparten intereses en eldesarrollo de soluciones parala alta computación. Porejemplo, Bull es miembrofundador de la asociaciónTer@tec que reúne 49 orga-nizaciones procedentes de la

investigación, industria y TI yque facilita la cooperación, co-municación y acceso a las TIy las competencias más avan-zadas en el campo de la su-percomputación.

Esta inversión en innova-ción y creación de puestos detrabajo ha permitido que Bulldiseñe e instale las dos super-computadoras más potentesde Europa:

Tera 100: supercomputa-dora del Departamento deAplicaciones Militares (DAM)de la Autoridad Francesa deEnergía Atómica (CEA) parael Programa de Simulación deArmas Nucleares. Ha sido di-señada para poder correr unaamplia gama de aplicacionespor lo que difiere con otrassupercomputadoras específicaspara determinados procesos.Hay que sumar su elevada fia-bilidad y disponibilidad, per-mitiendo una operatividad 24horas al día 7 días a la semanagracias a sus 4,370 servidoresbullx S con 17,480 procesa-dores Intel® Xeon® 7500, 300TB de memoria RAM y 20 pe-tabytes (PB) de almacena-miento que ofrecen GB/s deancho de banda.

Curie: se ha instalado enGENCI, una empresa creadapara asegurar que Franciaconsigue el mayor nivel en su-percomputación. Su potencia

de cómputo es de 2 Peta-FLOPs, permitiendo reafir-mar la dedicación de Franciaa la supercomputación y la in-novación. En este caso, se hadiseñado en torno al procesa-dor Intel® Xeon® E5 con másde 92,000 cores.

Helios: una supercomputa-dora instalada en Japón, en elInternational Fusion EnergyResearch Center. Permite la si-mulación y modelado másavanzado en el campo de plas-mas y fusión controlada gra-cias a los 1.5 PetaFLOPs depotencia de cómputo que ledan los 4410 nodos bullxB510 (70,560 cores Intel® Xe-on® E5), 36 nodos bullx S y 38bullx R que lo componen. Aesto hay que sumar los 32 no-dos bullx R de pre y post-pro-cesado y visualización.

En España, Bull ha im-plantado en el Barcelona Su-percomputing Center (BSC),la supercomputadora más po-tente de nuestro país que es,además, la más eficiente ener-géticamente de Europa. Com-parada con Mare Nostrum -hasta entonces la más potentede España - es dos veces máspotente, ocupa 13 veces me-nos espacio y consume 7 vecesmenos energía. Por otra par-te, Bull España está inmersaen el proyecto Montblancjunto al BSC cuyas metas son:

� Desarrollar un prototipo desupercomputadora muy efi-ciente energéticamente basa-da en tecnología embebida.

� Diseñar una supercomputa-dora exascale basándose enel prototipo mencionadoanteriormente.

� Desarrollar un portfolio deaplicaciones exascale que co-rran en esta nueva genera-ción de supercomputadoras.

� El resultado será una su-percomputadora que defi-nirá los nuevos y futuros es-tándares HPC de la eraExascale y que consumiráentre 15 y 30 veces menosenergía.

La Importancia de la Supercomputación en la Vida de los Ciudadanos

Bull representa la gran baza europea en el ámbito de la High Performance Computing

1 mayo 2012[Publirreportaje]

www

23

23-Bull:01-518-Portada 26/4/12 16:20 Página 1

Page 7: Los planes de la Comisión Europea (CE) contemplan doblar ... · haciendo posible el trabajo conjunto de decenas de miles de nodos. Esta supercolmena de pro-ceso requiere lógicamente

LOLA SÁNCHEZ

� Con un nivel de autofinan-ciación cercano al 80%, Bioin-formática y Genómica es unode los campos de investigacióndel Centro de InvestigaciónPríncipe Felipe (CIPF) de Va-lencia que se ha visto menosafectado por las drásticas me-didas de recorte tomadas por laComunidad Valenciana enmateria de investigación, dedesarrollo e innovación. Dehecho, la Consejería de Sani-dad ha convertido al CIPF enPlataforma para la Investiga-ción Biomédica y de Innova-ción Tecnología (PIBIT).

Es en ese entorno en el quese enmarca FuturClinic, unproyecto impulsado por el De-partamento de Bioinformáticay Genómica del CIPF quecuenta con el apoyo de lasConsejerías de Sanidad (Agen-cia Valenciana de Salud) e In-dustria de la Comunidad Va-lenciana y la colaboración delInstituto de Medicina Genó-mica, la Universidad Politéc-nica de Valencia (UPV) y lasempresas Bull, Indra, iProcu-ratio Consultores de Direc-ción, Gem Biosoft y VeraTechfor Health. La iniciativa cuen-ta con una inversión de381.807 euros y está subven-cionada -269.872 euros- por laGeneralitat de Valencia y laUnión Europa (UE) a travésdel Fondo Europeo de Desa-rrollo Regional (FEDER).

El objetivo principal de Fu-turClinic, explica el directordel Departamento de Bioin-formática y Genómica delCIPF y director científico delproyecto, Joaquín Dopazo,“consiste en la preparación delescenario para la introducciónde la secuenciación personali-zada del genoma en la prácti-ca clínica mediante su incor-poración al historial clínicoelectrónico del paciente”.

La medicina genómica per-sonalizada, que está dando susprimeros pasos fundamental-mente en EEUU y en el cam-po específico del cáncer, exige

lógicamente un enorme traba-jo de análisis bioinformático. Elreto no es baladí e implica la re-solución de determinados pro-blemas relacionados con el pro-pio procesamiento de los datosde secuenciación y la utiliza-ción del genoma para buscarbiomarcadores, es decir, va-riantes genéticas, posiciones delADN que han cambiado y quese han demostrado asociadas aun determinado pronóstico otratamiento.

Para alcanzar el objetivo fi-nal es necesario asimismo su-perar distintos desafíos, inclu-yendo el propio procesamientode los datos de secuenciación,la presentación de los datos ge-nómicos relevantes a los pro-fesionales clínicos y el almace-namiento de dichos datos y suintegración en los sistemas in-formáticos corporativos del sis-tema de salud, como OrionClinic y Abucasis en el caso dela Comunidad Valenciana.

Biomarcadores, la claveEl proyecto FuturClinic se or-ganiza en tres fases. Mientrasque la primera se centra en lamejora del rendimiento de losprocesos de análisis primariode datos genómicos, la segun-da fase se relaciona con losprocesos de toma de decisio-nes basadas en estos datos. “Laprimera fase comenzó a fina-les de 2011, ya está bastanteavanzada y podría estar fina-lizada después del verano, demanera que de cara a octubredispondríamos del primerprototipo de una herramien-ta para llevar a cabo un pro-cesamiento extremadamenterápido”, señala Dopazo.

Se trata de un trabajo conuna enorme carga computa-cional. No en vano y como in-dica Dopazo, “la parte del ge-noma que consideramosinteresante y que correspon-de a un 5% del genoma totalimplica el procesamiento porpaciente de 300 Gb de datosprimarios, un volumen al quehay que sumar la parte rele-vante de estos que hay que

conservar (alrededor de 10Gb) y que, en el caso de unpaciente en seguimiento, su-pone multiplicar ese volumende datos por cada lectura quese realice”.

Para procesar toda esa in-formación el equipo que diri-ge Dopazo, formado por unadecena de personas entre in-

vestigadores del CIPF y laUPV, y profesionales de Bulle Indra, está haciendo uso detecnología de supercomputa-ción de Bull. Se trata, en con-creto, de dos nodos con 2 pro-cesadores Intel Xeon E5645 a2,4 Gb hexacore, 2 procesa-dores Nvidia Tesla M2090, su-mando 48 Gb RAM y 256SSD para almacenamiento. Elnodo de administración incor-pora dos Intel Xeon E5645 a2,4 Gb hexacore y suma 24 Gbde RAM y 12 Tb de disco.

Para reducir los tiempos deproceso se ha apostado por di-ferentes técnicas. “Estamosacelerando el procesamientocon el uso de GPU, el uso delos registros de los procesado-res y el uso de múltiples cores”.

En paralelo a esta primera fa-se y aplicando técnicas de de-cisión basadas en conceptos de

biología de sistemas -con unaparticipación de Indra en eldesarrollo de los algoritmos- es-tá en marcha una segunda faseque tiene como principal obje-tivo la identificación de bio-marcadores, es decir, variacio-nes que se puedan asociar a unpronóstico o un tratamiento.Aunque no es una tarea senci-lla ya que “cuando comparasdos genomas, solo en la partede los genes hablamos del or-den de entre 30.000 y 60.000variantes y la mayor parte de

ellas son neutrales”; los resul-tados de este análisis pueden serdeterminantes a la hora de sal-var vidas. “El análisis genómi-co”, subraya Dopazo, “permi-te asociar pacientes a terapiasdesde el primer momento, aho-rrando tiempo, costes y sufri-mientos innecesarios, incre-mentando además la tasa deéxito de los tratamientos”.

Genómica y eSaludA más largo plazo, la tercerafase de FuturClinic pivota so-bre el encaje de toda esta in-formación en los sistemas cor-porativos de la historiaelectrónica de salud. De estaforma y como indica Dopa-zo, “cuando en el futuro lasolución se abarate y sea ruti-naria, tendríamos ya prepara-do el sistema para introducirestos valiosos datos”.

Además de definir exacta-mente la información que sepresentará a los profesionalesclínicos a fin de apoyarles en eldiagnóstico y establecimientode tratamientos, este avanceexige determinar la forma deintegración con los sistemasclínicos existentes. Dopazo es

optimista y no descarta que“en un plazo inferior a dosaños la medicina genómica sehabrá introducido en algunasáreas, como oncología”.

FuturClinic, hacia la medicina genómicaUn secuenciador genómico en los box de los hospi-tales y un sistema de BBDD distribuidas que permi-ta a los profesionales clínicos la consulta de los bio-

marcadores de los pacientes para afinar en el diag-nóstico y acertar con el mejor tratamiento. La ge-nómica está llamada a transformar el futuro de la

medicina y el proyecto FuturClinic, impulsado porel Centro de Investigación Príncipe Felipe (CIPF),pretende que España abandere esa evolución.

En el proyecto participan Bull, Indra, iProcuratio Consultores de Dirección, Gem Biosoft y VeraTech for Health

� El proyecto FuturClinic persi-gue preparar el escenario parala introducción de la secuencia-ción personalizada del genomaen la práctica clínica.

� En el marco de Futur Clinic,que cuenta con la participaciónde Bull e Indra, se está hacien-do uso de tecnología de super-computación de Bull y se haapostado por el uso de GPU pa-ra acelerar el procesamiento.

� FuturClinic tiene tres fases:la primera se centra en mejorarel rendimiento de los procesosde análisis de datos genómicos,la segunda se relaciona con latoma de decisiones y la terceracon el encaje de la genómica enla Historia Clínica Digital.

“El análisis genómico permiteasociar pacientes a terapiasdesde el primer momento”

Puntos claves

1 mayo 2012 [Especial Supercomputación]

www

24

24-Aplicacion supercomputacion:01-518-Portada 26/4/12 16:21 Página 1