cerrar-sesion editar-perfil marker video calendario monitor periodico fax rss twitter facebook google-plus linkedin alarma circulo-derecha abajo derecha izquierda mover-vertical candado usuario email lupa exito mapa email2 telefono etiqueta

50020080848. ComputaciA?n paralela con varios procesadores y varios nA?cleos aplicada a la biologA�a

Escrito por Redacción el 3 noviembre, 2008 en Reportajes
no hay comentarios Haz tu comentario
Imagen de logotipo de facebook Imagen de logotipo de Twitter Imagen de Logotipo de Google+ Imagen de logotipo de Linkedin

Cuando ahora hablo con clientes de todo el mundo dedicados a la biologA�a (desde grandes farmacA�uticas hasta universidades de prestigio como el MIT) acerca de sus desafA�os y de sus necesidades de computaciA?n, siento una especie de dA�jA� vu, porque veo algunos patrones de comportamiento comunes con pequeA�as variaciones.

Si volvemos la mirada a los dA�as de la computaciA?n centralizada de VAX, Convex, Alliant y Cray, vemos que los sistemas operativos de los ordenadores y los administradores de sistemas soportaban las cargas administrativas, mientras que los usuarios finales se peleaban con sus terminales para realizar su trabajo. Con la implantaciA?n de los PC, la situaciA?n de los usuarios mejorA?: controlaban lo que sus ordenadores hacA�an, entornos de alto nivel como MATLABA� les permitA�an desarrollar algoritmos y analizar datos sin programaciA?n de bajo nivel y, gracias a los procesadores, mA?s rA?pidos que nunca, la potencia aumentaba sin ningA?n esfuerzo adicional. Sin embargo, los administradores de sistemas se enfrentaban al problema de cA?mo gestionar y dar soporte a aquellas actividades informA?ticas tan dispersas.

En aquel tiempo, fue toda una novedad poder ofrecer un entorno de computaciA?n tA�cnica que permitiera que el usuario trabajase de manera interactiva en un PC, una estaciA?n de trabajo cientA�fica o una supercomputadora aislado de las variaciones informA?ticas y sin que hubiera cambios. O sin tener que recompilar, averiguar si la CPU era little-endian o big-endian, etc.


El panorama de hoy tiene aspectos similares y otras caracterA�sticas nuevas. Los usuarios finales siguen utilizando sus ordenadores personales, pero esos PC ahora tienen dos y cuatro nA?cleos (y seguirA?n aumentando). Por otra parte, los clA?steres de los multiprocesadores actuales se parecen mucho al antiguo paradigma de computadoras centrales y supercomputadoras, pero son mA?s econA?micos y estA?n basados en sistemas operativos y procesadores estA?ndar. Y en este panorama informA?tico tan diverso, los usuarios siguen necesitando mA?s velocidad, gestionar mayores volA?menes de datos y otras formas de seguir mejorando su trabajo.

Una de las cosas que han cambiado es la diversificaciA?n de usuarios en biotecnologA�a: biA?logos y quA�micos que confA�an en los datos y quieren un software fA?cil de usar y de llave en mano; estadA�sticos y matemA?ticos que necesitan crear, refinar e implementar nuevos algoritmos; o cientA�ficos y programadores que desean herramientas que les permitan generar rA?pidamente aplicaciones informA?ticas de producciA?n y que, a la vez, trabajen con volA?menes enormes de datos.

Y en algA?n punto en la transiciA?n de computadoras centrales y minicomputadoras a los ordenadores personales de hoy, los usuarios finales y los responsables de TI parecen haberse olvidado los unos de los otros. Los usuarios siguen A?vidos de velocidad y potencia pero no hablan con los tA�cnicos de TI (excepto para seguir pidiA�ndoles un PC mA?s rA?pido y con mA?s memoria). Por su parte, los departamentos de TI estA?n comprando mA?s PC de varios nA?cleos (realmente no tienen otra opciA?n hoy en dA�a) a los que los usuarios no pueden sacarles todo el provecho. AdemA?s, tienen que configurar torres de servidores y buscar personal en plantilla para los proyectos y usuarios interesados en utilizarlos. Es absurdo.


Pero esta situaciA?n esconde una oportunidad muy interesante. El ordenador personal de varios nA?cleos permite a los usuarios realizar actividades de computaciA?n paralela y distribuida sin que esto tenga ningA?n impacto en los responsables de TI. Gracias a la mejora de los sistemas operativos, scheduling y herramientas administrativas de los servidores (a lo que se suma el hecho de que estA?n basados en los mismos procesadores y sistemas operativos que los PC) se ofrece mA?s potencia y de manera mA?s asequible que nunca.

Asltimamente, las mejoras en los entornos de computaciA?n tA�cnica han comenzado a ofrecer consistencia en la manera en la que los usuarios pueden aprovechar las ventajas de la variedad actual de sistemas informA?ticos. Con herramientas de computaciA?n tA�cnica de alto nivel que pueden distribuir el trabajo en una torre de servidores, sin programaciA?n MPI de bajo nivel, es mA?s fA?cil satisfacer a los clientes que quieren velocidad en los clA?steres de microprocesadores para ejecutar aplicaciones como simulaciones de Monte Carlo y anA?lisis secuenciales. Los usuarios finales tambiA�n pueden trabajar con volA?menes mA?s grandes de datos, ya que el nA?mero de procesadores y el espacio de la memoria son escalables. Y estos entornos tambiA�n aprovechan al mA?ximo las ventajas de los PC de varios nA?cleos, porque permiten a los usuarios utilizar totalmente los sistemas informA?ticos a su disposiciA?n, con tan sA?lo unos cambios mA�nimos respecto a lo que hacen en sus propios PC.

De igual manera que considero que el aumento de velocidad de las aplicaciones existentes es, sin duda, una buena noticia, tambiA�n creo que la oportunidad mA?s interesante y fascinante estA? aA?n por llegar: ofrecer herramientas para que los desarrolladores de aplicaciones y algoritmos puedan crear mA?s fA?cilmente tA�cnicas que utilicen de manera explA�cita y A?ptima los sistemas de computaciA?n paralela, independientemente de que se trate de un PC de varios nA?cleos o de una torre de servidores con cientos de procesadores. Las herramientas de administraciA?n de sistemas y de programaciA?n estA?n llegando a un punto en el que los usuarios pueden realmente centrarse en las aplicaciones y los problemas, sacando el mA?ximo partido al hardware disponible sin tener que manipularlo.

A?Y entonces quA�? A?Le va mejor en el descubrimiento de fA?rmacos o comprende mejor la biologA�a de sistemas que otros? Ahora, usted y su equipo tienen la oportunidad de crear esa rentabilidad de su inversiA?n en recursos informA?ticos. 

Etiquetas

Noticias relacionadas

Escrito por Redacción el 15 noviembre, 2007 en Reportajes

50020070572. El INTA investiga sobre el origen de la vida

Escrito por Redacción el 3 mayo, 2007 en Reportajes

50020070219. Bases de datos bioinformA?ticas

Comentarios

No hay comentarios.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *

Debes haber iniciado sesión para comentar una noticia.