1

Algortimo de software visualiza grandes cantidades de conjuntos de datos

Los científicos tienen más datos en sus dispositivos como nunca antes y a menudo más de los que pueden examinar apropiadamente. Pero un nuevo algoritmo podría facilitarles ver enormes conjuntos de datos.

Y también, más barato; el software basado en un algoritmo puede correr en computadoras personales con tan poco como 2GB de RAM.

Los científicos en la Universidad de California del Laboratorio Nacional Davis y Lawrence Livermore desarrollaron el algoritmo durante un periodo de cinco años. Basado en el complejo y antiguo Morse-Smale, divide, analiza y recombina conjuntos de datos e ilustra sus cálculos.

El proyecto fue dirigido por Attila Gyulassy, una estudiante gradada de ciencias de la computación de la UC Davis como su tesis de doctorado. Ya que las supercomputadoras ahora pueden simular fenómenos físicos como corrientes oceánicas y la combustión, la gran cantidad de datos que generan hacen imposible trabajar con ellos. “¿Qué son todos los datos sin las herramientas de visualización que nos permitan ver realmente qué es lo que está pasando? Tenemos la habilidad de generar, pero no necesariamente de comprender”, explicó el profesor de Gyulassy, Bernd Hamann, en una conversación con Industry Standard.

Gyulassy probó el algoritmo en una simulación de dos líquidos que venían juntos, un conjunto de datos con cerca de mil millones de una trama tridimensional. Al correr en una computadora portátil, el software fue capaz de analizar la información en 24 horas e ilustrar aspectos del fenómeno en segundos.

Hamann le dio a Gyulassy la mayoría del crédito. “Ella está realmente empujando la tecnología hacia adelante”. Sin embargo, agregó que la mayoría del trabajo debe ser hecho en el software antes de que pueda volverse disponible de forma más amplia.

-Por Lincoln Spector

The Industry Standard

SAN FRANCISCO

Leave a comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *