1

El futuro de su PC

He aquí lo próximo de la tecnología: cuando aparecerán las mayores innovaciones, cuándo y cómo cambiarán la forma en que usted trabaja y juega, y porqué el futuro no será libre de problemas.

Regresa la potencia

Con la inminente aparición de adelantos tales como los procesadores de varios núcleos, que tienen una mayor velocidad de procesamiento, la potencia de la PC está a punto de escenificar un retorno espectacular. Y vendrá en más formas y tamaños que nunca.

La PC de mañana tendrá más competencia que nunca para ganarse un lugar en el corazón de su universo tecnológico. Pero eso no significa que la PC perderá su relevancia ni mucho menos. Las computadoras están ocupando nichos cada vez más especializados y, aunque vendrán en formas nuevas e innovadoras, hasta el sistema de escritorio tradicional seguirá con nosotros por muchos años, dicen los expertos de la industria y los ejecutivos con quienes hablamos. No obstante, un vistazo al futuro de su PC tal vez no revele lo que usted esperaba.

Procesadores de ocho núcleos, enormes unidades de disco duro, la perspectiva de tarjetas de gráficos externas, y pantallas más grandes y económicas se vislumbran en el horizonte. Aunque algunos de los elementos más tentadores, como las unidades de 20 terabytes o las pantallas flexibles en colores, todavía están lejos de convertirse en realidad, algunas de las tecnologías atractivas que tanto ha esperado pudieran estar más cerca de lo que usted cree: por ejemplo, la próxima generación de PC portátiles con minipantallas separables, están a la vuelta de la esquina.

PC: La forma sigue a la función

Las computadoras han venido evolucionando hacia algunos diseños radicales –como las Media Center PC y los sistemas compactos de Shuttle– que hace unos pocos años nunca habrían salido del laboratorio. Desde la “portátil” Acer de 20,1 pulgadas (y peso de 17,3 libras) a la Dell XPS M2010 (un sistema híbrido entre portátil de 20,1 pulgadas y PC de escritorio), los sistemas más extraños están empezando a lucir, bueno, un poco más normales.

Sin embargo, Kevin Kettler, funcionario principal de tecnología de Dell, dice que aunque los diseños como la M2010 son ejercicios interesantes, no representan necesariamente el futuro. “Las PC de escritorio [tradicionales] no van a desaparecer a corto plazo”, asegura él. En los mercados emergentes como el de China, la demanda por las PC baratas debe seguir siendo fuerte.

A pesar de los esfuerzos como la iniciativa Viiv de Intel, que pretende normalizar los componentes de medios para la PC, pocos observadores ven con optimismo las PC dedicadas al entretenimiento. Dice Kettler, “Las próximas dos generaciones de [normas] inalámbricas permitirán que usted acceda a cualquier tipo de medios, desde cualquier parte de la casa”. Usted simplemente no necesitará tener una PC de entretenimiento instalada junto a un televisor.

Steve Kleynhans, vicepresidente de computación cliente en la firma de análisis Gartner, dice que las PC móviles mantendrán las dos tendencias actuales de diseño: las ultraportátiles de menos de 4 libras y las portátiles de 15 a 17 pulgadas para reemplazar a los sistemas de escritorio que pasan de 8 a 10 libras y se usan mayormente mientras están conectadas al suministro eléctrico.

Programada para principios de 2007, la cuarta generación de la plataforma portátil Intel Centrino incluirá varios gigabytes de memoria rápida flash tipo NAND, que se espera produzca tiempos más breves para cargar aplicaciones e iniciar el sistema.

Y no se olvide de la espectacularidad: la tecnología SideShow de Vista permitirá a los fabricantes de portátiles incluir una pantalla en la tapa de la portátil, tal como hacen con la pantalla externa en un teléfono móvil. ¿Quiere ver si ha recibido correo electrónico? Ni siquiera tendrá que abrir la máquina. La tecnología Preface de PortalPlayer, que se espera para la primera mitad de 2007, trabajará junto con SideShow para proveer una pantalla/PDA separable que puede usarse independientemente de la portátil.

Más allá de los próximos años, predominarán los diseños extravagantes. Jerry Bautista, director de administración de tecnología en los laboratorios Microprocessor Technology Labs de Intel, cree que incluso podrían integrarse chips en los muebles o tejerlos en las telas: imagínese un PDA o un teléfono móvil construido en la manga de su camisa.

Sistemas operativos: Vista llega…y evoluciona

Windows Vista se espera ahora para principios de 2007. ¿Cómo cambiará este SO la manera en que trabaja el mundo de Windows?

David Siroky, un veterano de Microsoft y gerente de productos de Windows, dice que las mejoras de Vista podrán clasificarse en tres categorías importantes. La primera y más visible son los gráficos. A diferencia de XP, Vista puede usar la GPU de una computadora para múltiples tareas simultáneamente. Esto es algo esencial, porque la interfaz del usuario Aero de Vista hace un uso intensivo de los gráficos, y los programadores –por primera vez– podrán usar con más facilidad los gráficos avanzados fuera de los juegos.

Vista probablemente cambiará también la administración de información y el almacenamiento de datos. Dice Siroky, “Ahora que no cuesta nada tomar una foto, la gente tendrá una gran cantidad de imágenes almacenadas”. La falta de herramientas en XP dio paso a un exitoso mercado para el software de fotos, pero Vista indica que Redmond ha comenzado a acercarse a sus competidores. Los usuarios pueden etiquetar sus fotos con palabra claves u otros metadatos y la galería de fotos de Vista simplificará la búsqueda de sus imágenes.

En otra parte del programa, “el monitor de confiabilidad” integrado de Vista puede mostrarle un diagrama de lo estable que ha sido su sistema a través del tiempo. Si experimenta un salto súbito en los problemas de confiabilidad, puede estudiar lo que sucedió durante esos días y reaccionar adecuadamente.

En lo que respecta a Linux, los sistemas de ventanas XGL y Compiz, las GUI que pueden dar a Linux una cara bonita, quizás superen a la interfaz Aqua del Apple OS X en vistosidad. En Compiz, las ventanas se estiran y se doblan mientras usted las mueve y puede ver varios ambientes de escritorio en 3D a medida que rota el espacio de trabajo en forma de cubo.

La revisión Leopard de Apple OS X, que estará lista para la próxima primavera [boreal], hará cambios incrementales pero constantes al sistema operativo de Mac, pues agregará funciones como una herramienta automatizada para copias de seguridad y múltiples espacios de trabajo. Según Gartner, tanto Linux como Mac OS tendrán mejor asistencia para el usuario, mientras que continuarán las investigaciones en los sistemas operativos basados en la Web.

CPU: Mientras más núcleos, mejor

En unos cuantos años, las CPU AMD Athlon X2 e Intel Core 2 Duo nos parecerán anticuadas, porque la tecnología de múltiples núcleos apenas ha echado a andar. Jerry Bautista, director de administración de tecnología en los Microprocessor Technology Labs de Intel, dice que ellos ya han fabricado prototipos de chips con ocho núcleos. “Hasta ocho funcionan bien para las aplicaciones de productividad. Pero también es posible llegar a miles de núcleos. El truco está en encontrar un nivel que resulte práctico”, explica él. Mientras los Xeon de dos CPU (con un total de cuatro núcleos) han existido durante bastante tiempo, este tipo de potencia finalmente está llegando a las masas. Intel y AMD planean introducir chips de cuatro núcleos. El chip Kentsfield de Intel aparecerá para finales de año, mientras que el de AMD, conocido como K8L, está programado para mediados de 2007. La tecnología 4×4 de AMD promete un sistema con dos zócalos para sendos chips Athlon 64-FX que estará disponible a tiempo para las Navidades.

El límite de las tecnologías de varios núcleos realmente es un asunto de software, ya que los programas deben ser rediseñados para aprovechar el procesamiento en paralelo a gran escala. En otras palabras, dividir las tareas entre dos o cuatro núcleos de procesador es relativamente fácil, pero hacerlo entre decenas o centenares de CPU es otra cosa completamente distinta.

No obstante, incluso con ocho núcleos, espere ver mejoras considerables de rendimiento en los programas complejos, desde los juegos hasta las tecnologías de búsqueda. Simon Hayhurst, director de administración de productos de Adobe para vídeo y audio digital, dice que la mayoría de las aplicaciones de vídeo de Adobe ya tiene elementos que pueden aprovecharse de los múltiples núcleos, porque las labores previas para optimizar los programas para las CPU con “hyperthreading” o hipersubprocesamiento también trabajan en las CPU de múltiples núcleos. Dice Hayhurst: “Lo bello de este enfoque es que podemos escribir un pedazo de código para el “hyperthreading”, que se adaptará también a los múltiples núcleos. Podemos absorber muchos más núcleos que los disponibles hoy”.

El gran salto en la capacidad de procesamiento simultáneo también es probable que mejore la inteligencia artificial. Según Bautista de Intel, “la inteligencia artificial de un juego de vídeo será indistinguible de lo que haría una persona”, forzando al jugador a buscar refugio y seguir a sus adversarios orgánicamente en vez de usar un guión establecido. Él añade que esta inteligencia también se extenderá a otras aplicaciones: “Usted podrá buscar personas, ciertas imágenes de fondo o incluso expresiones faciales específicas en miles de fotos y vídeos”.

Barreras de velocidad

Por supuesto, estos adelantos de desempeño tendrán que ser logrados dentro de parámetros realistas. Las CPU de un solo núcleo de Intel experimentaron problemas cada vez más serios de calentamiento y consumo energético, lo cual aceleró la desaparición de esa arquitectura. Los núcleos más pequeños y eficientes seguirán ofreciendo un perfil de consumo mejor que el de un solo chip gigantesco. Estas noticias son realmente positivas para las portátiles, que históricamente han estado rezagadas de las máquinas de escritorio en desempeño debido a las limitaciones de calor y energía.

Phil Hester, funcionario técnico de AMD, resalta que la movilidad será un factor importante para la compañía en los próximos años y que la adquisición por parte de la compañía del fabricante de chips de gráficos ATI será clave para este nuevo enfoque. “En la década de 1980, el 286 y el 386 tenían coprocesadores aritméticos separados. Más tarde fueron integrados en la CPU. Lo mismo sucederá con los gráficos de 3D …en el período posterior a Vista”, dice él. Según Hester, también podemos esperar que la administración de energía mejore al punto en que, algún día, un dispositivo del tamaño de un PDA podrá producir gráficos del calibre de una PC.

Los mayores obstáculos para la creación de computadoras más potentes, dice Bautista, están en la tarjeta madre: el ancho de banda de la memoria debe crecer drásticamente para seguir el ritmo de la CPU y hasta la entrada/salida de la unidad de disco duro tendrá que manejar transferencias de datos más rápidas. Si quiere juegos en línea más realistas, “hasta su conexión de banda ancha tendrá que elevar su rendimiento”, dice Bautista.

¿Y qué pasa con la Ley de Moore, que dice que el número de transistores en un chip se duplica cada 18 meses (conjuntamente con el poder de procesamiento de la CPU)? “Todavía sigue vigente”, dice Bautista. Él también cree que el procesamiento en paralelo, que reparte la carga entre muchos núcleos, hará más probable que la ley siga teniendo vigencia. “Los núcleos menores y numerosos son más fáciles de construir y no se ve un límite a medida que el proceso de fabricación se sigue reduciendo. Todas las estrellas están alineadas en estos momentos”, afirma él.

LCD: Más grandes, más brillantes y con precios para vender

Para fin de año, las pantallas anchas ocuparán del 10 al 12 por ciento de los escritorios, con una proporción de hasta el 20 por ciento para finales de 2007, según Chris Connery, vicepresidente de estudios de mercado para la firma de análisis DisplaySearch.

La otra tendencia importante son los LCD más grandes, más brillantes y más baratos. Rhoda Alexander, directora de investigaciones de monitores en iSuppli, dice que en 2005 el 78 por ciento de los monitores era de 17 pulgadas o menor, pero ella proyecta que para 2010 menos del 20 por ciento de los monitores serán tan pequeños. La resolución mejorará a medida que las pantallas crecen: aunque sólo el 4 por ciento de los monitores de hoy tiene resoluciones superiores a SXGA (1.280 por 1.024), Alexander dice que la cifra crecerá al 23 por ciento en 2010.

Las pantallas de 25 pulgadas y más también serán más comunes, dice Connery. Además, gracias a la iluminación de fondo basada en LED (que ahora está saliendo al mercado en las pantallas más costosas), los compradores que estén dispuestos a pagar un poco más tendrán un monitor más brillante con colores más precisos.

¿Qué ha pasado con las tecnologías emergentes como la de LED orgánico (OLED) y de Cristal líquido en silicio (LCoS)? Ambas encontrarán espacio en ciertos nichos –en pantallas OLED minúsculas como reproductores de MP3 y cámaras, y LCoS en los televisores de proyección– pero es improbable que puedan competir en el escritorio. Se espera que los productos LCD dominen el mercado durante los próximos cinco años, por lo menos, debido a su disponibilidad y sus precios módicos.

Las pantallas flexibles que pueden doblarse o enrollarse, además de los productos de tinta electrónica (vea nuestra prueba del Sony Reader en esta edición), también encontrarán su espacio en el mercado, comenzando con aplicaciones en las tiendas como etiquetas de precios que pueden ser actualizadas instantáneamente.

También es probable que las pantallas táctiles se hagan más populares para usos especiales. El investigador de NYU, Jeff Han, mostró a principios de este año un avance impresionante de la tecnología, en forma de una interfaz basada parcialmente en los gestos y con una pantalla multitáctil. Visite http://www.pcwla.com/buscar/06113700 si desea ver un vídeo de la demostración de Han.

Gráficos: No solamente para los jugadores

El apetito de la PC por más potencia en los gráficos parece que seguirá siendo insaciable. Como dice David Kirk, científico principal de nVidia, “Estamos a muchos años de conseguir todo lo que quisiéramos hacer”.

Los fabricantes de GPU están ocupados preparándose para DirectX 10 y la mejora de 8X que éste promete sobre el desempeño de DirectX 9. Espere que nVidia y ATI hagan la transición a GPU que usen arquitecturas de sombreado unificadas con tuberías de propósito general capaces de procesar píxeles, geometría, o incluso el código de física. Las GPU futuras acumularán más y más de estas tuberías, permitiendo así algunos efectos verdaderamente asombrosos. Las tarjetas de física dedicadas (como el acelerador Ageia PhysX), que complementa sus tarjetas de gráficos regulares, también pudieran ser más comunes. El mercado decidirá pronto si la GPU o un procesador secundario es la mejor manera de procesar la física.

Los productos como el nVidia Quadro Plex también pueden ser una señal del rumbo que tomará el mercado: este dispositivo de más de US$17.000 es un sistema de gráficos externo que puede realizar hasta 80.000 millones de cálculos por segundo, o 10 veces más de lo que puede hacer la tarjeta de gráficos de alta potencia de hoy. Los expertos creen que la próxima generación de tarjetas pudiera consumir nada menos que hasta 200 vatios de energía y requerir componentes externos.

Otra tecnología emergente de gráficos es la GPU de propósito general, que utiliza las posibilidades de una tarjeta de gráficos en un ambiente ajenos a los juegos. Adobe ha utilizado las GPU de propósito general desde 1995 para funciones como las transiciones de vídeo.

Almacenamiento: Terabytes y más

Bill Healy, vicepresidente de Hitachi, dice que si las tendencias actuales se mantienen, para el 2025 una unidad de disco normal de 3,5 pulgadas (si algún fabricante todavía se molesta en producir modelos de ese formato) pudiera contener hasta 20 terabytes de datos.

Lo que impulsa este salto inmediato en la capacidad es la tecnología de grabación magnética perpendicular, que supera las limitaciones de la grabación magnética longitudinal y empaca muchos más datos en un área mucho más pequeña. Las primeras unidades de disco duro que usan PMR salieron al mercado el año pasado. Mark Kryder, funcionario principal de tecnología de Seagate, nos informa que todas las unidades futuras de su compañía emplearán esta tecnología.

Se espera que la Grabación magnética asistida por el calor (HAMR), que permite que los platos sean construidos con materiales capaces de retener un número más denso de bits, aparezca a principios de la próxima década. Otra tecnología con menos posibilidades es la de medios con patrones, que en vez de una capa uniforme utiliza “islas” de material que no se tocan físicamente.

El futuro de la tecnología óptica todavía es más incierto. La batalla actual entre Blu-ray y HD DVD, dos formatos rivales e incompatibles de láser azul, no tiene un claro ganador. Steve Kleynhans de Gartner cree que “mientras haya dos soluciones peleando por la hegemonía, nunca se creará la masa crítica y esto mantendrá los precios altos. Se necesita una sola norma para lograr la economías de escalas y la aceptación pública”.

Mientras tanto, una mejora potencial para los medios flash podría producirse en el almacenamiento ultradenso de sonda, que está siendo desarrollado por Seagate, entre otros. Se basa en tecnología tomada de los microscopios de electrones y bien pudiera apretar 10GB en un dispositivo del tamaño de una tarjeta SD Card.

-Christopher Null es un periodista radicado en San Francisco.

Leave a comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *