1

Tecnología futura

PC ultrapequeñas que caben en un solo chip. Baterías que se recargan sin cables. Televisores que responden a los gestos.

Estas y otras tecnologías emergentes cambiarán fundamentalmente la forma de ver –y usar– la tecnología.

[<img border=”0″ src=”/pcwla2.nsf/0/CF3262E1D4F8CE3F852575110011E19B/$File/42dic08.gif”>]

¿El próximo gran descrubrimiento? El memristor, un componente microscópico que puede “recordar” los estados eléctricos incluso cuando está apagado, pero que debe resultar mucho más barato y rápido que el almacenamiento flash. Este concepto teórico que se viene desarrollando desde 1971 ahora ha sido construido en los laboratorios y ya comienza a revolucionar todo lo que conocemos de la computación; en menos de una década posiblemente hará obsoletas la memoria flash, la RAM y hasta las unidades de disco duro.

El memristor es sólo uno de los increíbles adelantos tecnológicos que están proyectando una onda expansiva por el mundo de la computación. Otras innovaciones que veremos pronto son más prácticas, pero también marcarán hitos importantes. Desde las tecnologías que por fin harán realidad la oficina sin papeles hasta las capaces de enviar electricidad a través de una habitación sin necesidad de cables, estos adelantos convertirán a la humilde PC en una cosa muy distinta al inicio de la próxima década.

En las secciones siguientes, destacamos los fundamentos de 15 tecnologías futuras, con pronósticos de lo que puede pasar con ellas. Algunas están al doblar de la esquina; otros adelantos todavía están fuera de nuestro alcance. Y a todos hay que prestarles atención.

Dentro de su PC

Un nuevo circuito innovador

Desde los albores de la electrónica, sólo hemos tenido tres tipos de componentes de circuitos: resistencias (también llamados resistores), bobinas (también llamados inductores o inductancias) y condensadores. Pero en 1971 Leon Chua, un investigador de la Universidad de California en Berkeley, teorizó la posibilidad de un cuarto tipo de componente que podría medir el flujo de corriente eléctrica: el memristor. Ahora, 37 años más tarde, Hewlett-Packard ha construido uno.

[<img border=”0″ src=”/pcwla2.nsf/0/CF3262E1D4F8CE3F852575110011E19B/$File/44verdedic08.gif”>]

¿En qué consiste? Como su nombre implica, el memristor puede “recordar” cuánta corriente ha pasado por él. Y alternando la cantidad de corriente que pasa por él, un memristor también puede actuar como un circuito de un solo elemento con propiedades únicas. La más notable es que puede guardar su estado electrónico incluso cuando la corriente deja de circular, lo que lo hace un gran candidato para reemplazar la memoria flash de hoy.

En teoría, los memristores serán más baratos y mucho más rápidos que la memoria flash y permitirán densidades de memoria mucho mayores. También podrían reemplazar los chips de RAM que todos conocemos, para que después de que se apague la computadora recuerde exactamente lo que estaba haciendo y comience a trabajar instantáneamente. Esta reducción de costo y consolidación de componentes puede conducir a computadoras transistorizadas de bajo costo que caben en el bolsillo y que funcionan mucho más rápido que las actuales PC.

Algún día, el memristor pudiera engendrar un nuevo tipo de computadora, gracias a su capacidad para recordar toda una escala de estados eléctricos en vez de los simplistas “encendido” y “apagado” que los procesadores digitales de hoy reconocen. Trabajando con una escala dinámica de estados en un modo analógico, las computadoras basadas en memristores pudieran manejar tareas mucho más complejas que la de transportar simplemente unos y ceros.

[<img border=”0″ src=”/pcwla2.nsf/0/CF3262E1D4F8CE3F852575110011E19B/$File/44moradodic08.gif”>]

¿Cuándo aparecerá? Los investigadores dicen que no existe ninguna barrera real para implementar inmediatamente los circuitos basados en memristores. Pero depende de la parte comercial crear productos para el mercado. Los memristores para reemplazar la memoria flash (a un costo inferior y con menos consumo de energía) probablemente aparecerán primero; la meta de HP es ofrecerlos para 2012. Más allá de ese tiempo, los memristores probablemente reemplazarán a la DRAM y a las unidades de disco duro entre el 2014 y el 2016. En cuanto a las computadoras analógicas basadas en memristores, ese paso pudiera demorar más de 20 años.

CPU con 32 núcleos bajo la cubierta

Si su CPU sólo tiene un núcleo, es oficialmente un dinosaurio. De hecho, la computación de cuádruple núcleo es ahora común: hoy en día se pueden comprar hasta PC portátiles con cuatro núcleos. Pero realmente estamos presenciando el comienzo de la guerra de los núcleos: el liderazgo en el mercado de las CPU pronto será decidido por quién tiene el mayor número de núcleos, no la velocidad de reloj más alta.

¿En qué consiste? Habiendo abandonado en gran parte la carrera por los gigahertz, Intel y AMD tratan ahora de incluir más núcleos en una pastilla o microplaqueta a fin de continuar aumentando la potencia de procesamiento y ayudar a las operaciones que implican múltiples tareas. La continua miniaturización de los chips será importante para empaquetar estos núcleos y otros componentes en un espacio limitado. En 2009, Intel producirá procesadores de 32 nanómetros (por debajo de los 45nm de los chips de hoy).

¿Cuándo aparecerá? Intel ha sido muy eficiente en ajustarse a su programa de trabajo. Una CPU de seis núcleos basada en el diseño del Itanium debe salir al mercado para cuando circule esta edición, y a partir de ese momento Intel cambiará su enfoque hacia una nueva arquitectura llamada Nehalem, que saldrá al mercado con el nombre Core i7. Core i7 tendrá hasta ocho núcleos, y los sistemas de ocho núcleos estarán disponibles para 2009 o 2010 (y hay informes también de que un proyecto de ocho núcleos de AMD llamado Montreal aparecerá para el año 2009).

Después de lo anterior, la línea cronológica no es tan precisa. Se informa que Intel canceló un proyecto de 32 núcleos llamado Keifer, que planeaba para el 2010, posiblemente por su complejidad (aunque la compañía no lo ha confirmado). Ese número de núcleos requiere una nueva forma de llegar a la memoria; aparentemente los 32 cerebros no pueden compartir una sola reserva de RAM. Pero todavía esperamos que los núcleos proliferen cuando queden resueltas esas dificultades: es posible tener 16 núcleos para el 2011 o el 2012 (cuando se pronostica que los transistores se reduzcan aun más en tamaño a 22nm), y 32 núcleos fácilmente al alcance para 2013 o 2014. Intel dice que “cientos” de núcleos incluso pudieran ser posibles en un futuro más lejano.

La computación de 64 bits permite más RAM

En 1986, Intel estrenó su primera CPU de 32 bits. El primer sistema operativo Windows de 32 bits –Windows NT 3.1– no salió hasta 1993, dando así oficialmente cierre a la era de los 16 bits. Ahora los procesadores de 64 bits son corrientes en los escritorios y en las portátiles, aunque Microsoft todavía no se compromete a un Windows de 64 bits. Pero no podrá vivir en el mundo de los 32 bits para siempre.

¿En qué consiste? Las versiones de 64 bits de Windows han existido desde Windows XP y las CPU de 64 bits llevan más tiempo en el mercado. De hecho, casi todas las computadoras vendidas hoy tienen un procesador de 64 bits de bajo la cubierta. En algún momento, Microsoft tendrá que abandonar los 32 bits enteramente, como hizo con los 16 bits cuando lanzó Windows NT, si quiere forzar a los consumidores (y a los desarrolladores de software y hardware) a mejorar. No es probable que suceda con Windows 7: el próximo SO ya se ha anunciado con versiones de 32 y 64 bits. Pero las limitaciones en la instalación de 32 bits tarde o tremprano forzará el cambio; los usuarios del Windows Vista de 32 bits ya conocen el problema, pues encontraron que el SO no reconoce más de 3GB de RAM porque simplemente no tiene los bits para acceder a la memoria adicional.

 

¿Cuándo aparecerá? Espere ver el cambio hacia los 64 bits acelerarse con Windows 7; Microsoft probablemente optará exclusivamente por los 64 bits en Windows 8. Y esto ocurrirá para 2013, por lo menos. Mientras tanto, el Mac OS X Leopard ya es de 64 bits y algunos fabricantes de hardware actualmente tratan de hacer que sus clientes hagan la transición hacia las versiones de 64 bits de Windows (Samsung dice que empujará toda su línea de PC hacia 64 bits a principios de 2009). Y ¿qué podría esperarse de la computación de 128 bits, que representaría el próximo gran salto? Vamos a tomarlo con calma, pero no se extrañe de que ese cambio ocurra alrededor del año 2025.

Windows 7: es inevitable

No importa si a usted le encanta Windows Vista o si lo detesta, lo cierto es que ese SO pronto pasará a mejor vida. Después de la tibia recepción que recibió Vista, Microsoft se está apresurando para presentar a su sustituto, conocido actualmente como Windows 7.

[<img border=”0″ src=”/pcwla2.nsf/0/CF3262E1D4F8CE3F852575110011E19B/$File/45win7dic08.gif”>]

¿En qué consiste? En estos momentos, Windows 7 parece ser el SO que Microsoft quería estrenar como Vista, pero le faltó tiempo o recursos para completarlo. Aparte de continuos refinamientos al sistema de seguridad del SO y a su aspecto y disposición de su entorno de funcionamiento, Windows 7 puede traer finalmente el esperado sistema de archivos WinFS que funciona como una base de datos. También se esperan mejoras de compatibilidad y desempeño con respecto a Vista.

Pero el objetivo principal de Windows 7 probablemente será mejorar la integración en línea y más funciones de computación en la nube; espere, por tanto, que Microsoft vincule aun más el SO con sus crecientes servicios Windows Live. Antes de su jubilación como presidente de Microsoft, Bill Gates sugirió que el llamado escritorio omnipresente sería uno de los objetivos de Windows 7, lo que daría a los usuarios una manera de llevar todos sus datos, configuraciones de escritorio, marcadores de página y cosas por el estilo desde una computadora a otra (si todas esas computadoras utilizan Windows 7, según se presume).

¿Cuándo aparecerá? Microsoft se ha fijado la meta de enero de 2010 para Windows 7 y la fecha oficial aún no se ha atrasado. Sin embargo, se rumora que la primera versión beta oficial saldrá antes de fin de año.

La primera mejora al USB en casi una década

El conector USB ha sido uno de los mayores éxitos en la historia de la computación, con más de 2.000 millones de dispositivos USB vendidos hasta la fecha. Pero en una época cuando las unidades de disco duro tienen terabytes de capacidad, la velocidad de 480 megabits por segundo que ofrece un dispositivo USB 2.0 no es suficiente.

¿En qué consiste? USB 3.0 (a veces llamado “SuperSpeed USB”) promete aumentar el desempeño por un factor de 10, llevando así la velocidad máxima teórica del conector a 4,8 gigabits por segundo, lo que permitiría procesar casi el equivalente de un CD-R completo cada segundo. Los dispositivos USB 3.0 utilizarán un conector ligeramente distinto, pero los puertos USB 3.0 serán compatibles con los conectores USB actuales y viceversa. USB 3.0 también está diseñado para mejorar la eficiencia de energía de los dispositivos USB, a la vez que aumenta el suministro disponible (aproximadamente un amperio, en vez de los 0,1 amperios en la versión 2.0). Esto significa tiempos de carga más cortos para su iPod, y probablemente equipos USB aun más extraños, como esos lanzacohetes de juguete y enfriadores de bebidas.

¿Cuándo aparecerá? La especificación USB 3.0 está casi terminada y se espera que los productos comerciales aparezcan en 2010. Mientras tanto, un sinfín de buses rivales –DisplayPort, eSATA y HDMI– pronto serán más comunes en las PC, impulsados en su mayor parte por el auge del vídeo de alta definición. Hasta FireWire está considerando una mejora inminente de hasta 3,2 gbps. La proliferación de puertos pudiera complicar la distribución de los puertos en el panel trasero de las nuevas PC, pero por lo menos tendrá usted una gran cantidad de opciones de alto rendimiento para conectar periféricos.

El fin de la tarjeta de gráficos autónoma

Cuando AMD compró al fabricante de tarjetas de gráficos ATI, la mayoría de los observadores presumió que la compañía comenzaría a trabajar en una fusión de la CPU con la GPU. Esa labor está más adelantada de lo que usted se imagina.

¿En qué consiste? Aunque las GPU siguen acaparando casi toda la atención, las tarjetas de gráficos autónomas son raras entre los propietarios de PC, ya que el 75 por ciento de los usuarios portátiles se conforman con los chips de gráficos integrados, según Mercury Research. Entre las razones están el costo adicional de una tarjeta de gráficos autónoma, la instalación complicada y el desgaste de la batería. Poniendo los gráficos directamente en la CPU se eliminan los tres obstáculos.

Los fabricantes de chips esperan que el desempeño de estas GPU incluidas dentro de la pastilla esté entre el que ofrecen los actuales gráficos integrados y el de las tarjetas de gráficos autónomas, pero los expertos creen que con el tiempo el desempeño aumente y haga obsoletas las tarjetas de gráficos. Una idea posible es dedicar, por ejemplo, cuatro de los núcleos de una CPU de 16 núcleos al procesamiento de los gráficos, lo cual pudiera crear una excelente experiencia en los juegos.

¿Cuándo aparecerá? El chip Nehalem de Intel, ya inminente, incluye el procesamiento de gráficos dentro del chip, pero fuera de la pastilla de la CPU. El AMD Swift (también conocido como la plataforma Shrike), el primer producto en su línea Fusion, utiliza el mismo método de diseño y también se espera para 2009.

Poner la GPU directamente en la misma pastilla de la CPU presenta varios desafíos –el mayor de ellos es el exceso de temperatura– pero esto no significa que los problemas no se resolverán. Los dos sucesores del Nehalem de Intel, Auburndale y Havendale, ambos programados para finales de 2009, pudieran ser los primeros chips que pongan una GPU y una CPU en una pastilla, pero la compañía no ha dicho nada todavía.

Recargue sin cables

La transmisión inalámbrica de energía ha sido un sueño desde los tiempos de Nikola Tesla, cuando éste imaginaba un mundo lleno de enormes bobinas Tesla. Pero aparte de los adelantos en recargar los cepillos de dientes eléctricos, la energía inalámbrica no ha tenido una presencia considerable en los equipos destinados a los consumidores.

¿En qué consiste? Este verano, los investigadores de Intel demostraron un método –basado en las investigaciones de MIT– de enviar electricidad a una distancia de varios pies, sin cables y sin poner en peligro a las personas (bueno, al menos eso creen). Intel llama a esa tecnología un “vínculo inalámbrico de energía resonante”. La misma trabaja enviando una señal específica de 10 MHz a través de una bobina; una bobina cercana similar resuena a tono con la frecuencia, haciendo que los electrones fluyan por ella. Aunque el diseño es primitivo, puede iluminar una bombilla de 60 vatios con un 70 por ciento de eficiencia.

¿Cuándo aparecerá? Existen todavía numerosos obstáculos, el primero de los cuales es que el proyecto de Intel utiliza la corriente alterna. Para recargar artefactos, tendríamos que ver una versión de corriente continua y el tamaño del aparato tendría que ser apreciablemente menor. También están las barreras reguladoras que tendrían que ser rebasadas en un sistema comercial y éste tendría que ser probado exhaustivamente para demostrar su seguridad.

Suponiendo que todo vaya razonablemente bien, los circuitos receptores podrían integrarse en la parte trasera de la pantalla de una PC portátil en los próximos seis a ocho años. Luego sería una simple cuestión de que su aeropuerto local o incluso su cafetería Starbucks ponga los transmisores de energía que son parte del sistema en las paredes para que usted pueda recibir una carga rápida sin tener que abrir el bolso de la portátil.

– PC World

Leave a comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *