" />
ZOOM
GALERÍA
0 COMENTARIOS

Un repaso a las tecnologías que aspiran a sustituir al silicio

El después de la Ley de Moore

La Ley de Moore ha muerto. La norma señalaba que este año debíamos ver aparecer ya un procesador con chips de 10 nanómetros, sin embargo Intel ha presentado uno de 14, aplazando el de 10 a 2017. Por su parte IBM podría retomar ligeramente el paso si, como ha anunciado, lanza al mercado chips de 7 nanómetros en 2017, pero eso no quita que la sentencia de Moore haya pasado ya a mejor vida. El propio Gordon Moore era consciente de las limitaciones físicas de doblar el número de transistores cada dos años; con la tecnología del silicio era algo que tarde o temprano tocaría a su fin. Por eso hace tiempo que fabricantes como IBM, Intel o HP están invirtiendo mucho dinero y esfuerzo en encontrar nuevas técnicas computacionales cada vez más eficientes, capaces de pasar por alto, entre otros, el “problemilla” de la miniaturización.

El esfuerzo por hacer los chips cada vez más pequeños responde a la necesidad de duplicar el rendimiento sin aumentar el coste. Si pones dos chips donde antes sólo había uno ganas en potencia y reduces espacio. Gracias a eso los súper computadores que antes necesitaban una habitación entera sólo para ellos ahora pueden llevarse dentro de una mochila. Hace 50 años el número de transistores de uno de estos ordenadores era de 50, ahora el más potente llega a los 4500 millones. El problema es que hay un punto en el que la reducción de tamaño hace que el ordenador no pueda distinguir de forma estable los unos de los ceros, a lo que hay que sumar la “barrera de frecuencia” que limita la velocidad de operación de la CPU de silicio antes de que el calor la funda.

Hasta el momento los científicos han logrado sortear más o menos esos problemas. Con las CPU multinúcleo solucionan la barrera de frecuencia, y con las puertas triples se logra eludir el “despiste” a la hora de entender cuándo es “on” y cuándo “off”. Son soluciones temporales. En menos de 10 años la reducción del silicio hará tope irremediablemente. Por debajo de los 5 nanómetros el silicio sufre efectos cuánticos y deja de funcionar. La alternativa parece estar fuera del silicio y de las formas hasta ahora conocidas de procesar información.

Grafeno sí, grafeno no

Material antibalas, baterías de alta duración, purificadores de agua, paneles solares ultrafinos y hasta destiladores de alcohol. Hablar de grafeno es hablar de un material capaz de revolucionar la tecnología hasta no se sabe dónde. A veces parece que el grafeno es a la tecnología lo que el aloe a la salud: algo que puede con todo, hasta con el cáncer (ya se ha publicado la posible utilización del grafeno en la lucha contra tumores cancerígenos, así que no exageramos). En el caso de la fabricación de chips este material tiene grandes posibilidades, pero también una serie de inconvenientes de momento no resueltos.

El pasado año IBM dio a conocer que había creado un chip de grafeno orientado a telefonía móvil con el que logró enviar y recibir un mensaje mediante señales de radio. El problema está en que, en realidad no se trataba de un chip de grafeno, sino de silicio recubierto de grafeno. Eso no hace menos esperanzador el logro, aunque todavía condicionado al alto coste del uso del grafeno (debido a las altas temperaturas que hay que emplear para trabajarlo, que encarecen el producto).

IBM está dedicando una buena parte de su presupuesto de investigación (3.000 millones de dólares) a conocer las posibilidades que existen fuera del silicio, y uno de los materiales más interesantes hasta el momento es el grafeno. Pero hay un inconveniente que aún no se ha resuelto: el grafeno no tiene “banda prohibida“, igual que los metales. Eso significa que no es capaz de trabajar con la lógica digital. En los semiconductores como el silicio, donde sí existe banda prohibida, se produce el salto energético que permite el cambio de estado de 0 a 1. El grafeno es un conductor excelente, pero es tan bueno que el flujo de la corriente no puede cambiar; no puede codificar información en sistema binario. Así es que, de momento, no parece estar entre las virtudes del grafeno la de sustituir al silicio en los transistores.

Nanotubos de carbono

Quizá la estructura plana del grafeno no sirva como reemplazo del silicio, pero enrollado en forma de nanotubos de carbono promete. Al crear diminutas formas enrolladas el material adquiere nuevas propiedades, entre ella una discreta banda prohibida. Según IBM, si lo comparamos con el silicio esto podría multiplicar por cinco el rendimiento. Eso si se logra salvar el escollo de la delicada estructura de los nanotubos: si el ángulo de enrollado varía, por poco que sea, la banda prohibida se pierde.

En 2013 un equipo de investigadores de la Universidad de Stanford consiguió por primera vez crear un ordenador con nanotubos de carbono. Se trataba de un equipo muy básico formado por 178 transistores, que logró realizar algunas operaciones sencillas. Un paso interesante que aún tiene que solventar cuestiones como el exceso de recalentamiento de la estructura al pasar la electricidad.

A pesar de estos inconvenientes hay razones para seguir invirtiendo en la investigación de los nanotubos de carbono de 10 nanómetros. Al menos en los experimentos que se han desarrollado en laboratorio este producto logra una eficiencia energética muy superior a la del silicio, y la velocidad de conmutación que puede alcanzar superaría el teraherzt. Al ser estructuras tan delgadas (de un átomo de espesor) se requiere muy poca energía para apagarlas.

Del transistor al memristor

“La máquina” es el nombre con el que HP ha bautizado un prototipo basado en el memristor. El memristor es el resultado de combinar dos palabras: memoria y resistor (y, por tanto, memoria y procesamiento), y hasta hace muy poco se trataba sólo de una teorización matemática formulada en 1971 por el científico Leon Chua. El memristor tiene la irresistible propiedad de parecerse mucho en su funcionamiento a las neuronas, que codifican, transmiten y almacenan la información.

Es una vieja aspiración de la ciencia, lograr recrear en laboratorio lo que la naturaleza hizo. La naturaleza es una fuente inagotable de inspiración que gracias a Dios no exige, como el hombre, el copyright de sus creaciones. Aunque los ordenadores suelen denominarse “cerebros”, lo cierto es que no logran más que imitar algunas de las funciones cerebrales, y no del todo bien.

Una de las razones por las que se invierten millones de dólares al año en la neurociencia es para lograr entender cómo consigue el cerebro hacer todo lo que hace con un consumo tan ridículamente bajo de energía. Puede realizar 10.000 billones de operaciones por segundo y consumir menos de 24 vatios para ello. Un ordenador que hiciera lo mismo consumiría 10 millones de veces más energía que nuestro cerebro. Inteligencia artificial y neurociencia colaboran estrechamente en la recreación de las estructuras neuronales para lograr modelos artificiales tan eficientes como los naturales.

La esperanza de los científicos es que los memristores mejoren la eficiencia energética y la de cómputo, solventando el “cuello de botella de Von Neumann“. Hasta la fecha las memorias electrónicas no pueden procesar datos y los procesadores no pueden retenerlos, por eso en los ordenadores existen esos dos elementos por separado, y la información debe ir y venir para procesar y guardar, pero no al mismo tiempo. El memristor puede hacer ambas cosas, y de continuar su desarrollo los ordenadores tal y como los conocemos dejarían de existir. En su lugar tendríamos una memcomputadora, capaz de hacer mucho más rápido un cálculo, resolverlo y guardar la solución, ahorrando además toda la energía que antes se gastaba en mandar la información de un lado para otro.

“La máquina” de HP conjuga la fotónica del silicio y los memristores. Las memorias tradicionales desaparecerán, al igual que los cables ethernet, sustituidos por fibra óptica. Esto obligará a la evolución de los sistemas operativos, que tendrán que aprender a funcionar de otra manera.

TrueNorth

IBM también está investigando las estructuras cerebrales. Fruto de esa investigación han creado el chip TrueNorth, conformado por 5.000 millones de transistores que se organizan en 4.096 núcleos sinápticos. Este chip consigue imitar la acción de un millón de neuronas y 256 sinapsis con un consumo mínimo, sólo 0,063 vatios. Como en el caso de “La máquina”, TrueNorth es tan condenadamente bueno que necesita un sistema operativo a la altura de esa eficacia.

Los requerimientos de la ciencia, y también los nuevos modelos de negocio, necesitan que el procesamiento de datos masivos tenga, al menos, una pequeña parte de la capacidad del cerebro humano. Ni los big data ni el Internet de las cosas llegarán mucho más lejos sin superar esta “muerte” de la ley de Moore.

*****

Aunque la ley de Moore parecía referirse exclusivamente a los transistores, los científicos opinan que el concepto puede ampliarse, y hablar sencillamente de reducir el coste por función. Una idea que le da la vuelta a la forma que teníamos hasta ahora de entender la computación. Hablamos de una idea completamente nueva, que buscar estar más próxima a lo biológico que a lo mecánico. De seguir este ritmo de crecimiento el consumo energético del planeta será insostenible. El consumo que necesitan los centros de procesamiento de datos crece cada año. Una nueva computación con un nuevo planteamiento, ya no tan enfocado a conseguir una súper máquina sino una súper inteligencia que llegue a todas las personas a través de aplicaciones (funciones) cada vez más eficaces e inteligentes. ¿Estaremos a la altura de tanta inteligencia?

No comments yet.

Deja un comentario