Si bien la tecnología que conocemos es relativamente fiable y nos ha llevado muy lejos, eso no quiere decir que las cosas deban quedarse estancadas. Tal y como Hewlett-Packard lo demostró hace poco con el memristor, la Universidad Rice ha demostrado una nueva forma de procesador que se diferencia bastante de los chips tradicionales. Este tipo de procesamiento puede hacer que un chip sea hasta treinta veces más eficiente que los procesadores convencionales.
Estos beneficios se logran no cambiando la forma en que se hace un procesador, sino cambiando la forma en que su lógica trabaja. Actualmente, los procesadores utilizan el sistema de "Tiempo de dato lógico", más conocido como "Booleano". En resumen, todo procesador busca una respuesta exacta a través de sentencias como "verdadero" o "falso". El problema es que este tipo de lógica se vuelve redundante e innecesaria en una gran cantidad de situaciones, por lo que un procesador termina consumiendo más energía de la que necesitaba para realizar la tarea, además de demorar más tiempo del que debió haberle tomado.
Con la lógica probabilística, un procesador puede ahorrar tiempo y energía buscando la mejor respuesta probable. Esto hace que el chip demande una entrada de energía significativamente menor a la de un chip convencional. Según la universidad, este ahorro de energía haría que un chip probabilístico requiriera treinta veces menos energía que un chip de diseño actual. Al mismo tiempo, esto se traduce en un número más elevado de capacidad de proceso, lo cual permitiría que uno de estos chips fuera siete veces más rápido de los que vemos hoy en día.
La Universidad Rice está desarrollando esta tecnología en conjunto con la Universidad Tecnológica Nanyang de Singapur. Si bien para algunos esta clase de chip no tendría la precisión que poseen los chips actuales, ya se están evaluando múltiples aplicaciones para ellos, que van desde teléfonos móviles y dispositivos portátiles hasta componentes más complejos como tarjetas de vídeo. Sin embargo, se estima que esta tecnología estaría lista para ser producida en masa dentro de aproximadamente cuatro años. Esperemos que así sea.
bien ¿y nadie está trabajando en algún procesador que utilice Lógica difusa?
a mi me parece que es una tecnología muy potente a la que se le presta muy poca atención…
Pero si busca "la mejor respuesta probable" y se equivocase ¿¿que pasa??
Estamos hablando de miles de operaciones por segundo, seguramente habrá un porcentaje de error de calculo lo suficientemente bajo como para ser despreciable, puesto que estamos hablando de un uso de este tipo de procesadores en teléfonos móviles (en ocasiones existe algo de interferencias en las líneas telefónicas y aun así las conversaciones telefónicas siguen siendo entendibles, en este ámbito el varíar algún valor de voltaje daría alguna pequeña distorsión seguramente inferior a las interferencias), y en el caso de las GPU el error de un par pixeles entre 1024×768 (por dar un ejemplo de pantalla normalita..) en un barrido de 75 Hz es de nuevo insignificantes. De ahi el poder de este nuevo avance. Date cuenta que el hasta el TDT utiliza un sistema de decodificación con valores probabilísticos.
Estoy con Nuglam Laggan. Ya hace mucho que se hablaba del procesamiento porbabilístico. ¿Cuando empezaran a desarrollar la lógica difusa? Si es verdad que se quiere "superar" a la inteligencia humana, y me refiero a las noticias que publicabais ultimamente.
¿Y las aplicaciones de esta tecnología? Bueno, en 4 años la telefonía móvil puede avanzar muchisimo, tanto que, cuando se ponga en funcionamiento, quizas hablemos de pequeños ordenadores en la palma de la mano, que no toleren esa tasa de error; y si no, mirad las blackberries y similares, yo creo que a nadie le hará ninguna gracia que se le cuelgue el movil mientras escribe un correo.
¿Aplicarlo en gráficas y videojuegos? Es cierto que cada vez buscamos más potencia en las gráficas, pero los videojuegos son piezas de software ya suficientemente complejas, como para que se añada otro elemento que pueda provocar errores.
Y ya no hablemos de sistemas de tiempo real o con tolerancia cero a los errores. Supongo que en estos úlitmos casos no se ha pensado al desarrollar esta tecnología, por que sino…
En resumen, si estos procesadores disponen de algun tipo de feedback para detectar errores o algo similar, e incluso así son más rápidos en promedio y consumen menos, ¡Genial!, pero si no es así, por favor señor@s, dediquense a desarrollar otras tecnologías.
Saludos!
Yo creo que la aplicacion de esta tecnologia puede darse en casos muy especificos y que esta muy bien encaminada…nuestro cerebro en si usa mucho la logica difusa y las probabilidades, el mejor ejemplo es la vision que siempre nos esta jugando "bromas" precisamente porque se usa una logica muy curiosa y no precisamente exacta y bueno funcionamos aceptablemente.
El software/hardware se acerca a un funcionamiento mas cercano a la mente humana, que no es exacto al extremo solo se acerca a la verdad (creo yo que los humanos no tenemos nada de booleanos) asi que me imagino que en unos 10 años habra maquinas con esta tecnologia que cuando quieran exactitud recurriran a una calculadora tal como lo hacemos nosotros, asi que cuando se le pregunte: ¿cuanto es 4,5 + 4,4? responderan "algo asi como casi 10"…
Woooo =D buen articulo, lo que entiendo que la lógica que usa los procesadores actuales, es falso verdadero, pero mediante esta lógica probabilístico se ara la misma operación en menos tiempo lo implica menos consumo y rapidez en el procesamiento…..
También e leído mucho de la lógica difusa es muy interesante….
Bueno primero que nada no se aloquen el error ustedes no lo van a sentir ya que se convierte en redundacia ciclica y vuelve a realizar la operacion una vez mas ya que es mas probable que a la segunda vez no se equivoque que a la primera que lo hizo y es que el procesador es tan rapido mediante este proceso de ensayo y error que se vuelve asi con errores y todo hasta siete veces mas rapido de lo convencional tal vez sera hasta 30 veces mas rapido en caso acierte en el 90 de los procesamientos involucrados que den positivo pero en caso de maximos fallos tolerables sera solo 7 veces mas rapido que un cpu actual, habra dos rangos minimos y maximos de grados de eficiencia alcanzable pero aun asi con todo seran mas rapido que los procesadores actuales… =9 bueno eso es lo que yo entiendo sino no invertirian en fabricar algo como esto no es asi Lisandro?