¿Dónde están, se preguntan? Sí, está claro que se trata de las tarjetas de Nvidia basadas en la arquitectura Fermi. Después de lo que Nvidia entregó a cuentagotas sobre la tarjeta durante el pasado CES (más allá de todas las conferencias de prensa), muchas interrogantes han salido al descubierto. Algunos piensan que será el mejor hardware que Nvidia jamás haya creado, mientras que otros piensan que la arquitectura ni siquiera entrará en fase de producción. Sin embargo, hay información en la red, información que viene directamente de Nvidia, y el GF100, el chip que estará basado en la arquitectura Fermi, parece un poco más tangible. Nvidia incorporará mucha tecnología en este chip, tanta que existen muchas dudas sobre cómo lograrán mantener el equilibrio costo-beneficio en un margen razonable para el mercado.
Cuando Nvidia lanzó al mercado la primera GeForce, fue un "momento bisagra" para el mercado de las tarjetas de vídeo. Un buen hardware lanzado en el momento justo y al precio correcto puede tener grandes consecuencias, y el que no esté de acuerdo sólo necesita ver cómo terminó 3dfx. Algunos considerarán este detalle como historia pasada, pero nadie tiene la seguridad de que dicha historia no volverá a repetirse. Los jugadores son diferentes, pero el objetivo el mismo: El dinero de los consumidores. En este momento, y después de un buen tiempo, ATI parece tener la ventaja: Es el primer fabricante en adoptar a nivel hardware la última versión de DirectX hecha por Microsoft, y la alta gama de su serie Radeon HD 5000 se posiciona en lo más alto. Nvidia puede haber dicho que la ventaja de ATI a nivel DirectX 11 es "insignificante", pero una espina en el costado "es" una espina en el costado. Ya no se espera una respuesta por parte de Nvidia: Casi se demanda. Desde el comienzo, la arquitectura Fermi promete ser la solución a todos los problemas de Nvidia, y la clave para recuperar el trono en un mercado altamente competitivo. Se vio algo en la CES, pero no era lo que la gente quería ver. Una tarjeta dentro de una carcasa negra que generaba una temperatura enorme está lejos de cualquier concepto de "demostración", cuando en realidad lo que la gente quiere ver es si este monstruo puede mover al Crysis a 250 cuadros por segundo con gráficos completos.
El problema es que, a pesar del "whitepaper" que presentó Nvidia, lo cierto es que los detalles técnicos confirmados son más bien pocos. Lo primero que parece confirmado es el nombre: La "G" es de "Graphics", la "F" de "Fermi", y el 100 indica que se trata de la "alta gama" de este diseño, lo que nos lleva a especular que diseños más simples tendrán una numeración más baja. El GF100 contará con 512 núcleos CUDA, más del doble de los presentes en la generación actual de chips. Eso debería superar en más del cien por ciento el rendimiento presente en la tarjeta GTX 285. Además, el modo de alisado presente en las tarjetas Nvidia, conocido como "Coverage Sampling Anti-Aliasing" será elevado a 32x, aumentando la calidad de imagen en escenarios con transparencias y follaje. Después, Nvidia se dedica a mencionar tecnología propietaria con nombres curiosos: PolyMorph aumentará el realismo en los diseños geométricos (habilitando también el procesamiento geométrico paralelo), mientras que el motor GigaThread permite ejecutar múltiples kernels de física y cómputo para cada cuadro, asignando trabajo de forma mucho más eficiente.
Se estima que Fermi contará con unos tres mil millones de transistores, una cantidad que si bien es impresionante en materia de rendimiento, preocupa en tres frentes. Por un lado, el consumo de energía. Nvidia ya ha admitido que el GF100 demandará aún más energía, cuando el resto del universo parece ir en la dirección contraria. Además, el aumento de energía también se transforma en mayor temperatura. Las tarjetas son cada vez más grandes, al igual que sus disipadores. ¿Cómo va a hacer Nvidia para enfriar tres mil millones de transistores, descartando la opción de colgar un kilogramo y medio de cobre sobre la tarjeta? Todavía no lo sabemos, porque el hardware demostrado en el CES no es final. Y por último, el precio: La forma en la que el GF100 está diseñado permite versiones más humildes del chip, pero si hay un sector en el que Nvidia debe mejorar de forma notable, es en el costo de sus tarjetas. ¿Fecha de lanzamiento? En Nvidia insisten que sería en el primer cuatrimestre de este año, con muchas fichas puestas sobre marzo. En otras palabras, se necesita más información. Velocidad, frecuencias, modelos, diseños, tamaños, y sobre todo, precio. Hasta entonces, seguiremos esperando.
mamasaaaaa, que pedazo de targeta, tengo una asi pero es para controlar una red de 300 computadoras y pasarles internet, pero de video es una guasada
Yo aun espero algo de parte de Nvidia que me de un exelente rendimiento a bajo costo energetico.
Personalmente no lo eh allado y aun me mantengo con una 8600gt que aunq no me permite correr a crysis a 250fps y con todo activo… me sirve para los juegos que salen, ademas algo notorio esque cada vez las targetas les ponene el doble de potencia que los programadores de videojuegos (en este caso) no aprovechan absolutamente.
Pues que quereis que os diga me parece que la ati no tiene nada que objetarle a lo nuevo que quiere sacar nvidia, simplemente veo que ahora ati le lleva la delantera en cuanto potencia-prestacion-precio. Yo me mantego con mi 8800GTX que me va al pelo…
Lo único tangible que se ve en el video de demostración es que la imagen no es fluida y que queréis que os diga, fijaros en los efectos que tiene el crysis en el agua, no veo mucha diferencia. Por otra parte es lo que ha dicho algun compañero, los programadores no saben sacarle partido a la potencia actual de la tarjetas que hay. Un buen ejemplo de aprovechamiento gráfico y de rendimiento es DIRT 2, es una auténtica maravilla, fluido. Con mi 8600GTS va de perlas a tope de calidad y si tuviera un mejor procesador se notaría todabía más.
Yo veo que por cada tarjeta de video de nueva generación que aparece hoy día, lanzan refritos de juegos (o segundas, tercera partes etc) con requerimientos elevadisimos y nulamente optimizados. Nvidia por su parte comienza a fastidiar con su "manía" de renombrar sus "nuevas" tarjetas con versiones de bajo consumo que al fin y al cabo son mas de lo mismo, tal es el caso de las "nuevas" GT 210=8500,9500, GT220=9500, y GT240=9500/9600.
¿Como puedo enviar un enlace para que salga en los Enlaces Recomendados?
http://www.neoteo.com/PanelControl/tabid/57/Default.aspx
Por ahí! 😉
Gracias.
La verdad es que NVidia ha hablado mucho pero mostrado poco últimamente. ATI ha dado resultados concretos. Por ejemplo cuando ATI dió soporte para DirectX10.1 NVidia le restó importancia. Ahora ATI da soporte a DX11 y ha sacado placas que se comen a cualquiera de NVidia y ellos siguen restandole importancia. Me recuerda a lo que pasó con la gloriosa 3DFx antes de venderse. Por otra parte la Voodoo 5 poseian un chip verdaderamente revolucionario para la epoca. Lo que pasa que al ser mucha de esas ventajas una tecnologia propietaria y llegar un poco tarde las rivales aprovecharon para arruinarle el mercado.
Crysis IBM XT Intel 8086
http://www.youtube.com/watch?v=Ua4nsZG7Vlk&feature=related
Que NVidia saque algo al mercado en vez de hablar tanto, ahí es donde se miden los pingos.
Hasta ahora Fermi es vaporware.
Tanta potencia que anuncian para un usuario domestico creo que es exagerada, sin contar el gasto en fuente que debe ser brutal, las actuales tarjetas corren de todo y le sumamos un procesador actual, es mas que suficiente.
Que bueno sería tener todavía a 3dfx entre nosotros… Que interesante sería el escenario con un competidor más.
en 3dguru hay un articulo con detalles tecnicos sobre el gf100, bastante explicativo y detallado.
este articulo parece bastante sensacionalista….
Aquí hay otra comparación:
http://www.madboxpc.com/arquitecturas-nvidia-geforce-gf100-fermi-vs-ati-radeon-hd-5800-cypress/