Noticias 16-2-04 (FW 56.55, Far Cry DX8??, ...)

TaMy

Muchas cosas nuevas este finde, espero os gusten las noticias, una de las más entretenidas para mi ha sido la del Far Cry la cual me ha impresionado bastante lo que ha hecho el grupo de desarrollo de Far Cry junto con Nvidia respecto a forzar a los usuarios que tengan GF FX y que se hayan comprado una tarjeta en DirectX9 a utilizar DirectX8 en el tema de Pixel Shader, sinceramente no me parece bien ya que moralmente lo veo ilícito. Y no se corresponden las acciones con lo que dicen. Sin duda sus razones tendrán, quiza en materia de Hard quizá en materia de dolares y publicidad. Quien sabe. Juzgad vosotros mismos.

<B>Far Cry: Nvidia’s meant to be played, los usuarios de GF FX llevarán el DX9 desactivado[/b]
Todos habréis visto esta redonda gris girar al inicio de un juego, lo cual asegura que Nvidia se ha implicado en el proceso de creación del juego. El Far Cry, (debido a las grandes subvenciones de dinero que mete Nvidia en el asunto), es un NV meant to be played. Viendo los últimos resultados en muchos de los juegos Meant to be played NVidia en Far Cry, juego con un motor genial y unos gráficos geniales que aprovecha el DirectX 9.0. No quería tener un Benmarch en dicho motor que Ati sobrepasara a Nvidia en número de fps, con lo que <B>el propio juego cuando tienes una Nvidia desactiva el píxel Shader 2.0 activando el 1.4[/b]. Esto puede verse de dos maneras, o para que el público con una GF FX tenga una experiencia de juego agradable al tener más fps, o para que el público en general no vea el rendimiento real que tienen las GF FX con DirectX9 real con Píxel Shader 2.0. Esto lo hacen porque al tener las GF Fx una unidad de sombreado de pixeles menos potente no se note en los benmarch. Aun así en baluma nos explican como activar dicho Píxel Shader 2.0, desde el acceso directo del juego añadiendo al final –DEVMODE para entrar en el modo Developer del juego y luego con la variable en la consola <I>"\d3d9_nv30_ps20 1"[/i] según ellos no hay un cambio de imagen súper espectacular, solo cambian las shaders, realmente es el mismo cambio que existe en cualquier juego de DirectX8 a DirectX9, osease sigues viendo el juego completamente bien, solo que te pierdes dichos efectos en DirectX9. Yo tengo una pregunta en el asunto. Porque Nvidia pone en sus tarjetas que son DirectX9 y luego subvenciona a juegos para que en sus tarjetas (o en todas porque aun no lo tengo nada claro) funcionen con el Píxel Shaders del DirectX8? Es un misterio el mundo de la publicidad. Quiero ver vuestros comentarios sobre el tema. Sin duda es un juego increíblemente bueno.
Podéis ver esto en www.baluma.com
Tema GF FX utilizando DX8 en lugar de DX9:
http://www.baluma.com/JUEGOS/accion/farcry/home4.asp
Toda la review de Far Cry:
http://www.baluma.com/JUEGOS/accion/farcry/home.asp

<B>Catalyst 4.2 a examen[/b]
Una review sobre el rendimiento de los nuevos Catalyst 4.2 de ATI.
Los cambios más significativos en rendimiento son:
<I>FPS in Unreal Tournament 2003 suben un 15%
Ganancia entre un 5% y un 10% en el Aquamark3
Ganancia del 2-3% en las puntuaciones del ShaderMark.
FPS en el Halo are suben un 3 to 4%
Mejora del 2% en el Tomb Raider[/i]
Contando que eran unos drivers para la supresión de Bugs y no para mejorar el rendimiento no está del todo mal.
http://www.vr-zone.com/?i=478&s=1

<B>ForceWare 56.55[/b]
Si ya han salido los nuevos forceware para todos aquellos que tengáis tarjetas gráficas Nvidia. En guru3D hay una discusión bastante interesante sobre el rendimiento de los mismos en:
http://forums.guru3d.com/showthread.php?&threadid=78960
Ojito porque según pone en el foro a muchísima gente no le funcionan y se les para el ordenador al poco de estar jugando. Otros han notado un cierto rendimiento de más (supongo por el equivalente al Overdrive que dijo Nvidia que pondría a sus forceware, Llamando en los Drivers Auto-Overclocking).
Podéis probarlos y bajarlos de aquí, pero si no os funcionan bien, tranquilos, no seréis los únicos, a ponerse los 53.03
http://www.nvidia.com
http://downloads.guru3d.com/download.php?det=737

<B>Desde Samsung memoria para el NV40 (GF FX 6xxx) GDDR3 a 1.6 GHz[/b]
Se ve que está produciendo Samsung este tipo de memoria para Nvidia, sin duda la memoria más rápida que haya visto nunca una gráfica. Pese a esto el chip Nv40 anuncian desde Nvidia y sus Partners que llevará GDDR2 con lo que exactamente no podemos saber que tipo de memoria utilizará Nvidia para el NV40, ya que esta puede ser la memoria que lleve el chip inmediatamente superior al Nv40 y ya la estén produciendo. Bueno más información aquí.
http://www.xbitlabs.com/news/memory/display/20040213210313.html

<B>Corsair muestra sus módulos DDR2[/b]
Habrá de dos tipos: PC2-3200 (400MHz) y PC2-4300 (533MHz) de momento y Corsair hará sus demostraciones de ella en el próximo CeBiT.
http://www.xbitlabs.com/news/memory/display/20040215211013.html

<B>Nvidia no solo hará su última generación en PCI Express[/b]
Nvidia se ha planteado de nuevo el tema PCI Express y en una conferencia ha anunciado que migrará a este sistema no lo las tarjetas venideras GF FX 6xxx, sino que las actuales también, desde una GF4 MX440 hasta una GF FX 5700. Tal y como nos tiene acostumbrado harán un nuevo modelo (como ya lo hicieron con el GF4 MX 480 (una mx440 con AGPx8) o la GF4 Ti 4800 (una 4800 con AGPx8 en lugar de x4), etc…etc…
http://www.theinquirer.net/?article=14147

<B>Seguramente las Nvidia GF FX 6xxx lleven el DoomIII incorporado[/b]
Debido al duro golpe que significa que ATI tenga el mercado de Shared con el HL2 agarrado, Nvidia seguramente coja el Doom3 (o el UT2004) para contraatacar esta medida de su competidora.
http://www.theinquirer.net/?article=14152

<B>Más sobre el tema compatibilidades 64 bits[/b]
Intel y AMD, ambos con plataformas 64 bits, y un objetivo en común, conseguir antes el soporte de Windows a los 64 bits,… Quien antes lo consiga se llevará un importante mercado barriendo para casa. Ya que los sistemas operativos para Intel 64bits y para AMD 64 bits no serán los mismos. Más información en el link.
http://www.theinquirer.net/?article=14158

<B>No llevéis a vuestro P4 EE a más de 4300 mhz.[/b]
Ya que Windows, si Windows NO LO RECONOCE. Supongo que funciona, pero ningún tipo de programa sabe determinar que micro tienes, ni decirte que Multi usas, ni que FSB utilizas, nada en absoluto. Desde inquirer piden una solución al asunto. :)
http://www.theinquirer.net/?article=14149

<B>Más sobre el RoadMap de ATI próximo, R423 será la parte de ATI con PCI Express[/b]
http://www.theinquirer.net/?article=14151

<B>Próximo RadMap de ASUS en placas Bases[/b]
Que chipset llevarán, llevarán PCIe?, chipset Intel, Sis, que LGA?, DDR 1 o 2? Dual o Single? Habrán que podrán llevar de ambos tipos?. Todo aquí en el link.
Serán estas, y este será su modelo: (con chipset Intel.)
• Asus P5AD2 - Chipset i925X+ICH6R : LGA775, PCIe et Dual DDR-II
• Asus P5GD2 - Chipset i915P+ICH6R : LGA775, PCIe et Dual DDR-II
• Asus P5GD1 - Chipset i915P+ICH6R : LGA775, PCIe et Dual DDR-I
• Asus P4GD1 - Chipset i915P+ICH6R : µPGA478, PCIe et Dual DDR-I
• Asus P5GD2-VM - Chipset i915G+ICH6R : LGA775, PCIe et Dual DDR-II
Con otro chipset:
• Asus P5SDC - Chipset SiS656+SiS965 : LGA775, PCIe et Dual DDR-I/II
• Asus P5VD1 - Chipset VIA PT890+VT8237 : LGA775, PCIe et Dual DDR-I/II
• Asus P5VD2 - Chipset VIA PT892+VT8237 : LGA775, PCIe, AGP8x et Dual DDR-II
http://www.x86-secret.com/index.php
<B>Centrino en equipos domésticos?[/b]
Si, como lo oís, Centrino, hasta ahora solo presente en portátiles, también aparecerá en equipos domésticos. Esto es una buena noticia, ya que por sus características, puede utilizarse como sistema de bajo consumo, mínimo ruido y esperemos a un coste adecuado.
http://www.theinquirer.net/?article=14162

AticAtac

¿Son imaginaciones mias o parece que nvidia está sufriendo mucha presión?

Este tipo de tácticas se dan cuando los departamentos de marketing presionan al de ingeniería. Los resultados no les están acompañando, pierden cuota de mercado y de golpe se empieza a perder la "ética" y a usar cualquier artimaña para recuperar la posición.

fer69

thx por las noticias :D

Mistery

Apuntar que:

Efectivamente con los Catalyst 4.2 el rendimiento sube en los juegos notablemente, pero hay unn hecho que me llama la atencion, y es que con esta version el Need For Speed Underground, los bajones de FPS son rotundos con respesto a los Catalyst 3.10 y 4.1

Aqui podeis ver unas comparaciones de los Catalyst 4.2:

http://www.onlynewz.com/modules.php?name=Reviews&rop=showcontent&id=12

y en esta la comparacion con el NFSU

http://www.onlynewz.com/modules.php?name=Reviews&rop=showcontent&id=12&page=6

Er-Tate

Noticias como la de Far Cry dan que pensar al comprarse nvidia, ya no saben que tretas hacer para que ati no les coma mas mercado. En cuanto a las memorias samsung, no se, pero creo que como sigan con las graficas q tienen ahora, mucha velocidad pero menor rendimiento q las ati, van a ir a peor.

fer69

por cierto acabo de probar el undeground con los catalyst 4.2 y la verdad no aprecio ningun diferencia negativa con mi radeon 9000Pro , pero claro tampoco juego con las caracteristicas al maximo y no se como habran hecho ese Benchmark.
Pero bueno ahi keda eso :)

TrAsGu

nVidia acojonada, eso me gusta, repercutira en que se pondrán las pilas y lo que consiguo trae

Tyron03

Madre subir un P4 a 4300Mhz... para q tanta potencia?? Dios, y aora q taba yo ilusionao de ver como van los juegos en directX 9, van pa las nvidia y las desactivan, estos son gilipollas, q saqen un parche y marchando

aNiBaRRo

yo con una 9600XT he pasado de 180 a 170 fps, al instalar los 4.2, aunque puede ser tb por la nueva actualizacion del steam-CS.
Y el tema de q usen DirectX 8 las nvidia FX en el far cry no hay quien lo entienda, tiene muchas explicaciones pero ninguna aceptable. Si realmente la diferencia entre los efectos con una version u otra de pixel shaders es tan pekeña que no se nota y en cambio si que disminuye mucho el rendimiento, habría que pensar a ver si no es mejor tb usar DirectX 8 para las ATI, todo sea por ganar FPS. El tema es q si ahora los desarrolladores, instigados por nvidia, empiezan a usar automaticamente DX8 en sus juegos para mejorar FPS con la geforce FX no tendrá sentido q se anuncie como una tarjeta DX9 si no se puede usar por el impacto q tiene en el rendimiento, más aún cuando son los propios creadores del chip los que incitan a no usar DX9. Me recuerda al TRUFORM de las ATI, que si lo activas en los juegos que lo soportan pegan unos bajones tremendos (al menos en mi 9600xt)

BEDI

Ya vereis los nuevos chips de nvidia q cerita dan a las ATIs... es lo q yo creo por sta sencilla razon:

Nvidia --> ahora mismo tira de fuerza bruta pa mover los pixel shaders. Cn el nuevo chip utilizara el mismo sistema q usa ahora ATI, cn lo q buerza descomunal + tecnica = nvida powa.

Sin mas, es lo q pienso q nvidia retomara las riendas

PD: aunke lo q mas me gustaria ske las volari se metieran en el mercado..

saludos

BEDI

Por cierto Tamy siempre leo tus post, el puto amo, sigue asi q entre tu y alguno mas, le damos forma al foro

saludos

jOK

Mentira, la demo del FarCry no degrada los shaders a la versión 1.4, los degrada a la versión 1.1 que es aún peor... (la versión 1.4 tampoco es que corra demasiado fina en los NV3x).

saludos

Usuarios habituales

  • jOK
  • BEDI
  • Tyron03
  • TrAsGu
  • fer69
  • Mistery
  • TaMy