NVIDIA FX problema o engaño

MeRL

Post por: SpaceRay http://www.hardlimit.com/forum/showthread.php?s=1f8e5f090a4629e8e4a2cee94f1c338e&threadid=24117

Pierde hasta un 26% en el 3D Mark2003 Versión 340

Nuevo problema ¿o mejor dicho descubrimiento de engaño o fraude? para las Nvidia FX, pero NO para las ATI Radeon

Cada vez se descubren más cosas raras con las FX y las cosas que hace Nvidia, me parece alucinante estas cosas que pasan, y espero que con la nueva versión 340 se pueda creer en los benchmark y que no engañen aunque es probable que inventen nuevas "optimizaciones".
Y si fuera verdad que como dice Nvidia ellos no engañan , entonces es que hay algún problema en las FX y en los nuevos drivers que hacen que pierdan rendimiento con este nueva version 340

3D Mark 2003 version 3.4.0 elimina las optimizaciones

Futuremark espera que ahora se puedan comparar "manzanas con manzanas" evitando las posibles "optimizaciones" que las empresas puedan querer hacer

<http://www.theinquirer.net/?article=12627>

En la nueva versión 340 del benchmark 3D Mark 2003 con los nuevos drivers 52.16 que incluyen el nuevo URC (Unified Real-time Compiler), parece que las FX de Nvidia pierden hasta un 26% de rendimiento en algunas de las pruebas.

El resultado final de todas las pruebas baja un 13,7 % en las FX pero en las Radeon no solo no baja que sino que sube un 0,1 %

AQUI se pueden ver los resultados de la nueva versión 340 <http://www.nordichardware.com/article/2003/3DMark03_340/>

Y también este interesante artículo de Beyond 3D donde la diferencia en el test 4 , llega hasta el 33% en vez de 26%

<http://www.beyond3d.com/articles/3dmark03/340/index.php>

Lo que pasa realmente es que este parche 340 desactiva todas las trampas, engaños y optimizaciones que se han estado haciendo hasta ahora por las empresas y por eso las FX pierden rendimiento. Pero claro Nvidia no puede reconocer públicamente que esto es debido a las "optimizaciones" de sus drivers.

Futuremark, la conocida fabricante de 3DMark 2003 acaba de lanzar el parche 340 de su conocida utilería de medición y comparación de desempeño de tarjetas gráficas de video.

El propósito de este parche es desactivar cualquier "optimización" o trampa que ejecuten los controladores y hay notables diferencias entre el rendimiento de nVidia "sin trampas" a nVidia "con fraudes", en resumen, casi el 14% de diferencia.
.

este texto está sacado de aqui --> http://www.ocmexico.com.mx/modules/...hp?storyid=2088 <http://www.ocmexico.com.mx/modules/news/article.php?storyid=2088>

Y como ellos dicen, ¿ Nvidia sigue defraudando a los consumidores ?
<B>Nvidia acusa a Futuremark[/b]

Nvidia ha acusado a Futuremark de que en la nueva versión han hecho que el benchmark desactive el compilador URC pero han tenido que quitar la acusación porque no llevan razón, y además ATI lleva un compilador similar desde la versión 3.6 de los catalyst y no han sufrido ninguna perdida en esta nueva versión

Aqui está la acusación del director PR de Nvidia contra Futuremark, y la posterior retirada de dicha acusación y la respuesta del director PR de ATI para esto

<http://www.gamersdepot.com/ed/mkting_hype/002.htm>

Y la respuesta de Futuremark a Nvidia

http://www.xbitlabs.com/news/video/...1112181114.html <http://www.xbitlabs.com/news/video/display/20031112181114.html>

Y futuremark ha dicho que es Nvidia la que sigue intentando engañar y que ATI no engaña

"There are no ATI optimisations. Once again, it's just Nvidia... The patch doesn't affect scores on ATI hardware. The changes in ATI performance are within the margin of error."

Nvidia retira su acusación y reconoce no llevar razón

Aqui está la retirada de la acusación y el reconcimiento de Nvidia de que lo que dijeron sobre futuremark y la desactivación no es verdad y la respuesta de futuremark a la acusación.

http://www.xbitlabs.com/news/video/...1114041519.html <http://www.xbitlabs.com/news/video/display/20031114041519.html>

Gainward que es fabricante exclusivo de Nvidia también acusó a Futuremark por lo mismo de Nvidia pero no lleva razón como se ha demostrado

http://www.xbitlabs.com/news/video/...1112031947.html <http://www.xbitlabs.com/news/video/display/20031112031947.html>

Ojalá que para cuando saquen el NV40 ya no sigan con esta tendencia de las "optimizaciones" y no sigan defraudando a los consumidores y que al no tener los problemas de las FX suponiendo que en el NV40 ya habrán arreglado todas las cosas

Sergeiv1985

¿Que dicen los que en gañan a la gente?... ...que ellos no engañan a nadie, lo digo tanto por unos como por otros, la cuestion es de quien se pisa a quien, osea de vender, de hacer el mejor maketting posible para vender ambos productos, que quieres que te diga, eNVDIA a mi me a ido bien, con el lanzamiento de su modelo MX 400 Serie 2, el cual solo me a dado un problema relacionado con algunos de los controladores de los detoneitor's, por lo cual tengo confianza pero no ciega pues quien tiene boca se equiboca.

MeRL

Yo tengo una GeForce4 440MX 128mb y me ha ido genial, incluso creo que la gama baja de Nvidia es mejor que la de ATI, desde MX hasta FX, ya que la 9000 y 9200 comprado una FX5200 no tienen mucho que hacer, pero recordar que FX5200 esta creada hace POCO, y las 9200 no.

#2 No "Discrimina" a Nvidia 100% si no a su gama FX.

JaCk0

El problema de la gama FX es el hardware, en la arquitectura no le echaron mucha cuenta a los PS 2.0 y los resultados a simple vista en juegos DX9 se nota. En los nuevos detonators se incluyen un nuevo compilador de PS que aunque van bien para los juegos pero es hacer trampa en los benchmarks, ya que en los benchmarks se mide la calidad del hardware de la gráfica, no de las "optimizaciones" malvadas by nVIDIA. El 3DMarks desactiva el compilador de nVIDIA (que reduce la calidad gráfica y funciona a FP16+FP16 en vez de FP32) y usa el compilador standart del DX9 (que es el que usan tanto las ATis, como las XGI, nVIDIA (detonators 45.xx o inferior), etc).

En los nuevos chips de nVIDIA traerán una buena base sobre el DX9 y el OGL 1.4

Usuarios habituales

  • JaCk0
  • MeRL
  • Sergeiv1985