La mejor gráfica del mercado.....

Daredevil

Eso es lo que necesito, pero con un par de matices, primero la memoria debe ser de 128 Mb y ser AGPx4.
Me da igual ATI o NVIDIA y me da igual el precio, tampoco me importa si soporta o no DirectX9. Sólo quiero que me digáis que modelo y por que pillaráis ese. Gracias por anticipado.

Dek0

Si kieres la mejor gráfica del mercado, las mejores ya funcionan bajo DirectX 9.0 y llevan un mínimo 128Mb.

La mejor ke hay ahora mismo a la venta es la ATi Radeon 9800 PRO con 128Mb de DDR, estando a la par con la nVidia GeForce FX 5900 Ultra de 256Mb de DDR, aunke esta última aún no ha salido.

PD: ATi tb tiene preparada una Radeon (aún sin denominación, pero posiblemente será llamada 9900 PRO) con 256Mb de DDR-II, en competencia directa (seguramente la superará) con la GeForce FX 5900 Ultra de nVidia

Daredevil

Esas gráficas son AGP 8 y a mi sólo me interesan las AGP 4..... la mejor del mercado, pero AGP 4.

Dek0

Cualkier gráfica a 8x es compatible con 4x

BeSaiD

da =, la perdida de fps es minima, no llegan a 2. Y la 9900 no es la 9800 con 256 ddrII, es como la diferencia entre la 9500 y 9700, el core y eso (pero en este caso, la 9500 venia con pipelines desactivados, o sea, el mismo chip con frecuencias de memoria mas avanzadas.) Puede ser q haya entendido mal el concepto de 9900 q has dado tu, pq ddrII de 256mb ya hay y se llaman ati radeon 9800...

Dek0

#5 Nu se todavia, seguramente si ke se akabe llamando 9800 PRO, pero habiendo versiones de 128 y 256.
Creo ke si tienes razón, y es como tu dices

Eske algo he oído del lanzamiento de las 9900, pero tampoko ando muy informado de ella...

Daredevil

A ver mi placa base sólo soporta AGP 4, yo ya sé que son compatibles, pero ¿para que voy a buscar algo que no necesito, que no voy a aprovechar al máximo y además es mucho más caro? Gracias de nuevo por vuestro tiempo. SalU2.

P.D: Había pensado en una Gf4 Ti.....

BeSaiD

en alternate.net, gf4 ti 4800se 128mb por 160€ + envio.

Creo q es agp 8x, epro te digo q no pierde nada de rendimiento:

http://www6.tomshardware.com/graphic/20030604/radeon_9800-04.html#unreal_tournament_2003

http://www6.tomshardware.com/graphic/20030604/radeon_9800-05.html

Aqui se demuestra (TomsHardware.com)q solo pierde un poco de rendimiento (2fps) cuando se usa con los filtros.

Dek0

Eske me da ke te va a dar = tio...

Ke yo sepa la mejor ke había a 4x era la GeForce4 Ti 4600, pero desde ke salieron las GeForce4 Ti (la 4200 y las 4800) a 8x creo ke las descatalogaron, i te va a costar encontrarla

BeSaiD

en alternate tb hay una gf4 ti 4600 128mb creo q por 230... por lo q no te la aconsejo, demaqsiado precio creo yo. Si eres de barcelona, halli hay una tienda muy barata q por 255€+iva te puedes comprar una 9700. su web es www.framoiz.com

Daredevil

Si está descatalogada es más difícil de encontrar (quizás no tanto), pero seguro que es muchísimo más barata que estas novedades que en algunos casos pasan de los 500€.

aLeX

Decir que la GeForce FX 5900 es superior a una Radeon 9800... pues antes me lo creía, pero ahora ya no lo creo tanto. Será algo superior, pero no lo sufiente como para decantarse por ella basandose uno en su velocidad.

En el 3Dmark la tarjeta sacaba unos puntillos a la 9800. Pero se ha visto que los Detonators FX eran chetisimos. Renderizaban lo mínimo ahorrandose trabajo. En muchas ocasiones no se notaba pero en otras los gráficos se veian corruptos.

Luego esta el Doom 3. Ese donde la FX usa el modo nv30 para renderizar las escenas, mientras que las Ati usan el modo ARB2... es decir, una usa un modo propio y otra un modo estandard. A eso le añades que las pruebas en gran parte han sido guiadas por nVidia, y te queda un benchmark nada creible.

Vamos, en conclusión: Puede que la nVidia sobre el papel sea superior a la ATi. Pero cuesta mas, no está a la venta aun aqui en España, ocupa 2 slots, se calienta mas, los drivers son chetos... ufff, dificil elección.

Arhkanum

Es curioso que Futuremark desmienta eso de que Nvidia usara controladores "cheto", y la gente siga vociferando con ese "rumor". Sencillamente muy curioso.

A

http://www6.tomshardware.com/graphic/20030512/geforce_fx_5900-14.html

en los test estan a la par, en los juegos nvidia es superior, tu para ke usas tu grafica para test o para jugar? ocupará 2 de los 5 slots sin usar ke tienes, se calentará más ke la ati porke trabaja mejor y por lo por algo tiene ese disipador activo, vale 70 talegos y la ati 85, nosé, habiendo dinero me decanto por nvidia y no habiéndolo me decanto por la 4600 ke tengo

Dek0

Tampoko me fiaría demasiado de Tom's Hardware, $on muy chaketero$, y unos días en unos tests te dicen ke una es mejor, y al día siguiente ke lo es la otra tarjeta. Mejor esperad a ke salgan más análisis y benchmarks, y a ke todos los modelos estén a la venta y opinemos :)

E

I q más te da, si una de AGP 8x la puedes conectar a un AGP de 4x....

Si kieres una AGP 4x pura i dura.... io tiraría por una Radeon 9100, cuesta alrededor de 100 Euros, algo menos kizá.... i tira bien, con un poco de overclock la pasas a niveles de la antigua 8500 (275 core / 275 memoria)...

Spybreak

convirtamos esto en otro flame war ati vs nvidia. round 1, FIGHT!

en fin, alguien decia ke futuremark habia negado lo de los chetos. bien, vayamos por partes. que es el 3dmark? un programa con el que se puede medir el rendimiento que da una tarjeta SOBRE ALGORTIMOS ESTANDAR DE RENDERIZACION con instrucciones genericas y no propias de cada compañia.

que hizo nvidia?
Ingeniero de nvidia 1: "eh, tengo una idea, y si optimizamos el 3dmark detectando las partes de la escena ke no se ven y liberando a la GPU de todo ese trabajo?"

Ingeniero de nvidia 2: "pero eso no es hacer trampas?"

"Ingeniero de nvidia 1: "y kien se va a dar cuenta? jojoj"

ke ocurrio? ke pasaron por alto el hecho de ke en las versiones de desarrollador del 3dmark podias girar y mover la camara libremente por las escenas. los redactores de extremetech se hicieron con una version dde estas (no se sabe como llego hasta ellos), y descubrieron el cheat.

pero ahora viene futuremark, despues de decir ke son cheats, y se retrae diciendo ke son "optimizaciones especificas de una aplicacion". QUE? osea que ahora el eliminar partes de una escena y bajar la precision de los colores son simples optimizaciones? crei ke las optimizaciones beneficiaban al consumidor y no reducian la calidad de imagen. veo que estaba equivocado ¬¬ . bueno, hare como ke no he visto ese maletin de dinero por debajo de la mesa.

en fin, podria seguir y seguir y seguir, y hablar de la precision de color y tal, pero kreo ke esta bastante claro a donde kiero llegar.

sobre el hecho de ke la 5900 sea mas rapida ke la 9800 en los juegos os digo lo siguiente:

La 9800 soporta 24 bits de color nativos, mientras ke la 5900 soporta 12 y 32, ke significa esto? ke cuando la tarjeta es obligada a funcionar a 32 bits, decae totalmente por debajo de la 9800, ofreciendo una calidad de imagen superior. pero si la ponemos funcionando a 12bits, superara a la 9800 en velocidad, pero la calidad de imagen se degrada.

porke hace nvidia esto de no incluir 24bits en sus tarjetas? kizas sea para ke no se puedan comparar en iguales circunstancias sus tarjetas con las de ati; kien sabe.


por cierto, para el creador de este post, pillate una 9700/9700pro, ke ahora estan tiradas de precio, son lo segundo mejor del mercado ke hay y funcionan perfectamente en agp4x.

SeNte

Siento no poder ayudar mucho. Yo por las artimañas que se trae ultimamente NVIDIA en el 3dmark me pillaba una ati, eso siempre hablando de la gama alta. Y olvidate de lo de 4 u 8X puesto que te irá igual de bien. Te aseguro que no es tirar el dinero.

P.D: Busco sponsor para avatar ¬¬

el_masmalo

veamos tengo una 3d prophet 9700 pro 128 mb 350/350 con una placa gigabyte 7dxr+ con chipset 761 de amd y un gb de ddr ram 266 @299 (me parece) con un athlon xp 1600 1403mhz @ 1533mhz. Y bueno... el 3d mark 2001 SE me da unos limitados 9500 fps, teniendo en cuenta que con el nivel de overclokeo y tal, a pesar de no ser un procesador de reciente hornada deberia andar por unos 13000. asi que, realmente... si que importa, lo peor de todo es ke la tarjeta tira realemente bastante mas d lo que soporta el bus, asi que en juegos de ultima generacion (ut 2003) le pones todo al maximo y juegas a 1024... pues que tienes unos pequeños saltitos que no puede llamarse caida de la tarjeta por prestaciones, si no mas bien por una limitacion en el ancho de banda. que hace un cuello de botella :( 400€ de tarjeta no aprovechables, puesto que ahora tendre ke pillarme otra placa base... asi ke no os compreis una agp8 esperando tener los mismos fps si teneis una agp4

Spybreak

tu problema con el 3dmark no es del agp, sino del procesador y el FSB. en el 3dmark 2001 influye MUCHISIMO la velocidad de tu procesador y de el fsb en tu ordenador. pasale el 3dmark03 y veras como la puntuacion es practicamente la misma ke un ordenador de tus mismas condiciones en modo agp8x.

sigo diciendo lo mismo, las unicas tarjetas ke de verdad usan el ancho de banda 8x son las profesionales para diseño 3d. lo del agp 8x de momento no es mas ke una artimaña de marketing.

E

eing???

Spy podrías explicar lo del AGP 8x un poco más por favor...??? (curiosidá más q na...)

asias ;)...

aLeX

A ver, Futuremark se ha bajado los pantalones ante nVidia. Sus drivers hacen trampas en el 3DMark. Lo detectan y cambian parametros como los filtrados, aumentando el rendimiento.

Resulta curioso, eso que muchos decian que era superior en las FX, los filtros, resulta que lo son por los cheats de sus drivers. Vergonzoso.

http://tech-report.com/etc/2003q2/3dmurk03/index.x?pg=1

#13 Curioso que existan pruebas contra nVidia y sus Detonators FX y la gente no se lo crea.

TaMy

Bien, a ver... el AGP 8x casi no se usa ya que con el AGP 4x el ancho de banda entre targeta y placa base que se produce es inferior al que puede llegar a necesitar... y la poca diferencia que pueda darse radica en la diferencia de latencia entre agp 4x 2.0 o iniferior y un agp 3.0 8x actual.

Referente a los drivers de Nvidia "chetos" no comentare nada, supongo que huvo versiones que si y otras que no...

No trabajan bajo 24 bits, pq siempre lo han hexo bajo 16 o 32 bits... nunca bajo 24 (algo mas propio de otros tipos de sistema tipo mac)... Con lo que supongo que devera ser un desbarajuste enorme en el hardware hacerlo compatible con 24 bits REALES... por lo tanto una Nvidia trabajando a 32 para dar el mismo rendimiento que una Ati trabajando a 24 deveria tener como 1/4 mas de potencia ya que se ve obligado a mover mas bits en el mismo tiempo... que una Ati... vosotros fijaos bien la diferencia de fps de un benmarch trabajando a 16 o a 32 bits... vereis que mejora el doble basciamente a 16 bits. Pero claro la imagen pierde calidad (cielos y tramados del degradados de colores)... pues imaginaos que las ATI siempre trabajan a 24 NO TRABAJAN a 32... con lo que la ventaja y el ahorro que se poducen en hardware lo ganan en rendimiento y lo pierden en calidad... (es asi... la calidad de un color a 32 bits no es la misma que a 24 bits). Por eso podemos ver como targetas como la Nvidia 5900 con un core de procesador y de memoria mayor a una 9800 pro tiene unos Benmarch tan tan similares. La verdad del asunto es que la ATI trabaja con numeros de 24 bits de largo mientras Nvidia lo hace con numeros de 32... (8 bits mas a cada operacion)...

Ati para mejorar tuvo que bajar el numero de bits de con los que trabajaba... cuando empresas desarrolladoras de software ludico (juegos) (Electronic Arts entre ellas) pedian que se hicieran targetas capaces de trabajar con 64 bits ya que ayudarian a crear funciones de mezclas de colores y antialiassings etc...etc... mucho mas rapidas y eficaces que las actuales.

Actualmente el mercado a ido por otro lado... ahora mismo sinceramente si quisiera comprar una targeta no se por cual me decantaria, Tengo una Ti 4200 4x...

Si cogiera una Nvidia, me iria directamente a la 5900 (si, en barcelona ya la puedes pedir)... Ninguna otra me gusta... comparandola con la Ti 4200 seria muy poco cambio... Respecto a ATI, tengo unas serias y grandes dudas...

Coger la 9500 de 128 Mg y pasarla a 9700 ?? si no la paso es tonteria ya que la 9500 y la Ti 4200 no se diferencian demasiado de rendimiento...

Coger la 9700 por 210 Euros?? y pasarla a 9700 Pro ?? pero a ver... la 9500 tambien la puedes pasar a 9700 Pro (o eso he leido) o como va el tema?? Paso de comprarme la 9700 Pro ya que la puedes conseguir comprando la 9700 o incluso la 9500 o eso he leido...

Las 9800 y 9800 Pro se van de presupuesto igual que la 5900 todas estas valen mas de 300 Euros,... mas de lo que se deveria pagar por una targeta...

Respecto a las tres opciones:
9500 160 Euros
9700 210 Euros
9700 Pro 270 Euros

Cual coger?? si se pueden convertir en que se puede convertir la 9500? y la 9700?... Cuando se convierten realmente dan el mismo resultado que la misma pero en el modelo superior??

osease una 9500 pasada a 9700 da el mismo benmarch que la 9700? y si la pasas a 9700 Pro da el mismo benmarch?? Porfavor... responderme.

G

vamos por partes :D
1ºpasar una 9500 a 9700 tiene 2 partes: Activar los bonitos pipelines y poner las frecuencias de gpu y mems a 9700. El problema? pues que las gpus suben perfectamente, pero como te toke la china con unas memorias de madera de 3,6n, poco podras hacer.
Con memorias de 3,3 por ej ya puedes hacer clocks de 9700 e incluso de 9700 si las refrigeras bien y tienes suerte.

2ºTammy por dios en ke distro compras! xD

3ºLo de los bits de las ati, no lo tngo mu claro, te refieres a ciclos de reloj o a los bits de color que procesan? (me imagino lo 1º pero gueno)

aLeX

Que pajas mentales se hace TaMy.

Pasar de una 9500 a una 9700 NO modifica la velocidad del core o de la memoria. Ambas van a 275/275.

Pasar de ambas a una 9700 Pro requiere overclock. Estas expuesto a joderla o que no funcione. La Pr0 chuta a 325/310.

¿Ta claro no?

¿Por que comprar una Pro y no la normal? Porque con la normal has de hacer algo mas que trucar un driver, has de aumentar el core y la memoria... si es que se deja la tarjeta.

Otra cosa es que merezca o no la pena. A mi parecer NO merece pagar mas por unos pocos fps.

aLeX

A todo esto, quien os ha dicho que los 32Bits o 24Bits de ZBuffer de los que hablamos sean bits de color?????

Pero claro la imagen pierde calidad (cielos y tramados del degradados de colores)... pues imaginaos que las ATI siempre trabajan a 24 NO TRABAJAN a 32... con lo que la ventaja y el ahorro que se poducen en hardware lo ganan en rendimiento y lo pierden en calidad... (es asi... la calidad de un color a 32 bits no es la misma que a 24 bits).

Hablamos de precision en calculos. No hablamos de colores y cosas asi. Las nVidia van a 32bits y ATi 24. Microsoft requiere 24 bits para certificar unos drivers. No requiere 32 Bits.

Y aun no me explico como comparas diferencia de rendimiento/calidad usando 32 bits / 16bits de color, con diferencia de rendimiento/calidad usando ZBuffer de 16 bits y 32 bits de precision. Son cosas DISTINTAS!

G

interesante :D

hum: 9700 275/270 9500 275/270 segun rage3d en su review.
Juraria ke las 9700 eran mas rapidas xD (bueno, como ni la 9500 ni la 9700 son powered by ati, los fabricantes tendran cierto margen no?)

Spybreak

si microsoft pide 24bits de precision de coma flotante en el dx9 es porke no necestas mas. puedes ver screenshots de la 5900 y de la 9800 cada una a sus respectivos 32 y 24bits y no vas a notar NINGUNA Diferencia de calidad. pones la 5900 a 16 bits y el resultado es bastante malo.

en mi opinion el hecho de ke nvidia trabaje a 32 bits y no a 24 es una cuestion de no kerer ponerse al mismo nivel ke ATI. no se exactamente porke, pero es asi.

por cierto tamy, si kieres una grafica, yo de ti pillaba una 9700 no pro. si puedes, asegurate de ke es una sapphire con memorias samsung y ya tienes las velocidades del modelo pro aseguradas. y aun siendo de 3.3 las memorias, es muy buena compra.

aLeX

Es marketing, marketing, mucha gente pica con los 32bits frente a los 24bits.

Realmente suena c00l decir que tu tarjeta tiene 8 bits mas que la ATi, aunque no sepas que coño son esos 8 bits.

G

esos flashazos de ati en los avatares os delatan eh? xDDDD