[MV Hardware Fighter] HD 4870X2 vs GTX 280

mongui

Buenas a todos.

Volvemos con una nueva ronda de discusiones. Esta vez a cargo de dos pesos pesados de la actualidad gráfica, como son el modelo de Ati: HD 4870X2, y el modelo de Nvidia: GTX 280.

Hemos oído a mucha gente decir cosas buenas y no tanto de ambas tarjetas gráficas, pero sinceramente, sólo alguien que haya podido probar una de éstas (o las 2), puede opinar al respecto con la seguridad de que sus palabras no caerán en saco roto. Actualmente se dice que el modelo de Ati supera al modelo de Nvidia, pero que la diferencia en rendimiento no es abismal. Donde si que se nota es en el precio, ganando en éste campo la 4870, y en el consumo, ganando aquí la GTX.

¿Qué características finales serán las que tengan mayor peso a la hora de decidirte por cualquiera de éstas 2 bestias de los gráficos? ¿Merece la pena un desembolso mayor de dinero a cambio de unos pocos FPS?

Decidan ustedes.

NeO_PedritO

Yo he podido probar un poco la x2 y la verdad que no da tan buenos resultados como me esperaba. Eso no quita que sea una bestia, todo sea dicho. Rinde bastante bien, pero a costa de consumir bastante mas que el resto.

Ahora mismo no optaria por ninguna de ellas, volveria a comprarme la 4870 :)

Kimi

A la velocidad de desarrollo de las graficas y otros elementos , mi opinion habiendo visto de qué es capaz cada una, me quedo con la 4870. Si hay que quitarle un multiplicador al anisotropico para jugar fluidamente, me quedo con la mas barata.

Y si aun por encima, tiene un rendimiento mayor , por minimo que sea...

Superficus

Bueno, creo que tenemos que hablar con propiedad aquí.

La 4870X2 es comparable con la 9800GX2, dado que ambas son tarjetas de doble procesador - 2 tarjetas unidas, básicamente. Deberíamos compararla con ese modelo porque son 2 tarjetas que comparten un mismo concepto: la versión de ATI es un Crossfire en 1 tarjeta, la de Nvidia es un SLI en 1 tarjeta.

Sin embargo, la 4870X2 es algo más potente que la 9800GX2, y la GTX280 (que es una tarjeta mono-gpu, no dual) también es un poquillo más potente (en general) que la 9800GX2.

Entonces, esto lleva a comparar la 4870X2 con la GTX280, pero en realidad la GTX280 habría que compararla con la 4870 "simple" (a la que pulveriza).

Si ponemos 2 GTX280 en SLI (o 2GTX260 en SLI, más económico) entonces superamos los registros de la 4870X2. Como veréis, es todo un poquito más complicado que comparar una tarjeta con otra, son 2 tarjetas totalmente distintas con conceptos diferentes. Aunque los precios no difieran demasiado, son tarjetas que tienen conceptos distintos, son dificilmente comparables, salvo en un caso: que queramos ahora mismo una tarjeta potente, que nunca queramos preocuparnos de SLI o Crossfire (ya que cualquier placa funcionará con una sóla de estas 2 tarjetas), etc... pero si pensamos en ampliaciones futuras, o configuraciones algo más avanzadas (2 tarjetas o más) entonces ya no es tan sencillo compararlas.

La 4870X2 son 2 tarjetas en una (mayor consumo, mayor temperatura, mayor rendimiento en general), la GTX280 es una tarjeta que proporciona un rendimiento similar con menor consumo energético y menos calor (solo una GPU).

Para mí es preferible una GTX280, dado que obtiene un rendimiento superior a la 9800GX2 (y por tanto sólo ligeramente inferior a la 4870X2), pero con un menor consumo energético - y en el futuro podremos ampliar el equipo haciendo un SLI de 280, que supera con creces a una 4870X2. Hacer un crossfire cuádruple con 2 4870X2 me parece una salvajada por gasto energético y calor generado (y además siempre nos encontraremos con mayores problemas de drivers).

El problema es que realmente, la 4870X2 es un tarjetón (dual), pero sigue careciendo del chip de procesamiento de física que Nvidia ha introducido desde la serie 8 (y más ahora, con la compatibilidad PhysX). La proxima hornada de juegos, estas navidades, viene en gran parte con soporte y funciones extra para Nvidia PhysX... lo que es un pequeño golpe para ATI (aunque en rendimiento, con las opciones físicas desactivadas, puedan incluso superar a 1 sola tarjeta Nvidia en algunos títulos).

mongui

#4 Entiendo lo que quieres decir, y lo comparto, pero no trato de equiparar, digamos, arquitecturas o igualdades entre ambas. Pongo 2 tarjetas que pueden estar a la par. Entiendo que una es Dual y la otra simple, es de lógica, pero me centro en todo lo demás, menos en eso, que todo el mundo lo sabe.

GR33N

Yo lo tengo claro, si tuviera que comprarme una gráfica High-End ahora, serí la X2.
Incluso me compraría antes una 9800 GX2 que la GTX 280.

A parte tampoco creo que puedan competir en el mismo campo esas dos gráficas...

BLZKZ

"La 4870X2 son 2 tarjetas en una (mayor consumo, mayor temperatura, mayor rendimiento en general), la GTX280 es una tarjeta que proporciona un rendimiento similar con menor consumo energético y menos calor (solo una GPU)."

porpocopaco

Superficus

No entiendo lo de "porpocopaco"; pero bueno.

Yo tengo una 9800GX2 y una GTX280, y rinde más la segunda que la primera (además de que el PC en el que tengo la 280 está considerablemente más fresco). De todas formas la 9800GX2 sigue siendo una excelente tarjeta (si la puedes encontrar todavía en las tiendas). Lo que siempre me echa para atrás de las tarjetas de doble GPU es la temperatura y los compromisos a los que tienen que llegar los fabricantes para "meter" 2 tarjetas en una: reducción de la frecuencia del núcleo, de la memoria, etc... Por resumirlo de forma breve, las tarjetas duales siempre van "capadas" frente a lo que sería realmente usar 2 tarjetas (con la ventaja de que ocupan sólo 1 PCI-E, claro).

Si queréis echar un ojo, aquí tenéis algunos benchmarks:

Artículo completo:

http://www.techwarelabs.com/reviews/video/palit-4870x2/

Como veréis, la cosa está igualada. Yo por concepto prefiero la GTX280 (single-gpu, menos consumo, menos calor). Luego ya habrá tiempo de poner 2 y reventar los benchmarks (cuando me haga falta, porque ahora mismo va sobradísima). Sobre todo, lo que es para mí la característica que me hace inclinarme por la Nvidia es, como ya decía antes, el soporte PhysX.

Prava

#4 El problema es que realmente, la 4870X2 es un tarjetón (dual), pero sigue careciendo del chip de procesamiento de física que Nvidia ha introducido desde la serie 8 (y más ahora, con la compatibilidad PhysX). La proxima hornada de juegos, estas navidades, viene en gran parte con soporte y funciones extra para Nvidia PhysX... lo que es un pequeño golpe para ATI (aunque en rendimiento, con las opciones físicas desactivadas, puedan incluso superar a 1 sola tarjeta Nvidia en algunos títulos).

Meeeec. Las nvidia NO LLEVAN chip alguno para física, simplemente lo hacen correr mediante CUDA, pero nada de llevar una ageia physx incluida, no. Lo que tienen es el API (physx) y el "emulador" (por decirlo en plan basto, que es CUDA).

Todo sea dicho: yo me quedo con la GTX260. Overclockera como ninguna y no demasiado calentorra ni ruidosa. La 4870X2 gasta demasiado... es curioso, nunca me había importado la factura de la luz hasta que me toca pagarla a mí...

PD: entre la GTX280 y la 4870X2, me quedo con la nvidia.

zur4no

Pero la GTX280 no pega picos de 400W ella sola? (al menos me pareció leer eso cuando salió).
La fuente de alimentación tiene que ser bastísima.

Superficus

Las 8800 (al menos) llevaban 64 mb específicos para cálculos físicos de acuerdo con la documentación que mostró NVIDIA en su presentación... ¿No? O sea, en la GeForce 8800 GTS 320, 256 mb eran para gráficos, y 64 mb para procesos físicos (y así sucesivamente en los modelos superiores).

Necesariamente he de entender que ello beneficiará sustancialmente a la compatibilidad con PhysX. Si bien no hay un chip dedicado (error mío - el chip que yo entendía como PPU resulta ser un chip dedicado para la mejora de la reproducción de video HD, etc) esa memoria extra es utilizada por esa virtualización de la PPU que realiza la gráfica sin afectar (al menos) a la memoria utilizada para los gráficos (o sea, tienen algo más que la API, tienen memoria dedicada).

Cuda es un entorno de programación en C. Textualmente:

"NVIDIA CUDA™ technology is the world’s only C language environment that enables programmers and developers to write software to solve complex computational problems in a fraction of the time by tapping into the many-core parallel processing power of GPUs"

Básicamente, un entorno de programación que permite que se desarrolle software capaz de utilizar la(s) GPU(s) para la realización de calculos computacionales complejos.

La GTX280 no ha provocado pico alguno en mi sistema, es más, consume sustancialmente menos que otras tarjetas que he tenido anteriormente (duales, y normales!). Y completamente de acuerdo en la factura de la luz:

Mi sistema con 2 8800 Ultra era ruidoso, caliente, y tragón... Pasé de tener el sistema con 1 sóla 8800 ultra todo el día encendido a querer apagarlo cada vez que no lo usaba (por la factura). Ha sido meter una sóla GTX280 y volver a la normalidad, con más rendimiento todavía que lo que tenía antes.

BLZKZ

te dire algo que lo mismo te asusta...

La memoria no hace cálculos :O

Por lo que por mucha memoria que reserves a esos calculos lo tiene que hacer el core de la GPU con lo que quitas de un lado para ponerlo en otro

Superficus

Nadie dice que la memoria haga cálculos por sí misma - lo cual es evidente. Simplemente esa memoria (de acuerdo con el diseño de referencia de Nvidia, estaba ahí para ser usada en los procesos físicos - si es para almacenar resultados de cálculos, paths, o lo que sea... ahí ya no entro). Evidentemente, los cálculos en sí los hace la GPU, la PPU, o la CPU... pero sin la memoria de poco servirían. Si no tuvieran memoria dedicada, usarían la del sistema, claro está.

Pero eso sí, al igual que la X-Fi dispone de memoria dedicada para gestionar mejor sonidos de más calidad, las nuevas gráficas de Nvidia tienen también memoria que se usa para mejorar los resultados referentes a la utilización de física avanzada en el juego (además de la memoria tradicional usada para almacenar texturas, etc).

Del mismo modo en que la GPU trabaja cálculos geométricos, cálculos de iluminación, etc y almacena sus resultados en la memoria (junto con las texturas), esos 64 mb "dedicados" (todo esto suponiendo que se estén aprovechando, lo que depende esencialmente de los drivers) estarán ayudando a realizar de forma más efectiva la representación de cálculos físicos en la pantalla de nuestro ordenador.

asesino00

Yo soy poseedor de una 4870x2 y he visto una 280 y la x2 puede con el crysis a 1680x1050 con 8 aa y la 280 gtx no.
Puedo jugar al maximo en todos los juegos.
Respecto a lo del physix lo van a sacar muy pronto para ATI aparte que el physix lo aprovexan 4 juegos contados asique en mi punto de vista no es muy necesario actualmente.
Los resultados de benchmark sinteticos no valen para mucho simplemente para batir marcas ya que en realidad lo que te vale en realidad son los fps en los juegos y ahi una gran diferencia en fps de la ati ala nvidia (excepcionando juegos programados para nvidia) y el precio es muy similar.

PD: Las dos son bestias ahora decide que prefieres menos rendimiento por menos precio o quieres lo maximo que ahi en el mercado por mas dinero.

BLZKZ

#13 pero es una tonteria dedicar exclusivamente XX Mb de memoria a fisicas, no creo que sea exactamente asi, porque es muy posible que en el 99% de los casos no necesites ni por asomo esa cantidad y seria desperdiciar el sobrante, dado que las fisicas son basicamente calculos y no necesitan mucho espacion en memria. Es como si dijeran "para poligonos reservamos 128Mb" cuando no ocupan nada.

Por cierto lo otro no iba en plan mal :S

Superficus

Por eso estas tarjetas tenían cantidades tan raras:

GTS 320 = 256 + 64
GTS 640 = 512 + 128
GTX 768 = 640 + 128

Al menos esa era la información que se manejaba en un principio aunque ahora ya estoy dudando que realmente todo eso se utilizara. Me temo que las gráficas usaban ese extra de memoria "sin más", sin reservarlas para nada. Recuerdo que el márketing decía algo así como "de 64 a 128 mb extra para dedicarlos a ayudar al procesador en el cálculo de procesos físicos". Se suponía que "en principio" esto era un extra añadido porque se pensaba incluir procesos "como los que haría una PPU dedicada" en el futuro.

Quizá se limitaron a meter 64 - 128 mb extra, y punto--- al fin y al cabo ya los usaría el sistema si le hacían falta.

De todas formas, que cosas - para encontrar una comparativa REAL de rendimiento entre tarjetas de esta gama hay que bucear bastante.

Por ahora, las mejores inversiones (creo que por orden de precio y potencia, aunque corregidme si me equivoco) son estas (poniendo la barrera en los 30 FPS o más a las resoluciones indicadas en la mayoría de los juegos).

De 1680x1050 para abajo:

1 GTX 260
1 ATI 4870

De 1680x1050 para arriba:

9800 GX2 (SLI en 1 tarjeta)
2 GTX 260 (SLI)
1 ATI 4870X2
1 GTX 280 (o 2...)

Hala, a sobrarnos!

2 9800 GX2 (Quad-SLI)
3 GTX 260 (Triple-SLI)
2 ATI 4870X2 (Cuádruple Crossfire)
3 GTX 280 (Triple-SLI)

Mención especial merece la GTX260, cuyo SLI es prácticamente idéntico al de 2 GTX 280 - salvo cuando incrementamos la resolución por encima de lo habitual en un monitor de 24" (o sea, que si ese es el monitor que vas a tener, puedes considerar seriamente ahorrar dinero y hacerte un SLI más económico, porque el resultado va a ser casi igual al del SLI superior).

asesino00

El SLI al igual que el crossfire se necesita una buena fuente de 700w en gamas medias y 900w hacia arriba en altas y de buenas marcas. Pero a diferencia que el sli las placas que lo soportan son carisimas y bastante mediocres aparte que se pierde muchisimo rendimiento. Si alguien tiene pensado montar dos graficas que lo tenga muy claro crossfire y que no sueñe con que le va a dar el doble de potencia porque en los mejores de los casos el incremento es del 30% o 40% como mucho y estamos hablando de pocos juegos.

PD: El resultado que pone sobre el 3dmark 06 es totalmente falso yo hago +20000 y los 14500 en el vantage.
Deberias especificar con que micro se hicieron las pruebas porque se ve un grandisimo cuello de botella.

Elmalak

#16 Bueno personalmente te puedo decir que con una 4850 el crysis a 1680x1050 a filtros 2x, me oscila entre 30-45 fps, bajones de hasta 25 máximo. Con el parche DX9 de high a ultra high. Asi que yo creo que la tarjeta con mejor calidad/precio para jugar a una resoluciones de 1680x1050 máximo, es la ati 4850 y creedme que por 150€ tienes un tarjetón, ni yo mismo me podria creer los resultados. Eso si la tengo con un poco de overclock, 700Mhz la GPU y 2200 las memorias.

Superficus

Estoy completamente en desacuerdo con eso de que las placas SLI son malas, y con que tenga algún tipo de superioridad el Crossfire. Es el mismo concepto, y por lo general hasta la 4870X2 el SLI ha rendido sustancialmente más que el crossfire en la mayoría de los juegos - y ahora se ha igualado un poco, pero nada más. El SLI de GTX 280 y 260 sigue siendo lo más potente. Dicho esto, los juegos no tienen un rendimiento del 50% más ni en SLI ni crossfire, correcto. En todo caso entre 20-30% más.

A más altas resoluciones, mejor se nota lo que aportan los sistemas de GPU dual. Y en especial lo que más sube es la tasa mínima de FPS.

Yo he tenido mi sistema SLI de 8800 Ultras (que tragaban lo que no está escrito) funcionando perfectamente durante meses con una fuente de 850W Tacens, no demasiado cara, ni demasiado mala. Realmente hace falta una buena fuente? Rotundamente sí, tanto para SLI como para Crossfire, pero también para un PC normal y corriente de una sóla gráfica. Es hora de que la gente se de cuenta de que con las fuentes malas de 450 o 300 W que te cuelan en las tiendas no se va a NINGUNA parte.

De todo hay, hay placas mejores y placas peores. El chipset 680i ha sido "regular" tirando a malo por culpa de una deficiente compatibilidad con algunos módulos de memoria, y la mezcla 8800 y 680i nos tuvo la friolera de un año entero sufriendo pantallazos azules y todo tipo de desgracias. Eso fue inaceptable, pero:

1.- Podía arreglarse ya entonces si se sabía cómo (y se ponía un poco de atención)
2.- A día de hoy, esas configuraciones no dan ni mucho menos ese tipo de problemas
3.- No afectaba a todas las placas y configuraciones de la misma forma
4.- Pasaba incluso con mezcla de chipsets y gráficas (serie 8 Nvidia, chipset Intel)
5.- Afectaba también a las ATI (cada thread de pantallazos azules de Nvidia tenía su equivalente en los foros de ATI también).

De hecho, mi mejor placa del año pasado fue una Albatron 680i (no se vende en España) que seguía estrictamente el diseño de referencia de Nvidia: soportaba todo tipo de módulos de memoria, hasta los exigentes Dominator de 1142Mhz, y el equipo no dió jamás el más mínimo problema. Me dio hasta pena venderla, de lo buena que era.

¿De donde arranca esa "moda" de decir que SLI es malo? Mantener un sistema dual es más complejo, hay que mantener a raya las temperaturas - etc, pero no es malo, hay situaciones donde el SLI permite jugar a altas resoluciones de forma mucho más fluida que una sóla tarjeta. Dicho esto, siempre recomendaré hacer lo siguiente: comprar la mejor tarjeta posible, una sóla, y al mismo tiempo el modelo más estandar (nada de OC, CO, Superclock, etc). En algún momento se quedará justa, y si hemos comprado bien podremos conseguir en este momento otra idéntica (baratita, de segunda mano o nueva) para echar medio año / un año más. Después, podremos subir de generación (a 1 sola que rinda más que las 2 anteriores). Ahora mismo, es inteligente comprar 1 GTX280 o 2 GTX260. Igualmente, es inteligente comprar 1 o 2 Ati 4870.

Pero lo dicho, el año pasado hubo productos que salieron al mercado mal terminados. Muchos y de demasiadas marcas. Y encima estaban carísimos. De hecho, hoy la combinación 790i + GTX280 no da problemas de ese tipo. Yo al menos no he tenido absolutamente ningún problema con esa combinación.

He tenido ordenadores con SLI y chipset NVIDIA, y he tenido ordenadores con Crossfire y chipset ATI o Intel. En mi opinión personal siempre me han dado mejor rendimiento los que han usado chipset Nvidia y SLI que los de chipset Intel o ATI y Crossfire. Si bien la verdad es que Crossfire ha mejorado CONSIDERABLEMENTE en el último año, también lo ha hecho SLI. Hoy quizá estén más igualados que nunca, pero sigue teniendo Nvidia ese punto más de mordiente que le da la victoria en la mayor parte (no en todos) los juegos. Principalmente esto no se debe al hardware (yo he sido un gran defensor de ATi cuando nadie daba un duro por las 2900XT) sino por que los estudios trabajan muy bien con NVidia para optimizar sus juegos. Mejor que con ATI, por algún motivo que desconozco, pero la verdad, prefiero ir con la masa en este sentido y tener una tarjeta que funciona un poquito mejor en lugar de una tarjeta que funcione un poquito peor con los juegos, aunque a nivel hardware las ATI sean auténticos cañones (realmente, sólo los últimos modelos...).

Recomiendo el ultra-análisis hecho con la misma placa Skulltrail y la misma configuración entre todos los sistemas posibles multi-gpu, desde el SLI, Crossfire, 3-Way SLI, Quad-SLI, Crossfire de 3 y 4 tarjetas... y tarjetas duales por la revista CustomPC - está bastante interesante aunque no sea perfecto.

Veinx

Para mi es mejor la gtx280 que la 4870x2...

La 4870x2...

-Demasiado calor.. demasiado...
-mucho ruido.. insoportable
-consumo de energía de locos, pobre factura de la luz...
-precio elevado para lo poco que ofrece...

Yo ya la he visto/oido en vivo... y visto miles de comentarios en internet sobre ella.. en los foros de N3D hay gente que la tiene y se queja de los puntos anteriores.
Yo sinceramente prefiero una single a varias en crossfire/sli o x2... total.. para la poca mejora que dan no merece la pena pagar mas...
Otra cosa mala de ati, es el pésimo soporte para opengl, es casi nulo, en programas de diseño van como una mierda.

Vamos que no interesa para nada la 4870x2.. que son 480 euros!!!
casi 100 euros de diferencia con la gtx280.

la gtx280 esta a 384 euros... ha salido ya la version de 55?
Hace tiempo puse tablas de comparativas de la gtx280...los comentarios que dijeron.. que crysis era pro-nvidia... xdddddddd
bueno, aqui las tablas...
http://www.4gamer.net/games/045/G004578/20080811032/TN/031.gif
y el consumo de vatios...brutal.. 403 en un juego, frente los 317 de la gtx280, hasta las atis en crossfire dan miedo.
http://www.4gamer.net/games/045/G004578/20080811032/TN/037.gif
Cualquier persona con sentido común, vera que no interesa ni crossfire, ni sli, y ni x2 xddddd,
no merece la pena pagar mas por 1-5 fps de mas xddddd, ademas de tener ruido, calor, consumo y pagar mas.

podéis ver en las gráficas que la 4870x2 en crossfire no supone mucho aumento de rendimiento.

La gente que se ha montado en crossfire la 4870, pienso que han hecho el "CANELO"...
pagar 229+x2...458+euracos por un crossfire es una soberana estupidez, por menos dinero tienen la gtx280 que es mejor... respecto calidad/precio.

El overclock de cpus, hacer crossfire, sli y montar x2 no sirve para nada... solo para tirar el dinero y hacer el canelo, ahí están las gráficas...
Aquí la gráfica de rendimiento de un overclock... de un e7300 a 3,9ghz, no hay diferencia con la versión sin overclockear.. ademas gana un e7200 sin overclock...
http://www.4gamer.net/games/030/G003078/20080907002/TN/017.gif
http://www.4gamer.net/games/030/G003078/20080907002/TN/018.gif
En n3d hay gente con el e8400 a 4ghz y se quejan de que les han timado.. que no notan nada...

Conclusión... si te compras un pc para overclokear y hacer crossfire o sli vas a TIRAR el dinero por NADA, no conseguirás ninguna mejora... ejemplo.. placa base asus rampage, disipador para overclock... el ventilata de 120mm para el overclock, y las gráficas caras..

Ahh y nada de que el ordenador no es solo para jugar... en programas de diseño grafico no hay mejora tampoco y para descomprimir mas rapido un zip... no pago mas xdd.

El overclock de cpus... crossfire/sli y las x2.. son mitos urbanos xddddddddddd

La mejor configuración que hay calidad precio es un e7300+placa base p5q+4gigas ram+gtx280 para "jugar" y si se quiere para diseño gráfico y jugar pues un q9400 o q9550 en lugar del e7300.

GTX280 FTW!!!

Superficus

Pues sí, y no...

No te falta razón en muchas de las cosas que dices, no obstante yo creo que a partir de determinadas resoluciones (monitor por encima de 22") empieza a interesar el SLI (o crossfire).

Con un monitor de 30" o juegas en SLI o Crossfire o tienes problemas SERIOS de rendimiento (jugar a 20 FPS para mí no es una opción).

Ahora, que quien tenga un monitor de 20" y se monte un SLI o Crossfire de gama alta, está haciendo el canelo, pero el canelo TOTAL (en especial con lo que cuesta hoy en día una GTX260 o una GTX280).

NeO_PedritO

Yo me monte el crossfire de 4870 porque podia conseguir la segunda por menos dinero (me costaron las dos en total 380€), y la verdad no creo que este haciendo el canelo xD

Se nota bastante sobretodo a la hora de meter filtros (en 22''), pero tambien se nota en el consumo, eso si es un punto en contra.

Pero vamos, no me arrepiento para nada! ^^

#20 Ya sabemos que no te gusta el oc y demas porque vives en una sauna xD Pero por mucho que digas, si que se consigue mas rendimiento..

Koketso

#20 ¿pretendes demostrar que el OC no tiene efecto con unos test del juego peor optimizado de la historia tras oblivion? Sera una broma

asesino00

Yo te puedo asegurar que no va igual mi qx6850 a 3ghz que a 3.85ghz y estoy de acuerdo en que hacer un crossfire o sli con las ultimas graficas es una estupidez PORQUE los micros a dia de hoy hacen cuello de botella a no ser que vayas a rebentar con oc los unicos que se salvan son los 9650 que suben mucho por aire o el 9550 con el nuevo step.

PD: Mi qx6850 a 3.7 me hace ligero cuello de botella con una 4870x2 si pongo dos seria una estupidez ademas que los sitemas en sli crossfire estan pensados para usar dos monitores o pantallones de 30" no para resoluciones normales a dia de hoy como es la 1680x1050 en las cuales la diferencia es minima la gracia es ver la diferencia de fps en 30". Yo he visto mi 8800gtx en un pantallon seguiendo aguantando como una reina y ver una 8800gt muriendose en 30 pulgadas y en los bench sintenticos consiguiendo los mismos puntos en resoluciones normales.
Pongo un ejemplo mi grafica en el Vantage me daba de serie 11500 puntos y al subirlo a 3.85 me daba cerca de los 15000 obviamente se nota el overclock.
Pasaros por aki http://www.hard-h2o.com/vertema/91618/ranking-3d-mark-vantage-.html

#20 recuerda que no ahi drivers buenos que es una grafica que acaba de salir hace cuatro dias(y aun falta los drivers de fisica que van a salir) y respecto a lo de los temas de diseño es totalmente falso yo soy diseñador precisamente va volada y no tengo ningun problema lo del calor temperatura es cierto el ruido es un poco superior ala 280gtx aunque hace un ligero ruidito electrico inapreciable cuando juegas con sonido solo en el silencio total podrias oirlo y respecto alos resultados que pones no se de donde los has sacado ^^ porque vamos....

Mi configuracion es
CPU: qx6850
MB: Biostar tpower i45
RAM: 4GB Ballistix tracer
Fuente: Tagan 900w
Disipador: 120 ultra xtreme

Unr3al

#24 "Pongo un ejemplo mi grafica en el Vantage me daba de serie 11500 puntos y al subirlo a 3.85 me daba cerca de los 15000 obviamente se nota el overclock."

Eso no dice mucho, lo suyo seria comentar el incremento de rendimiento en juegos.

asesino00

Como e puesto arriba el crysis en ultra high en dx10 por supuesto 1680 x 1050 me da una media de 35 y sin overclock baja a unos 28 aproximadamente con 8aa. el flight simulation al maximo me da tope de fps sin bajon de ninguna clase con filtros y demas el call of juarez al maximo en mi resolucion una media de 150 a 180 y mirar los que da la nvidia... de risa

PD: nvidia es muy buena pero sin filtros cuando le metes filtros todas se mueren y ati sigue aguantando como una campeona.

Veinx

a 1920 x1200 de resolución el crossfire, sli y x2 no hace nada, podéis verlo en la gráfica...
en 4gamer también ponen gráficas del company of heroes, unreal tornament 3, prey y mas juegos, y todos con resultados similares...

a 1920x1200 la gtx280 pilla 43.2 fps.... la 4870x2 "CROSSFIRE" pilla 45 fps, 1 fps de dif con la version sin crossfire... ridículo.. lo mismo para los otros juegos.
http://www.4gamer.net/games/045/G00...11032/TN/031.gif

company of heroes...
http://www.4gamer.net/games/045/G004578/20080811032/TN/036.gif

Y bueno sobre el overclock... ha sido ya demostrado e hyper demostrado que no mejora nada en los juegos, solo mejora para descomprimir/comprimir archivos comprimidos por ejemplo... yo no pago euros de mas para hacer oc solo por esa tonteria...

http://www.4gamer.net/games/030/G00...07002/TN/017.gif
alguien me puede explicar por qué a 1600x1200 no hay ni una sola mejora de fps frente a una cpu overclockeada a 3,9 ghz?? un mito urbano como dicen en noticias 3d no?

En los foros de noticias 3d se ha discutido ya sobre este tema... y se ha puesto miles de tablas de comparativas... Por ejemplo un q6600 con oc a 3,6 no era mejor en los juegos que un antiguo e6600, ambos pillaban los mismos fps. Alguien me explica por qué?xddddddddd

Y mucha gente con el e8400 con oc a 4ghz+8800gt le pasaba lo mismo, y en particular uno se quejaba de que en un simulador de vuelo pillaba solo 20 fps, si hubiera usado una gtx280 habría tenido de 50+fps. Con los componentes que se compro tan caros para hacer el oc, como la asus rampage+ thermalright +ventilata habría tenido para una gráfica tocha, ademas de ahorrarse un dinero enorme en las putas cajas de friki de 99 euros.. con una de 24-36 euros se va sobrado, total el oc no sirve para nada.. bueno si.. para chulear y subir la factura una barbaridad.

Crysis no esta mal optimizado. Con un ordenador de 480 euros juegas a 1920x1200 con todo a tope a 40+fps y mejor que un ordenador de 1700 euros con oc de mucha gente de aqui.
Hasta hay una publi de un pc para jugar al crysis en kotaku...
un e7200+placa base puerca+2gigas de ram+9800gtx...
En noticias 3d, un tio hizo un build y puso el rendimiento que sacaba con ese pc barato... y es el mismo rendimiento que el pc de los "1700 euros".
En los foros de n3d la peña se compra un pc nuevo y pone sus reviews con fotos del equipo, piezas y capturas de juegos con los fps.... se ve claramente todo. Y ver.. he visto demasiado, desde los pcs con oc y refrigeración liquida de 2000 euros hasta los ordenadores de 480 euros sin oc(con cajas de 24 euros xddd) que tan solo rinden 1-5 fps menos que el pc de los 2000euros a 1920x1200.
Alguna explicación a tan poca diferencia de fps?

Esta config para jugar es perder dinero...
http://foro.noticias3d.com/vbulletin/showthread.php?t=250793
Q9450, Asus P5Q3, 260GTX
http://img65.imageshack.us/img65/5831/crysis4cj7.jpg
pilla poquísimos fps.. con un e7200 pilla lo mismo, y si con el dinero de las polladas que le metió a su pc... hubiera comprado mejores componentes como una gtx280 tendría mejores resultados.

Vamos. que las gráficas puestas hablan por si solas. Quien quiera tirar el dinero en un sli/crossfire, x2 y hacerle oc a la cpu, pues adelante, que tire el dinero... Luego dentro de 2-3 años querrá cambiar de pc lo mas seguro... Hablan de crisis , pero yo no la veo...porque la gente tira el dinero por gusto o por falta de información.

asesino00

Vamos a ver mas mhz mas fps sino explicame los resultados de ln2 (nitrogeno liquido) porque 30000 puntos en el 3dmark vantage con dos graficas me da que no lo vas a poder a dia de hoy sin overclock^^

Hay cosas que dices que tienen sentido pero otras no por lo que veo no tienes mucha idea de overclock y no te has pasado por el link que e puesto antes si quieres te cuelgo resultados de jueugos con mi pc de serie y con overclock. Para que veas la verdad la diferencia es que yo si tengo este sistema y la mayoria se basan en informaciones y reviews pagadas en muchas casos por grandes compañias en las que usan aposta chipset x38 y no x48 con ddr3

Si haces crossfire con p45 el pci e se queda a 8x por lo cual la mejora es escasa ya que vas capado buscate una review de crossfire en x48 con ddr3 que da 16x y 16x.

Se pueden amañar los resultados cogiendo hardware para que de menos puntos y cojiendo el adecuado para el sli para obtener sus resultados optimos asi los resultados se acercan mucho... y aun asi es mejor

Koketso

Lo del overclock es la risa. Decir que es igual por ver una review y encima en la broma de juego es lo mas ridiculo que lei en mucho tiempo. Yo lo que se, es que si estoy jugando a un juego, y un dia me quitas el OC sin que me de cuenta, no tardo mucho en enterarme de que algo falla (de hecho ya me paso 1 vez)

asesino00

Claro que te das cuenta tu y cualquier persona que use el pc y tenga minimos conocimiento de informatica ami lo que me hace gracia que habla de los 20 fps de flight simulation que es el tope de juego ese juego no da mas. El overclock siempre se nota lo que pasa que si el juego pasa de 60 fps es muy dificil notar la diferencia sin un marcador (fraps) que te lo chive pero juegos como el crysis que llevan al limite tu grafica la diferencia que un pc tenga overclock o no es que de picos de 10 fps a ir totalmente fluido (aunque ahi mas factores un hdd malo puede relantizar tus juegos tambien)

Pero vamos con overclock aumentan los fps eso es asi a no ser que la grafica no este capada por el procesador cosa que es bastante inusual a dia de hoy porque las vgas estan bastante mas avanzadas que los microprocesadores.
Como anecdota un tio usaba 8800gtx para calculo para romper contraseña y tardaba muchisimo menos tiempo que usando procesadores y ademas las graficas no se usan solamente para jugar sino para investigacion el ejemplo claro es el folding que es un programa gratuito para investigar cadenas de proteinas y en la cual puedes usar procesadores o usar tarjetas graficas y los proyectos con tarjetas de gama alta son brutales.