[MV Hardware Fighter] HD 4870X2 vs GTX 280

Superficus

El problema (no se con Crossfire) con SLI es que no soporta las configuraciones multimonitor de forma correcta - de hecho en todas las notas (readme) de cada edición de los drivers de Nvidia esto se indica claramente. De hecho, la última vez que probé a hacerlo SLI no funcionaba de ninguna forma con 2 monitores - había que desactivar SLI a la hora de usar 2 pantallas, y activarlo a la hora de usar 1. A lo mejor han actualizado algo, pero daba muchos problemas.

De igual manera, no creo que merezca la pena agobiarse con el tema de los cuellos de botella. Hay más problemas por falta de memoria, demasiados procesos, sistemas mal optimizados y sistemas operativos con todo tipo de bugs.

El asunto es que las tarjetas de gama alta están pensadas para sacar todo su potencial a altísimas resoluciones (monitores de 24 a 30", por ejemplo) y a resoluciones normales hoy en día casi todos los juegos (excepción sea hecha de Crysis) se puede jugar francamente bien, y con bastantes filtros como para no preocuparnos de pérdida alguna de calidad, con cualquier tarjeta de gama alta normal (y algunas de gama media).

Con el SLI (o Crossfire) a resoluciones normales conseguimos lo siguiente:

1.- Una mejora pequeña de FPS máximos en prácticamente todos los juegos.
2.- Una mejora más sustancial de la tasa de FPS mínimos en prácticamente todos los juegos.
3.- Una mejora considerable a la hora de poder jugar con más filtros activados que con 1 sola tarjeta, sin perder tantos FPS.
4.- Más estabilidad con VSYNC activado, o sea, la sensación típica de llevar "60FPS clavados", de los juegos de Consola. O dicho de otro modo, nada de tearing, y ni un sólo saltito. (De todas formas, son cosas que en un benchmark así "rapidito" no son tan faciles de detectar ya que la media de FPS entre un sistema u otro puede ser casi igual - pero uno da 1 saltito o pierde algún frame en algún momento, y el otro sistema no (o menos).

Todo ello depende mucho también de lo bien que configuremos el equipo, el resto de componentes del sistema, etc.

El tema de los filtros es que la diferencia entre un AA16X de altísima calidad a 1680x1050 y un AA4X normal a esa misma resolución es prácticamente imperceptible. Si estamos jugando a esa resolución en un monitor de 30", entonces sí mejora sustancialmente la imagen con el uso de los filtros - depende de nosotros el usar una resolución menor y más filtros o una resolución mayor con menos filtros... aunque la calidad de imagen será muy, muy, muy similar en ambos casos - depende de lo que nos de más calidad de imagen con más FPS.

Si estamos utilizando la resolución nativa de nuestro monitor, y este es un monitor de 20" a 1680x1050 realmente no apreciaremos prácticamente nada el uso de antialiasing (en la calidad de la imagen).

Por poner un ejemplo, la 360 lleva un chip similar al de las ATI 2900XT; y la mayor parte de los juegos hace un uso intensivo del antialiasing 2X o 4X para mejorar la calidad en pantallas 1080p - pues a 37" con esa resolución si quitaras el AA se verían píxeles del tamaño de un elefante asiático (por ejemplo, cuando se ven previews de juegos en una 360 de desarrollo a veces te puede llegar alguno que aún no ha activado todos los filtros - y ahí se ve una diferencia bestial con el producto final. El objetivo es lograr 30 (la mayoría) o 60 (algunos pocos juegos) FPS estables con VSYNC activado, filtrado anisotrópico y AA 2X.

Llega un momento en el que yo no sabría distinguir salvo poniendo mucha atención el CoD4 a 1680x1050 con AA 2X o AA4X... la diferencia de calidad es muy pequeña, y el impacto sobre los FPS es considerable así que es preferible (en mi caso) dejarlo en 2X o desactivado.

Realmente - SLI o Crossfire son tecnologías útiles, pero a altas resoluciones sobre todo. Si compensan o no según el precio, depende de lo que valores jugar a la más alta calidad posible aún sabiendo que la diferencia es pequeña

asesino00

Totalmente de acuerdo con lo que dices pero alo que me refiero con lo del cuello de botella esque no venden micros que no hagan cuello de botella que se puedan adquirir a un precio razonable sin overclock porque la ddr3 a bajado muchisimo hasta que no salga i7 (nehalem) no creo que se pueda exprimir todo el potencial de estas graficas de ultima generacion. (aunque todos sabemos que la mayoria de las aplicaciones estan capadas pocos juegos estan optmizados pora multigpu y pocos programas tambien)

PD: Si te digo la verdad yo me reia cuando me dijeron que mi qx6850 me iva hacer un ligero cuello de botella a 3.7 y efectivamente lo hace, lo que es una idiotez es el pci e 2.0 no se nota absolutamente nada os lo certifico.

Veinx

Un compañero de la universidad tiene un e8400 overclocked a 4ghz, asus rampage, thermalright ultra 120, 4 gigas de ram y la 4870 en crossfire...
pues el tio no nota nada de diferencia de fps en ningun juego, salvo ''algunos'' con 10 fps de diferencia... y se compro el pc para jugar al crysis...
Vamos que me dijo que se había gastado una pasta tremenda para el oc y no le sirve de nada, otro tio de la uni que esta en su clase, tiene un e7200,2gigas de ram y la gtx280 y le van los juegos mejor que a el. Conclusión... el oc es una MIERDA, un mito urbano como dicen en noticias 3d.

Lo mismo le pasa a mogollón de gente de los foros de noticias3d.com

Vamos.. esas gráficas que he puesto son del crysis y el company of heroes... de 4gamer, portal de referencia de los hardcoregamers japos, graficas totalmente ciertas de ordenadores baratos, y no como los que se monta la peña aqui de 1600 euros.

Yo tengo 2 pantallas de dell, una de 30' y otra de 24', he hecho overclock y jamas notaba alguna diferencia a resoluciones nativas de 30' o 24'... solo notaba diferencia de fps en 1024x768.. de risa... con una 8800ultra.

Yo personalmente he probado la 4870x2 y la 4850 en crossfire... y subir el rendimiento no sube NADA. Pagar por lo poco que sube es una estupidez.

-------pusiste un enlace a un test del 3dmark--------- y te insto a que lo leas de nuevo.
http://www.hard-h2o.com/vertema/91618/ranking-3d-mark-vantage-.html, aquí el del review japo.
http://www.4gamer.net/games/030/G003078/20080907002/TN/015.gif
mírate todas las gráficas, aunque este en japo las gráficas se entienden..
http://www.4gamer.net/games/030/G003078/20080907002/
como podrás ver.. la cpu con oc solo tiene 1000+ puntitos de diferencia con la cpu sin oc...
merece la pena pagar mas por esa mierda? NO, con lo que cuesta hacer el oc metes mejor cpu y mejor gpu.
La gente que paga por una mierda rendimiento extra no tiene ni idea.
Vamos que sin oc tienes 20fps.. y al meterle oc se te pone a 30fps.. pues pienso que es una mierda, y no interesa para nada, ademas de que eso nunca pasa a resoluciones nativas de 24'... tu mismo tienes un thermalright ultra 120? no? ese disipador vale caro y viene sin ventilador... con ese dinero del oc te pillas una gráfica mejor y tienes mas fps que haciendo oc.
Vamos que tu equipo es un timo... seguro que te ha costado un riñon... un ordenador de 480 euros tiene un resultado similar...

quad [email protected] / ati 4870X2 solo pilla 14406puntitos SIN FISICA... de risa, tu ordenador no? xdddddddddddddddddddddddddddddddddddddd
y ahora tio listo.. me puedes explicar como esta mierda de ordenador sin oc.... pilla casi como tu? Y USANDO FISICA...
intel core 2 duo [email protected] / nVidia GTX280-----13745. EXPLICAMELO, ademas de ser mas barato que el tuyo xddddddd, cuanto vale la 4870x2 xdd y la gtx280? cual es mas barata? xdddd no usas la cabeza a la hora de gastar el dinero por lo que veo xdddddddddddd.

Merece la pena pagar mas por 661 puntitos mas? NO... Del enlace que has puesto se ve claramente que el oc es una mierda. Ese equipo con la gtx280 es mas barato que el tuyo....
un pc con un e7300/gtx280 tiene 14000+ puntitos en 3dmark vantage y es mas barato que tu pc.
Eso de que a mas mhz mas fps es una soberana GILIPOLLEZ... en las gráficas que puse hay una diferencia de 1ghz y no hay mejora NINGUNA en fps... es la gpu la que da los fps.
Ademas un q6600 a 2,4 va como un [email protected] segun el enlace que pusiste, que son 661 puntitos del 3dmark? la poca diferencia de puntos no es por el oc, sino por la 4870x2, que es un 'poquito'(una estupidez de mejora) mejor que la gtx280.
cuanto te costo el qx6850 xdddddddd y cuanto vale un e7300? xddddd

intel os esta vendiendo la moto, engañando con los nuevos micros... cuantos años llevamos con los 3 ghz? la tecnología esta estancada ahí... la moda esta nueva de tunear el pc y oc es una completa pollada para FRIKIS.
La gente cae fácil ante el marketing de las empresas...

Ah y como puedes ver me pase por el link... y tu? has mirado las otras puntuaciones? no has visto que hay pcs mas baratos que ownean al tuyo en calidad/precio... una cosa tengo claro...Pero qué listo eres mi niño que te dejas engañar y soltar un dineral en componentes para el oc y componentes caros con el mismo rendimiento que los baratos.

Ahh el review que tu pusiste esta pagado por grandes compañías verdad? pues que quieres que te diga macho... esas puntuaciones son parecidas a la de la pagina japo que dices que ha sido pagada por grandes compañías...la mayor estupidez que he leido en mi vida.. una pagina que te recomienda un pc de 500+ euros es pagada por las grandes multinacionales? de risa... seria un pc de 1500 euros no? porque eso es lo que querría venderte la multinacional. Yo diría que las compañías que viven detrás del oc te han vendido la moto y has tirado de cartera porque no sabias en que gastar el dinero.

Aquí lo que pasa es que tenéis oc, y os jode que os digan que habéis tirado el dinero. GL

Gn0m4

Como siempre es de agradecer los comentarios de la gente que no tiene ni idea.
La diferencia de FPS de un micro overclockeado a uno no overclockeado depende de la resolución a la que juegues, el rendimiento original del juego y por supuesto la gráfica que tengamos.

Influyen muchas cosas, sí, pero hay gente que hace overclock no desde tú punto de vista, que es el de maximizar el beneficio en base a una restricción presupuestaria, sino lo hace porque simplemente le gusta o tiene otras motivaciones que el hacer overclock para tener 5 fps más en Crysis.

A ver si abrimos un poco la mente, porque con tu post te tenía que haber caido un Ban de un mes. No has dejado prácicamente ninguna persona sin insultar.

Veinx
Veinx

jugar a resoluciones nativas de 24', como yo... el overclock no interesa... tu dices ""depende de la resolución a la que juegues"" y no es lo que he puesto en las graficas de 4gamer? donde se ve que a resoluciones bajas interesa el oc... pero con resoluciones altas no interesa. Todo el mundo tiene de 22'+ y la están cambiando por 24'.
Ademas aquí se esta hablando de gpus y oc para juegos... no para otras "motivaciones".

En ningún momento insulto, si te parece que llamar frikis a los del oc como un insulto.. pues estamos apañados.. no somos frikis los que estamos muchas horas detras del pc?
Ahh y te recuerdo que he puesto mi opinión y me defiendo de gente como tu y otras que me dice que no tengo ni idea... y que lo que pongo esta pagado por grandes compañias.
Vamos que decir que no tengo ni idea es mas ofensivo que lo que dije.

saludos.

edit: el firefox se me jodio y me posteo solo....

Gn0m4

No puedo por menos hacer varias matizaciones.
Yo no he dicho que estés pagado por grandes compañías al igual que tampoco haya basado mi comentario únicamente en el interés de la gente por el overclock en juegos.

Está claro que cuanto más baja sea la resolución más importancia tiene el microprocesador en el resultado final de FPSs.
Hoy día es sabido que los cores de las gráficas son mucho más rápidos que los procesadores actuales. Llegado a un punto en el que el rendimiento final de FPSs se ve restringido por la velocidad del procesador (mejor dicho por el FSB del procesador), es de lógica que aumentar la velocidad del procesador aumentará el rendimiento final de FPSs en el juego.

Puedes hacer una sencilla prueba, conecta una 4870x2 a un procesador antiguo, vease un amd barton o cualquier procesador de su generacion, y despues conectalo al DualCore más rápido que veas (en stock). Te darás cuenta de la diferencia enseguida, independientemente de la resolución que cargues.

asesino00

jaja me a salido por menos dinero que el tuyo seguro porque lo gane en un concurso de diseño e dicho que mi micro hace cuello de botella a mi grafica de ahi la poca diferencia y que los benchmark sinteticos no valen para demostrar el rendimiento real en los juegos y no es por nada de un q6600 a qx6850 en benchamark no ahi gran diferencia pero si la ahi en programas de video y demas y lo que se nota es de dos a cuatro cores. Por si no lo sabes la diferencia de un qx a q esque los x tienen el multi desbloqueado si tubiera un micro a 5ghz de los de nueva generacion sacaria muchisimos mas puntos y tendria muchisimos mas puntos en el 3dmark busca wr de ln2 con 280 y 4870x2 y recuerda 600 puntos en el vantage es una burrada porque esa diferencia es de solo micro...

PD: No sabes que aun no han sacado los physx para mi grafica cuando lo saquen aumentara 3000 puntos minimo mi 8800 sin physx hace 6500 puntos y con phyx 8000 puntos estas comparando una cosa que no se puede comparar. Y no es lo mismo 2x4870 que 4870x2 (esto es un crossfire interno que va mejor necesitas menos fuente y consume menos) y veinx te repito que la mayoria de los juegos actuales no estan optimizados para multigpu por eso ese escaso de rendimiento pero las graficas sirven para mas aplicaciones (renderizado y demas) el call of duty de 1 grafica a cuando usas 2 aumenta brutalmente, quien se compra una 280gtx o una 4870x2 esque no quiere cambiar de grafica en 2 o 3 años. Yo no he dicho que la 280gtx es una mierda sino que la 4870x2 es mejor y con oc consigues mas rendimiento en los juegos pero si llegas al maximo del juego ya puedes tener 20 280gtx en sli o 3000 4870x2 en crossfire que te va a dar lo mismo si te limita la aplicacion no ahi mas que hablar. Aparte que 2fps en el crysis o 5 parece una diferencia minima pues no lo es aunque para ti sea igual.

Te pongo un ejemplo para que quieres un ferrari en una carretera que solo puedes ir a 120 con un ibiza puedes ir igual pero el ferrari llega antes a 120 que el ibiza lo que quiero decir esque si tienes oc los tiempos de carga y de renderizado tardan menos por lo cual obtendras mas fluidez en los juegos por lo tanto mas fps. Luego esta el tema de los filtros al tener mas velocidad el procesador los muevan mas rapidamente y ahi mantener la misma cantidad de fps como e dixo a dia de hoy ahora parece inapreciable pero pasado mañana habra una diferencia bestial esta claro que puedes jugar al maximo pero durante cuanto tiempo ahi se diferencia.

Veinx

Estamos hablando de videojuegos... Esta claro que a poca resolución el oc hace su efecto pero cuando uno juega con 24' no sirve de nada, quién juega ya con resoluciones de 17'?
Si hablamos de oc para programas... esta claro que para descomprimir/comprimir lo hace antes... los filtros del photoshop los hace mas rápido... pero lo que son los visores de programas de modelado 3d no sirve para nada, es la tarjeta la que manda... y si es una quadro pues mejor. No es muy recomendable renderizar en vray con la cpu overclockeada... se puede quemar y lo digo por experiencia.

Hay mucha gente asqueada por el tema de ''intel'' de que los pc tochos rinden = que los pcs baratos.

mira leete este hilo de noticias 3d.
http://foro.noticias3d.com/vbulletin/showthread.php?t=258012
En el que un chaval se queja de la #@@#€@#€ (mierda) que es la 4870x2...

Tiene un QX6850 a 3,6Ghz,una gigabyte X48-DS4 y una Club 3D 4870X2... y le va el crysis warhead a 20fps... realmente triste, la verdad, cuando con un equipo mas barato y usando nvidia se pilla 40+fps en pantallas de 24'.
Y como ese hilo veras mogollón de gente quejándose de por qué su ordenador nuevo con oc no va en el crysis... Cuando el rio suena es porque lleva agua...

Cosas asi las puedes ver en miles de foros de hard.
La cantidad de hilos de quejas que he visto en foros, el nuevo crysis warhead les va mal...

Lamento decirte que las gpus no sirven para renderizado, manejo vray y mental ... y eso no come gpu, sino cpu.

Esta claro que la 4870x2 es mejor que la gtx280.. pero en ciertos juegos, porque en el crysis deja mucho que desear.. Las atis son los peor que existen para diseño grafico, tienen un pesimo soporte opengl,...para usar el 3dsmax, maya, zbrush, mudbox y programas de ese estilo es lo peor que existe.

Pero en calidad precio la gtx280 es mejor... yo no pago esa diferencia tan grande de euros... por tan solo 1-5 fps mas.

#38 Dudo que te haya salido mas barato que a mi.. porque no tengo pc nuevo.. tengo un p4 1700 ahora para jugar y ver internet, planeo comprarme un pc nuevo cuando bajen los precios tras la salida de los nehalem. Por cierto que concurso de diseño fue ese? uno de internet? como los de cgtalk? supongo que para ganar ese premio tienes que ser bueno dibujando/diseñando no?
le das al 3d? pintura digital con la wacom?

asesino00

No se si sere bueno ala gente le gusta lo que hago fue un concurso de internete no trabajo 3d solamente camisetas artes finales avatares retoque fotografico etc Ademas trabajo en una imprenta y en mis tiempos libres hago algo de video pero amateur. Y sobre el tema siento estar en desacuerdo y si quieres cuando tenga al crysis warhead te comento los fps que tengo de serie y con overclock porque creo que nunca vamos a llegar a un acuerdo. Lo que le pasa ala gente es que al hacer overclock inestable se le desabilita el crossfire interno y funciona con una sola gpu (mucha gente se compra cosas de gama alta para utiilzar el msn)

1 saludo

asesino00

Por si alguien tenia alguna duda
http://www.xtremesystems.org/Forums/showthread.php?t=202009 y es la 4870 normal imaginaros la 4870x2

Prava

#40 Mae mía la de cosas que uno puede leer por aquí...

¿Qué diferencia hay entre un QX y un Q? Pues ÚNICAMENTE que el QX lleva el multiplicador desbloqueado, por lo que para tema de OC podrás subirlo más y tal. Pero vamos, un [email protected] rinde igual que un QX9650, puesto que es exactamente lo mismo.

Las cpus hacen cuello de botella en juegos donde tenemos chorrocientos fps, puesto que es ahí donde se quedan cortas: entre IA, sonidos y la carga que le suma la gpu por cada frame se ahogan. Pero en pocos fps las ganancias son mínimas o ninguna, la cpu no afecta para nada.

#39 No estoy para nada de acuerdo. Si a la gente con OC les da por saco el warhead es simplemente porque no tendrán el oc bien testeado o porque habrá algún problema en drivers. Pero vaya, asumir que el OC es el culpable de que un juego vaya mal...

#31 Superficus, no hay ninguna parte de la memoria gráfica reservada para la física, ninguna. Si usas física, evidentemente una parte de la memoria se usará para esta, pero nada más. Sería estúpido que en tarjetas de 320mb se usaran 64mb para física...más aún cuando CUDA (que es lo que se usa para correr physx) ha salido muuuucho después de la salida de las G80.

asesino00

Un qx6850 de65 a 3ghz no rinde igual a un qx9650 a 3ghz este ultimo al ser de 45nm rinde bastante mas (no una exageracion pero si) por tema de arquitectura es algo mejor en lo que no ahi practicamente diferencia es del q9650 al qx9650 la diferencia es el tema de temperatura los de 45 nm son mucho mas frescos, ahi alguna mas por ejemplo que los qx son de la mejor remesa y son testeados primero y segun del rendimiento que den se les dejan como qx o los capan y por ultimo el tema de temperatura los 9xxx son muchos mas frescos al ser de 45 se calientan bastante menos por lo cuales algunos son buenisimos para ocear como el 9550 con el nuevo step creo recordar e0 o el qx9650 o q9650 (siendo mas facil estabilizar un qx9650 que un q9650 por tener el multli desbloqueado)

PD: En pruebas de cpu del 06 o del vantage ahi una diferencia en las pruebas de cpu de 3000 puntos aprox en la misma velocidad 6850 vs 9650

#42 ¿Creo que has querido decir de un q6600 a qx6850 a 3ghz no? y cuando hable del cuello de botella solo me referia cuando la tarjeta va el maximo quizas me exprese mal pero siempre algo se nota minimo y con ayudas de programas que te dicen los fps porque visualmente es imposible.

Unr3al

#43

QX6850: 65nm, 3Ghz, fsb333, 2x4mb L2
QX9650: 45nm, 3Ghz, fsb333, 2x6mb L2

Ahí mucha diferencia no puede haber...

asesino00

Pues en el cache ya se nota y como he dicho no ahi una gran diferencia pero si la ahi enserio mirar resultados en pruebas de cpu veras como hacen mas puntos los nuevos que los viejos es como en los coches un ibiza de 90 cv no corre igual que un saxo de 90cv entra en cuenta mas factores. Yo calculo a ojo que un qx6850 a un qx9650 a 3ghz el 9650 superara en un 15% mas en rendimiento a pleno rendimiento. Lo repito de nuevo en operaciones normales no se nota pero en operacion en las cuales llevas al limite el procesador uno tardara menos que otro y repito otra vez un usuario normal que no haga bench como el 95% del mundo seria incapaz de diferenciarlos y os puedo asegurar que no merece la pena pagar por estos procesadores a no ser que le des un autentico uso profesional y aun asi tengo mis dudas.

En ningun momento he hablado de calidad precio solamente de cual es mejor o si merece la pena que creo que la gente me confunde a un usuario normal un pc que sobrepase de los 1000 euros ya es una maquina muy potente y no va a notar la diferencia a estaciones de trabajo pero un profesional que lo use para trabajos reales si lo notaria. Y como pasa en muchas cosas cuando llegas ala barrera del limite un 5%mas de rendimiento se paga carisimo al igual que pasa con los crossfire pagar el doble por solo obtener un 30% es una estupidez desde mi punto de vista a no ser que te sea muy util o te sobre el dinero y te de lo mismo gastartelo.

asesino00

http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3137&p=5

Aki esta el ejemplo de lo que he puesto arriba.

Prava

Veo que no has leído el artículo que citas. La ÚNICA diferencia entre un QX9650 y un QX6850 es que el primero implementa las intrucciones SSE4 por lo que, en aplicaciones que hacen uso de dichas instrucciones SÍ que hay mejora de rendimiento... en todo lo demás las diferencias clock a clock son mínimas, en ningún caso hay mejoría del 15%, en ningún caso.
La arquitectura es exactamente la misma, pero con la nueva instrucción.
En tema de OC es distinto, no es que por tener el multiplicador desbloqueado sea más fácil de estabilizar (los E8600 están haciendo casi 5ghz sin complicarse demasiado), sino que a la hora de trabajar con ocs extremos, es mucho más sencillo tirar de multiplicador que no de FSB, puesto que el FSB siempre tiene límites (y para conseguir más de 5ghz con un multi de 9 hacen falta FSB altísimos que las placas base no suelen aguantar).

Cuando pasemos a los i7 es cuando habrá diferencias de rendimiento clock a clock (se habla de mejoras en torno al 30%) quitando de lado las nuevas instrucciones y la posibilidad de correr dos hilos por cada ciclo de reloj.

Cuando la gpu va al máximo... las gpu siempre van al máximo, si pueden sacar 100fps los sacan, a menos que limites tú el máximo de fps. Y salvo en hl2 engine, en el 99% de los juegos restantes influye mucho más tener una vga mejor que no una cpu mejor o hacerle overclock a esta. Cuanta más calidad gráfica y más resolución menos afecta, por lo general, la cpu a los juegos, puesto que ahí no vamos sobrados de fps y la cpu siempre irá más holgada.

asesino00

Yo veo en algunos test un 10% en las pruebas la velocidad del core es la misma es obvio y bueno quizas me haya equivocado en que llevan arquitectura diferente imaginaba que al ser 45nm esta cambiaba tampoco me informe del resto para ln2 encontrar una placa que aguante de 600 fsb es dificil y que aguanten las memorias. Y como e dixo arriba es mejor y no le deis mas vueltas si quieres te busco resultados a 4ghz con 9650 y a 4ghz con el mismo procesador en pruebas de 3dmark aver cual da mas puntos y podras ver un incremento de entre el 10 y el 15 (No se porque pero ahi estan los resultados y sino dejame un qx9650 y hacemos la comparacion con mi grafica veras como saca muchisimos mas puntos en cpu el 9650 alo mejor solo es en esta prueba en todo lo demas es mejor mi qx6850 pero vamos lo dudo mucho esta bastante desfasado ya).

PD: Yo tambien se overclockear y no he querido entrar en temas de fsb ni explicar porque es mejor un qx o que multlipcador son los recomendables he hablado en general pasate por overclocking.es y lo preguntan ahi estan los mejores ocers de españa y que te lo expliquen mejor que yo si quieres pero el 9650 es bastante mejor que el qx6850 y no solamente porque llegue a 4.2 ghz diarios si te sale bueno sino por temperaturas y rendimiento.
Por cierto el fsb wall esta en el micro cualquier placa ahora mismo te aguanta un fsb alto para llegar a 4ghz otra es que te aguante el micro 450 o 500 fsb te aguanta cualquier placa de 100 euros... 450x9 = 4050 el problema son los quads los duals aguantan bastante mas fsb que los quads

No todas las gpus van al maximo ... ahi juegos que no soportan multigpus 9800x2 etc etc y yo no e dicho en ningun caso que la cpu sea mas importante que el micro, al reves me referia que la cpu es un suplemento de la gpu a dia de hoy se tira mas de grafica que de procesador para casi todo pero aun asi va delimitado por el micro sino ponle a la 280gtx un p4 a 4ghz veras cuantos puntos sacas (aunque eso lo sabras) y sobre nehalem unos dicen que va a ser una basura aparte que no interesa comprar para dos años que va a durar el socket y todo son suposiciones eso ya veremos.

1Saludo

Prava

Aquí estamos mezclando melones y peras: no tiene nada que ver lo que saque un micro o vga en un bench que el rendimiento que saque dicho producto EN LA VIDA REAL.
A mí no me interesa si un micro saca un 10% más o no lo saca en un bench, sino si dicho cambio realmente está ahí.

No niego que entre un QX6850 y un QX9650 pueda haber diferencia... la hay, puesto que como ya he dicho los penryn implementan las SSE4, cosa que los 6XXX no. Pero si comparas un Q9550 con un QX9650, por poner un ejemplo mucho más plausible, a igualdad de clocks el rendimiento será el mismo.. otra cosa es que el QX te de más juego de OC y todo eso, pero vamos.

asesino00

Ahi estoy totalmente de acuerdo, igual que un q6600 a 3ghz con un qx6850 a 3ghz que lo he dicho por ahi arriba que los resultados serian los mismo otra cosa es que uno suba mas que otro ya que son iguales practicamente.

Creo que nos hemos desviado un poco del tema ya que el post era de cual era mejor la 4870x2 o la gtx 280 ^^ y el tema de los micros salio porque alguien dijo que con el oc se obtenian los mismos resultados que sin el en los juegos y comente que no ivas a obtener el mismo resultado con un 6850 que con un 9650 nada mas en la misma velocidad.

Si quieres abrimos un post y seguimos hablando de si merece la pena pagar burrads por micros pudiendo obtener los mismos resultados con oc en gama media que parece interesante. (Yo soy de los que piensan que no merece la pena comprar determinados productos por el precio y la escasa diferencia al modelo anterior)

1 Saludo

Gn0m4

Veix, tal vez te convendría ver este último análisis publicado la semana pasada:

http://www.legionhardware.com/document.php?id=775&p=0

11 meses después
w4k4

#8 imporesionante la gtx 260 por el precio y el rendimiento en ciomparacion con las demas ... ni 280 ni x2 260 con ampliacion sli en futuro... es una gran opcion que no dista demasiado de las otras siendo estas mas caras

#42 me podrias explicar que es exactamente cuda y como se complementa con physx ?, he buscado pero no me queda demasiado claro

FlameThrower

Ni te molestes en informarte physx y cuda solo funcionan en las aplicaciones que lo soportan el resto cero patatero. El único juego que de momento soporta physx con algo que realmente se note es Mirror's Edge (bueno y GRAW2 pero la diferencia es tan absurda que no merece la pena). CUDA no vale para juegos.

w4k4

entonces recomiendas desactivarlo para la mayoria d los juegos ?

un juego q use physx rendira mas si lo desactivas ?

FlameThrower

Desactivarlo no te va hacer aumentar el rendimiento porque simplemente no lo estás usando, esos cálculos físicos no lo está haciendo la tarjeta. Supuestamente si un juego soporta physx y lo desactivas debería rendir mejor.

w4k4

pues vaya te pintan el physx como el nova mas ...

aver si se empieza a aprovechar bien, por que estuve viendo unos videos del mirrorŽs edge con y sin physx y joder que diferencia, pero no encontre comparativas de otros juegos ...

FlameThrower

http://en.wikipedia.org/wiki/PhysX

Ahí tienes la lista de juegos que lo soporta, la pregunta es ¿Qué hace en cada título? Ni idea, los únicos videos que hay son mirror's edge y una demo de un mapa especial que hay para Unreal Tournament. Nvidia vendiendo aire vamos. Otra mierda más para que los juegos están optimizados para una sola marca y jodernos a todos. ATI está preparando lo mismo pero con otro engine físico el Havok... para mi son cuentos chinos hoy en día que hay procesadores de 4 núcleos que no se utilizan (en la mayoria de los juegos).

P.D: el último de Batman tiene physx también, acabo de verlo y me he pillado un rebote de la HOSTIA ¿pero que es este jodido TIMO? Es que directamente te capan el juego si no juegas con una nvidia. Yo tengo un 8800 gts 320 mb pero me parece inaceptable (tanto que no pienso comprar el juego) que la gente que tenga ATI no tenga acceso a los efectos físicos porque no. Si me dijeran que son efectos que no puede hacer una CPU normal pero es que no, o physx o NADA, pero lo que se dice NADA, ni efectos de partículas, ni objetos movibles ni otros efectos que ni siquiera dependen de la gráfica. Vaya panda de putos ladrones.

w4k4

bueno sobre estos temas no entiendo mucho que digamos son demasiado nuevos para mi , pero no es normal que nvidia no comparta sus tecnologias con la competencia ? no se , tambien es verdad que casi te obligan a comprar nvidia en vez de ati, pero no deberia ati actualizarse rapido para no perder el "tren" ? la verdad veo que aun no se le saca provecho a un quad core o al physx por lo que me comentas, pero para un futuro proximo pienso q tanto ati como nv tendran soportes similares , si no no tendria sentido seguir comprando ati, no se solo es mi opinion

PD:gracias por el link

FlameThrower

No si es normal que Nvidia no libere sus tecnologías pero el problema aquí es que no te da otra opción. En fin cualquier motor gráfico podría funcionar exactamente igual con physx o sin physx con la diferencia de que los cálculos físicos los realizaría la gráfica, ¿Ok? El problema es batman no tiene ningún efecto si no usas physx y son básicos que se llevan aplicando muchos años sin necesidad de que te lo haga la gráfica.

Te pongo el video a ver si lo entiendes:

w4k4

la verdad q si es un poco triste el cambio en el batman, joder hasta kitan las banderas colgantes nada de humo objetos irrompibles, si no recuerdo mal el fear 1 tenia algunos de estos efectos sin usar physx o por lo menos bastante logrados ( para aquel tiempo )

amos q menuda basura el batman, se lo podian haber currado un poco y no caparlo tanto