Como no espabilen esto terminará en class actions de algún tipo.
No se puede sacar un producto al mercado así, las limitaciones son claramente abusivas.
Lo de como doblar el cable me recuerda a lo de como coger un iPhone 4 para llamar por el Antennagate.
Que al final Apple tuvo que regalar bumpers para que la gente no tocará las antenas y perdieran cobertura.
#3567 Eh pero tú no eras el que decía que no había que preocuparse cuando puse el video de JayTwoCents diciendo que el adaptador traería problemas por una cosa u otra tanto por lo de la potencia como lo de angularlo
Menuda mierda de diseño.
Pues toma, el tiempo le ha dado la razón xD
Venga mas cosas, el de la asus ha subido la parte del manual de instalacion que habla del cable
Como se puede ver no hay referencia alguna de como debe de ir el cable, asi que ya me diras tu como narices va a saber como colocar bien el cable el usuario xD
#3576 Es lo que comenta Jay en el video que he puesto que casi parece que hayan creado el Estandar Intel para seguir con el antiguo y joder a la competencia xD
#3577 No pueden culpar al usuario si encima no lo pone en el manual.
Se han doblado cables toda la vida y anda que no se han forzado 24 pin, 12pin y los PCIE de 8pins y nunca pasan estas cosas.
Dios... 2600€ de gráfica pero con unos conectores que se funden y arden... conforme más pasa el tiempo, más me alegro de la 3090... Nvidia tiene un follon enorme entre manos...
PD: Por cosas como estas, muy posiblemente EVGA deben estar con el champán celebrando no estar perdiendo dinero ahora mismo xD
Por no hablar de la gente que hace sleeving, algo básico en mucha gente que ensambla pcs de alto rango. Como para meterle mano al cable xdd
i see a 3 degree bend, your gpu is gonna burn and won't be covered by warranty.
keep your cables straight.
xDDD
No se si el conector es malo, pero si se que el adaptador es una chapuza. Es imposible mantenerlo recto. Los cables no tienen la rigidez para aguantar el peso de los 4 cables PCie que cuelgan de el, con lo que no me extrañará nada ver mas y mas mensajes de conectores quemados.
No pueden ponerse rectos, se acaban doblando del peso.
Edit: solo para comparar, este es el cable de la PSU Thermaltake Toughpower GF3 1200w (ATX 3.0).
Igualitos...
Mas les vale solucionar esta chapuza, que ya me veo la 4080 con los mismos problemas y que se me joda por esto.
#3574 Si, como ya he dicho, no esperaba que llegase a suceder al usuario final la verdad...
Es que directamente no tiene sentido sacar un producto así al mercado, no pensé que realmente fuesen tan inútiles, y los tests realmente estaban hechos en condiciones bastante "extremas" para las specs del conector.
Pero visto lo visto sí que es una chapuza y esto traerá cola.
Que asco da el tema de pc, como saquen pronto la ps5 pro o Xbox pro me compro la consola y a tomar por culo
#3588 Al paso que vamos si solo quieres jugar y no estas en algún genero mas dominante en pc (MOBA, MMO, estrategia) va a ser la mejor solución para la gente "normal".
#3589 el lol está tardando en salir en plataformas de consola con teclado y raton
Vamos es que iria a 2000 fps
#3590 No vas errado. Es algo que ya se empezó a comentar en los pasillos de Riot, o al menos varios colegas que curran ahí me comentaron. Pero mas que nada, para dar opcion a los que no tienen PCs pero si consola, a jugar. No para hacer una version mejor ni nada por el estilo.
#3591 tendría sentido, aunque para jugar con mando no es complicado?
Los cambios que están haciendo de simplificación del lol en algunas cosas creo que puede terminar en que wild rift sea el dominante en todas las plataformas
#3594 Partiendo de la base que cancelaron la producción de la 4090 Ti porque literalmente se les quemaba y fundia la placa base... no apunta a muy buenas cotas esta gen4000.
Me veo nvidia sacando un modelo revisado separando los conectores y haciendo dos ranuras 12 pin, para separarlo y no tener tanto calor concentrado en un solo punto. 1x12 PCie - 4 PCIe --> 2x12 - 2 PCIe por cable (reduces temperatura en esos puntos). Pero eso requiere rehacer las gráficas, replantear la forma, y que todas las que existen y se han vendido... suerte con las pérdidas xD
Es una puta locura que ese conector sea tan jodidamente malo, y que ese cable tenga 4 PCIe.
Quienes se hayan vendido (o malvendido) una 3080/ti o 3090/ti para hacerse con la 4090... menudo fail xD
#3555 Que malas las gráficas que consumen 300W o esas TVs 8K que consumen 400.
Luego un amigo que vive en Alemania comprando uno de estos para su casa porque le ha petado el que tiene
https://www.amazon.es/Stiebel-Eltron-DHB24ST-Calentador-continuo/dp/B0017VH4BE/ref=sr_1_8?keywords=calentador+de+agua+continuo+electrico&qid=1666691444&qu=eyJxc2MiOiIxLjk5IiwicXNhIjoiMC4wMCIsInFzcCI6IjAuMDAifQ%3D%3D&sprefix=calentador+continuo+agua%2Caps%2C94&sr=8-8
#3596 Just saying, que aquí has metido la pata hasta el fondo eh xD
Energía calorífica no es lo mismo que potencia eléctrica...
#3597 No te digo que no, pero me revienta que salten con que 300W de mierda haya que prohibirlo.
PD: creo que no es el caso
#3598 No se prohibe por eso exclusivamente. La excusa que han usado para la prohibición es de chiste. Pero el motivo real es más enfocado a:
- No hay contenido suficiente en 4k como para justificar un 4k pero se aprecia la diferencia vs HD/FHD a las distancias en las que los televisores se ubican en los salones.
- Un 8k a día de hoy tiene entre 0 y nada de contenido disponible para ser visionado, y los costes de producir esos paneles son desorbitados, así como producir su contenido.
- La diferencia de calidad entre 4k a 5m de distancia, y 8k a 5m de distancia, es literalemente imperceptible para el ojo humano. Y para poder ver diferencias reales, deberías estas a menos de 3cm del panel (algo que ningun humano haría).
- El incremento de consumo, no se puede justificar ante la nula mejora perceptible, por lo que es un "gasto" innecesario de energia.
No comparto la decisión, pero la entiendo.
En el caso de las gráficas, es un gasto absurdo de energía, pero aunque nos joda, hay una mejora jodidamente brutal en W/Rendimiento (Consumen igual o menos que las 3000, y generan un 40-70% más en raster puro, mayor con Reflex y DLSS). Esto, aunque gasta igual que las anteriores, tiene una "mejora" palpable y demostrable.
Luego, estoy de acuerdo que hay que cambiar esto. Porque la eficiencia no es solo sacar mejor Rendimiento por W, sino tambien incrementar esto bajando el consumo. Y esto, es lo jodido.
Te duplico los cores, duplico el consumo, y sigo siendo mejor. Pero si duplico cores, y bajo un 25% el consumo de cada core, eso SI sería un avance.
#3599 Pero que no tienen ningún derecho a decir lo que podemos gastar o no.
Que es tu puta casa. Como si quieres tener el calefactor y el aire acondicinado a la vez 24/7 mientras pagues la factura de la luz.