ratmei escribió:@Pollonidas gracias pues es posible que la pille uff de fuente estoy justo tengo 3900x y 850 wtts de fuente
ratmei escribió:@Kin pues no lo habia pensado así gracias por la idea y la vram 16 más que sobrado aunque siempre me tira más las nvidia también e visto una 3080 ti 12 ram con 3 años de garantia
MrKafka escribió:Yo he tenido dos Zotac (3080 y 3080Ti) y personalmente son ensambles que no recomiendo. Muy ruidosas y calentorras. Y respecto a la 3090, yo he tenido 2 Msi suprimX y cada una me salió por 600€. Con menos tiempo y más garantía. Hoy en día no pagaba 570€ ni aunque fuera completamente nueva. Son gpus que ya han quedado en el limbo, porque nadie paga lo que piden.
Ojo, hablamos para gaming.
o 7900GRE o 4070Ti por 600 y pico que estaba de oferta.
ratmei escribió:@ditifet gracias por tu aporte la verdad que si no cambio de idea el sabado pillo la 3090 hay otra que también la tengo vista 3080 ti que la iguala a la 3090 excepto por la ram voy a mirar las 4070 s a ver k precio están
Kin escribió:@ditifet Entiendo tu postura y veo muy bien la 4070 super si es factible por esos 600€, lo de la 3090 no lo comparto y menos aun que digas que estas graficas en general a 4K se defienden, cuando eso no es cierto, tengo hasta dificultades con una 4080 en mantener los 60fps en ultra según que juego y la verdad que ni me gusta el FG (porque me obliga mantener activado el HAGS en windows y da muchísimos problemas de shuttering) y menos aun el DLSS, pague un pastizal por una grafica que si tengo que tirar de reescalados me deprimo y no me hace ni puta gracia.
Por lo que graficas como las mencionadas (4070s/Ti y 3090) vas a necesitar de ayudas en reescalados para 4K sin duda y pensaba que era para una configuración de 1080/1440 como mucho, por eso aconseje tambien el 5700X, tampoco @ratmei dijo nada de que resolución pretendía usar para jugar.
Los consumos lo has explicado muy bien y oscilan esos parámetros, nada mas que añadir.
ditifet escribió:Lo siguiente para el compañero @pollonidas sobre la fuente. Con un 5600x con todos sus nucleos a 4650mhz y consumiendo él solo 118W + la 3090 apretada hasta consumir ella sola 391w pues con una CMW de 650w ni un solo problema.
El op vale que tiene un 3900x que traga mas pero 850w hay 200w mas de margen, iría muy sobrada si la fuente es medianamente pasable. Y teniendo en cuenta lo repetido hasta la saciedad, en escenarios reales NINGÚN equipo pone la CPU y GPU al límite a la vez.
Pollonidas escribió:ditifet escribió:Lo siguiente para el compañero @pollonidas sobre la fuente. Con un 5600x con todos sus nucleos a 4650mhz y consumiendo él solo 118W + la 3090 apretada hasta consumir ella sola 391w pues con una CMW de 650w ni un solo problema.
El op vale que tiene un 3900x que traga mas pero 850w hay 200w mas de margen, iría muy sobrada si la fuente es medianamente pasable. Y teniendo en cuenta lo repetido hasta la saciedad, en escenarios reales NINGÚN equipo pone la CPU y GPU al límite a la vez.
Yo te puedo decir porque lo he visto en primera persona, que con un 3900X que es lo que tiene el compañero (que he dicho que estaba de stock, pero para ser totalmente sincero creo que tenía activado PBO) y una 3090 FE con el power limit al máximo, una fuente Antec HCP-850 (80+ platinum, un modelo viejo pero muy bueno) se apagaba tras unos minutos de FS2020. Uso real, nada de tests que cargan CPU+GPU de forma artificial. Te garantizo que no solo no va sobrada sino que NO hay margen. Para tenerla con el power limit de stock, seguramente aguante. Pero a mí lo que me daba miedo es si la fuente del compañero era NOX o similar, que son 850w pero pequeñitos.
Saludos
ratmei escribió:@Kin tengo 2 un monitor a 2k y una tv samsung qled a 4k esas son las que voy a utilizar por eso el buscar 3090 por la vram al tener 24 ram el 4k ira algo mas fluido todo en ultra
ditifet escribió:Pollonidas escribió:Ya te digo que mi 5600 con OC (118W) + 3090 con OC (391W) ni en test sintéticos (furmark, heaven, superposition, passmark ni kombustor se apaga) , jugando mucho menos, y es una CMW de 650+
100% seguro porque antes cambié de un 10400F al 5600 y para ver la diferencia que habia "ganado" le di caña. Además una 3090 tiene el mismo TDP y consumo que una 3080ti que es la que tenia antes y tampoco tuve problemas.
Vale que este 5600 consume 120 y el 3900x pasa los 300 pero es que de mi fuente a una 850 de calidad hay los 200w de diferencia, y eso con carga a tope que jugando no pasa. Es muy raro lo de tu colega, seguro que no tenia cascada la fuente? o bueno con el PBO también roe algo mas... pero vamos si el @kin no tiene una basura de fuente le tiene que funcionar con una de 850w, jugando no pasa de 150w la cpu y la gpu 350w, todo sin UV, si hace los deberes y le hace UV a las dos cosas ya es mas seguro todavía.
Pollonidas escribió:ditifet escribió:Pollonidas escribió:Ya te digo que mi 5600 con OC (118W) + 3090 con OC (391W) ni en test sintéticos (furmark, heaven, superposition, passmark ni kombustor se apaga) , jugando mucho menos, y es una CMW de 650+
100% seguro porque antes cambié de un 10400F al 5600 y para ver la diferencia que habia "ganado" le di caña. Además una 3090 tiene el mismo TDP y consumo que una 3080ti que es la que tenia antes y tampoco tuve problemas.
Vale que este 5600 consume 120 y el 3900x pasa los 300 pero es que de mi fuente a una 850 de calidad hay los 200w de diferencia, y eso con carga a tope que jugando no pasa. Es muy raro lo de tu colega, seguro que no tenia cascada la fuente? o bueno con el PBO también roe algo mas... pero vamos si el @kin no tiene una basura de fuente le tiene que funcionar con una de 850w, jugando no pasa de 150w la cpu y la gpu 350w, todo sin UV, si hace los deberes y le hace UV a las dos cosas ya es mas seguro todavía.
Yo te digo lo que he visto, para que luego no haya sorpresas. Creo que no tiene sentido discutir porque justamente el caso que describo es el procesador del compañero y la gráfica del compañero, soy consciente de lo que consumen los componentes, pero leñe, es que exactamente esto lo he probado yo. No va sobrado, va justo. El consumo de un 3900X no tiene nada que ver con el de un 5600 (incluso con OC), y tampoco te puedes fiar de las lecturas de consumo por software porque muchas cosas relativamente relevantes (como las pérdidas en las fases) no se tienen en cuenta, aparte de que tienen un margen de error muy grande (a veces de +-20% del valor real medido con esto).
Sobre si la fuente podía estar estropeada, pues desde luego es posible, pero pienso que poco probable, porque con la anterior GPU en el mismo PC (que era una 2070) y overclock a todo no dio ningún problema, aunque ciertamente el hecho de que una fuente de 850W funcione bien con 650W de consumo real no nos garantiza que esté bien. Esa fuente la tuve yo antes en varios PCs de consumo moderado/alto y sin problema, pero en casa de este amigo no tenía un medidor de consumo para poder verificar nada.
Este chico quería overclock sí o sí porque no le iba bien del todo el FS2020, yo le recomendé cambiar el procesador a un 5900X en su lugar, porque también hace edición de vídeo y el 5800X3D era un downgrade en varios aspectos y a un Zen2 le puedes exprimir lo que quieras que en FS en particular nunca se va a llegar al mismo rendimiento. Al final cambió la fuente por una peor pero de 1000W (gigabyte, de las que explotan, pero parece que ha tenido suerte) porque el gasto del 5900X le venía bastante mal después de gastarse 1600 cocos en la 3090 (aunque fuera a su MSRP) en plena pandemia/boom de las crypto. No sé qué ha sido de la Antec a partir de entonces, creo que la vendió.
...que incluso con OC sin subir el power limit y con el procesador estrictamente de stock (es decir: sin PBO) probablemente sea suficiente con 850W de una fuente buena, sin duda. Pero como dices, no sé qué fuente tiene el OP, y en esos casos suelo pensar mal hasta que se demuestre lo contrario.
Saludos
ditifet escribió:No discutimos compañero, yo solo discuto con la rata chivata que todos ya sabemos quien es, contigo solo debato
A ver está claro que mi 5600x no tiene nada que ver con el 3900x pero es que mi fuente es de 650 y la del op o la que me estoy refiriendo es de 850, hay 200w de diferencia.
Mirando mas detenidamente incluso me lo pones peor, el 3900x pensaba que consumiría mas de 300w pero por lo que he visto se queda en menos. Incluso gente con un 10900k que consume mas y una 3090 le funciona sin problemas con 850w
https://www.reddit.com/r/buildapc/comme ... _i910900k/
otros con el 3900x
https://www.reddit.com/r/nvidia/comment ... 3900x_psu/
y aquí un vidrio mismo
El tio este los tiene con una simple thermaltake bronze de 750W, aunque le hagas OC a las dos componentes a poco que uses una gold de 850w te da de sobra.
SI tomamos las webs que te recomiendan las fuentes pues incluso te dan para una de 700w (de stock , por lo que suma el OC de ambos que ya repito jugando NUNCA ESTÁN AL 100% A LA VEZ)
https://es.whatpsu.com/psu/cpu/AMD-Ryze ... e-RTX-3090
Pero bueno también como dices, depende de la fuente, pero la Antec 850 platinum de tu colega es practicamente imposible que no estuviera mal porque le daba perfectamente igual que con una RM de corsair mismo o una Whisper todas de 850w, no digo que no te crea pero algo raro o mal habia ahí.
@ratmei cabronazo suelta por esa boquita que fuente usas que nos tienes en ascuas aquí debatiendo si te va a explotar toda la casa o no
ratmei escribió:@ditifet si una de 850 https://www.pccomponentes.com/nfortec-s ... ll-modular esta es mi fuente yo tengo la 2080 super puesta pero como voy a armar otro pc yo me meto la 3090 y al otro pc le pongo la 2080 super y perdona no e podido contestar antes.
Mi placa es una msi 570 pro garming WiFi y procesador amd 3900x y 32 Gram
ratmei escribió:pues si la verdad y pillo otra fuente también estado viendo las 4070 ti que parecen que igualan a la 3090 excepto por la vram que son de 12 gvram
Kin escribió:ratmei escribió:@Kin pues no lo habia pensado así gracias por la idea y la vram 16 más que sobrado aunque siempre me tira más las nvidia también e visto una 3080 ti 12 ram con 3 años de garantia
Pero hablamos de productos nuevos vs segunda mano en este caso, si quieres jugártela tu decides, pero también ten en cuenta que no todo es garantía, te llevas procesador (si decidieras cambiarlo) y grafica con consumos mas bajos, aparte de que sus tegnologias son mas recientes y si sufrías por la fuente en este caso tienes también algo mas margen.
Te digo también si la serie 3000 no hubiera sufrido temas minado (fiate tu) y la putada de NVIDIA con el FG del DLSS3 siendo exclusivo para la serie 4000, entonces no pondría ninguna objeción con la RTX 3090 porque sigue siendo una grafica IMPRESIONANTE.
No me caso con nadie, me la SUDA AMD o NVIDIA, a mi nunca me han regalado nada, solo busco lo mejor en ese momento y al mejor precio.
Por lo que "por ejemplo" un 5700X y la RX 7900 es un paso adelante, la RTX 3090 a secas tampoco esta tan mal como elección, pero tienes sus pros y contras.
También decir que NVIDIA es mejor para juegos y milongas, son fanatismos, AMD y NVIDIA hoy en dia son muy similares con sus graficas.
nagatoup escribió:Kin escribió:ratmei escribió:@Kin pues no lo habia pensado así gracias por la idea y la vram 16 más que sobrado aunque siempre me tira más las nvidia también e visto una 3080 ti 12 ram con 3 años de garantia
Pero hablamos de productos nuevos vs segunda mano en este caso, si quieres jugártela tu decides, pero también ten en cuenta que no todo es garantía, te llevas procesador (si decidieras cambiarlo) y grafica con consumos mas bajos, aparte de que sus tegnologias son mas recientes y si sufrías por la fuente en este caso tienes también algo mas margen.
Te digo también si la serie 3000 no hubiera sufrido temas minado (fiate tu) y la putada de NVIDIA con el FG del DLSS3 siendo exclusivo para la serie 4000, entonces no pondría ninguna objeción con la RTX 3090 porque sigue siendo una grafica IMPRESIONANTE.
No me caso con nadie, me la SUDA AMD o NVIDIA, a mi nunca me han regalado nada, solo busco lo mejor en ese momento y al mejor precio.
Por lo que "por ejemplo" un 5700X y la RX 7900 es un paso adelante, la RTX 3090 a secas tampoco esta tan mal como elección, pero tienes sus pros y contras.
También decir que NVIDIA es mejor para juegos y milongas, son fanatismos, AMD y NVIDIA hoy en dia son muy similares con sus graficas.
Hasta que te pones a jugar a realidad virtual y ves que los que tú llamas "milongas" es la realidad.