FranciscoVG escribió:neox3 escribió:PepeC12 escribió:
Tengo la impresión que la mejora de rendimiento bruto sin dlss2 ni rt va ser bastante decepcionante, sobretodo en la serie 4080 tanto la buena como la fake.
También os digo que aunque el aumento de rendimiento es brutal con dlss3 la calidad de imagen no me da buen rollo en absoluto.
Lo bueno es que tenemos las matemáticas, para poder hacer ideas aproximadas según las variables y datos de que disponemos
Guiandonos por este resultado, y comparando la cantidad de cuda cores, podemos hacer unos cálculos matemáticos aproximados:
4090 -> 16.128 cuda cores
3090ti -> 10752
4080 16gb -> 9728
4080 12gb -> 7680
si hacemos medias para extrapolar el resultado:
* si 16128 cudas sobre 10752, que es un 52% más de cuda cores, nos da un 63% de rendimiento extra con esos cuda a mayores, significa que cada curacore en la nueva generación aporta un incremento de rendimiento del 1,22%
la 4080 16gb: tiene un 90,4% de los cudas de una 3090ti -> rendimiento esperado: cudas *1,22% -> 110% -> 10% sobre una 3090ti
la 4080 12gb: tiene un 71,4% de los cudas de una 3090ti -> rendimiento: cudas * 1,22% -> 87,1% -> -13% de una 3090ti
OJO! que existen más factores a tener en cuenta como que las 4080 su bus de memoria es inferior a las 3090ti lo que bajaria los resultados, pero sobre el papel, con el rendimiento de los cuda... parece que esto puede ser la realidad o muy cerca... veremos... pero con esto cuadraría el que quieran vender a toda costa y solo hablen y hablen de DLSS3
Pero esa diferencia es por la frecuencia no por que los cudas tengan mas rendimiento
Lo que tu estas intentando calcular es el rendimiento teorico pero lo estas haciendo mal por que no estas teniendo en cuenta la frecuencia, en nvidia es (cudas x frecuencia x 2), ese calculo te da la potencia teorica que es lo que se mide en flops
Esto ya lo pusimos varias veces ( al menos yo)
3090Ti = 40Tflops -Tiene mas cudas pero menos frecuencia
4080 12Gb =40 Tflops -Da lo mismo que la 3090Ti por la diferencia de frecuencia
4080 16Gb =50 Tflops
4090 = 80 Tflops
Eso es sobre el papel y pese a que deberia ser bastante exacto en el caso de la 4090 lo normal es que no sea un x2 de la 4080 por que cada arquitectura tiene un limite, por cierto el Geekbench no vale para nada, mejor esperar a las pruebas reales
4080 12Gb =40 Tflops -Da lo mismo que la 3090Ti por la diferencia de frecuencia
neox3 escribió:empiezan a aparecer los test independientes: (fuente: videocardz)
4090 +63 % sobre RTX 3090 Ti y +78% sobre RTX 3090
4090 --- 424332 CUDA Score
3090ti -- 260346 CUDA Score
3090 --- 238123 CUDA Score
empezamos bien con el 2x-4x de nvidia...
hh1 escribió:neox3 escribió:empiezan a aparecer los test independientes: (fuente: videocardz)
4090 +63 % sobre RTX 3090 Ti y +78% sobre RTX 3090
4090 --- 424332 CUDA Score
3090ti -- 260346 CUDA Score
3090 --- 238123 CUDA Score
empezamos bien con el 2x-4x de nvidia...
Vaya jodida bestia.
Pero eso es con DLSS 3 o en rasterizado?
leveju escribió:FranciscoVG escribió:neox3 escribió:
Lo bueno es que tenemos las matemáticas, para poder hacer ideas aproximadas según las variables y datos de que disponemos
Guiandonos por este resultado, y comparando la cantidad de cuda cores, podemos hacer unos cálculos matemáticos aproximados:
4090 -> 16.128 cuda cores
3090ti -> 10752
4080 16gb -> 9728
4080 12gb -> 7680
si hacemos medias para extrapolar el resultado:
* si 16128 cudas sobre 10752, que es un 52% más de cuda cores, nos da un 63% de rendimiento extra con esos cuda a mayores, significa que cada curacore en la nueva generación aporta un incremento de rendimiento del 1,22%
la 4080 16gb: tiene un 90,4% de los cudas de una 3090ti -> rendimiento esperado: cudas *1,22% -> 110% -> 10% sobre una 3090ti
la 4080 12gb: tiene un 71,4% de los cudas de una 3090ti -> rendimiento: cudas * 1,22% -> 87,1% -> -13% de una 3090ti
OJO! que existen más factores a tener en cuenta como que las 4080 su bus de memoria es inferior a las 3090ti lo que bajaria los resultados, pero sobre el papel, con el rendimiento de los cuda... parece que esto puede ser la realidad o muy cerca... veremos... pero con esto cuadraría el que quieran vender a toda costa y solo hablen y hablen de DLSS3
Pero esa diferencia es por la frecuencia no por que los cudas tengan mas rendimiento
Lo que tu estas intentando calcular es el rendimiento teorico pero lo estas haciendo mal por que no estas teniendo en cuenta la frecuencia, en nvidia es (cudas x frecuencia x 2), ese calculo te da la potencia teorica que es lo que se mide en flops
Esto ya lo pusimos varias veces ( al menos yo)
3090Ti = 40Tflops -Tiene mas cudas pero menos frecuencia
4080 12Gb =40 Tflops -Da lo mismo que la 3090Ti por la diferencia de frecuencia
4080 16Gb =50 Tflops
4090 = 80 Tflops
Eso es sobre el papel y pese a que deberia ser bastante exacto en el caso de la 4090 lo normal es que no sea un x2 de la 4080 por que cada arquitectura tiene un limite, por cierto el Geekbench no vale para nada, mejor esperar a las pruebas reales
es mas, solo por la opimizacion de la nueva arquitectura va a rendir mas la 4080 de 12 gigas que la 3090ti sin contar con el DLSS y RT, no se pueden comparar 40 Tlfpos entre arquitecturas diferentes, por que en las nuevas van a rendir mas por eficiencia, otra cosa, a mas cudas cores peor escalado, o sea, proporcionalmente la 4090 no va a rendir mas que la 4080 de 16 gigas por los cudas cores que tengan, es decir que si la 4090 tiene un 40% de cudas mas que la 4080, no va a rendir ese supuesto 40% mas, rendira como mucho un 33% por que no escalan linealmente, al igual con la 4080 de 12 gigas con la de 164080 12Gb =40 Tflops -Da lo mismo que la 3090Ti por la diferencia de frecuencia
eso es lo que paso con la 1070 respecto a la 980ti, que la 980ti tenia muchisimos mas cudas cores pero la 1070 rendia mas por que tenia mas frecuencia
Bio81 escribió:APL9 escribió:Chicos una duda, con la 3090 ti se puede correr por ejemplo cyber punk todo ultra con el raytracing activado y a 60 fps ? O me estoy flipando ?
a 1440p con dlss en calidad puede , siempre y cuando se acompañe de un procesador a la altura , con el modo de ray tracing actual a 4k nativo imposible ni con la 4090 se podrá , y menos aún con el nuevo modo RT overdrive (todavía no a salido el parche que lo implementa) la 4090 saca unos 22 fps a 4k nativo con todo al máximo en dicho modo
la rtx 3090 ti no consigue los 60fps estables el 100% del tiempo pero la mayor parte del tiempo está por encima , 1440p DLSS calidad , todo al máximo ray tracing incluido
DarkMessiah escribió:zero2006xl escribió:Kuromao escribió:Hola Eolianos,
Me gustaría preguntar si alguien puede saber si tengo cuello de botella o algún problema de alimentación, PCI Express. o algo que impida dar un uso normal y adecuado a una 4080 16gigas con este PC:
Muchas gracias, siempre sois fuente primordial.
Va a estar descompensado pero si juegas a 60hz no tendrás problema. Es posible que conforme avance la generación (de consolas) los juegos para PC estén mejor optimizados para consola y peor optimizados para PC y pidan más CPU. Ahí podrías tener algún problema pero no por la GPU sino por la propia CPU independientemente de con qué tarjeta la juntes. Pero vamos, que si juegas a 60hz/fps no creo que tengas problema.
Aunque como te dicen por aquí quizá no necesites tanto, a una 3080 le vas a sacar el mismo partido.
Hombre tener una 3080 / 4080 y jugar a 60Hz... es para subirse por las paredes y más si dice que tiene un monitor de 144Hz.
Mejor que mejore todo en general y no sólamente un componente, si no puede mejorar todo, aunque le suponga coger una gráfica inferior.
sinchan610 escribió:buenas creeis que merece la pena comprar una 4090/ti 4080/ti ahora con su precio de salida si en un año/dos años te sale la 5060/ti 6060/ti a mitad precio y se folla a estas y es mas las mismas nvidia/amd te lo dicen y esto llevarlo a los procesadores con gama ryzen 7000 e intel gen23, ahora me direis es que si nos ponemos asi nunca comprariamos y no avanzaria la tecnologia y sabeis que es mentira
DarkMessiah escribió:sinchan610 escribió:buenas creeis que merece la pena comprar una 4090/ti 4080/ti ahora con su precio de salida si en un año/dos años te sale la 5060/ti 6060/ti a mitad precio y se folla a estas y es mas las mismas nvidia/amd te lo dicen y esto llevarlo a los procesadores con gama ryzen 7000 e intel gen23, ahora me direis es que si nos ponemos asi nunca comprariamos y no avanzaria la tecnologia y sabeis que es mentira
Wtf
Y quién te dice que en 2 años sacan la 6060Ti y revienta a las nuevas y encima a la mitad de precio?. La bola de cristal?.
Si tienes dinero pues ponte lo mejor que puedas en todo si lo vas a disfrutar y te merece la pena, sino pues tira con la 4090 Ti cuando salga y volando. Eso de estar años y años sin poder disfrutar al máximo en los juegos más pepino (aun a pesar de la basura de optimización de la mayoría) y conformarse con rendimientos a veces peores que en consola estando en PC… si puedes dale caña, vive el momento y en 2 años pues vendes la 4090Ti y compras la nueva. Easy
sinchan610 escribió:DarkMessiah escribió:sinchan610 escribió:buenas creeis que merece la pena comprar una 4090/ti 4080/ti ahora con su precio de salida si en un año/dos años te sale la 5060/ti 6060/ti a mitad precio y se folla a estas y es mas las mismas nvidia/amd te lo dicen y esto llevarlo a los procesadores con gama ryzen 7000 e intel gen23, ahora me direis es que si nos ponemos asi nunca comprariamos y no avanzaria la tecnologia y sabeis que es mentira
Wtf
Y quién te dice que en 2 años sacan la 6060Ti y revienta a las nuevas y encima a la mitad de precio?. La bola de cristal?.
Si tienes dinero pues ponte lo mejor que puedas en todo si lo vas a disfrutar y te merece la pena, sino pues tira con la 4090 Ti cuando salga y volando. Eso de estar años y años sin poder disfrutar al máximo en los juegos más pepino (aun a pesar de la basura de optimización de la mayoría) y conformarse con rendimientos a veces peores que en consola estando en PC… si puedes dale caña, vive el momento y en 2 años pues vendes la 4090Ti y compras la nueva. Easy
ya esta ocurriendo jijijiji la 4090 ti a casi 2000 euros
sinchan610 escribió:buenas creeis que merece la pena comprar una 4090/ti 4080/ti ahora con su precio de salida si en un año/dos años te sale la 5060/ti 6060/ti a mitad precio y se folla a estas y es mas las mismas nvidia/amd te lo dicen y esto llevarlo a los procesadores con gama ryzen 7000 e intel gen23, ahora me direis es que si nos ponemos asi nunca comprariamos y no avanzaria la tecnologia y sabeis que es mentira
neox3 escribió:sinchan610 escribió:buenas creeis que merece la pena comprar una 4090/ti 4080/ti ahora con su precio de salida si en un año/dos años te sale la 5060/ti 6060/ti a mitad precio y se folla a estas y es mas las mismas nvidia/amd te lo dicen y esto llevarlo a los procesadores con gama ryzen 7000 e intel gen23, ahora me direis es que si nos ponemos asi nunca comprariamos y no avanzaria la tecnologia y sabeis que es mentira
me parece que eres muy nuevo en el mundo de la informática o desconocedor del mercado... esto ha sido asi siempre...
ryzen 8000 ya se rumorea que se anunciaran para socket am5 sobre octubre - noviembre de 2023, por lo que intel gen14 posiblemente a finales de 2023 ya se sepa algo tambien de su lanzamiento...
y que no te quepa duda, que en 1 año habrá revisión de la serie 4000 (modelo ti) y amd (xt) y en 2 años, generacion nueva... como ha sido siempre, la tecnología avanza y cada vez más rápido.
y ya que hablamos de intel.. sabes en que año salio el 2700k?
Octubre 2011...
han salido en 11 años, 11 generaciones más de procesadores...
sinchan610 escribió:neox3 escribió:sinchan610 escribió:buenas creeis que merece la pena comprar una 4090/ti 4080/ti ahora con su precio de salida si en un año/dos años te sale la 5060/ti 6060/ti a mitad precio y se folla a estas y es mas las mismas nvidia/amd te lo dicen y esto llevarlo a los procesadores con gama ryzen 7000 e intel gen23, ahora me direis es que si nos ponemos asi nunca comprariamos y no avanzaria la tecnologia y sabeis que es mentira
me parece que eres muy nuevo en el mundo de la informática o desconocedor del mercado... esto ha sido asi siempre...
ryzen 8000 ya se rumorea que se anunciaran para socket am5 sobre octubre - noviembre de 2023, por lo que intel gen14 posiblemente a finales de 2023 ya se sepa algo tambien de su lanzamiento...
y que no te quepa duda, que en 1 año habrá revisión de la serie 4000 (modelo ti) y amd (xt) y en 2 años, generacion nueva... como ha sido siempre, la tecnología avanza y cada vez más rápido.
y ya que hablamos de intel.. sabes en que año salio el 2700k?
Octubre 2011...
han salido en 11 años, 11 generaciones más de procesadores...
que si que si que se que cada año salen nuevos procesadores, lo que yo critico es que cada año o como mucho dos duplican su potencia y una en teoria inferior al final iguala o supera la mas potente del año anterior, no es como antes con intel que cada años te sacaba un procesador que te rendia un 5% o como mucho 10% y tu decias pues bueno en 5 años tengo un 50%, ahora cada año/dos duplicas la potencia, y que conste que tengo una 3060 y un ryzen 5700g y los 2 me costaron 800 euros pero fue a principio de año y mitad
lo que quiero decir ahora que es mejor ir a la gama media 0060/ti y renovar en 3 años y no gastarse 1000/2000 en una potente que al final se te queda corta en 2/3 años
sinchan610 escribió:buenas creeis que merece la pena comprar una 4090/ti 4080/ti ahora con su precio de salida si en un año/dos años te sale la 5060/ti 6060/ti a mitad precio y se folla a estas y es mas las mismas nvidia/amd te lo dicen y esto llevarlo a los procesadores con gama ryzen 7000 e intel gen23, ahora me direis es que si nos ponemos asi nunca comprariamos y no avanzaria la tecnologia y sabeis que es mentira
hh1 escribió:sinchan610 escribió:neox3 escribió:
me parece que eres muy nuevo en el mundo de la informática o desconocedor del mercado... esto ha sido asi siempre...
ryzen 8000 ya se rumorea que se anunciaran para socket am5 sobre octubre - noviembre de 2023, por lo que intel gen14 posiblemente a finales de 2023 ya se sepa algo tambien de su lanzamiento...
y que no te quepa duda, que en 1 año habrá revisión de la serie 4000 (modelo ti) y amd (xt) y en 2 años, generacion nueva... como ha sido siempre, la tecnología avanza y cada vez más rápido.
y ya que hablamos de intel.. sabes en que año salio el 2700k?
Octubre 2011...
han salido en 11 años, 11 generaciones más de procesadores...
que si que si que se que cada año salen nuevos procesadores, lo que yo critico es que cada año o como mucho dos duplican su potencia y una en teoria inferior al final iguala o supera la mas potente del año anterior, no es como antes con intel que cada años te sacaba un procesador que te rendia un 5% o como mucho 10% y tu decias pues bueno en 5 años tengo un 50%, ahora cada año/dos duplicas la potencia, y que conste que tengo una 3060 y un ryzen 5700g y los 2 me costaron 800 euros pero fue a principio de año y mitad
lo que quiero decir ahora que es mejor ir a la gama media 0060/ti y renovar en 3 años y no gastarse 1000/2000 en una potente que al final se te queda corta en 2/3 años
Una gama alta no se te queda corta ni en sueños en 2-3 años.
Define ·quedarse corta".
Un ejemplo claro, la 3080Ti.
Te da hoy para 4K a buen nivel, te da muchos fps para 1440p y va mega extra hiper sobrada para 1080p.
En 3 años, lo que puede pasar, si es que avanzan de una vez técnicamente los juegos, es que le cueste mover todo a 4K 60fps, pero en 1440p seguirá sobrada y en 1080p,ni te cuento.
Y eso a día de hoy,.con más de un año desde que salió la 3080Ti.
Y he dicho esa, como podía haber dicho la 3080 o la 3090.
También te pasas por el forro ,que en esos 2-3 años, el que se gasta más dinero ahora ,juega mejor técnicamente que tú ,y vende esa gráfica con un mayor valor de reventa que tú.Y tú alcanzas ese nivel similar tecnológico, a los 2-3 años.
Y esto no tiene una lógica única.Depende de muchos factores, y lo mejor para ir mejorando gráfica, en mi opinión, es jugar con la compra o venta cuando se da una opornuidad.
Ni hay que cambiar gama media cada 2-3 años, ni hay que comprar una top de un pastizal para alargarla 4-5 años.
Siempre, se suele dar un buen momento de cambio, que es al final la mejor opción.
En cuanto a lo que en dos años te sacan la 5070 ,por ejemplo, como una 4080 16gb de ahora...Puede ser.Pero es que te puede pasar que eso no pase, que no haya stock, que se suba el precio como ahora o muchas cosas más.
Yo por eso siempre que hay oportunidad, la cojo aunque no me haga falta y esté bien con la gráfica que tenga en ese momento.,ya que nunca sabes a ciencia cierta qué va a pasar en dos años.
Mira yo ahora.Casi casi vendo la 3080Ti a 800€ hace un mes y poco, pensando en una 4080 16gb.
Pues hubiese metido la gamba pero bien, porque ,ni por asomo, esperaba que costase 1500€..
Ni de coña me parece que valga 700€ más que la 3080Ti.
Esperaba sobre los 1000€, y no vendí la mía por miedo a falta de stock.
Peeero ,por haber hecho un buen cambio hace casi un año de la 3070 a la 3080Ti -(vendí la 3070 sin hacerme falta cambiar por 950€), aprovechando la oportunidad, ahora tengo asegurado, que a pesar de lo que han hecho con las 4000, voy a pasar esta gen a gran nivel y sobrado.
Por eso te digo, que tu teoría no es buena.La buena es la de aprovechar oportunidades
sinchan610 escribió:hh1 escribió:sinchan610 escribió:que si que si que se que cada año salen nuevos procesadores, lo que yo critico es que cada año o como mucho dos duplican su potencia y una en teoria inferior al final iguala o supera la mas potente del año anterior, no es como antes con intel que cada años te sacaba un procesador que te rendia un 5% o como mucho 10% y tu decias pues bueno en 5 años tengo un 50%, ahora cada año/dos duplicas la potencia, y que conste que tengo una 3060 y un ryzen 5700g y los 2 me costaron 800 euros pero fue a principio de año y mitad
lo que quiero decir ahora que es mejor ir a la gama media 0060/ti y renovar en 3 años y no gastarse 1000/2000 en una potente que al final se te queda corta en 2/3 años
Una gama alta no se te queda corta ni en sueños en 2-3 años.
Define ·quedarse corta".
Un ejemplo claro, la 3080Ti.
Te da hoy para 4K a buen nivel, te da muchos fps para 1440p y va mega extra hiper sobrada para 1080p.
En 3 años, lo que puede pasar, si es que avanzan de una vez técnicamente los juegos, es que le cueste mover todo a 4K 60fps, pero en 1440p seguirá sobrada y en 1080p,ni te cuento.
Y eso a día de hoy,.con más de un año desde que salió la 3080Ti.
Y he dicho esa, como podía haber dicho la 3080 o la 3090.
También te pasas por el forro ,que en esos 2-3 años, el que se gasta más dinero ahora ,juega mejor técnicamente que tú ,y vende esa gráfica con un mayor valor de reventa que tú.Y tú alcanzas ese nivel similar tecnológico, a los 2-3 años.
Y esto no tiene una lógica única.Depende de muchos factores, y lo mejor para ir mejorando gráfica, en mi opinión, es jugar con la compra o venta cuando se da una opornuidad.
Ni hay que cambiar gama media cada 2-3 años, ni hay que comprar una top de un pastizal para alargarla 4-5 años.
Siempre, se suele dar un buen momento de cambio, que es al final la mejor opción.
En cuanto a lo que en dos años te sacan la 5070 ,por ejemplo, como una 4080 16gb de ahora...Puede ser.Pero es que te puede pasar que eso no pase, que no haya stock, que se suba el precio como ahora o muchas cosas más.
Yo por eso siempre que hay oportunidad, la cojo aunque no me haga falta y esté bien con la gráfica que tenga en ese momento.,ya que nunca sabes a ciencia cierta qué va a pasar en dos años.
Mira yo ahora.Casi casi vendo la 3080Ti a 800€ hace un mes y poco, pensando en una 4080 16gb.
Pues hubiese metido la gamba pero bien, porque ,ni por asomo, esperaba que costase 1500€..
Ni de coña me parece que valga 700€ más que la 3080Ti.
Esperaba sobre los 1000€, y no vendí la mía por miedo a falta de stock.
Peeero ,por haber hecho un buen cambio hace casi un año de la 3070 a la 3080Ti -(vendí la 3070 sin hacerme falta cambiar por 950€), aprovechando la oportunidad, ahora tengo asegurado, que a pesar de lo que han hecho con las 4000, voy a pasar esta gen a gran nivel y sobrado.
Por eso te digo, que tu teoría no es buena.La buena es la de aprovechar oportunidades
me estas dando la razon sin querer jijiji, que de salida y al precio que la anuncian nunca hay que comprar las mas potentes
hh1 escribió:sinchan610 escribió:hh1 escribió:Una gama alta no se te queda corta ni en sueños en 2-3 años.
Define ·quedarse corta".
Un ejemplo claro, la 3080Ti.
Te da hoy para 4K a buen nivel, te da muchos fps para 1440p y va mega extra hiper sobrada para 1080p.
En 3 años, lo que puede pasar, si es que avanzan de una vez técnicamente los juegos, es que le cueste mover todo a 4K 60fps, pero en 1440p seguirá sobrada y en 1080p,ni te cuento.
Y eso a día de hoy,.con más de un año desde que salió la 3080Ti.
Y he dicho esa, como podía haber dicho la 3080 o la 3090.
También te pasas por el forro ,que en esos 2-3 años, el que se gasta más dinero ahora ,juega mejor técnicamente que tú ,y vende esa gráfica con un mayor valor de reventa que tú.Y tú alcanzas ese nivel similar tecnológico, a los 2-3 años.
Y esto no tiene una lógica única.Depende de muchos factores, y lo mejor para ir mejorando gráfica, en mi opinión, es jugar con la compra o venta cuando se da una opornuidad.
Ni hay que cambiar gama media cada 2-3 años, ni hay que comprar una top de un pastizal para alargarla 4-5 años.
Siempre, se suele dar un buen momento de cambio, que es al final la mejor opción.
En cuanto a lo que en dos años te sacan la 5070 ,por ejemplo, como una 4080 16gb de ahora...Puede ser.Pero es que te puede pasar que eso no pase, que no haya stock, que se suba el precio como ahora o muchas cosas más.
Yo por eso siempre que hay oportunidad, la cojo aunque no me haga falta y esté bien con la gráfica que tenga en ese momento.,ya que nunca sabes a ciencia cierta qué va a pasar en dos años.
Mira yo ahora.Casi casi vendo la 3080Ti a 800€ hace un mes y poco, pensando en una 4080 16gb.
Pues hubiese metido la gamba pero bien, porque ,ni por asomo, esperaba que costase 1500€..
Ni de coña me parece que valga 700€ más que la 3080Ti.
Esperaba sobre los 1000€, y no vendí la mía por miedo a falta de stock.
Peeero ,por haber hecho un buen cambio hace casi un año de la 3070 a la 3080Ti -(vendí la 3070 sin hacerme falta cambiar por 950€), aprovechando la oportunidad, ahora tengo asegurado, que a pesar de lo que han hecho con las 4000, voy a pasar esta gen a gran nivel y sobrado.
Por eso te digo, que tu teoría no es buena.La buena es la de aprovechar oportunidades
me estas dando la razon sin querer jijiji, que de salida y al precio que la anuncian nunca hay que comprar las mas potentes
Depende ...
La 3080 sí había que comprarla claramente.
Las de ahora ,obviamente no, ya que los precios son un disparate.
Y yo compré la 3080Ti a 1199€,y visto lo visto, fue un acierto.
Igual que de salida ,compré la 3070 a 519€ y poco después valía el doble.
Como te digo, depende...
sinchan610 escribió:neox3 escribió:sinchan610 escribió:buenas creeis que merece la pena comprar una 4090/ti 4080/ti ahora con su precio de salida si en un año/dos años te sale la 5060/ti 6060/ti a mitad precio y se folla a estas y es mas las mismas nvidia/amd te lo dicen y esto llevarlo a los procesadores con gama ryzen 7000 e intel gen23, ahora me direis es que si nos ponemos asi nunca comprariamos y no avanzaria la tecnologia y sabeis que es mentira
me parece que eres muy nuevo en el mundo de la informática o desconocedor del mercado... esto ha sido asi siempre...
ryzen 8000 ya se rumorea que se anunciaran para socket am5 sobre octubre - noviembre de 2023, por lo que intel gen14 posiblemente a finales de 2023 ya se sepa algo tambien de su lanzamiento...
y que no te quepa duda, que en 1 año habrá revisión de la serie 4000 (modelo ti) y amd (xt) y en 2 años, generacion nueva... como ha sido siempre, la tecnología avanza y cada vez más rápido.
y ya que hablamos de intel.. sabes en que año salio el 2700k?
Octubre 2011...
han salido en 11 años, 11 generaciones más de procesadores...
que si que si que se que cada año salen nuevos procesadores, lo que yo critico es que cada año o como mucho dos duplican su potencia y una en teoria inferior al final iguala o supera la mas potente del año anterior, no es como antes con intel que cada años te sacaba un procesador que te rendia un 5% o como mucho 10% y tu decias pues bueno en 5 años tengo un 50%, ahora cada año/dos duplicas la potencia, y que conste que tengo una 3060 y un ryzen 5700g y los 2 me costaron 800 euros pero fue a principio de año y mitad
lo que quiero decir ahora que es mejor ir a la gama media 0060/ti y renovar en 3 años y no gastarse 1000/2000 en una potente que al final se te queda corta en 2/3 años
chrispro escribió:FranciscoVG escribió:Me pregunto cuando dejara de venir la gente a dar sus argumentos de lo que vale la pena o lo que es tirar el dinero, cada uno generalmente pone el limite donde le sale de los cojones, pone los ejemplos que le interesan y obvia los que no lo hacen, supongo que es un cambio de generacion y es cuando toca
Que yo tampoco me voy a gastar 2k en la 4090, pero me parece ridicula la necesidad que tienen algunos de intentar demostrar que lo que ellos hacen es lo correcto, sinceramente y no es que me parezca mal cada uno que haga lo que quiera pero yo solo veo excusas para autoconvencerte a ti mismo de que no lo necesitas xd
Yo es que no se porque deciis que alguno tiene la necesidad de justificar nada. Yo explico que la series x respecto a un pc gama alta de nota y no poco, eso no es justificar nada, es mas, es que me da igual 2000 que 2400, por ejemplo, voy a ir directamente a por la asus rog de 2400 para el dia de salida no quedarme sin stock xD , ya podeis ver alguno lo que me importa a mi justificar nada.
Pero si estamos hablando de consolas que se ven muy bien por lo que valen, de gráficas muy caras, y de juegos con ultra respectivamente a consolas, no es justificar el gasto, es decir la verdad, se ven peor las consolas, no pasa nada, y cuando digo peor no lo digo de modo critico como si fueran una ps3 xD lo digo que tiene detallitos que los que jugamos en ultra desde hace años y llevamos con mas de 60hz bastante tiempo, notamos los cambios.
A mi me hace gracia los que hablais que algunos se justifican… yo no veo a nadie justificandose aqui…diciendo la voy a comprar pero… a ver porque es la ostia… es lo mejor… es super necesario… me dara la felicidad… xD no veo a nadie justificandose por comprarsela, veo los que se justifican por que no la compran xD
Yo por ejemplo me la voy a comprar porque mi hobbie es este… y no es jugar solo, sino hacer unos test, probarla, mirar hasta dónde llega… configurar juegos antiguos a ver como cambiaron con la nueva gen… coger el rdr2 y probarlo todo nativo y ver como tira..
Trastear!! Me lo paso bien vaya, horas y horas instalando juegos y probando, y considero que el dinero esta pa fundirlo xD
sinchan610 escribió:hh1 escribió:sinchan610 escribió:me estas dando la razon sin querer jijiji, que de salida y al precio que la anuncian nunca hay que comprar las mas potentes
Depende ...
La 3080 sí había que comprarla claramente.
Las de ahora ,obviamente no, ya que los precios son un disparate.
Y yo compré la 3080Ti a 1199€,y visto lo visto, fue un acierto.
Igual que de salida ,compré la 3070 a 519€ y poco después valía el doble.
Como te digo, depende...
pues tuviste suerte jijijiji yo en mayo una 3060 pague por ella 420 euros
hh1 escribió:De suerte nada.Es comprar o vender en el momento bueno.
Nomada_Firefox escribió:hh1 escribió:De suerte nada.Es comprar o vender en el momento bueno.
Discrepo con eso un poquillo porque es suerte que te pongas a comprarla y seas tu el que la compre. Hubo muchos otros que porque tardaron 1 segundo más ya no pudieron al no haber stock. Asi que si la suerte existe, eso es suerte.
Y cuando salio la 3070, nadie sabia que a las 5 graficas vendidas, subirian de precio o que no habria stock. Me acuerdo como si fuera ayer. Quien la compro, fue pura chiripa. No hablo como diciendo que yo tuviera mala suerte porque se que ni me moleste.
Lo de la resolución adecuada, a mucha gente parece que le fastidia rebajarse a algo inferior. Me pregunto cuantos acabaran pidiendo microcreditos para pagar estas cosas, pagando un porron de intereses, a parte que como no lo pagues te llevan igual la casa o con lo que avalaste y te amargan el resto de tu vida con un millon de ofertas similares.
leonigsxr1000 escribió:Pues yo creo que me voy a ir a por una 4090, la diferencia de rendimiento de la 4080 es bastante y el precio en teoría no es tanto....tengo una gigabite 3080 de reserva que la usaba mi mujer que no tendrá ni 50 horas de uso que venderé.....lo malo que tendré que pillar caja y fuente....porque eso de los adaptadores me ha aconsjado que nanai
leveju escribió:leonigsxr1000 escribió:Pues yo creo que me voy a ir a por una 4090, la diferencia de rendimiento de la 4080 es bastante y el precio en teoría no es tanto....tengo una gigabite 3080 de reserva que la usaba mi mujer que no tendrá ni 50 horas de uso que venderé.....lo malo que tendré que pillar caja y fuente....porque eso de los adaptadores me ha aconsjado que nanai
la diferencia entre rendimiento y precio es casi el mismo, esta vez Nvidia ha escalado precio y rendimiento a la par.... la difencia de potencia de la 4080 de 12 con la 4090 es de casi el doble ( no llegara a ser el doble de potente por que los cudas cores no escalan linealmente) pero el precio tambien es de casi el doble, ya cada uno que haga lo que quiera
neox3 escribió:leveju escribió:leonigsxr1000 escribió:Pues yo creo que me voy a ir a por una 4090, la diferencia de rendimiento de la 4080 es bastante y el precio en teoría no es tanto....tengo una gigabite 3080 de reserva que la usaba mi mujer que no tendrá ni 50 horas de uso que venderé.....lo malo que tendré que pillar caja y fuente....porque eso de los adaptadores me ha aconsjado que nanai
la diferencia entre rendimiento y precio es casi el mismo, esta vez Nvidia ha escalado precio y rendimiento a la par.... la difencia de potencia de la 4080 de 12 con la 4090 es de casi el doble ( no llegara a ser el doble de potente por que los cudas cores no escalan linealmente) pero el precio tambien es de casi el doble, ya cada uno que haga lo que quiera
Para comprar una 4080 de 12 gigas (aka 4060ti) viniendo de una 3080... Mejor no comprar nada...
leonigsxr1000 escribió:Pues yo creo que me voy a ir a por una 4090, la diferencia de rendimiento de la 4080 de 16gb (edito) es bastante y el precio en teoría no es tanto....tengo una gigabite 3080 de reserva que la usaba mi mujer que no tendrá ni 50 horas de uso que venderé.....lo malo que tendré que pillar caja y fuente....porque eso de los adaptadores me ha aconsjado que nanai
leonigsxr1000 escribió:Pues yo creo que me voy a ir a por una 4090, la diferencia de rendimiento de la 4080 de 16gb (edito) es bastante y el precio en teoría no es tanto....tengo una gigabite 3080 de reserva que la usaba mi mujer que no tendrá ni 50 horas de uso que venderé.....lo malo que tendré que pillar caja y fuente....porque eso de los adaptadores me ha aconsjado que nanai
Nomada_Firefox escribió:@hh1 normal que notes bajar de 1440 a 1080 porque no es la resolución generica del monitor y no se vera bien.
hh1 escribió:Nomada_Firefox escribió:@hh1 normal que notes bajar de 1440 a 1080 porque no es la resolución generica del monitor y no se vera bien.
No hombre.Eso ya lo sé.He probado también en una TV 1080p que tengo al lado y me da igual.
No es cuestión de resscalado.Estoy ya muy hecho al 1440p.
No voy a decir que sea abismal la diferencia ni injugable el 1080p.Es más que suficiente.
Pero que notarse ,se nota.
@Stealwilliam
En serio se te queda corta una 3080 para 1440p?
No sé ,yo voy con una 3080Ti y no considero que se quede corta a 1440p y altos FPS.
Si en la mayoría diría que paso de los 120-144 fos...
Al menos a la mayoría que juego.
Y en otro que a lo mejor no, tampoco es que vaya mal a 90-100-110 FPS,ya que sin juegos donde no se nota absolutamente nada por el tipo de juego que eres.
No quita que hay algunos muy mal optimizados .
Pero vamos , leer que una 3080 se queda corta a 1440p es algo que asusta.
No sé ,po pero por ejempo, para qué quiero correr Alan Wake 2 a +144fps? Absurdo...no sé nada nada si lo juegas a 100fps.
Yla mayoría que he jugado últimamente se pasa de 200 FPS con la gorra.
Y digo Alan Wake ,como por ejemplo, ahora que sale a Plague Tale 2...si no llegase a 144 fps...qué más da? Si vas a jugar igual que a 100 FPS.No vas a notar diferencia .
Y en juegos competitivos esa 3080 tiene que escupir fps de sobra
Pero oye...cada uno con su dinero...
Pues supongo que la 4090 en casi todo los oastaá,pero una vez más ,en los mal optimizados ,va a ser que no.
zero2006xl escribió:hh1 escribió:Nomada_Firefox escribió:@hh1 normal que notes bajar de 1440 a 1080 porque no es la resolución generica del monitor y no se vera bien.
No hombre.Eso ya lo sé.He probado también en una TV 1080p que tengo al lado y me da igual.
No es cuestión de resscalado.Estoy ya muy hecho al 1440p.
No voy a decir que sea abismal la diferencia ni injugable el 1080p.Es más que suficiente.
Pero que notarse ,se nota.
@Stealwilliam
En serio se te queda corta una 3080 para 1440p?
No sé ,yo voy con una 3080Ti y no considero que se quede corta a 1440p y altos FPS.
Si en la mayoría diría que paso de los 120-144 fos...
Al menos a la mayoría que juego.
Y en otro que a lo mejor no, tampoco es que vaya mal a 90-100-110 FPS,ya que sin juegos donde no se nota absolutamente nada por el tipo de juego que eres.
No quita que hay algunos muy mal optimizados .
Pero vamos , leer que una 3080 se queda corta a 1440p es algo que asusta.
No sé ,po pero por ejempo, para qué quiero correr Alan Wake 2 a +144fps? Absurdo...no sé nada nada si lo juegas a 100fps.
Yla mayoría que he jugado últimamente se pasa de 200 FPS con la gorra.
Y digo Alan Wake ,como por ejemplo, ahora que sale a Plague Tale 2...si no llegase a 144 fps...qué más da? Si vas a jugar igual que a 100 FPS.No vas a notar diferencia .
Y en juegos competitivos esa 3080 tiene que escupir fps de sobra
Pero oye...cada uno con su dinero...
Pues supongo que la 4090 en casi todo los oastaá,pero una vez más ,en los mal optimizados ,va a ser que no.
Lo de jugar a más de 60hz en no competitivo nunca lo he entendido. Que sí, que el tiempo de respuesta es mejor y todo va más fluido. Pero el coste de mantener ese estándar a lo largo de los años es estratosférico. O eso o toca bajar ajustes y resolución. Honestamente, creo que son las necesidades que nos van creando los propios foros, los medios especializados y las campañas de marketing. Es como el que renueva el iPhone todos los años con la excusa de que lo vende caro. ¿Y qué? Si cada año estás poniendo +300 euros para poder tener el último modelo. A lo largo de 10 años te habrás gastado 700 iniciales (por decir algo) + 2700€, en el mejor de los casos.
Quien quiera comprarse una 4090 para jugar a 8000 FPS que vaya preparando los cuartos para adquirir la mejor CPU, la mejor placa base y la mejor RAM que el bolsillo pueda comprar.
beatle escribió:Me acabo de pillar esta fuente de alimentacion para una posible RTX 4090.
Thermaltake Toughpower GF 3 1650W | PC ATX 3.0 Power Supply | PCIe Gen 5.0 | 80-Plus-Gold
https://www.amazon.es/dp/B0B7NTBF95/ref ... 51_TE_item
Siempre he tenido fuentes Corsair, es Thermaltake buena marca?
DarkMessiah escribió:beatle escribió:Me acabo de pillar esta fuente de alimentacion para una posible RTX 4090.
Thermaltake Toughpower GF 3 1650W | PC ATX 3.0 Power Supply | PCIe Gen 5.0 | 80-Plus-Gold
https://www.amazon.es/dp/B0B7NTBF95/ref ... 51_TE_item
Siempre he tenido fuentes Corsair, es Thermaltake buena marca?
No es la mejor pero es buena fuente. Y las lucecitas con cambios de colores quedan bien
Su servicio técnico además te cambia la fuente completa si por ejemplo se te funde. Les envías el RMA y en mi caso una vez que me pasó porque salpicó agua de lluvia... pues me repusieron la fuente entera, nueva completamente como comprada en tienda (una de 1200W).
Como mejores tienes EVGA, Corsair, Cooler Master, por ejemplo.
beatle escribió:DarkMessiah escribió:beatle escribió:Me acabo de pillar esta fuente de alimentacion para una posible RTX 4090.
Thermaltake Toughpower GF 3 1650W | PC ATX 3.0 Power Supply | PCIe Gen 5.0 | 80-Plus-Gold
https://www.amazon.es/dp/B0B7NTBF95/ref ... 51_TE_item
Siempre he tenido fuentes Corsair, es Thermaltake buena marca?
No es la mejor pero es buena fuente. Y las lucecitas con cambios de colores quedan bien
Su servicio técnico además te cambia la fuente completa si por ejemplo se te funde. Les envías el RMA y en mi caso una vez que me pasó porque salpicó agua de lluvia... pues me repusieron la fuente entera, nueva completamente como comprada en tienda (una de 1200W).
Como mejores tienes EVGA, Corsair, Cooler Master, por ejemplo.
Es que he buscado fuentes Corsair PCIe Gen 5.0 y no he encontrado casi nada.
Espero que me salga buena la Thermaltake.
Stealwilliam escribió:Hola:
Enhorabuena a los que no notáis la diferencia entre 100 y 144fps. Ojalá no la notase yo tampoco, pero se nota y bastante.
Casi cualquier juego, exceptuando los que tienen cámara estática o cenital, se beneficia de jugarlo a una tasa elevada de fps. Todo se ve mucho más fluido y la verdad es que se agradece y se nota.
Del mismo modo que hay gente que no ve diferencia entre 60 y 120fps, los hay que no la ven entre 90 y 144. Si para alguno 60 o 90fps son suficientes cuando no juega s shooters, genial por él, puede seguir con su gráfica actual
Y no, la 3080 no vale para jugar sin preocupaciones a 1440p 144fps.
DarkMessiah escribió:Como mejores tienes EVGA, Corsair, Cooler Master, por ejemplo.
Goncatin escribió:DarkMessiah escribió:Como mejores tienes EVGA, Corsair, Cooler Master, por ejemplo.
¿Que modelo recomiendas de EVGA?
Goncatin escribió:DarkMessiah escribió:Como mejores tienes EVGA, Corsair, Cooler Master, por ejemplo.
¿Que modelo recomiendas de EVGA?
EVGA ha optado por un cambio destacado en su actividad y alejarse del negocio de las GPU. Según revela el youtuber Gamers Nexus y señalan medios internacionales, la compañía ha decidido poner fin a su relación con NVIDA tras décadas de colaboración y no fabricará tarjetas basadas en la GPU de la serie RTX 4000 de la multinacional californiana. La decisión tiene un impacto notable para la empresa. The Register precisa que las ventas de GeForce representan el 80% de los ingresos de EVGA.
El anuncio llega entre reproches de EVGA hacia NVIDIA. Su director ejecutivo, Andrew Han, habría apuntado a Gamers Nexus que la decisión se toma por una cuestión de “principios”, no financiera. Entre los motivos que ha desgranado está la supuesta opacidad de NVIDIA al compartir información sobre productos o su política de precios. La decisión llega en un escenario complejo, marcado por la caída en los márgenes de ganancias o la propia deriva del mercado de las GPU.
La compañía tampoco buscará asociarse con otros gigantes, como AMD o Intel.
PepeC12 escribió:Goncatin escribió:DarkMessiah escribió:Como mejores tienes EVGA, Corsair, Cooler Master, por ejemplo.
¿Que modelo recomiendas de EVGA?
Yo evitaria EVGA porque ya no trabaja con Nvidia, por lo que la garantia aunque la cubren esta un poco en el aire.
Goncatin escribió:@DarkMessiah Esta serviría para la 4090? https://www.amazon.es/gp/product/B0B4HJ ... WXBL&psc=1