[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

leveju está baneado por "clon de usuario baneado"
FranciscoVG escribió:
neox3 escribió:
PepeC12 escribió:
Tengo la impresión que la mejora de rendimiento bruto sin dlss2 ni rt va ser bastante decepcionante, sobretodo en la serie 4080 tanto la buena como la fake.

También os digo que aunque el aumento de rendimiento es brutal con dlss3 la calidad de imagen no me da buen rollo en absoluto.


Lo bueno es que tenemos las matemáticas, para poder hacer ideas aproximadas según las variables y datos de que disponemos

Guiandonos por este resultado, y comparando la cantidad de cuda cores, podemos hacer unos cálculos matemáticos aproximados:
4090 -> 16.128 cuda cores
3090ti -> 10752
4080 16gb -> 9728
4080 12gb -> 7680

si hacemos medias para extrapolar el resultado:
* si 16128 cudas sobre 10752, que es un 52% más de cuda cores, nos da un 63% de rendimiento extra con esos cuda a mayores, significa que cada curacore en la nueva generación aporta un incremento de rendimiento del 1,22%

la 4080 16gb: tiene un 90,4% de los cudas de una 3090ti -> rendimiento esperado: cudas *1,22% -> 110% -> 10% sobre una 3090ti

la 4080 12gb: tiene un 71,4% de los cudas de una 3090ti -> rendimiento: cudas * 1,22% -> 87,1% -> -13% de una 3090ti

OJO! que existen más factores a tener en cuenta como que las 4080 su bus de memoria es inferior a las 3090ti lo que bajaria los resultados, pero sobre el papel, con el rendimiento de los cuda... parece que esto puede ser la realidad o muy cerca... veremos... pero con esto cuadraría el que quieran vender a toda costa y solo hablen y hablen de DLSS3


Pero esa diferencia es por la frecuencia no por que los cudas tengan mas rendimiento

Lo que tu estas intentando calcular es el rendimiento teorico pero lo estas haciendo mal por que no estas teniendo en cuenta la frecuencia, en nvidia es (cudas x frecuencia x 2), ese calculo te da la potencia teorica que es lo que se mide en flops

Esto ya lo pusimos varias veces ( al menos yo)

3090Ti = 40Tflops -Tiene mas cudas pero menos frecuencia
4080 12Gb =40 Tflops -Da lo mismo que la 3090Ti por la diferencia de frecuencia
4080 16Gb =50 Tflops
4090 = 80 Tflops

Eso es sobre el papel y pese a que deberia ser bastante exacto en el caso de la 4090 lo normal es que no sea un x2 de la 4080 por que cada arquitectura tiene un limite, por cierto el Geekbench no vale para nada, mejor esperar a las pruebas reales

es mas, solo por la opimizacion de la nueva arquitectura va a rendir mas la 4080 de 12 gigas que la 3090ti sin contar con el DLSS y RT, no se pueden comparar 40 Tlfpos entre arquitecturas diferentes, por que en las nuevas van a rendir mas por eficiencia, otra cosa, a mas cudas cores peor escalado, o sea, proporcionalmente la 4090 no va a rendir mas que la 4080 de 16 gigas por los cudas cores que tengan, es decir que si la 4090 tiene un 40% de cudas mas que la 4080, no va a rendir ese supuesto 40% mas, rendira como mucho un 33% por que no escalan linealmente, al igual con la 4080 de 12 gigas con la de 16
4080 12Gb =40 Tflops -Da lo mismo que la 3090Ti por la diferencia de frecuencia

eso es lo que paso con la 1070 respecto a la 980ti, que la 980ti tenia muchisimos mas cudas cores pero la 1070 rendia mas por que tenia mas frecuencia
neox3 escribió:empiezan a aparecer los test independientes: (fuente: videocardz)

4090 +63 % sobre RTX 3090 Ti y +78% sobre RTX 3090

4090 --- 424332 CUDA Score
3090ti -- 260346 CUDA Score
3090 --- 238123 CUDA Score

empezamos bien con el 2x-4x de nvidia... [poraki]

Vaya jodida bestia.
Pero eso es con DLSS 3 o en rasterizado?
hh1 escribió:
neox3 escribió:empiezan a aparecer los test independientes: (fuente: videocardz)

4090 +63 % sobre RTX 3090 Ti y +78% sobre RTX 3090

4090 --- 424332 CUDA Score
3090ti -- 260346 CUDA Score
3090 --- 238123 CUDA Score

empezamos bien con el 2x-4x de nvidia... [poraki]

Vaya jodida bestia.
Pero eso es con DLSS 3 o en rasterizado?

Es en un benchmark sintetico, Geekbench 5
leveju escribió:
FranciscoVG escribió:
neox3 escribió:
Lo bueno es que tenemos las matemáticas, para poder hacer ideas aproximadas según las variables y datos de que disponemos

Guiandonos por este resultado, y comparando la cantidad de cuda cores, podemos hacer unos cálculos matemáticos aproximados:
4090 -> 16.128 cuda cores
3090ti -> 10752
4080 16gb -> 9728
4080 12gb -> 7680

si hacemos medias para extrapolar el resultado:
* si 16128 cudas sobre 10752, que es un 52% más de cuda cores, nos da un 63% de rendimiento extra con esos cuda a mayores, significa que cada curacore en la nueva generación aporta un incremento de rendimiento del 1,22%

la 4080 16gb: tiene un 90,4% de los cudas de una 3090ti -> rendimiento esperado: cudas *1,22% -> 110% -> 10% sobre una 3090ti

la 4080 12gb: tiene un 71,4% de los cudas de una 3090ti -> rendimiento: cudas * 1,22% -> 87,1% -> -13% de una 3090ti

OJO! que existen más factores a tener en cuenta como que las 4080 su bus de memoria es inferior a las 3090ti lo que bajaria los resultados, pero sobre el papel, con el rendimiento de los cuda... parece que esto puede ser la realidad o muy cerca... veremos... pero con esto cuadraría el que quieran vender a toda costa y solo hablen y hablen de DLSS3


Pero esa diferencia es por la frecuencia no por que los cudas tengan mas rendimiento

Lo que tu estas intentando calcular es el rendimiento teorico pero lo estas haciendo mal por que no estas teniendo en cuenta la frecuencia, en nvidia es (cudas x frecuencia x 2), ese calculo te da la potencia teorica que es lo que se mide en flops

Esto ya lo pusimos varias veces ( al menos yo)

3090Ti = 40Tflops -Tiene mas cudas pero menos frecuencia
4080 12Gb =40 Tflops -Da lo mismo que la 3090Ti por la diferencia de frecuencia
4080 16Gb =50 Tflops
4090 = 80 Tflops

Eso es sobre el papel y pese a que deberia ser bastante exacto en el caso de la 4090 lo normal es que no sea un x2 de la 4080 por que cada arquitectura tiene un limite, por cierto el Geekbench no vale para nada, mejor esperar a las pruebas reales

es mas, solo por la opimizacion de la nueva arquitectura va a rendir mas la 4080 de 12 gigas que la 3090ti sin contar con el DLSS y RT, no se pueden comparar 40 Tlfpos entre arquitecturas diferentes, por que en las nuevas van a rendir mas por eficiencia, otra cosa, a mas cudas cores peor escalado, o sea, proporcionalmente la 4090 no va a rendir mas que la 4080 de 16 gigas por los cudas cores que tengan, es decir que si la 4090 tiene un 40% de cudas mas que la 4080, no va a rendir ese supuesto 40% mas, rendira como mucho un 33% por que no escalan linealmente, al igual con la 4080 de 12 gigas con la de 16
4080 12Gb =40 Tflops -Da lo mismo que la 3090Ti por la diferencia de frecuencia

eso es lo que paso con la 1070 respecto a la 980ti, que la 980ti tenia muchisimos mas cudas cores pero la 1070 rendia mas por que tenia mas frecuencia


Eso de que no se pueden comparar depende, efectivamente no siempre pero dos arquitecturas diferentes SI se pueden comparar siempre y cuando las unidades de computo (en este caso cudas) tengan el mismo rendimiento, y en este caso segun dicen y segun las pruebas si lo tienen, vamos que un cuda core en ampere tiene el mismo rendimiento que en ada lovelace y por eso el rendimiento teorico o esos 40Tflops si son comparables

Ya lo dijo el kopite que la 4080 de 12gb rendiria como la 3090 ti y es lo que sale en dicho calculo con las especificaciones, ademas la propia imagen que puso nvidia salvo casos concretos con dlss o raytracing se vio que rendirían parecido
Bio81 escribió:
APL9 escribió:Chicos una duda, con la 3090 ti se puede correr por ejemplo cyber punk todo ultra con el raytracing activado y a 60 fps ? O me estoy flipando ?


a 1440p con dlss en calidad puede , siempre y cuando se acompañe de un procesador a la altura , con el modo de ray tracing actual a 4k nativo imposible ni con la 4090 se podrá , y menos aún con el nuevo modo RT overdrive (todavía no a salido el parche que lo implementa) la 4090 saca unos 22 fps a 4k nativo con todo al máximo en dicho modo



la rtx 3090 ti no consigue los 60fps estables el 100% del tiempo pero la mayor parte del tiempo está por encima , 1440p DLSS calidad , todo al máximo ray tracing incluido


Muchas gracias por el aporte compañero, Asunta así a 1440 p luce brutal también
DarkMessiah escribió:
zero2006xl escribió:
Kuromao escribió:Hola Eolianos,

Me gustaría preguntar si alguien puede saber si tengo cuello de botella o algún problema de alimentación, PCI Express. o algo que impida dar un uso normal y adecuado a una 4080 16gigas con este PC:

Muchas gracias, siempre sois fuente primordial.

Imagen


Va a estar descompensado pero si juegas a 60hz no tendrás problema. Es posible que conforme avance la generación (de consolas) los juegos para PC estén mejor optimizados para consola y peor optimizados para PC y pidan más CPU. Ahí podrías tener algún problema pero no por la GPU sino por la propia CPU independientemente de con qué tarjeta la juntes. Pero vamos, que si juegas a 60hz/fps no creo que tengas problema.

Aunque como te dicen por aquí quizá no necesites tanto, a una 3080 le vas a sacar el mismo partido.


Hombre tener una 3080 / 4080 y jugar a 60Hz... es para subirse por las paredes y más si dice que tiene un monitor de 144Hz.

Mejor que mejore todo en general y no sólamente un componente, si no puede mejorar todo, aunque le suponga coger una gráfica inferior.


No me había coscado de lo del monitor. A ver, lo que hoy es suficiente mañana puede que no. 4k aún con DLSS, si activas Ray Tracing, puede ser muy exigente. Yo con la 3070 voy bien, pero a poco que un juego este peor optimizado o tenga un Ray Tracing más intensivo, se te puede ir de las manos. Lo que quiero decir es que 3080 para 4k / 60 + Ray Tracing puede no ser tanta tontería en un año o dos vista como mucho. Jugar a 144hz te exige renovar de gráfica cada dos años o bajar mucho la calidad. En cualquier caso, con esa CPU no va a poder jugar a 144hz a calidades altas con todo así que es una discusión absurda. Repito, para mí el camino de jugar siempre a muchos HZ/fps es un camino tortuoso para el bolsillo. Yo si fuese él le metía una 3080 y aguantaba la tarjeta hasta que pida clemencia. Hasta que la CPU ya no sea un cuello de botella.

Si la pasta no es un problema, pues que cambie todo. Yo no lo haría.
buenas creeis que merece la pena comprar una 4090/ti 4080/ti ahora con su precio de salida si en un año/dos años te sale la 5060/ti 6060/ti a mitad precio y se folla a estas y es mas las mismas nvidia/amd te lo dicen y esto llevarlo a los procesadores con gama ryzen 7000 e intel gen23, ahora me direis es que si nos ponemos asi nunca comprariamos y no avanzaria la tecnologia y sabeis que es mentira
sinchan610 escribió:buenas creeis que merece la pena comprar una 4090/ti 4080/ti ahora con su precio de salida si en un año/dos años te sale la 5060/ti 6060/ti a mitad precio y se folla a estas y es mas las mismas nvidia/amd te lo dicen y esto llevarlo a los procesadores con gama ryzen 7000 e intel gen23, ahora me direis es que si nos ponemos asi nunca comprariamos y no avanzaria la tecnologia y sabeis que es mentira


Wtf [carcajad]

Y quién te dice que en 2 años sacan la 6060Ti y revienta a las nuevas y encima a la mitad de precio?. La bola de cristal?.

Si tienes dinero pues ponte lo mejor que puedas en todo si lo vas a disfrutar y te merece la pena, sino pues tira con la 4090 Ti cuando salga y volando. Eso de estar años y años sin poder disfrutar al máximo en los juegos más pepino (aun a pesar de la basura de optimización de la mayoría) y conformarse con rendimientos a veces peores que en consola estando en PC… si puedes dale caña, vive el momento y en 2 años pues vendes la 4090Ti y compras la nueva. Easy ratataaaa
DarkMessiah escribió:
sinchan610 escribió:buenas creeis que merece la pena comprar una 4090/ti 4080/ti ahora con su precio de salida si en un año/dos años te sale la 5060/ti 6060/ti a mitad precio y se folla a estas y es mas las mismas nvidia/amd te lo dicen y esto llevarlo a los procesadores con gama ryzen 7000 e intel gen23, ahora me direis es que si nos ponemos asi nunca comprariamos y no avanzaria la tecnologia y sabeis que es mentira


Wtf [carcajad]

Y quién te dice que en 2 años sacan la 6060Ti y revienta a las nuevas y encima a la mitad de precio?. La bola de cristal?.

Si tienes dinero pues ponte lo mejor que puedas en todo si lo vas a disfrutar y te merece la pena, sino pues tira con la 4090 Ti cuando salga y volando. Eso de estar años y años sin poder disfrutar al máximo en los juegos más pepino (aun a pesar de la basura de optimización de la mayoría) y conformarse con rendimientos a veces peores que en consola estando en PC… si puedes dale caña, vive el momento y en 2 años pues vendes la 4090Ti y compras la nueva. Easy ratataaaa

ya esta ocurriendo jijijiji la 4090 ti a casi 2000 euros
sinchan610 escribió:
DarkMessiah escribió:
sinchan610 escribió:buenas creeis que merece la pena comprar una 4090/ti 4080/ti ahora con su precio de salida si en un año/dos años te sale la 5060/ti 6060/ti a mitad precio y se folla a estas y es mas las mismas nvidia/amd te lo dicen y esto llevarlo a los procesadores con gama ryzen 7000 e intel gen23, ahora me direis es que si nos ponemos asi nunca comprariamos y no avanzaria la tecnologia y sabeis que es mentira


Wtf [carcajad]

Y quién te dice que en 2 años sacan la 6060Ti y revienta a las nuevas y encima a la mitad de precio?. La bola de cristal?.

Si tienes dinero pues ponte lo mejor que puedas en todo si lo vas a disfrutar y te merece la pena, sino pues tira con la 4090 Ti cuando salga y volando. Eso de estar años y años sin poder disfrutar al máximo en los juegos más pepino (aun a pesar de la basura de optimización de la mayoría) y conformarse con rendimientos a veces peores que en consola estando en PC… si puedes dale caña, vive el momento y en 2 años pues vendes la 4090Ti y compras la nueva. Easy ratataaaa

ya esta ocurriendo jijijiji la 4090 ti a casi 2000 euros


No esperarías que estuviese a 500Eur [looco]

Todo ha subido, no hay más que ir al Mercadona etc

Saca la Visa sin miedo [rtfm]
sinchan610 escribió:buenas creeis que merece la pena comprar una 4090/ti 4080/ti ahora con su precio de salida si en un año/dos años te sale la 5060/ti 6060/ti a mitad precio y se folla a estas y es mas las mismas nvidia/amd te lo dicen y esto llevarlo a los procesadores con gama ryzen 7000 e intel gen23, ahora me direis es que si nos ponemos asi nunca comprariamos y no avanzaria la tecnologia y sabeis que es mentira


me parece que eres muy nuevo en el mundo de la informática o desconocedor del mercado... esto ha sido asi siempre...

ryzen 8000 ya se rumorea que se anunciaran para socket am5 sobre octubre - noviembre de 2023, por lo que intel gen14 posiblemente a finales de 2023 ya se sepa algo tambien de su lanzamiento...

y que no te quepa duda, que en 1 año habrá revisión de la serie 4000 (modelo ti) y amd (xt) y en 2 años, generacion nueva... como ha sido siempre, la tecnología avanza y cada vez más rápido.

y ya que hablamos de intel.. sabes en que año salio el 2700k?
Octubre 2011...

han salido en 11 años, 11 generaciones más de procesadores...
neox3 escribió:
sinchan610 escribió:buenas creeis que merece la pena comprar una 4090/ti 4080/ti ahora con su precio de salida si en un año/dos años te sale la 5060/ti 6060/ti a mitad precio y se folla a estas y es mas las mismas nvidia/amd te lo dicen y esto llevarlo a los procesadores con gama ryzen 7000 e intel gen23, ahora me direis es que si nos ponemos asi nunca comprariamos y no avanzaria la tecnologia y sabeis que es mentira


me parece que eres muy nuevo en el mundo de la informática o desconocedor del mercado... esto ha sido asi siempre...

ryzen 8000 ya se rumorea que se anunciaran para socket am5 sobre octubre - noviembre de 2023, por lo que intel gen14 posiblemente a finales de 2023 ya se sepa algo tambien de su lanzamiento...

y que no te quepa duda, que en 1 año habrá revisión de la serie 4000 (modelo ti) y amd (xt) y en 2 años, generacion nueva... como ha sido siempre, la tecnología avanza y cada vez más rápido.

y ya que hablamos de intel.. sabes en que año salio el 2700k?
Octubre 2011...

han salido en 11 años, 11 generaciones más de procesadores...

que si que si que se que cada año salen nuevos procesadores, lo que yo critico es que cada año o como mucho dos duplican su potencia y una en teoria inferior al final iguala o supera la mas potente del año anterior, no es como antes con intel que cada años te sacaba un procesador que te rendia un 5% o como mucho 10% y tu decias pues bueno en 5 años tengo un 50%, ahora cada año/dos duplicas la potencia, y que conste que tengo una 3060 y un ryzen 5700g y los 2 me costaron 800 euros pero fue a principio de año y mitad
lo que quiero decir ahora que es mejor ir a la gama media 0060/ti y renovar en 3 años y no gastarse 1000/2000 en una potente que al final se te queda corta en 2/3 años
sinchan610 escribió:
neox3 escribió:
sinchan610 escribió:buenas creeis que merece la pena comprar una 4090/ti 4080/ti ahora con su precio de salida si en un año/dos años te sale la 5060/ti 6060/ti a mitad precio y se folla a estas y es mas las mismas nvidia/amd te lo dicen y esto llevarlo a los procesadores con gama ryzen 7000 e intel gen23, ahora me direis es que si nos ponemos asi nunca comprariamos y no avanzaria la tecnologia y sabeis que es mentira


me parece que eres muy nuevo en el mundo de la informática o desconocedor del mercado... esto ha sido asi siempre...

ryzen 8000 ya se rumorea que se anunciaran para socket am5 sobre octubre - noviembre de 2023, por lo que intel gen14 posiblemente a finales de 2023 ya se sepa algo tambien de su lanzamiento...

y que no te quepa duda, que en 1 año habrá revisión de la serie 4000 (modelo ti) y amd (xt) y en 2 años, generacion nueva... como ha sido siempre, la tecnología avanza y cada vez más rápido.

y ya que hablamos de intel.. sabes en que año salio el 2700k?
Octubre 2011...

han salido en 11 años, 11 generaciones más de procesadores...

que si que si que se que cada año salen nuevos procesadores, lo que yo critico es que cada año o como mucho dos duplican su potencia y una en teoria inferior al final iguala o supera la mas potente del año anterior, no es como antes con intel que cada años te sacaba un procesador que te rendia un 5% o como mucho 10% y tu decias pues bueno en 5 años tengo un 50%, ahora cada año/dos duplicas la potencia, y que conste que tengo una 3060 y un ryzen 5700g y los 2 me costaron 800 euros pero fue a principio de año y mitad
lo que quiero decir ahora que es mejor ir a la gama media 0060/ti y renovar en 3 años y no gastarse 1000/2000 en una potente que al final se te queda corta en 2/3 años

Una gama alta no se te queda corta ni en sueños en 2-3 años.
Define ·quedarse corta".

Un ejemplo claro, la 3080Ti.
Te da hoy para 4K a buen nivel, te da muchos fps para 1440p y va mega extra hiper sobrada para 1080p.
En 3 años, lo que puede pasar, si es que avanzan de una vez técnicamente los juegos, es que le cueste mover todo a 4K 60fps, pero en 1440p seguirá sobrada y en 1080p,ni te cuento.
Y eso a día de hoy,.con más de un año desde que salió la 3080Ti.

Y he dicho esa, como podía haber dicho la 3080 o la 3090.

También te pasas por el forro ,que en esos 2-3 años, el que se gasta más dinero ahora ,juega mejor técnicamente que tú ,y vende esa gráfica con un mayor valor de reventa que tú.Y tú alcanzas ese nivel similar tecnológico, a los 2-3 años.
Y esto no tiene una lógica única.Depende de muchos factores, y lo mejor para ir mejorando gráfica, en mi opinión, es jugar con la compra o venta cuando se da una opornuidad.
Ni hay que cambiar gama media cada 2-3 años, ni hay que comprar una top de un pastizal para alargarla 4-5 años.
Siempre, se suele dar un buen momento de cambio, que es al final la mejor opción.

En cuanto a lo que en dos años te sacan la 5070 ,por ejemplo, como una 4080 16gb de ahora...Puede ser.Pero es que te puede pasar que eso no pase, que no haya stock, que se suba el precio como ahora o muchas cosas más.

Yo por eso siempre que hay oportunidad, la cojo aunque no me haga falta y esté bien con la gráfica que tenga en ese momento.,ya que nunca sabes a ciencia cierta qué va a pasar en dos años.

Mira yo ahora.Casi casi vendo la 3080Ti a 800€ hace un mes y poco, pensando en una 4080 16gb.
Pues hubiese metido la gamba pero bien, porque ,ni por asomo, esperaba que costase 1500€..
Ni de coña me parece que valga 700€ más que la 3080Ti.
Esperaba sobre los 1000€, y no vendí la mía por miedo a falta de stock.

Peeero ,por haber hecho un buen cambio hace casi un año de la 3070 a la 3080Ti -(vendí la 3070 sin hacerme falta cambiar por 950€), aprovechando la oportunidad, ahora tengo asegurado, que a pesar de lo que han hecho con las 4000, voy a pasar esta gen a gran nivel y sobrado.
Por eso te digo, que tu teoría no es buena.La buena es la de aprovechar oportunidades
sinchan610 escribió:buenas creeis que merece la pena comprar una 4090/ti 4080/ti ahora con su precio de salida si en un año/dos años te sale la 5060/ti 6060/ti a mitad precio y se folla a estas y es mas las mismas nvidia/amd te lo dicen y esto llevarlo a los procesadores con gama ryzen 7000 e intel gen23, ahora me direis es que si nos ponemos asi nunca comprariamos y no avanzaria la tecnologia y sabeis que es mentira



Sigue mis instrucciones, dale en el navegador a la esquina, elige consolas y pillate la que mas te guste xD este no es tu mercado!!

Es broma, el hardware informatico caduca a velocidades despiadadas. Salieron las ddr5 y las compre a 5600mhz.. ya las hay de 6000 y mas.. en pocos meses.. compre el 12700k… ya se estrenan los intel 13 en meses de comprarlo.. las placas.. lo mismo..

Lo unico que veo que tiene mas duracion en el tienpo en cuanto a hardware informatico son las graficas para mi. Si te compras una 4090 ahora sabes que como mucho sacaran una 4090 ti dentro de unos meses con un rendimiento muy similar a la 4090 pero que tendras durante dos AÑOS lo mejor para jugar y en la siguiente gen la 4090 puede ser una 5080.. 5070ti.. es decir, dos años mas teniendo una gama medio alta.. Pocos productos informaticos te dan la tranquilidad de tener dos años lo mas top. Y dos años mas lo mas top a nivel medio alto…

Ahora si dudas si comprar esta gen, porque en dos años vendra una mejor… tu decides si ves bien esperar dos años por un producto, yo desde luego no quiero ni esperar los 11 dias que quedan 😂😂😂

Todo depende de lo que valores 2000 euros en dos años
hh1 escribió:
sinchan610 escribió:
neox3 escribió:
me parece que eres muy nuevo en el mundo de la informática o desconocedor del mercado... esto ha sido asi siempre...

ryzen 8000 ya se rumorea que se anunciaran para socket am5 sobre octubre - noviembre de 2023, por lo que intel gen14 posiblemente a finales de 2023 ya se sepa algo tambien de su lanzamiento...

y que no te quepa duda, que en 1 año habrá revisión de la serie 4000 (modelo ti) y amd (xt) y en 2 años, generacion nueva... como ha sido siempre, la tecnología avanza y cada vez más rápido.

y ya que hablamos de intel.. sabes en que año salio el 2700k?
Octubre 2011...

han salido en 11 años, 11 generaciones más de procesadores...

que si que si que se que cada año salen nuevos procesadores, lo que yo critico es que cada año o como mucho dos duplican su potencia y una en teoria inferior al final iguala o supera la mas potente del año anterior, no es como antes con intel que cada años te sacaba un procesador que te rendia un 5% o como mucho 10% y tu decias pues bueno en 5 años tengo un 50%, ahora cada año/dos duplicas la potencia, y que conste que tengo una 3060 y un ryzen 5700g y los 2 me costaron 800 euros pero fue a principio de año y mitad
lo que quiero decir ahora que es mejor ir a la gama media 0060/ti y renovar en 3 años y no gastarse 1000/2000 en una potente que al final se te queda corta en 2/3 años

Una gama alta no se te queda corta ni en sueños en 2-3 años.
Define ·quedarse corta".

Un ejemplo claro, la 3080Ti.
Te da hoy para 4K a buen nivel, te da muchos fps para 1440p y va mega extra hiper sobrada para 1080p.
En 3 años, lo que puede pasar, si es que avanzan de una vez técnicamente los juegos, es que le cueste mover todo a 4K 60fps, pero en 1440p seguirá sobrada y en 1080p,ni te cuento.
Y eso a día de hoy,.con más de un año desde que salió la 3080Ti.

Y he dicho esa, como podía haber dicho la 3080 o la 3090.

También te pasas por el forro ,que en esos 2-3 años, el que se gasta más dinero ahora ,juega mejor técnicamente que tú ,y vende esa gráfica con un mayor valor de reventa que tú.Y tú alcanzas ese nivel similar tecnológico, a los 2-3 años.
Y esto no tiene una lógica única.Depende de muchos factores, y lo mejor para ir mejorando gráfica, en mi opinión, es jugar con la compra o venta cuando se da una opornuidad.
Ni hay que cambiar gama media cada 2-3 años, ni hay que comprar una top de un pastizal para alargarla 4-5 años.
Siempre, se suele dar un buen momento de cambio, que es al final la mejor opción.

En cuanto a lo que en dos años te sacan la 5070 ,por ejemplo, como una 4080 16gb de ahora...Puede ser.Pero es que te puede pasar que eso no pase, que no haya stock, que se suba el precio como ahora o muchas cosas más.

Yo por eso siempre que hay oportunidad, la cojo aunque no me haga falta y esté bien con la gráfica que tenga en ese momento.,ya que nunca sabes a ciencia cierta qué va a pasar en dos años.

Mira yo ahora.Casi casi vendo la 3080Ti a 800€ hace un mes y poco, pensando en una 4080 16gb.
Pues hubiese metido la gamba pero bien, porque ,ni por asomo, esperaba que costase 1500€..
Ni de coña me parece que valga 700€ más que la 3080Ti.
Esperaba sobre los 1000€, y no vendí la mía por miedo a falta de stock.

Peeero ,por haber hecho un buen cambio hace casi un año de la 3070 a la 3080Ti -(vendí la 3070 sin hacerme falta cambiar por 950€), aprovechando la oportunidad, ahora tengo asegurado, que a pesar de lo que han hecho con las 4000, voy a pasar esta gen a gran nivel y sobrado.
Por eso te digo, que tu teoría no es buena.La buena es la de aprovechar oportunidades

me estas dando la razon sin querer jijiji, que de salida y al precio que la anuncian nunca hay que comprar las mas potentes
sinchan610 escribió:
hh1 escribió:
sinchan610 escribió:que si que si que se que cada año salen nuevos procesadores, lo que yo critico es que cada año o como mucho dos duplican su potencia y una en teoria inferior al final iguala o supera la mas potente del año anterior, no es como antes con intel que cada años te sacaba un procesador que te rendia un 5% o como mucho 10% y tu decias pues bueno en 5 años tengo un 50%, ahora cada año/dos duplicas la potencia, y que conste que tengo una 3060 y un ryzen 5700g y los 2 me costaron 800 euros pero fue a principio de año y mitad
lo que quiero decir ahora que es mejor ir a la gama media 0060/ti y renovar en 3 años y no gastarse 1000/2000 en una potente que al final se te queda corta en 2/3 años

Una gama alta no se te queda corta ni en sueños en 2-3 años.
Define ·quedarse corta".

Un ejemplo claro, la 3080Ti.
Te da hoy para 4K a buen nivel, te da muchos fps para 1440p y va mega extra hiper sobrada para 1080p.
En 3 años, lo que puede pasar, si es que avanzan de una vez técnicamente los juegos, es que le cueste mover todo a 4K 60fps, pero en 1440p seguirá sobrada y en 1080p,ni te cuento.
Y eso a día de hoy,.con más de un año desde que salió la 3080Ti.

Y he dicho esa, como podía haber dicho la 3080 o la 3090.

También te pasas por el forro ,que en esos 2-3 años, el que se gasta más dinero ahora ,juega mejor técnicamente que tú ,y vende esa gráfica con un mayor valor de reventa que tú.Y tú alcanzas ese nivel similar tecnológico, a los 2-3 años.
Y esto no tiene una lógica única.Depende de muchos factores, y lo mejor para ir mejorando gráfica, en mi opinión, es jugar con la compra o venta cuando se da una opornuidad.
Ni hay que cambiar gama media cada 2-3 años, ni hay que comprar una top de un pastizal para alargarla 4-5 años.
Siempre, se suele dar un buen momento de cambio, que es al final la mejor opción.

En cuanto a lo que en dos años te sacan la 5070 ,por ejemplo, como una 4080 16gb de ahora...Puede ser.Pero es que te puede pasar que eso no pase, que no haya stock, que se suba el precio como ahora o muchas cosas más.

Yo por eso siempre que hay oportunidad, la cojo aunque no me haga falta y esté bien con la gráfica que tenga en ese momento.,ya que nunca sabes a ciencia cierta qué va a pasar en dos años.

Mira yo ahora.Casi casi vendo la 3080Ti a 800€ hace un mes y poco, pensando en una 4080 16gb.
Pues hubiese metido la gamba pero bien, porque ,ni por asomo, esperaba que costase 1500€..
Ni de coña me parece que valga 700€ más que la 3080Ti.
Esperaba sobre los 1000€, y no vendí la mía por miedo a falta de stock.

Peeero ,por haber hecho un buen cambio hace casi un año de la 3070 a la 3080Ti -(vendí la 3070 sin hacerme falta cambiar por 950€), aprovechando la oportunidad, ahora tengo asegurado, que a pesar de lo que han hecho con las 4000, voy a pasar esta gen a gran nivel y sobrado.
Por eso te digo, que tu teoría no es buena.La buena es la de aprovechar oportunidades

me estas dando la razon sin querer jijiji, que de salida y al precio que la anuncian nunca hay que comprar las mas potentes

Depende ...
La 3080 sí había que comprarla claramente.
Las de ahora ,obviamente no, ya que los precios son un disparate.

Y yo compré la 3080Ti a 1199€,y visto lo visto, fue un acierto.
Igual que de salida ,compré la 3070 a 519€ y poco después valía el doble.

Como te digo, depende...
hh1 escribió:
sinchan610 escribió:
hh1 escribió:Una gama alta no se te queda corta ni en sueños en 2-3 años.
Define ·quedarse corta".

Un ejemplo claro, la 3080Ti.
Te da hoy para 4K a buen nivel, te da muchos fps para 1440p y va mega extra hiper sobrada para 1080p.
En 3 años, lo que puede pasar, si es que avanzan de una vez técnicamente los juegos, es que le cueste mover todo a 4K 60fps, pero en 1440p seguirá sobrada y en 1080p,ni te cuento.
Y eso a día de hoy,.con más de un año desde que salió la 3080Ti.

Y he dicho esa, como podía haber dicho la 3080 o la 3090.

También te pasas por el forro ,que en esos 2-3 años, el que se gasta más dinero ahora ,juega mejor técnicamente que tú ,y vende esa gráfica con un mayor valor de reventa que tú.Y tú alcanzas ese nivel similar tecnológico, a los 2-3 años.
Y esto no tiene una lógica única.Depende de muchos factores, y lo mejor para ir mejorando gráfica, en mi opinión, es jugar con la compra o venta cuando se da una opornuidad.
Ni hay que cambiar gama media cada 2-3 años, ni hay que comprar una top de un pastizal para alargarla 4-5 años.
Siempre, se suele dar un buen momento de cambio, que es al final la mejor opción.

En cuanto a lo que en dos años te sacan la 5070 ,por ejemplo, como una 4080 16gb de ahora...Puede ser.Pero es que te puede pasar que eso no pase, que no haya stock, que se suba el precio como ahora o muchas cosas más.

Yo por eso siempre que hay oportunidad, la cojo aunque no me haga falta y esté bien con la gráfica que tenga en ese momento.,ya que nunca sabes a ciencia cierta qué va a pasar en dos años.

Mira yo ahora.Casi casi vendo la 3080Ti a 800€ hace un mes y poco, pensando en una 4080 16gb.
Pues hubiese metido la gamba pero bien, porque ,ni por asomo, esperaba que costase 1500€..
Ni de coña me parece que valga 700€ más que la 3080Ti.
Esperaba sobre los 1000€, y no vendí la mía por miedo a falta de stock.

Peeero ,por haber hecho un buen cambio hace casi un año de la 3070 a la 3080Ti -(vendí la 3070 sin hacerme falta cambiar por 950€), aprovechando la oportunidad, ahora tengo asegurado, que a pesar de lo que han hecho con las 4000, voy a pasar esta gen a gran nivel y sobrado.
Por eso te digo, que tu teoría no es buena.La buena es la de aprovechar oportunidades

me estas dando la razon sin querer jijiji, que de salida y al precio que la anuncian nunca hay que comprar las mas potentes

Depende ...
La 3080 sí había que comprarla claramente.
Las de ahora ,obviamente no, ya que los precios son un disparate.

Y yo compré la 3080Ti a 1199€,y visto lo visto, fue un acierto.
Igual que de salida ,compré la 3070 a 519€ y poco después valía el doble.

Como te digo, depende...

pues tuviste suerte jijijiji yo en mayo una 3060 pague por ella 420 euros
leveju está baneado por "clon de usuario baneado"
....
Editado por metalgear. Razón: Generar flame
sinchan610 escribió:
neox3 escribió:
sinchan610 escribió:buenas creeis que merece la pena comprar una 4090/ti 4080/ti ahora con su precio de salida si en un año/dos años te sale la 5060/ti 6060/ti a mitad precio y se folla a estas y es mas las mismas nvidia/amd te lo dicen y esto llevarlo a los procesadores con gama ryzen 7000 e intel gen23, ahora me direis es que si nos ponemos asi nunca comprariamos y no avanzaria la tecnologia y sabeis que es mentira


me parece que eres muy nuevo en el mundo de la informática o desconocedor del mercado... esto ha sido asi siempre...

ryzen 8000 ya se rumorea que se anunciaran para socket am5 sobre octubre - noviembre de 2023, por lo que intel gen14 posiblemente a finales de 2023 ya se sepa algo tambien de su lanzamiento...

y que no te quepa duda, que en 1 año habrá revisión de la serie 4000 (modelo ti) y amd (xt) y en 2 años, generacion nueva... como ha sido siempre, la tecnología avanza y cada vez más rápido.

y ya que hablamos de intel.. sabes en que año salio el 2700k?
Octubre 2011...

han salido en 11 años, 11 generaciones más de procesadores...

que si que si que se que cada año salen nuevos procesadores, lo que yo critico es que cada año o como mucho dos duplican su potencia y una en teoria inferior al final iguala o supera la mas potente del año anterior, no es como antes con intel que cada años te sacaba un procesador que te rendia un 5% o como mucho 10% y tu decias pues bueno en 5 años tengo un 50%, ahora cada año/dos duplicas la potencia, y que conste que tengo una 3060 y un ryzen 5700g y los 2 me costaron 800 euros pero fue a principio de año y mitad
lo que quiero decir ahora que es mejor ir a la gama media 0060/ti y renovar en 3 años y no gastarse 1000/2000 en una potente que al final se te queda corta en 2/3 años

Estas criticando que el hardware no se estanque?
Solo estás contento con lo que tienes si la gente va a tardar 10 años en tener algo sustancialmente mejor?
Es que me parece flipante poner como buen ejemplo la época de estancamiento de Intel en que sacaba refrito tras refrito tras refrito solo porque no tenía competencia.
Eso es lo que quieres? Que las gráficas no mejoren más de un 10% ?
Yo desde luego que no.
la gente es jilipollas no hay mas jiji uno habla de no comprar una 4090/ti a 2000 euros de salida y que se compre la 4060/ti a 600/700 y la gente te dice que es mejor comprarla y disfrutarla a 2000 euros y seguro que mañana te sale un juego que ni comprando una tarjeta de 2000 euros no es capaz de mantener 4k/60 en 2/3 años
@sinchan610 Lo absurdo de eso no es comprar una grafica inferior y de por si cara, lo absurdo es jugar a 4k sino te lo puedes permitir. [facepalm]

Por otro lado, practicamente ahora ya sabemos que una 3060Ti/3070 puede ser igual de buena opción que una 4060/Ti. Que la nueva grafica incluya el DLSS 3, pues tampoco me parece para tanto porque a 1080p/1440p deberias poder mover todo con ellas, muchos juegos sin usar DLSS, lo cual es mejor. Lo unico que las segundas se van a vender muy caras y las primeras no acaban de bajar realmente, salvo modelos FE.......

Yo no creo que el hardware se quede tan corto como dices. Solo se queda corta tu billetera, sobretodo si escoges una resolución de juego que no te puedes permitir. Ademas lo que más estancado esta, es el software.

Respecto a estancamiento de hardware, en 4 años hemos visto más avances que en los 10 anteriores.
chrispro escribió:
FranciscoVG escribió:Me pregunto cuando dejara de venir la gente a dar sus argumentos de lo que vale la pena o lo que es tirar el dinero, cada uno generalmente pone el limite donde le sale de los cojones, pone los ejemplos que le interesan y obvia los que no lo hacen, supongo que es un cambio de generacion y es cuando toca

Que yo tampoco me voy a gastar 2k en la 4090, pero me parece ridicula la necesidad que tienen algunos de intentar demostrar que lo que ellos hacen es lo correcto, sinceramente y no es que me parezca mal cada uno que haga lo que quiera pero yo solo veo excusas para autoconvencerte a ti mismo de que no lo necesitas xd


Yo es que no se porque deciis que alguno tiene la necesidad de justificar nada. Yo explico que la series x respecto a un pc gama alta de nota y no poco, eso no es justificar nada, es mas, es que me da igual 2000 que 2400, por ejemplo, voy a ir directamente a por la asus rog de 2400 para el dia de salida no quedarme sin stock xD , ya podeis ver alguno lo que me importa a mi justificar nada.

Pero si estamos hablando de consolas que se ven muy bien por lo que valen, de gráficas muy caras, y de juegos con ultra respectivamente a consolas, no es justificar el gasto, es decir la verdad, se ven peor las consolas, no pasa nada, y cuando digo peor no lo digo de modo critico como si fueran una ps3 xD lo digo que tiene detallitos que los que jugamos en ultra desde hace años y llevamos con mas de 60hz bastante tiempo, notamos los cambios.

A mi me hace gracia los que hablais que algunos se justifican… yo no veo a nadie justificandose aqui…diciendo la voy a comprar pero… a ver porque es la ostia… es lo mejor… es super necesario… me dara la felicidad… xD no veo a nadie justificandose por comprarsela, veo los que se justifican por que no la compran xD

Yo por ejemplo me la voy a comprar porque mi hobbie es este… y no es jugar solo, sino hacer unos test, probarla, mirar hasta dónde llega… configurar juegos antiguos a ver como cambiaron con la nueva gen… coger el rdr2 y probarlo todo nativo y ver como tira..

Trastear!! Me lo paso bien vaya, horas y horas instalando juegos y probando, y considero que el dinero esta pa fundirlo xD


Es que me refiero justo al caso contrario al tuyo, tambien puede pasar pero es mas raro, mas que nada por que hay mucha mas gente que no puede o no se quiere gastar 2k en una grafica que gente que si

Pero de todas formas tampoco iba por ahí, me da igual como si te compras la 4090 solo para admirarla, lo mismo que el que tiene una 1060 y dice que no necesita mas, ni tampoco veo mal que se justifique o se valoren las cosas, el problema viene cuando se cruza la linea y se pasa a vender motos, a imponer y a marcar tus argumentos como la ley, y ultimamente este hilo parece el concesionario de scooter, unos mas educados que otros con mejores o peores argumentos pero todos te quieren vender la moto xd
Yo tengo claro que si no hubiese probado el vr seguiria con la 3080ti otra gen mas.

4k 60 en casi todo.. para que mas con un monitor con gsync…
sinchan610 escribió:
hh1 escribió:
sinchan610 escribió:me estas dando la razon sin querer jijiji, que de salida y al precio que la anuncian nunca hay que comprar las mas potentes

Depende ...
La 3080 sí había que comprarla claramente.
Las de ahora ,obviamente no, ya que los precios son un disparate.

Y yo compré la 3080Ti a 1199€,y visto lo visto, fue un acierto.
Igual que de salida ,compré la 3070 a 519€ y poco después valía el doble.

Como te digo, depende...

pues tuviste suerte jijijiji yo en mayo una 3060 pague por ella 420 euros

De suerte nada.Es comprar o vender en el momento bueno.
La 3070 cayó de salida prácticamente por 200€ vendiendo la 1080Ti.
Y Realmente eran 110€ porque me ahorraba el IVA.
Eso es cambiar cuando se debe.

Y fíjate que ni me hacía falta ya que la 1080Ti iba bastante bien aún.
Si no hago ese cambio, no la hubiese podido vender mucho más cara y acceder a la 3080Ti.

Por eso te digo, que aquí no hay una estrategia clara.Es aprovechar el momento.
Eso de comprar cada 2-3 una gama media ,sigo sin verlo como la mejor opción.
Depende de varios factores como precios de salida ,stock, mercado, rendimiento/precio...

@Nomada_Firefox
Eso es lo que siempre les digo a los que van justos y sudan tinta para pillar ahora algo que mueva 4K .
Que eso es caro de mantener.Aue no es ahora ,que es que en 3 añitos ya están cambiando otra vez por una gráfica cara.
Si eso no se lo pueden mantener ,mejor bajarte un poco al 1440p,que dicho sea de paso,me parece el punto dulce y mantenible por casi todos, y que no se nota a penas nada con respecto al 4sk , al menos a mis ojos .

Pero claro, esta gente va pillada ya para una gráfica 4k tipo 3080 ...se pilla el monitor o la TV...
Más justos van aún, y en unos años ,a cambiar a otra gráfica ,ahora por 1100€ mínimo.

Eso es lo que no ven.
hh1 escribió:De suerte nada.Es comprar o vender en el momento bueno.

Discrepo con eso un poquillo porque es suerte que te pongas a comprarla y seas tu el que la compre. Hubo muchos otros que porque tardaron 1 segundo más ya no pudieron al no haber stock. Asi que si la suerte existe, eso es suerte.

Y cuando salio la 3070, nadie sabia que a las 5 graficas vendidas, subirian de precio o que no habria stock. Me acuerdo como si fuera ayer. Quien la compro, fue pura chiripa. No hablo como diciendo que yo tuviera mala suerte porque se que ni me moleste.

Lo de la resolución adecuada, a mucha gente parece que le fastidia rebajarse a algo inferior. :) Me pregunto cuantos acabaran pidiendo microcreditos para pagar estas cosas, pagando un porron de intereses, a parte que como no lo pagues te llevan igual la casa o con lo que avalaste y te amargan el resto de tu vida con un millon de ofertas similares. [sonrisa]
Nomada_Firefox escribió:
hh1 escribió:De suerte nada.Es comprar o vender en el momento bueno.

Discrepo con eso un poquillo porque es suerte que te pongas a comprarla y seas tu el que la compre. Hubo muchos otros que porque tardaron 1 segundo más ya no pudieron al no haber stock. Asi que si la suerte existe, eso es suerte.

Y cuando salio la 3070, nadie sabia que a las 5 graficas vendidas, subirian de precio o que no habria stock. Me acuerdo como si fuera ayer. Quien la compro, fue pura chiripa. No hablo como diciendo que yo tuviera mala suerte porque se que ni me moleste.

Lo de la resolución adecuada, a mucha gente parece que le fastidia rebajarse a algo inferior. :) Me pregunto cuantos acabaran pidiendo microcreditos para pagar estas cosas, pagando un porron de intereses, a parte que como no lo pagues te llevan igual la casa o con lo que avalaste y te amargan el resto de tu vida con un millon de ofertas similares. [sonrisa]

Hombre...
Cuando salió la 3070 había stock suficiente.Tuve problema 0 para comprar.
Y la pillé como al mes de salir ,no de lanzamiento.

El cambio lo hice ,no por suerte,sino porque estaba a huevo.

Hay mucha otra gente que se conforma y dice...bah ...no me hace falta cambiar.Eso pensaba yo.Pero es que aunque no me hiciese falta ,por 110€ era cambio obligado.
Por qué era cambio obligado?Porque te aseguras una reventa mejor futura donde ya recuperas esos 110€ y encima te garantizas jugar mejor y mayor futuro,porque como digo siempre ,nunca sabes lo que puede pasar.
Y mira lo que pasó...

Incluso por 200€ hubiese hecho el cambio igualmente

Muchos otros se quedaron la 1080Ti porque no hacía falta más..Para mí eso es un error ,porque luego, cuando quieras cambiar , a saber cómo está el tema de precios o de stock.

Mira lo que pasó...que cuando quisieron cambiar ,ya no había gráfica o los precios eran prohibitivos.

Lo de poder venderla más cara ,por supuesto que ni lo tenía planeado ,ni lo pensaba .
Pero es otra oportunidad que no se puede dejar escapar

La resolución,yo he jugado a todo ,y sigo diciendo ,por mucho que me cuenten ,que el 4K es bastante marketing .
Es la que menos noto con diferencia.
Y que a 1080p se juega bien es un hecho, pero se nota el cambio con 1440p.Sin embargo ,de 1440p a 4k ,yo notaba poco o nada , dependiendo del juego.Y eso acercándome en una TV de 55".
En un monitor , yo ya no sé qué nota la gente ,la verdad

Si tuviese que jugar a 1080p porque las circunstancias no dan para otra cosa ,lo haría sin problema.Es una calidad mínima a la que ya se juega y disfruta bien.
Pero cada vez que he probado por curiosidad a bajar de 1440p a 1080p ,lo he notado bastante .
Por eso veo ideal 1440p.Te permite mantenerlo a 60fps con un coste comedido y con gráficas potentes ,te permite una tasa de FPS bastante alta sin obligarte a renovar gráfica cada 2-3 años.
Pues yo creo que me voy a ir a por una 4090, la diferencia de rendimiento de la 4080 de 16gb (edito) es bastante y el precio en teoría no es tanto....tengo una gigabite 3080 de reserva que la usaba mi mujer que no tendrá ni 50 horas de uso que venderé.....lo malo que tendré que pillar caja y fuente....porque eso de los adaptadores me ha aconsjado que nanai
leveju está baneado por "clon de usuario baneado"
leonigsxr1000 escribió:Pues yo creo que me voy a ir a por una 4090, la diferencia de rendimiento de la 4080 es bastante y el precio en teoría no es tanto....tengo una gigabite 3080 de reserva que la usaba mi mujer que no tendrá ni 50 horas de uso que venderé.....lo malo que tendré que pillar caja y fuente....porque eso de los adaptadores me ha aconsjado que nanai

la diferencia entre rendimiento y precio es casi el mismo, esta vez Nvidia ha escalado precio y rendimiento a la par.... la difencia de potencia de la 4080 de 12 con la 4090 es de casi el doble ( no llegara a ser el doble de potente por que los cudas cores no escalan linealmente) pero el precio tambien es de casi el doble, ya cada uno que haga lo que quiera
leveju escribió:
leonigsxr1000 escribió:Pues yo creo que me voy a ir a por una 4090, la diferencia de rendimiento de la 4080 es bastante y el precio en teoría no es tanto....tengo una gigabite 3080 de reserva que la usaba mi mujer que no tendrá ni 50 horas de uso que venderé.....lo malo que tendré que pillar caja y fuente....porque eso de los adaptadores me ha aconsjado que nanai

la diferencia entre rendimiento y precio es casi el mismo, esta vez Nvidia ha escalado precio y rendimiento a la par.... la difencia de potencia de la 4080 de 12 con la 4090 es de casi el doble ( no llegara a ser el doble de potente por que los cudas cores no escalan linealmente) pero el precio tambien es de casi el doble, ya cada uno que haga lo que quiera


Para comprar una 4080 de 12 gigas (aka 4060ti) viniendo de una 3080... Mejor no comprar nada...
neox3 escribió:
leveju escribió:
leonigsxr1000 escribió:Pues yo creo que me voy a ir a por una 4090, la diferencia de rendimiento de la 4080 es bastante y el precio en teoría no es tanto....tengo una gigabite 3080 de reserva que la usaba mi mujer que no tendrá ni 50 horas de uso que venderé.....lo malo que tendré que pillar caja y fuente....porque eso de los adaptadores me ha aconsjado que nanai

la diferencia entre rendimiento y precio es casi el mismo, esta vez Nvidia ha escalado precio y rendimiento a la par.... la difencia de potencia de la 4080 de 12 con la 4090 es de casi el doble ( no llegara a ser el doble de potente por que los cudas cores no escalan linealmente) pero el precio tambien es de casi el doble, ya cada uno que haga lo que quiera


Para comprar una 4080 de 12 gigas (aka 4060ti) viniendo de una 3080... Mejor no comprar nada...

Es que lo que estoy diciendo que voy a ir a por la 4090

@leveju es que siempre me refiero a la 4080 de 16gb , la de 12 ni la sopeso :) , por eso digo que de la 4080 (la buena) a la 4090 hay bastante rendimiento PERO no hay "mucha" diferencia de precio
@hh1 normal que notes bajar de 1440 a 1080 porque no es la resolución generica del monitor y no se vera bien.
leonigsxr1000 escribió:Pues yo creo que me voy a ir a por una 4090, la diferencia de rendimiento de la 4080 de 16gb (edito) es bastante y el precio en teoría no es tanto....tengo una gigabite 3080 de reserva que la usaba mi mujer que no tendrá ni 50 horas de uso que venderé.....lo malo que tendré que pillar caja y fuente....porque eso de los adaptadores me ha aconsjado que nanai


Y bien que haces, viendo la diferencia de precio que puede haber entre 4080-16 y la 4090 ... directamente no tiene sentido comprar el modelo inferior. Y más tú, que eres un usuario exigente de 4K@120fps. Ahora bien, antes de mover la billetera me esperaría a reviews serias de gente como GURU3D y derivados a ver que podemos encontrarnos en rasterizado puro y duro.
Hombre notar se va a notar de la 3080 16gb a la 4090 a 4k más de lo que se nota de la 3080 a la 3090 , pero yo creo que la diferencia no será porcentual respecto a la diferencia de cuda cores , yo creo que en rasterizado estará entorno al 30% 35% y en juegos con RT un poco mas , me baso en los datos de kopite7kimi y en las imágenes publicadas por Nvidia , por ejemplo en Assassins creed valhalla no hay mucha diferencia entre la 4080 16gb y la 4090 , pero sin embargo en the division 2 hay un poco más de diferencia , pero bueno hay que esperar a las reviews para ver hasta que punto es mas rapida la 4090 y en que condiciones

salu2.
Buenas. Tengo una 3080 de las primeras y para 1440p 144fps de queda corta en bastantes juegos.

Me estoy planteando comprar una 4090, pero tener que cambiarme la fuente (750W) por una nueva (850W) me da bastante pereza...

¿Creéis que la 4090 será suficiente para esos 144fps o aún estamos lejos?

Por otro lado, ¿hasta el día de salida no piensan abrir reservas o qué?

¡Saludos!
leonigsxr1000 escribió:Pues yo creo que me voy a ir a por una 4090, la diferencia de rendimiento de la 4080 de 16gb (edito) es bastante y el precio en teoría no es tanto....tengo una gigabite 3080 de reserva que la usaba mi mujer que no tendrá ni 50 horas de uso que venderé.....lo malo que tendré que pillar caja y fuente....porque eso de los adaptadores me ha aconsjado que nanai


Nvidia ha informado al respecto de las fuentes de alimentación y los adaptadores, si estáis interesados en la Serie 4000 yo recomiendo la lectura completa de esto, oficial de Nvidia: RTX 40 & power especifications

PCI-SIG advirtió sobre el riesgo potencial de sobrecorriente/sobrealimentación con conectores de 12 VHPWR que utilizan enchufes adaptadores Gen 5 y PSU no ATX 3.0. ¿Por qué PCI-SIG emitió la advertencia y cómo afecta esto a los nuevos productos de NVIDIA?

No afecta a los nuevos productos de NVIDIA. Durante el desarrollo y las pruebas iniciales, identificamos un problema potencial con un conector prototipo fabricado por un único proveedor. Como miembro de PCI-SIG, informamos al proveedor, le pedimos que lo arreglara (lo cual hizo) y compartimos nuestros hallazgos para ayudar a los proveedores que están implementando el nuevo estándar. El PCI-SIG estaba transmitiendo esos aprendizajes a otros proveedores.

¿Por qué solo hay una vida útil de 30 ciclos en estos nuevos conectores PCIe Gen 5?

La especificación de 30 ciclos es la misma que ha sido durante los últimos 20 años en los conectores PCIe/ATX de 8 pines existentes, y no ha cambiado con los conectores PCIe Gen5 o los adaptadores de corriente.

¿Los adaptadores de la serie RTX 40 son lo suficientemente "inteligentes" para interactuar con una fuente de alimentación ATX 2.0 y regular adecuadamente la potencia de la GPU?

Sí. El adaptador tiene circuitos activos en su interior que traducen el estado del enchufe de 8 pines a las señales de banda lateral correctas de acuerdo con la especificación PCIe Gen 5 (ATX 3.0).

¿Qué es un adaptador de corriente "inteligente"?

El adaptador tiene un circuito activo que detecta e informa la capacidad de energía a la tarjeta gráfica en función de la cantidad de conectores de 8 pines conectados. Esto permite que el RTX 4090 aumente el margen de potencia para el overclocking cuando se usan 4 conectores de 8 pines en lugar de 3x conectores de 8 pines.

Si doblo el adaptador de la serie RTX 40, ¿provocará problemas con la conexión entre mi fuente de alimentación y la GPU?

Se ha demostrado que el adaptador funciona en una amplia variedad de condiciones. Siga nuestro diagrama de compatibilidad: planifique un espacio libre mínimo de 1,4” o 36 mm por encima de la parte superior de la tarjeta gráfica para la curvatura del cable y el espacio libre para el flujo de aire.

¿Debería preocuparme si mi PSU solo tiene un riel de alimentación disponible para conectar mi tarjeta gráfica (es decir, solo tiene 1 conexión de alimentación disponible)?

Conecte los conectores y cables de salida de la fuente de alimentación original directamente al adaptador de corriente incluido. Las fuentes de alimentación normalmente solo suministran hasta 2 conectores PCIe de 8 pines por cable de salida. RTX 4090 y RTX 4080 de 16 GB requieren al menos 3 conectores PCIe de 8 pines o un conector PCIe Gen 5 de 450 W o más.

RTX 40 Series: Prepare your system

Imagen

Imagen
Nomada_Firefox escribió:@hh1 normal que notes bajar de 1440 a 1080 porque no es la resolución generica del monitor y no se vera bien.

No hombre.Eso ya lo sé.He probado también en una TV 1080p que tengo al lado y me da igual.
No es cuestión de resscalado.Estoy ya muy hecho al 1440p.
No voy a decir que sea abismal la diferencia ni injugable el 1080p.Es más que suficiente.
Pero que notarse ,se nota.

@Stealwilliam
En serio se te queda corta una 3080 para 1440p?

No sé ,yo voy con una 3080Ti y no considero que se quede corta a 1440p y altos FPS.
Si en la mayoría diría que paso de los 120-144 fos...
Al menos a la mayoría que juego.
Y en otro que a lo mejor no, tampoco es que vaya mal a 90-100-110 FPS,ya que sin juegos donde no se nota absolutamente nada por el tipo de juego que eres.

No quita que hay algunos muy mal optimizados .

Pero vamos , leer que una 3080 se queda corta a 1440p es algo que asusta.

No sé ,po pero por ejempo, para qué quiero correr Alan Wake 2 a +144fps? Absurdo...no sé nada nada si lo juegas a 100fps.
Yla mayoría que he jugado últimamente se pasa de 200 FPS con la gorra.

Y digo Alan Wake ,como por ejemplo, ahora que sale a Plague Tale 2...si no llegase a 144 fps...qué más da? Si vas a jugar igual que a 100 FPS.No vas a notar diferencia .

Y en juegos competitivos esa 3080 tiene que escupir fps de sobra

Pero oye...cada uno con su dinero...

Pues supongo que la 4090 en casi todo los oastaá,pero una vez más ,en los mal optimizados ,va a ser que no.
hh1 escribió:
Nomada_Firefox escribió:@hh1 normal que notes bajar de 1440 a 1080 porque no es la resolución generica del monitor y no se vera bien.

No hombre.Eso ya lo sé.He probado también en una TV 1080p que tengo al lado y me da igual.
No es cuestión de resscalado.Estoy ya muy hecho al 1440p.
No voy a decir que sea abismal la diferencia ni injugable el 1080p.Es más que suficiente.
Pero que notarse ,se nota.

@Stealwilliam
En serio se te queda corta una 3080 para 1440p?

No sé ,yo voy con una 3080Ti y no considero que se quede corta a 1440p y altos FPS.
Si en la mayoría diría que paso de los 120-144 fos...
Al menos a la mayoría que juego.
Y en otro que a lo mejor no, tampoco es que vaya mal a 90-100-110 FPS,ya que sin juegos donde no se nota absolutamente nada por el tipo de juego que eres.

No quita que hay algunos muy mal optimizados .

Pero vamos , leer que una 3080 se queda corta a 1440p es algo que asusta.

No sé ,po pero por ejempo, para qué quiero correr Alan Wake 2 a +144fps? Absurdo...no sé nada nada si lo juegas a 100fps.
Yla mayoría que he jugado últimamente se pasa de 200 FPS con la gorra.

Y digo Alan Wake ,como por ejemplo, ahora que sale a Plague Tale 2...si no llegase a 144 fps...qué más da? Si vas a jugar igual que a 100 FPS.No vas a notar diferencia .

Y en juegos competitivos esa 3080 tiene que escupir fps de sobra

Pero oye...cada uno con su dinero...

Pues supongo que la 4090 en casi todo los oastaá,pero una vez más ,en los mal optimizados ,va a ser que no.


Lo de jugar a más de 60hz en no competitivo nunca lo he entendido. Que sí, que el tiempo de respuesta es mejor y todo va más fluido. Pero el coste de mantener ese estándar a lo largo de los años es estratosférico. O eso o toca bajar ajustes y resolución. Honestamente, creo que son las necesidades que nos van creando los propios foros, los medios especializados y las campañas de marketing. Es como el que renueva el iPhone todos los años con la excusa de que lo vende caro. ¿Y qué? Si cada año estás poniendo +300 euros para poder tener el último modelo. A lo largo de 10 años te habrás gastado 700 iniciales (por decir algo) + 2700€, en el mejor de los casos.

Quien quiera comprarse una 4090 para jugar a 8000 FPS que vaya preparando los cuartos para adquirir la mejor CPU, la mejor placa base y la mejor RAM que el bolsillo pueda comprar.
zero2006xl escribió:
hh1 escribió:
Nomada_Firefox escribió:@hh1 normal que notes bajar de 1440 a 1080 porque no es la resolución generica del monitor y no se vera bien.

No hombre.Eso ya lo sé.He probado también en una TV 1080p que tengo al lado y me da igual.
No es cuestión de resscalado.Estoy ya muy hecho al 1440p.
No voy a decir que sea abismal la diferencia ni injugable el 1080p.Es más que suficiente.
Pero que notarse ,se nota.

@Stealwilliam
En serio se te queda corta una 3080 para 1440p?

No sé ,yo voy con una 3080Ti y no considero que se quede corta a 1440p y altos FPS.
Si en la mayoría diría que paso de los 120-144 fos...
Al menos a la mayoría que juego.
Y en otro que a lo mejor no, tampoco es que vaya mal a 90-100-110 FPS,ya que sin juegos donde no se nota absolutamente nada por el tipo de juego que eres.

No quita que hay algunos muy mal optimizados .

Pero vamos , leer que una 3080 se queda corta a 1440p es algo que asusta.

No sé ,po pero por ejempo, para qué quiero correr Alan Wake 2 a +144fps? Absurdo...no sé nada nada si lo juegas a 100fps.
Yla mayoría que he jugado últimamente se pasa de 200 FPS con la gorra.

Y digo Alan Wake ,como por ejemplo, ahora que sale a Plague Tale 2...si no llegase a 144 fps...qué más da? Si vas a jugar igual que a 100 FPS.No vas a notar diferencia .

Y en juegos competitivos esa 3080 tiene que escupir fps de sobra

Pero oye...cada uno con su dinero...

Pues supongo que la 4090 en casi todo los oastaá,pero una vez más ,en los mal optimizados ,va a ser que no.


Lo de jugar a más de 60hz en no competitivo nunca lo he entendido. Que sí, que el tiempo de respuesta es mejor y todo va más fluido. Pero el coste de mantener ese estándar a lo largo de los años es estratosférico. O eso o toca bajar ajustes y resolución. Honestamente, creo que son las necesidades que nos van creando los propios foros, los medios especializados y las campañas de marketing. Es como el que renueva el iPhone todos los años con la excusa de que lo vende caro. ¿Y qué? Si cada año estás poniendo +300 euros para poder tener el último modelo. A lo largo de 10 años te habrás gastado 700 iniciales (por decir algo) + 2700€, en el mejor de los casos.

Quien quiera comprarse una 4090 para jugar a 8000 FPS que vaya preparando los cuartos para adquirir la mejor CPU, la mejor placa base y la mejor RAM que el bolsillo pueda comprar.


Juegos como Civilization, League of Legends y similares pues 60 fps genial, pero para shooters cuantos más Fps mejor, sino para eso se estaría con la consola y no con un PC.

Nada tiene que ver no estar en un club de eSports para querer jugar al FPS de turno Arcade / realista con los mayores FPS posibles y con el menor tiempo de carga posible del juego etc todo en base a tener buen disco duro, ram y demás componentes.

Y no veo problema en que cada uno se gaste el dinero como quiera si puede. El que pueda pues se lo gasta y tan a gusto a pesar de que obviamente no irán los juegos a 8000fps, pero irá volando en los que juegue y el que no pueda pues tendrá que jugar rebajando calidad en muchos parámetros y tener esa compensación psicológica de que no se ha gastado un pastizal y que total da igual jugar a menos fps, peor calidad gráfica, etc. Diferentes puntos de vista y de conformidad con los hobbies.
Hola:

Enhorabuena a los que no notáis la diferencia entre 100 y 144fps. Ojalá no la notase yo tampoco, pero se nota y bastante.

Casi cualquier juego, exceptuando los que tienen cámara estática o cenital, se beneficia de jugarlo a una tasa elevada de fps. Todo se ve mucho más fluido y la verdad es que se agradece y se nota.

Del mismo modo que hay gente que no ve diferencia entre 60 y 120fps, los hay que no la ven entre 90 y 144. Si para alguno 60 o 90fps son suficientes cuando no juega s shooters, genial por él, puede seguir con su gráfica actual [oki]

Y no, la 3080 no vale para jugar sin preocupaciones a 1440p 144fps.
Me acabo de pillar esta fuente de alimentacion para una posible RTX 4090.

Thermaltake Toughpower GF 3 1650W | PC ATX 3.0 Power Supply | PCIe Gen 5.0 | 80-Plus-Gold

https://www.amazon.es/dp/B0B7NTBF95/ref ... 51_TE_item

Siempre he tenido fuentes Corsair, es Thermaltake buena marca?
beatle escribió:Me acabo de pillar esta fuente de alimentacion para una posible RTX 4090.

Thermaltake Toughpower GF 3 1650W | PC ATX 3.0 Power Supply | PCIe Gen 5.0 | 80-Plus-Gold

https://www.amazon.es/dp/B0B7NTBF95/ref ... 51_TE_item

Siempre he tenido fuentes Corsair, es Thermaltake buena marca?


No es la mejor pero es buena fuente. Y las lucecitas con cambios de colores quedan bien [sonrisa]

Su servicio técnico además te cambia la fuente completa si por ejemplo se te funde. Les envías el RMA y en mi caso una vez que me pasó porque salpicó agua de lluvia... pues me repusieron la fuente entera, nueva completamente como comprada en tienda (una de 1200W).

Como mejores tienes EVGA, Corsair, Cooler Master, por ejemplo.
DarkMessiah escribió:
beatle escribió:Me acabo de pillar esta fuente de alimentacion para una posible RTX 4090.

Thermaltake Toughpower GF 3 1650W | PC ATX 3.0 Power Supply | PCIe Gen 5.0 | 80-Plus-Gold

https://www.amazon.es/dp/B0B7NTBF95/ref ... 51_TE_item

Siempre he tenido fuentes Corsair, es Thermaltake buena marca?


No es la mejor pero es buena fuente. Y las lucecitas con cambios de colores quedan bien [sonrisa]

Su servicio técnico además te cambia la fuente completa si por ejemplo se te funde. Les envías el RMA y en mi caso una vez que me pasó porque salpicó agua de lluvia... pues me repusieron la fuente entera, nueva completamente como comprada en tienda (una de 1200W).

Como mejores tienes EVGA, Corsair, Cooler Master, por ejemplo.


Es que he buscado fuentes Corsair PCIe Gen 5.0 y no he encontrado casi nada.

Espero que me salga buena la Thermaltake.
beatle escribió:
DarkMessiah escribió:
beatle escribió:Me acabo de pillar esta fuente de alimentacion para una posible RTX 4090.

Thermaltake Toughpower GF 3 1650W | PC ATX 3.0 Power Supply | PCIe Gen 5.0 | 80-Plus-Gold

https://www.amazon.es/dp/B0B7NTBF95/ref ... 51_TE_item

Siempre he tenido fuentes Corsair, es Thermaltake buena marca?


No es la mejor pero es buena fuente. Y las lucecitas con cambios de colores quedan bien [sonrisa]

Su servicio técnico además te cambia la fuente completa si por ejemplo se te funde. Les envías el RMA y en mi caso una vez que me pasó porque salpicó agua de lluvia... pues me repusieron la fuente entera, nueva completamente como comprada en tienda (una de 1200W).

Como mejores tienes EVGA, Corsair, Cooler Master, por ejemplo.


Es que he buscado fuentes Corsair PCIe Gen 5.0 y no he encontrado casi nada.

Espero que me salga buena la Thermaltake.


Las he tenido en rigs 24/7/365 con alguna Corsair y sin problema. Van perfect y teniendo un buen servicio técnico si andas en garantía pues mejor aún.
Stealwilliam escribió:Hola:

Enhorabuena a los que no notáis la diferencia entre 100 y 144fps. Ojalá no la notase yo tampoco, pero se nota y bastante.

Casi cualquier juego, exceptuando los que tienen cámara estática o cenital, se beneficia de jugarlo a una tasa elevada de fps. Todo se ve mucho más fluido y la verdad es que se agradece y se nota.

Del mismo modo que hay gente que no ve diferencia entre 60 y 120fps, los hay que no la ven entre 90 y 144. Si para alguno 60 o 90fps son suficientes cuando no juega s shooters, genial por él, puede seguir con su gráfica actual [oki]

Y no, la 3080 no vale para jugar sin preocupaciones a 1440p 144fps.


Yo noto hasta la más mínima variación en pantalla. En mi caso soy un tieso y no puedo permitirme acostumbrarme a jugar a 144hz/fps para tener que renovar equipo cada dos años. Quien se pueda permitir tener un hobbie así, genial, yo tengo muchas otras obligaciones y necesidades antes de permitirme a mí mismo gastar más de 1000 euros cada dos años. De 30 a 60 fps, lo compro, pero el salto de 60 a 90 o 120 no es equivalente al de 30-60. Para mí no merece la pena acostumbrar al ojo a esta diferencia.

Y es que realmente podría derivar más recursos a comprar equipo pero, ¿para qué? Yo lo que quiero es que salgan Crysis cada X años que hagan que quiera gastar ese dinero como lo quise en 2007. O como lo quise antes cuando salieron Doom 3 y Far Cry. Quiero volverme loco y decir "shut up and take my money". Para mí eso justificaría un gasto irracional. Pegar cuatro tiros en la campaña o el multi de un shooter de manera algo más fluida sin ser profesional... no. Yo quiero que se me caiga la puta baba. Quiero que haya juegos que expriman -con razón estas- RTX 40. Pero no los hay, y los que las exprimen lo hacen a fuerza de mejoras basadas en la ley de los rendimientos decrecientes. Para conseguir un 10 o 20 % más de calidad, tienes que gastar un 50% más.

Antes al menos existían algunas -que no muchísimas- razones para renovar equipo. Ahora renovamos equipo y tenemos que buscar las razones después. Esta es mi opinión, no digo que sea así para todo el mundo.
DarkMessiah escribió:Como mejores tienes EVGA, Corsair, Cooler Master, por ejemplo.


¿Que modelo recomiendas de EVGA?
Goncatin escribió:
DarkMessiah escribió:Como mejores tienes EVGA, Corsair, Cooler Master, por ejemplo.


¿Que modelo recomiendas de EVGA?


Yo evitaria EVGA porque ya no trabaja con Nvidia, por lo que la garantia aunque la cubren esta un poco en el aire.
Goncatin escribió:
DarkMessiah escribió:Como mejores tienes EVGA, Corsair, Cooler Master, por ejemplo.


¿Que modelo recomiendas de EVGA?


Cualquiera 80 Plus Gold Full Modular va bien, pero para la 4090 pues mejor ir sobrado que justo con una de 850W.

En PCComponentes tienes de 1300, 1600... lo que te dicen de corte de lazos de EVGA con NVIDIA:

EVGA ha optado por un cambio destacado en su actividad y alejarse del negocio de las GPU. Según revela el youtuber Gamers Nexus y señalan medios internacionales, la compañía ha decidido poner fin a su relación con NVIDA tras décadas de colaboración y no fabricará tarjetas basadas en la GPU de la serie RTX 4000 de la multinacional californiana. La decisión tiene un impacto notable para la empresa. The Register precisa que las ventas de GeForce representan el 80% de los ingresos de EVGA.

El anuncio llega entre reproches de EVGA hacia NVIDIA. Su director ejecutivo, Andrew Han, habría apuntado a Gamers Nexus que la decisión se toma por una cuestión de “principios”, no financiera. Entre los motivos que ha desgranado está la supuesta opacidad de NVIDIA al compartir información sobre productos o su política de precios. La decisión llega en un escenario complejo, marcado por la caída en los márgenes de ganancias o la propia deriva del mercado de las GPU.

La compañía tampoco buscará asociarse con otros gigantes, como AMD o Intel.


Pues bueno, tampoco creo que ahora EVGA le meta un "tuneo" a sus PSU para que si detectan una Nvidia, la hagan explotar. Eso ya cada uno como vea. Pero CORSAIR sino sería otra buenísima opción.
PepeC12 escribió:
Goncatin escribió:
DarkMessiah escribió:Como mejores tienes EVGA, Corsair, Cooler Master, por ejemplo.


¿Que modelo recomiendas de EVGA?


Yo evitaria EVGA porque ya no trabaja con Nvidia, por lo que la garantia aunque la cubren esta un poco en el aire.


No trabaja en la creación de nuevas GPU´s, pero sus lineas de negocio aparte (que tienen muchas más) van a seguir como hasta ahora.

Tu puedes comprar una fuente evga pci ex5 y ponerla a una amd, una nvidia o una intel, que si peta la fuente y te lleva por delante la gráfica, evga te va reponer la fuente sin problema, la gráfica ya la tramitarás con su servicio técnico correspondiente de la marca... como todas las marcas de fuentes. Por lo que no veo ningún problema.

Yo desde la experiencia, que las he tenido de todas las potencias y tamaños (normales, sfx, modulares, semimodulares...) las mejores marcas de siempre han sido Corsair, Cooler Master y EVGA.

Con thermaltake, para una fuente que compré, sfx, la devolví porque tenía un coil-whine terrible al poner juegos...
Goncatin escribió:@DarkMessiah Esta serviría para la 4090? https://www.amazon.es/gp/product/B0B4HJ ... WXBL&psc=1


Si puedes TX o AX mejor, pues esa es Platinum HX y ya que te gastas una pasta en una buena gráfica, mejor tener algo de confianza en su fuente de alimentación. Titanium incluso. La HX Platinum que comentas es como el inicio de su gama media me parece (aunque por lo que vi la diferencia de HX a TX es que HX es full modular y TX no, pues lleva los cables de alimentación en bloque por un lado).

Imagen

En Reddit vi que uno comenta sobre esa PSU que dices:

https://linustechtips.com/topic/1457377 ... y-or-good/

Pero casi que mejor esperar a que saquen reviews y ya mencionen también fuentes de al menos 1000W que recomienden. Con 850W al menos no iría por si las moscas.
14374 respuestas