[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

@neox3 te refieres a modelo Founders?
BladeRunner escribió:@neox3 te refieres a modelo Founders?


Se supone que es a lo maximo que pueden llegar los partners mediante bios. Y ojo que hablamos de TGP que es superior al TDP.
BladeRunner escribió:
ditifet escribió:
BladeRunner escribió:Inconscientes siempre han habido, afortunadamente no son muchos.

Por cierto se habla de q las custom podrán consumir 800W "perfectamente", se confirma lo de los rumores.

Al final los fabricantes forzarán a q la tecnología tenga q pasar por alguna normativa de "emisiones".


Quien lo confirma?

Tú? Tus ojos?
Se viene hablando desde las primeras filtraciones de 600W / 800W, lo que nos parecía una burrada. Hablando de modelos top.


Te repito la misma pregunta

Porque lo de "se habla" tiene de oficial lo que yo de bailarin de ballet

Cuando el comunicado salga de Nvidia podemos empezar a tomarlo en serio, mientras son solo especulaciónes como el tdp, especificaciones y rendimiento que los RUMORES cambian cada par de días incluidos los de kopite y greymon
BladeRunner escribió:@neox3 te refieres a modelo Founders?


Modelos custom! Las founders posiblemente algo por debajo
ditifet escribió:Te repito la misma pregunta


Confirmación oficial ninguna, obvio, a eso te refieres? Para eso está la presentación del 20 de septiembre.

https://elchapuzasinformatico.com/2022/ ... iltracion/
Pero ya nos vamos haciendo una idea de lo q viene.

neox3 escribió:
BladeRunner escribió:@neox3 te refieres a modelo Founders?


Modelos custom! Las founders posiblemente algo por debajo

Ojalá sea así.
ditifet escribió:Te repito la misma pregunta

Porque lo de "se habla" tiene de oficial lo que yo de bailarin de ballet

Cuando el comunicado salga de Nvidia podemos empezar a tomarlo en serio, mientras son solo especulaciónes como el tdp, especificaciones y rendimiento que los RUMORES cambian cada par de días incluidos los de kopite y greymon


Lo confirma el chapuzas [qmparto]
neox3 escribió:
BladeRunner escribió:@neox3 te refieres a modelo Founders?


Modelos custom! Las founders posiblemente algo por debajo

Tampoco seria raro que las founders costasen más. No seria la primera vez.
JaviGabber escribió:
ditifet escribió:Te repito la misma pregunta

Porque lo de "se habla" tiene de oficial lo que yo de bailarin de ballet

Cuando el comunicado salga de Nvidia podemos empezar a tomarlo en serio, mientras son solo especulaciónes como el tdp, especificaciones y rendimiento que los RUMORES cambian cada par de días incluidos los de kopite y greymon


Lo confirma el chapuzas [qmparto]


[facepalm] creerse lo que rumorea Borja nada menos

Y que lleven 2x12 no implica que lleguen si o si a los 800w, tenemos que diferenciar su tgp y lo que están preparados para soportar

Acaso todas las gráficas consumen todo el consumo que pueden soportar sus conectores?

Mismamente la 4080 lleva 1 de 12 pudiendo llegar a 600w y su tgp es de 340w
JaviGabber escribió:Esto ya es un no parar

Se han filtrado las especificaciones de los relojes NVIDIA GeForce RTX 4090 y RTX 4080 16GB/12GB max TGP y GPU

Me sorprende esos dos modelos de 4080 y con notables diferencias....

Imagen

4090 de 4 ranuras
Imagen

Joder estos de Nvidia cada vez se fragmentan más sus gráficas.

Deseando ver la presentación, y si hay suerte catar una 90
Menuda jugada que se puede marcar Nvidia. La 4080 12Gb es una GPU totalmente diferente a la de 16Gb, es una 4070 camuflada. Cuando veamos el precio sabremos las intenciones que tienen pero me huele mal...
Yo no me creo nada... Lo mismo esa es la 4070ti.. o la 4080 y la otra la ti...
chrispro escribió:Yo no me creo nada... Lo mismo esa es la 4070ti.. o la 4080 y la otra la ti...


Ojala tengas razon pero yo ya practicamente lo doy por hecho. Son muchas las filtraciones y faltando tan poco para la presentacion pues... a parte kopite lo ha confirmado y si no me equivoco una vez mas las filtraciones que iba soltando se han cumplido, aunque haya habido mucho mivimiento de cifras [+risas]
jiujinkai escribió:
JaviGabber escribió:Esto ya es un no parar

Se han filtrado las especificaciones de los relojes NVIDIA GeForce RTX 4090 y RTX 4080 16GB/12GB max TGP y GPU

Me sorprende esos dos modelos de 4080 y con notables diferencias....

Imagen

4090 de 4 ranuras
Imagen

Joder estos de Nvidia cada vez se fragmentan más sus gráficas.

Deseando ver la presentación, y si hay suerte catar una 90

Para mi el sacar diferentes modelos, no es por otro motivo que sacar productos de diferentes precios. Lastima que no haya más fragmentaciones.

Aunque como son todo rumores. Creer algo a ciegas no es logico.
JaviGabber escribió:
Imagen

Imagen


Comparando la 4080 de 16GB que es la que más me cuadraría comprar, con la 3080TI, no mejora en todos los aspectos, según lo que se puede ver en esta tabla:

https://www.gpumag.com/nvidia-geforce-rtx-3000-series/
@cloudstrife007 Si lo ves desde esa perspectiva de especificaciones puras quizás no lo parezca, lo que hay que ver cuánto es la mejora de rendimiento entre ambas que mínimo sera de un 50%
De esa tabla, lo más raro es la diferencia en nucleos cuda y el bus de memoria de la 4080 de 16 y 12. No tiene ningun sentido visto lo que suele hacerse con rebajas de memoria y es muy posible que ese modelo de 12 sea la 4070.
como esto sean los disipadores de las 4090 custom madre mia de mi vida [mad] [mad]

Imagen

Imagen
bromutu escribió:como esto sean los disipadores de las 490 custom madre mia de mi vida [mad] [mad]

Imagen

Imagen

Yo no me extrañaría tanto, la verdad, ya se rumorea que tendrán un TDP de la hostia, así que mejor que vayan bien de disipación, además que también se ha dicho que ocuparán 3 slots (o más), etc.... ;)

Saludos.
javier español escribió:
bromutu escribió:como esto sean los disipadores de las 490 custom madre mia de mi vida [mad] [mad]

Imagen

Imagen

Yo no me extrañaría tanto, la verdad, ya se rumorea que tendrán un TDP de la hostia, así que mejor que vayan bien de disipación, además que también se ha dicho que ocuparán 3 slots (o más), etc.... ;)

Saludos.


Es como una 3090 Ti.
Nomada_Firefox escribió:De esa tabla, lo más raro es la diferencia en nucleos cuda y el bus de memoria de la 4080 de 16 y 12. No tiene ningun sentido visto lo que suele hacerse con rebajas de memoria y es muy posible que ese modelo de 12 sea la 4070.



Son chips diferentes, no es un simple recorte.

De hecho la nomenclatura es la misma que los chips que montaba la serie 80 y 70 en Kepler, Maxwell, Pascal y Turing.
bromutu escribió:como esto sean los disipadores de las 4090 custom madre mia de mi vida [mad] [mad]

Imagen

Imagen



Cuesta más el cobre que lleva que el propio chip... Lo que habiamos ganado al sacar de la ecuación a los mineros lo vamos a perder metiendo a los revendedores de chatarra...
Zoids está baneado por "clon troll"
Había leido que se duplicarian específicaciones y rendimiento, pero viendo estas especificaciones "finales" , si rinden 50% ya seria todo un logro, se quedaran en 30% principalmente la rtx4080.
DaNi_0389 escribió:Son chips diferentes, no es un simple recorte.

De hecho la nomenclatura es la misma que los chips que montaba la serie 80 y 70 en Kepler, Maxwell, Pascal y Turing.

Por eso reitere anteriormente que no se puede creer nada.
Menudo guano intentar vendernos el AD104 como RTX 4080.
Quieren justificar que "mantienen" el precio a pesar de las circunstancias económicas cuando en realidad nos venden una gama xx70 a precio de xx80.
Ahora, esta vez tendrán hueco de sobra entre gamas para vendernos modelos Super y Ti con capacidades y buses de memoria sacados con un dado.

nVIDIA siendo nVIDIA.
cloudstrife007 escribió:
JaviGabber escribió:
Imagen

Imagen


Comparando la 4080 de 16GB que es la que más me cuadraría comprar, con la 3080TI, no mejora en todos los aspectos, según lo que se puede ver en esta tabla:

https://www.gpumag.com/nvidia-geforce-rtx-3000-series/

No se pueden comparar especificaciones de gráficas de diferentes generaciones porque no son los mismos núcleos.
No puedes comparar la cantidad de núcleos y la frecuencia y ya porque no es así.
Pasa lo mismo en las CPU, un cuatro núcleos de hoy en día se ventila al 7700k.
Zoids escribió:Había leido que se duplicarian específicaciones y rendimiento, pero viendo estas especificaciones "finales" , si rinden 50% ya seria todo un logro, se quedaran en 30% principalmente la rtx4080.


¿50% con respecto a que? La 4090 según filtraciones puede sacarle efectivamente el doble (o casi) a la 3090 en Time Spy extreme.
La 4080 16Gb por supuesto que le va a sacar más del 30% a la 3080.

cloudstrife007 escribió:
Comparando la 4080 de 16GB que es la que más me cuadraría comprar, con la 3080TI, no mejora en todos los aspectos, según lo que se puede ver en esta tabla:

https://www.gpumag.com/nvidia-geforce-rtx-3000-series/


Olvidate de las especificaciones, la 4080 16Gb va a pasar por encima de la 3080Ti.

Jhonny escribió:Menudo guano intentar vendernos el AD104 como RTX 4080.
Quieren justificar que "mantienen" el precio a pesar de las circunstancias económicas cuando en realidad nos venden una gama xx70 a precio de xx80.


Es lo que me temo y es una jugarreta. Esta la opción que esa 4080 12Gb salga por 550€ +- y solo busquen hacerla más atractiva, pero lo dudo.

Nomada_Firefox escribió:De esa tabla, lo más raro es la diferencia en nucleos cuda y el bus de memoria de la 4080 de 16 y 12. No tiene ningun sentido visto lo que suele hacerse con rebajas de memoria y es muy posible que ese modelo de 12 sea la 4070.


Ese chip "siempre" ha sido destinado a la x70 , falta ver el precio para ver qué busca Nvidia llamandola esta vez x80.
Faltando escasos días y con la información que ya circula gracias a los partners me creo estás últimas informaciones.
Zoids está baneado por "clon troll"
@JaviGabber

Si me referia a la RTX 4080, si comparamos cudas con la 3080 la diferencia es pequeña 9728 vs 8704, y al rededor de 600mhz mas, seria alrededor de 30% sumando memoria mas rapida.

Venia sonando el doble de rendímiento, eso si los consumos han bajado un moton recuerdo leer consumos de 800w, ahora 340w.
BladeRunner escribió:
ditifet escribió:Te repito la misma pregunta


Confirmación oficial ninguna, obvio, a eso te refieres? Para eso está la presentación del 20 de septiembre.

https://elchapuzasinformatico.com/2022/ ... iltracion/
Pero ya nos vamos haciendo una idea de lo q viene.

neox3 escribió:
BladeRunner escribió:@neox3 te refieres a modelo Founders?


Modelos custom! Las founders posiblemente algo por debajo

Ojalá sea así.



https://elchapuzasinformatico.com/2022/ ... oficiales/

Aún habiéndolo puesto el del chapuzas la fuente viene de videocardz y es oficial , esta si

"...hoy sabemos que habrá un TGP máximo configurable por cada fabricante, incluida NVIDIA, que llegará hasta los 660 vatios..."


Para las 4090

O sea de hasta 800w nada

Y es "hasta" tampoco nada de todas van a consumir 660w si o si

Y es tgp o sea total de toda la gpu



@JaviGabber
Zoids escribió:@JaviGabber

Si me referia a la RTX 4080, si comparamos cudas con la 3080 la diferencia es pequeña 9728 vs 8704, y al rededor de 600mhz mas, seria alrededor de 30% sumando memoria mas rapida.

Venia sonando el doble de rendímiento, eso si los consumos han bajado un moton recuerdo leer consumos de 800w, ahora 340w.


Yo creo que va a haber un salto grande ¿El doble? Pues lo mismo en algunos escenarios si , en otro muchos no, ya veremos.
Esta por ver a qué frecuencias llegan, oficialmente son unos 2600Mhz pero luego ya sabemos que llegan a más, por ahí había una captura de una 4090 (creo) a 3000Mhz.
También habría que sumar la mejora de la arquitectura, IPC.

Por cierto menuda diferencia hay esta vez entre la 4090 y la 4080.
Vaalyrio está baneado por "clon de usuario baneado"
JaviGabber escribió:
Zoids escribió:@JaviGabber

Si me referia a la RTX 4080, si comparamos cudas con la 3080 la diferencia es pequeña 9728 vs 8704, y al rededor de 600mhz mas, seria alrededor de 30% sumando memoria mas rapida.

Venia sonando el doble de rendímiento, eso si los consumos han bajado un moton recuerdo leer consumos de 800w, ahora 340w.


Yo creo que va a haber un salto grande ¿El doble? Pues lo mismo en algunos escenarios si , en otro muchos no, ya veremos.
Esta por ver a qué frecuencias llegan, oficialmente son unos 2600Mhz pero luego ya sabemos que llegan a más, por ahí había una captura de una 4090 (creo) a 3000Mhz.
También habría que sumar la mejora de la arquitectura, IPC.

Por cierto menuda diferencia hay esta vez entre la 4090 y la 4080.

es que es lo logico, lo que no era normal fue la serie 3000 en donde la 3080 y la 3090 solo habia una diferencia de un 12% pero en precio el doble, asi queda margen para una futura 4080ti que se le acerque bastanta a la 4090 y sea interesante en precio, de todas maneras, si es verdad los 650W de consumo total de la 4090, me parece una salvajada enorme, rinda lo que rinda, eso no es justificable y se le deberian de dar palos a Nvidia por todos lados como se le dio en su dia a AMD cuando se decian que sus graficas eran muy tragonas y calentorras, ahora los papeles se han cambiado, pero parece ser que a Nvidia se le perdona todo, meter en un PC a una grafica consumiendo cerca de 700W (o mas segun salgan las custom) mas un I7 de la duodecima generacion y resto del equipo, mas monitor o TV, se te va la tonteria a mas de 1000W, 1000W de calor en un espacio cerrado durante unas cuantas horas, se tiene que poner la habitacion bien calentita, y no hablemos lo que puede suponer la factura de la luz con los precios que se gastan hoy dia, no se.... antes se innovaba con nuevas arquitectura, reduciendo consumo y elevando potencia, ahora ya eso no importa un carajo, ahora meten mas cudas cores, le meten mas voltaje y a subir MHZ y consumo como la espuma, total, aqui lo que importa es que la tiene mas gorda que nadie y da un trillon de FPS, el consumo y tal ya para otro dia....
Recordar año tras año... Dicen que la velocidad de la gráfica es.. 1750 y la mía llegaba a 2050 solita...

Recuerdo que me pasó con la 1089.. 2080 y 2080ti y la 3080 ..

Es lo típico de Nvidia, anuncia una velocidad y luego el bost es mucho mayor... Si anuncian 2500... No veo descabellado 2900..
Vaalyrio está baneado por "clon de usuario baneado"
chrispro escribió:Recordar año tras año... Dicen que la velocidad de la gráfica es.. 1750 y la mía llegaba a 2050 solita...

Recuerdo que me pasó con la 1089.. 2080 y 2080ti y la 3080 ..

Es lo típico de Nvidia, anuncia una velocidad y luego el bost es mucho mayor... Si anuncian 2500... No veo descabellado 2900..

si los MHZ oficiales son de 2500 mhz, entonces estas graficas van a hacer los 3000 fijo, eso creo que nadie lo duda por que desde hace varias generaciones el bost de Nvidia funciona asi, da un minimo garantizado, y luego segun carga de trabajo y calor suben o bajan los Mhz, por eso es muy importante hacer una curva de voltaje/Mhz por que asi se calienta menos y mantiene la velocidad Bost todo el rato
@Vaalyrio
Yo de voltaje nunca les metí mano, pero si la escala grados velocidad del ventilador... Con eso siempre obtuve buenos resultados.
Sí que pinta mal esa posible 4080 12gb... como le quieran poner un precio parecido a la 3080 y para las otras ir subiendo más... esperemos que solo sea una 4070.
eric_14 escribió:Sí que pinta mal esa posible 4080 12gb... como le quieran poner un precio parecido a la 3080 y para las otras ir subiendo más... esperemos que solo sea una 4070.

Más que mal, fatal. No se como pretenden vender a la gente algo la mayoria va a usar en resoluciones altas y que a la gente le va a gustar que muestre la mayor calidad en sus juegos. Pues con 12GB van listos porque en 4K ningun juego que tenga un pack de texturas HD va funcionar bien. 12GB es lo minimo en ese caso en 1080p.

Hay una review muy buena del Far Cry 6 analizando esto https://www.guru3d.com/articles-pages/f ... iew,1.html con graficas de 8GB a 1080p funcionaran con errores graficos porque en algun momento el juego subira el consumo con texturas HD a 10GB. Y estos consumos en otros juegos con texturas HD son bastante parecidos. Yo sospecho que fruto de que todos vienen de las mismas consolas.

Ahora Nvidia y AMD podran sacar graficas de 8GB pero esta claro que no son aptas para jugar con el maximo detalle.
@KoGollin Lamentablemente no quiere decir que ese sea el prefio de la grafica porque es una reserva.
Y el enlace de Nvidia con la reserva? O todo es una inventada del twittero?
Nomada_Firefox escribió:Más que mal, fatal. No se como pretenden vender a la gente algo la mayoria va a usar en resoluciones altas y que a la gente le va a gustar que muestre la mayor calidad en sus juegos. Pues con 12GB van listos porque en 4K ningun juego que tenga un pack de texturas HD va funcionar bien. 12GB es lo minimo en ese caso en 1080p.

Hay una review muy buena del Far Cry 6 analizando esto https://www.guru3d.com/articles-pages/f ... iew,1.html con graficas de 8GB a 1080p funcionaran con errores graficos porque en algun momento el juego subira el consumo con texturas HD a 10GB. Y estos consumos en otros juegos con texturas HD son bastante parecidos. Yo sospecho que fruto de que todos vienen de las mismas consolas.

Ahora Nvidia y AMD podran sacar graficas de 8GB pero esta claro que no son aptas para jugar con el maximo detalle.


??? Pues yo no he leido eso, aunque claro, no tengo un ingles nativo.

Extraido de esa muy buena review:


Optionally you can enable an HD Quality texture pack. Since we test with 8GB graphics cards predominantly these days, we install and enable it as default. Should you have a 6GB or lower graphics card and play at a resolution higher than 2560x1440, we recommend you leave it disabled.

With your close to the max "Ultra" quality settings this game tries to stay at a fill up to a 9 to 10 GB threshold. In Ultra HD that rises quickly towards roughly 10.5 GB. We deem 8GB a good default value for any mainstream graphics card.

When it comes to memory, 8GB is the magic number; however, with the HD Texture pack, it's a little higher as the game aims to reach 10GB; still, this isn't a problem for the game even if you have an 8GB card.



Los unicos problemas que nombran en la review para las GPU con 8gb se dan a 4k, RT on y sin FSR (con este ultimo en on desaparecen). A 1440p (target de las gpu de 8gb) sin problemas. Y sin RT, todo tambien sin necesidad de activar FSR, incluso a 4k.

Y bueno, sin contar que siempre acudimos al mismo juego para realizar sentencias...
Si es cierto que pone esto.
When it comes to memory, 8GB is the magic number; however, with the HD Texture pack, it's a little higher as the game aims to reach 10GB; still, this isn't a problem for the game even if you have an 8GB card.


Pero inmediatamente déspues pone esto.
With the exception of the occasional random stutters and some FPS dips during large-scale combat battles, the game will be quite playable and entertaining to watch in general. It is possible to attain adequate framerates in UHD at the maximum quality settings with an RTX 2070 or greater, however, this will necessitate the use of a Radeon 5700 XT or above.


Eso es lo que sucede cuando juegas con una grafica de 8GB. Que el juego baja el detalle automaticamente y no se ve bien, ni funciona bien.

La cuestión aqui es negarlo repetidamente como si eso no sucediera o bien comunicarlo porque igual con un poco de suerte los fabricantes se darian cuenta de que lo que venden no es perfecto.

Podeis decirme que es solo un juego, quizas por ser el más conocido. Pero hay más con más con texturas HD. Yo no voy a comprarlos para probar nada, no esta en mi mano. Por lo menos me molesto en informar, otros simplemente parece que lo niegan.

Y posiblemente lo repita un millon de veces porque es simplemente cierto por mucho que se niegue.
KoGollin escribió:Ya se pueden reservar las 4090ti al modico precio de 2100. Tiradas.

https://www.htcmania.com/showthread.php?t=1640456&fbclid=IwAR36qFMWsZ8A2JgPyKy4zn-Rej7iCwlSdFZVj3t5R1_paBFNPeFnN0IQSEQ

Eso no quiere decir nada, yo cuando pille mi primera 3090 pague por la reserva creo recordar unos 16k (yuanes) y al final las vendia la tienda por 10k nos hicieron la devolución. Digo yo será algo parecido
jiujinkai escribió:
KoGollin escribió:Ya se pueden reservar las 4090ti al modico precio de 2100. Tiradas.

https://www.htcmania.com/showthread.php?t=1640456&fbclid=IwAR36qFMWsZ8A2JgPyKy4zn-Rej7iCwlSdFZVj3t5R1_paBFNPeFnN0IQSEQ

Eso no quiere decir nada, yo cuando pille mi primera 3090 pague por la reserva creo recordar unos 16k (yuanes) y al final las vendia la tienda por 10k nos hicieron la devolución. Digo yo será algo parecido

Es lo que digo yo, porque a parte que igual no tienen el producto en si mismo todavia, es muy facil que no sepan el precio de venta, asi que tiran por lo alto. Esto sucede con todo el hardware, fiarse de precios que aparecen antes de un lanzamiento es poco fiable. Las unicas veces que aciertan, es cuando el fabricante no cambia apenas el precio.

Por cierto ¿no visteis el hackeo o pifia de pcc con sus precios en la galeria? para el que no lo viera, asi lucia.
Imagen
Es perder el tiempo...
@Nomada_Firefox hace un rato mirando un router de asus me ha salido a 1.5 euros pero ha desaparecido al instante XD
Nomada_Firefox escribió:Si es cierto que pone esto.
When it comes to memory, 8GB is the magic number; however, with the HD Texture pack, it's a little higher as the game aims to reach 10GB; still, this isn't a problem for the game even if you have an 8GB card.


Pero inmediatamente déspues pone esto.
With the exception of the occasional random stutters and some FPS dips during large-scale combat battles, the game will be quite playable and entertaining to watch in general. It is possible to attain adequate framerates in UHD at the maximum quality settings with an RTX 2070 or greater, however, this will necessitate the use of a Radeon 5700 XT or above.


Eso es lo que sucede cuando juegas con una grafica de 8GB. Que el juego baja el detalle automaticamente y no se ve bien, ni funciona bien.

La cuestión aqui es negarlo repetidamente como si eso no sucediera o bien comunicarlo porque igual con un poco de suerte los fabricantes se darian cuenta de que lo que venden no es perfecto.

Podeis decirme que es solo un juego, quizas por ser el más conocido. Pero hay más con más con texturas HD. Yo no voy a comprarlos para probar nada, no esta en mi mano. Por lo menos me molesto en informar, otros simplemente parece que lo niegan.

Y posiblemente lo repita un millon de veces porque es simplemente cierto por mucho que se niegue.


¿Inmediatamente despues? Si, pero tras un punto y aparte. Si a estas alturas hay que explicar lo que es un punto y aparte... pues si que estamos bien...

Que ese shutter este relacionado con que se use una gpu de 8gb te lo sacas tu de la manga, como lo de la bajada del detalle, que en ningun momento de la review se comenta.

Y claro que hay más juegos de pc con texturas hd, la inmensa mayoria de los AAA modernos. Otra cosa es que se descarguen en un pack a parte, ya que las descargas por separado suelen usarse en consolas, para aprovechar las revisiones de los nuevos modelos o para ahorrar espacio en disco, en juegos indies , donde la comunidad lo termina demandando, y juegos mas antiguos, donde en su salida el hard no "podía" con ese extra y se "remasterizan" las texturas. Si solo se habla de este, quizas es porque es el unico AAA moderno que tiene problemas. Pero solo quizas eh! Lo que pase en el corto plazo con las gpu de menos de 12gb, pues no lo sabemos ni tu ni yo.

Y no, no molesta que informes de problemas reales, como que la 3060ti, la 3070 y la 3070ti petan a 4k con rt y sin fsr. Lo que molesta es que metas como información una mera opinión como:

"con graficas de 8GB a 1080p funcionaran con errores graficos"

Ya que eso no lo dice en ningun momento esa buenisima review (review de un juego, no de ninguna gpu, todo sea dicho de paso). Con estas cosas solo contribuyes a confundir a quien no quiera/pueda leersela o no tenga conocimientos de inglés.

Y no hay que decirle nada a los fabricantes, pues saben perfectamente que lo que venden no es perfecto. De hecho, ahi esta su negocio y de ahi la segmentación de sus productos. ¿Esto significa que las 3070 y 3080 no vinieran justas de ram? Pues no, en segun que escenarios, estan justitas de vram, pero del mismo modo que la 3060 viene justa de cudas.


Nomada_Firefox escribió:Y posiblemente lo repita un millon de veces porque es simplemente cierto por mucho que se niegue.


De esto no me cabe ninguna duda.
@chrispro El error era en la galeria, en la pagina de cada producto aparece el precio en si. A primera vista, parece que calculaba mal los descuentos. Seguro que todo el que lo vio, hizo click en algun producto. [sonrisa]

Ya veo que tu unico argumento señor wookie es alegar que la review esta en ingles [facepalm] estamos en el 2022. Pero incluso el imperfecto traductor de google hara un buen trabajo en este caso.

Esta claro que te molesta cuando inventas que los errores graficos una mera opinión, a eso se le llama tergiversar y emborronar la noticia.

Lo voy a repetir con gusto.
When it comes to memory, 8GB is the magic number; however, with the HD Texture pack, it's a little higher as the game aims to reach 10GB; still, this isn't a problem for the game even if you have an 8GB card.


Traducido:
Cuando se trata de memoria, 8GB es el número mágico; sin embargo, con el paquete HD Texture, es un poco más alto ya que el juego pretende llegar a los 10 GB; aún así, esto no es un problema para el juego incluso si tienes una tarjeta de 8GB.

Y a continuación explica.
With the exception of the occasional random stutters and some FPS dips during large-scale combat battles, the game will be quite playable and entertaining to watch in general. It is possible to attain adequate framerates in UHD at the maximum quality settings with an RTX 2070 or greater, however, this will necessitate the use of a Radeon 5700 XT or above.


Traducido:
Con la excepción de los tartamudeos aleatorios ocasionales y algunas caídas de FPS durante las batallas de combate a gran escala, el juego será bastante jugable y entretenido de ver en general. Es posible lograr velocidades de cuadro adecuadas en UHD con la configuración de máxima calidad con una RTX 2070 o superior; sin embargo, esto requerirá el uso de una Radeon 5700 XT o superior.


Y la traducción es del traductor de google donde estos casos no parece mostrar errores notables dando a entender bien lo que habia escrito en ingles.

Puede usted señor wookie seguir negando la realidad. ¿Y cual es la realidad? me gasta más de 600€ (tirando muy por lo bajo) en una grafica y voy a ver errores graficos porque se me queda corta la tarjeta con 8GB de memoria grafica.

Y igual que lo repito yo, tu lo repites y si cada vez que lo escribo, me respondes, evidentemente te importa. Es una de las reglas del foro por cierto. ;)
Nomada_Firefox escribió:@Wookiee Ya veo que tu unico argumento es alegar que la review esta en ingles [facepalm] estamos en el 2022. Pero incluso el imperfecto traductor de google hara un buen trabajo en este caso.

Esta claro que te molesta cuando inventas que los errores graficos una mera opinión, a eso se le llama tergiversar y emborronar la noticia.

Lo voy a repetir con gusto.
When it comes to memory, 8GB is the magic number; however, with the HD Texture pack, it's a little higher as the game aims to reach 10GB; still, this isn't a problem for the game even if you have an 8GB card.


Traducido:
Cuando se trata de memoria, 8GB es el número mágico; sin embargo, con el paquete HD Texture, es un poco más alto ya que el juego pretende llegar a los 10 GB; aún así, esto no es un problema para el juego incluso si tienes una tarjeta de 8GB.

Y a continuación explica.
With the exception of the occasional random stutters and some FPS dips during large-scale combat battles, the game will be quite playable and entertaining to watch in general. It is possible to attain adequate framerates in UHD at the maximum quality settings with an RTX 2070 or greater, however, this will necessitate the use of a Radeon 5700 XT or above.


Traducido:
Con la excepción de los tartamudeos aleatorios ocasionales y algunas caídas de FPS durante las batallas de combate a gran escala, el juego será bastante jugable y entretenido de ver en general. Es posible lograr velocidades de cuadro adecuadas en UHD con la configuración de máxima calidad con una RTX 2070 o superior; sin embargo, esto requerirá el uso de una Radeon 5700 XT o superior.


Y la traducción es del traductor de google donde estos casos no parece mostrar errores notables dando a entender bien lo que habia escrito en ingles.

Puede usted señor wookipe negando la realidad. ¿Y cual es la realidad? me gasta más de 600€ (tirando muy por lo bajo) en una grafica y voy a ver errores graficos porque se me queda corta la tarjeta con 8GB de memoria grafica.



No, el problema no es que la review este en inglés, el problema es tu gramatica (o tu enfermizo afán por tener razon siempre):

A continuación no, tras un punto y aparte. En un parrafo diferente, vamos. Lo que en ingles es un "new paragraph". Si quieres te paso algun enlace en inglés sobre lo que implica, pero te adelanto que, basicamente, es igual que en castellano. Y segun la RAE:

El punto y aparte es, pues, el que separa dos párrafos distintos, que suelen desarrollar, dentro de la unidad del texto, ideas o contenidos diferentes.




Es cierto que hay shutter, pero no lo relaciona con la cantidad de vram, ni mucho menos con resoluciones de 1080p, sino que, si te lees la review completa, lo hace con el analisis de frametime (tira de nuevo de traductor):


For our test run, we'll fire off a 30-second scene at 3840x2160 pixels in both DX12 and DX12+Raytracing. We opt to use the Radeon RX 6800 XT paired and matched with the GeForce RTX 3080. The first being faster in DX12, the latter in DX12+Raytracing. So that should be an interesting observation.

Once you see visual peaks at 40ms, you're in stutter territory. The game engine does have them.


Asi que señala al motor del juego, porque no se nos olvide, es la review de un juego, y habla de como se comporta ese juego.Y tras colgar varias tablas comparativas del frametime, compara dos graficas, la 6700xt (12gb) y la 3060ti (8gb), llegando a la siguiente conclusión:

It's almost vexatious to see how well both cards perform, so we'll close in even further at the highest measured frametime in ms, above DX12 frame times for 6700 XT (red) and 3060 Ti (green). You can see extremely similar frame pacing and time behavior, the green bar is positioned higher and thus slightly slower (higher frame times - lower FPS).

Y esta es la referencia al shutter a la que alude tu "parrafo salvavidas", el cual acaba diciendo que puedes conseguir fps adecuados con una 2070 (8gb) "asi como" con una 5700XT (8gb) en maxima calidad y a 4k.

Y por mi parte, siguiendo con la "tematica" de esta aburrida e infructuosa conversación, punto final.

Edit: Por cierto, me gasté menos en la 3070 (nueva 529€ puesta en casa) que tu en la 3060, y el unico "error grafico" (que no fue tal, si no shutter) que padecí fue cosa de la cpu y supe como solucionarlo. Si alguien debe estar rabiando por pagar de más, ese no soy yo.
Wookiee escribió:
Nomada_Firefox escribió:@Wookiee Ya veo que tu unico argumento es alegar que la review esta en ingles [facepalm] estamos en el 2022. Pero incluso el imperfecto traductor de google hara un buen trabajo en este caso.

Esta claro que te molesta cuando inventas que los errores graficos una mera opinión, a eso se le llama tergiversar y emborronar la noticia.

Lo voy a repetir con gusto.
When it comes to memory, 8GB is the magic number; however, with the HD Texture pack, it's a little higher as the game aims to reach 10GB; still, this isn't a problem for the game even if you have an 8GB card.


Traducido:
Cuando se trata de memoria, 8GB es el número mágico; sin embargo, con el paquete HD Texture, es un poco más alto ya que el juego pretende llegar a los 10 GB; aún así, esto no es un problema para el juego incluso si tienes una tarjeta de 8GB.

Y a continuación explica.
With the exception of the occasional random stutters and some FPS dips during large-scale combat battles, the game will be quite playable and entertaining to watch in general. It is possible to attain adequate framerates in UHD at the maximum quality settings with an RTX 2070 or greater, however, this will necessitate the use of a Radeon 5700 XT or above.


Traducido:
Con la excepción de los tartamudeos aleatorios ocasionales y algunas caídas de FPS durante las batallas de combate a gran escala, el juego será bastante jugable y entretenido de ver en general. Es posible lograr velocidades de cuadro adecuadas en UHD con la configuración de máxima calidad con una RTX 2070 o superior; sin embargo, esto requerirá el uso de una Radeon 5700 XT o superior.


Y la traducción es del traductor de google donde estos casos no parece mostrar errores notables dando a entender bien lo que habia escrito en ingles.

Puede usted señor wookipe negando la realidad. ¿Y cual es la realidad? me gasta más de 600€ (tirando muy por lo bajo) en una grafica y voy a ver errores graficos porque se me queda corta la tarjeta con 8GB de memoria grafica.



No, el problema no es que la review este en inglés, el problema es tu gramatica (o tu enfermizo afán por tener razon siempre):

A continuación no, tras un punto y aparte. En un parrafo diferente, vamos. Lo que en ingles es un "new paragraph". Si quieres te paso algun enlace en inglés sobre lo que implica, pero te adelanto que, basicamente, es igual que en castellano. Y segun la RAE:

El punto y aparte es, pues, el que separa dos párrafos distintos, que suelen desarrollar, dentro de la unidad del texto, ideas o contenidos diferentes.




Es cierto que hay shutter, pero no lo relaciona con la cantidad de vram, ni mucho menos con resoluciones de 1080p, sino que, si te lees la review completa, lo hace con el analisis de frametime (tira de nuevo de traductor):


For our test run, we'll fire off a 30-second scene at 3840x2160 pixels in both DX12 and DX12+Raytracing. We opt to use the Radeon RX 6800 XT paired and matched with the GeForce RTX 3080. The first being faster in DX12, the latter in DX12+Raytracing. So that should be an interesting observation.

Once you see visual peaks at 40ms, you're in stutter territory. The game engine does have them.


Asi que señala al motor del juego, porque no se nos olvide, es la review de un juego, y habla de como se comporta ese juego.Y tras colgar varias tablas comparativas del frametime, compara dos graficas, la 6700xt (12gb) y la 3060ti (8gb), llegando a la siguiente conclusión:

It's almost vexatious to see how well both cards perform, so we'll close in even further at the highest measured frametime in ms, above DX12 frame times for 6700 XT (red) and 3060 Ti (green). You can see extremely similar frame pacing and time behavior, the green bar is positioned higher and thus slightly slower (higher frame times - lower FPS).

Y esta es la referencia al shutter a la que alude tu "parrafo salvavidas", el cual acaba diciendo que puedes conseguir fps adecuados con una 2070 (8gb) "asi como" con una 5700XT (8gb) en maxima calidad y a 4k.

Y por mi parte, siguiendo con la "tematica" de esta aburrida e infructuosa conversación, punto final.



Ya ocurrio multitud de veces con este usuario, va a tener razon si o si, y cuando se le acaben los argumentos, te dira que le atacas y faltas al respeto.

Respecto a la cantidad de vram en las gpu, se viene discutiendo muchisimo en reddit, los que dicen que 8bg no son suficientes nombran al far cry 6 porque ubisoft pide de requisitos 10gb vram con texturas hd, aunque haya usuarios que juguen a el con 8gb sin problemas.
En mi experiencia, con la 3070 de 8gb y luego con la 3080 de 10gb nunca he tenido problemas de falta de ram en 4k. Y estoy seguro que cambiare de gpu antes de tener alguno.
ditifet escribió:Y que lleven 2x12 no implica que lleguen si o si a los 800w, tenemos que diferenciar su tgp y lo que están preparados para soportar

Al tiempo, ya verás, "es el camino" que se ve en esta generación. No se van a quedar con 660W de TDP con 2 conectores capaces de entregar 600W cada uno, hay gente q quiere más chicha. Las 3090ti más cañeras llegaron a consumir hasta 470W de pico con un sólo conector. Ojalá me equivoque.
14374 respuestas