[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

Fair201 escribió:Ya que parece que va a ser casi imposible pillar una asus 3080 TUF o Strix me estoy decantando por las MSI o eVGA.

¿Cuál me recomendáis?


MSI X Trio
Blackpo92 escribió:https://www.youtube.com/watch?v=lY9OSdebKcc&feature=youtu.be
Por aquí anda una 3090 también en el Godfall y chupa casi 12 gb de vram.
Aquí pasa algo y hasta que no salga oficialmente no creo que sepamos que es.
Saludos


mira el video que puse mas atrás de Godfall corriendo en la RTX 3080 , el rivatuner marca casi 9 GB y en los videos de la RTX 3090 marca mas de 10 GB , eso es por que en la tarjeta que tiene mas vram se reserva mas vram pero eso no quiere decir que el juego este consumiendo esa vram , en ambas tarjetas se consume la misma vram por que la configuración gráfica y la resolución es exactamente igual.

Los síntomas por falta de vram son que el juego empieza a pegar tirones , bajan los fps constantemente a 0 por unos segundos y desaparecen texturas , esto lo se por una prueba que hice hace años con una GTX 780 de 6 GB en GTA V a 4k , además otro indicador de que eso se estaba produciendo por falta de vram fue el marcador de vram del propio juego que advertía de que no había suficiente de hecho al desactivar el MSAA que consume una burrada de vram o bajar la resolución a 3K volvían las texturas y desaparecían los tirones.

Un saludo.
@Bio81 vamos entonces es algo parecido a cómo funciona hoy día la memoria ram del sistema, cuanta más tienes, más se reserva, pero no quiere decir que sea imprescindible para funcionar bien, y si realmente te quedas sin ram es cuándo se queda la aplicación parada unos instantes con el relojito dando vueltas.
@Dibxer Antes que las eVGA? yo tenía entendido lo siguiente

Asus>eVGA>MSI>Gigabyte>Zotac
@Dibxer @Fair201 Yo pondría primer la eVGA, más que nada por su garantía. Que las tiendas luego se lavan las manos a no ser que sea Amazon.
Bio81 escribió:
Blackpo92 escribió:https://www.youtube.com/watch?v=lY9OSdebKcc&feature=youtu.be
Por aquí anda una 3090 también en el Godfall y chupa casi 12 gb de vram.
Aquí pasa algo y hasta que no salga oficialmente no creo que sepamos que es.
Saludos


mira el video que puse mas atrás de Godfall corriendo en la RTX 3080 , el rivatuner marca casi 9 GB y en los videos de la RTX 3090 marca mas de 10 GB , eso es por que en la tarjeta que tiene mas vram se reserva mas vram pero eso no quiere decir que el juego este consumiendo esa vram , en ambas tarjetas se consume la misma vram por que la configuración gráfica y la resolución es exactamente igual.

Los síntomas por falta de vram son que el juego empieza a pegar tirones , bajan los fps constantemente a 0 por unos segundos y desaparecen texturas , esto lo se por una prueba que hice hace años con una GTX 780 de 6 GB en GTA V a 4k , además otro indicador de que eso se estaba produciendo por falta de vram fue el marcador de vram del propio juego que advertía de que no había suficiente de hecho al desactivar el MSAA que consume una burrada de vram o bajar la resolución a 3K volvían las texturas y desaparecían los tirones.

Un saludo.

De todas formas, x lo que he visto en el vídeo en el que consume 7 gb no hay Raytracing, lo dice el autor del vídeo en los comentarios.
Saludos
@Mtinmtz

Bueno yo digo más que nada con el follón que hubo en la serie RTX 3000 que las ASUS eras las únicas que tenían los chips correctos y tal... además de que las TUF y las STRIX creo que son las más fresquitas y silenciosas de esta generación

De todas maneras seguramente me acabaré pillando una eVGA ( que serán las primeras en salir stock ) ya que las ASUS veo muy difícil encontrar alguna
Fair201 escribió:@Mtinmtz

Bueno yo digo más que nada con el follón que hubo en la serie RTX 3000 que las ASUS eras las únicas que tenían los chips correctos y tal... además de que las TUF y las STRIX creo que son las más fresquitas y silenciosas de esta generación

De todas maneras seguramente me acabaré pillando una eVGA ( que serán las primeras en salir stock ) ya que las ASUS veo muy difícil encontrar alguna


Tienes razón, pero creo que al final no tenia mucho que ver con los condensadores, se solucionó por drivers.

Aunque por ejemplo la evga 3090 ftw3 lleva la misma cantidad de condensadores que las FE.

Un saludo.
@Blackpo92 eso es, el extra de los rayitos abre mucho el grifo para chupar más vram. De todas formas nvidia nos la ha colado, desde luego que juegos pasados en 4K no darían problemas, en el futuro próximo con las consolas ya aqui, los juegos van a pedir más recursos y para 4K se va a quedar limitada. Para mi no seria problema porque no la voy a usar para 4K, quiero jugarlo para 1440p. Y con ello iria sobrado. Pero primero no existe stock y las que me interesan valen su precio megainflado. Lo único que queda es esperar a que salga AMD sus tarjetas, estabilice un poco el mercado, mejore stock por un lado y otro, estabilice precios y podamos elegir bien y de paso ver demonios que movimiento hará nvidia para competir frente a la competencia.
@Blackpo92 Es el benchmark del juego, no el juego en sí, si tú como desarrollador mientes diciendo que usara tanta vram tienes que inventarte un sitio donde si lo haga y el benchmark del juego es el ideal, así no te pueden acusar de mentiroso aunque lo seas ;)

Las gráficas actuales se quedaran cortas de potencia antes que cortas de vram, cualquiera que ande en esto tiempo lo sabe, yo ando midiendo la vram de los juegos desde hace bastante y solo juegos que salen mal programados ( memory leaks, etc... ) te pueden llegar a sobrepasar esos 10gb, todo a 4K con los settings al maximo, dicho esto lo minimo que hubiera puesto yo en estas gráficas top hubiera sido 12gb.

Un apunte más, el wdlegion se ve de lujo y se puede jugar perfectamente, no hay problemas de vram pero si hay problemas de falta de potencia.
ionesteraX escribió:@Blackpo92 Es el benchmark del juego, no el juego en sí, si tú como desarrollador mientes diciendo que usara tanta vram tienes que inventarte un sitio donde si lo haga y el benchmark del juego es el ideal, así no te pueden acusar de mentiroso aunque lo seas ;)

Las gráficas actuales se quedaran cortas de potencia antes que cortas de vram, cualquiera que ande en esto tiempo lo sabe, yo ando midiendo la vram de los juegos desde hace bastante y solo juegos que salen mal programados ( memory leaks, etc... ) te pueden llegar a sobrepasar esos 10gb, todo a 4K con los settings al maximo, dicho esto lo minimo que hubiera puesto yo en estas gráficas top hubiera sido 12gb.

Un apunte más, el wdlegion se ve de lujo y se puede jugar perfectamente, no hay problemas de vram pero si hay problemas de falta de potencia.

Me puedes decir un programa que mida la vram real que esta consumiendo un juego?
Ya que dicen que el afterburner mide la vram asignada y no la consumida...
metalgear escribió:@Blackpo92 eso es, el extra de los rayitos abre mucho el grifo para chupar más vram. De todas formas nvidia nos la ha colado, desde luego que juegos pasados en 4K no darían problemas, en el futuro próximo con las consolas ya aqui, los juegos van a pedir más recursos y para 4K se va a quedar limitada. Para mi no seria problema porque no la voy a usar para 4K, quiero jugarlo para 1440p. Y con ello iria sobrado. Pero primero no existe stock y las que me interesan valen su precio megainflado. Lo único que queda es esperar a que salga AMD sus tarjetas, estabilice un poco el mercado, mejore stock por un lado y otro, estabilice precios y podamos elegir bien y de paso ver demonios que movimiento hará nvidia para competir frente a la competencia.

Yo me pillé la 3070 para jugar a tope en 1440p y está por ver lo que me durará, sobre el papel para ésta resolución con 8 gb de vram no debería de quedarse corta a priori pronto, pero expectante estoy. Si se confirma lo peor tendré que venderla y pillarme un futuro modelo súper o ti o igual una AMD.
Saludos
@Lemmiwinks La última versión beta ( no si estara ya sin ser beta ) del msi afterburner te da la memoria reservada y en uso de la gráfica.
Sabéis si ASUS hace algo del tipo renove? Creo que EVGA si hace algo así en las 3080 por si saliera la 3080Ti. Es que vaya putada comernos los 10gb cuando en dos meses sacarán la de 20gb... Dan ganas de pillarse una 6800XT... [facepalm]
Se sabe fecha de salida de la RTX 3080 TI? hay alguna novedad? Saludos
@Elevation_ph se va a venir en enero. Y la verdad, vaya putada con esta de 10gb. Sabemos que Nvidia suele sacar sus versiones SUPER o TI. Pero es que la dobla en Vram. Es un factor muy determinante. No es que te suban 2gb, es que son 10. Es una barbaridad. Yo me estoy planteando muy seriamente la 6800XT de AMD la verdad. Es que una 10gb a lo sumo te dura 2 o 3 años. Y puede que me esté pasando...
Blackpo92 escribió:
metalgear escribió:@Blackpo92 eso es, el extra de los rayitos abre mucho el grifo para chupar más vram. De todas formas nvidia nos la ha colado, desde luego que juegos pasados en 4K no darían problemas, en el futuro próximo con las consolas ya aqui, los juegos van a pedir más recursos y para 4K se va a quedar limitada. Para mi no seria problema porque no la voy a usar para 4K, quiero jugarlo para 1440p. Y con ello iria sobrado. Pero primero no existe stock y las que me interesan valen su precio megainflado. Lo único que queda es esperar a que salga AMD sus tarjetas, estabilice un poco el mercado, mejore stock por un lado y otro, estabilice precios y podamos elegir bien y de paso ver demonios que movimiento hará nvidia para competir frente a la competencia.

Yo me pillé la 3070 para jugar a tope en 1440p y está por ver lo que me durará, sobre el papel para ésta resolución con 8 gb de vram no debería de quedarse corta a priori pronto, pero expectante estoy. Si se confirma lo peor tendré que venderla y pillarme un futuro modelo súper o ti o igual una AMD.
Saludos

Yo he hecho lo mismo ,pero me da tiempo a ver cómo sale la 6800Xt y ya valorar si cancelarla o no.
Además, de que me ha salido la 3070 "tirada" por suerte por 429€.
Pero si la 6800XT sale como debe, cancelo igualmente.

Yo creo que para 1440p da para años a buenos FPS.Y si es con DLSS, ni te cuento.

A lo que no estaba dispuesto es a pagar +700€ pensando que lo mismo la Vram se queda corta.

@Yan7
Que sean 10GB es lo de menos.
Con 4Gb más hubiese sido suficiente.
La cuestión es que 10 seguramente se queden en algunas circunstancias ,justos.
Con 10Gb a 1440p ,te dura bastante más de 3 años.Otra cosa es el 4K.
Hasta ahora, ninguna gráfica ha durado más de unos 3 años con un buen 4K.Sale muy caro de mantener.
Yan7 escribió:@Elevation_ph se va a venir en enero. Y la verdad, vaya putada con esta de 10gb. Sabemos que Nvidia suele sacar sus versiones SUPER o TI. Pero es que la dobla en Vram. Es un factor muy determinante. No es que te suban 2gb, es que son 10. Es una barbaridad. Yo me estoy planteando muy seriamente la 6800XT de AMD la verdad. Es que una 10gb a lo sumo te dura 2 o 3 años. Y puede que me esté pasando...


Llevo esperando la versión RTX 3080 TI, todavía no sabia nada de la fecha exacta.

La 3080 no me convencennlos 10 gigas de vram y la 3090 se va de precio
@hh1 yo por ejemplo nunca voy a jugar a 4K. Primero iré con 1080 por no cambiar de monitor y en un futuro no muy lejano pasarme al 2K.
El problema viene de si quieres jugar siempre a todo en Ultra y con DLLS y RT activos (para los juegos que los implementen obviamente).
Ahí no sé yo si, aún jugando con esas resoluciones más bajas del 4K, durará al menos 3 años.
Lo que sí quiero ver es lo que saca AMD, no sé yo si el Fidelity FX estaría a la altura. Pero como no me disguste puede que me la compre y cancele la 3080.
Al final pude conseguir una msi 3070 en pc componentes.

Tenia duda si xbox series x o esta ya que tengo reservada la ps5.

Mi pc es un i7 8700k creo que se compenetrarán bien espero que me aguante muchos años.
Elevation_ph escribió:
Yan7 escribió:@Elevation_ph se va a venir en enero. Y la verdad, vaya putada con esta de 10gb. Sabemos que Nvidia suele sacar sus versiones SUPER o TI. Pero es que la dobla en Vram. Es un factor muy determinante. No es que te suban 2gb, es que son 10. Es una barbaridad. Yo me estoy planteando muy seriamente la 6800XT de AMD la verdad. Es que una 10gb a lo sumo te dura 2 o 3 años. Y puede que me esté pasando...


Llevo esperando la versión RTX 3080 TI, todavía no sabia nada de la fecha exacta.

La 3080 no me convencennlos 10 gigas de vram y la 3090 se va de precio


Pues haces mal en mi opinon, los 10gb de vram son mas que suficientes actualmente y mas si no juegas en 4k, una cosa es la vram que lleve la vga y otra cosa es si se aprovecha, si el rdr2 con todo en ultra y en 2k no ocupa ni 6gb, el re3 en ultra y con escalado al 150% dice que ocupa 13gb :O y juego a 60fps sin problema.

La 3080ti no bajará de 1100-1200€ seguramente y a ver con que stock, yo con la 3080 voy sobrado para 3-4 años mas.
Yan7 escribió:@Elevation_ph se va a venir en enero. Y la verdad, vaya putada con esta de 10gb. Sabemos que Nvidia suele sacar sus versiones SUPER o TI. Pero es que la dobla en Vram. Es un factor muy determinante. No es que te suban 2gb, es que son 10. Es una barbaridad. Yo me estoy planteando muy seriamente la 6800XT de AMD la verdad. Es que una 10gb a lo sumo te dura 2 o 3 años. Y puede que me esté pasando...



La semana que viene esta ya obsoleta la grafica con 10gb de ram.
Miklan84 escribió:
Yan7 escribió:@Elevation_ph se va a venir en enero. Y la verdad, vaya putada con esta de 10gb. Sabemos que Nvidia suele sacar sus versiones SUPER o TI. Pero es que la dobla en Vram. Es un factor muy determinante. No es que te suban 2gb, es que son 10. Es una barbaridad. Yo me estoy planteando muy seriamente la 6800XT de AMD la verdad. Es que una 10gb a lo sumo te dura 2 o 3 años. Y puede que me esté pasando...



La semana que viene esta ya obsoleta la grafica con 10gb de ram.

Ahí está la buena bola de cristal en acción XD.
Yo alucino con la de pitonisos que se ven por aquí :).
Saludos
Hay mucho consumismo y demasiada obsesión. Con estar a la ultima eso no es bueno a sin no se disfruta nada yo lo tengo claro como echo siempre. Cuando no me funcione bien le bajo los ajustes hasta que se vean cuadros de lego las caras y que me aguante muchos años.
Yan7 escribió:Sabéis si ASUS hace algo del tipo renove? Creo que EVGA si hace algo así en las 3080 por si saliera la 3080Ti. Es que vaya putada comernos los 10gb cuando en dos meses sacarán la de 20gb... Dan ganas de pillarse una 6800XT... [facepalm]


solo lo hace, porque me registre hace unos dias, hasta 90 dias despues de la compra, asi que claro ya he tenido que mentir con que la compra fue cuando recibi la tarjeta, porque la compre 1 mes antes...
asique resumiendo, como no salga en enero la 3080ti, nos comemos los mocos
Bio81 escribió:
kaneli escribió:
Bio81 escribió:
nunca hay que fiarse de lo que dicen los desarrolladores hasta hacer pruebas uno mismo , pero una cosa esta clara 10 GB van a ser insuficientes para juegos de next gen , si no , no tendría sentido la 3080 Ti con 20 GB o las RX 6800 y 6900 con 16 Gb ¿para que poner mas memoria si no se va a utilizar? por eso habrá juegos en los que los 10 GB serán suficientes pero otros en los que no , apunto hacia 2021 y 2022 para que eso suceda



pega algunos tirones ¿será tema de optimización o drivers?


Si que tiene sentido, es puro marketing, generas una necesidad en el comprador que puede no ser real.

Yo llevo 3 años con la 1080Ti con 11 gb de vram y en todo este tiempo ningún juego ha pasado de 4 o 5 gb de vram asignada. Me han sobrado 6 gb de vram todo este tiempo, pues ahora pasara lo mismo con las Ti. Creo que si no haces render en 2 años sigues teniendo tarjeta de sobra con la 3080.


a que resolución? por que a 4k hay juegos de la generación de ps4 y xbox one que consumen mas de 5 GB , la 3080 Ti al ser mas de el doble de potente que una 1080 Ti (en teoría tendría el rendimiento de una 3090) implica poder subir mas los gráficos a 4k para mantener 60 fps y eso da como resultado un mayor consumo de vram , con esto no quiero decir que todos los juegos que salgan en los próximos 2 años vayan a consumir mas de 10 GB a 4K pero si habrá varios juegos que consuman 11 GB , 12GB o 15GB

Un saludo.



Pues depende pero en general la 1080Ti aguanta bien 4K60fps en juegos de su generación y algunos actuales en buena calidad, luego por ejemplo el RDR2 y shooters los he jugado a 1440p. Pero vamos de esos 11 gb de VRAM he utilizado como mucho 4-6 gb en juegos de su generación...

EDIT: ahora tengo la Gigabyte 3080 OC y la verdad es que hay una GRAN diferencia! El RDR2 a 4k60fps con preset alto ni se despeina [tadoramo]
@neox3 ostias. Me puedes explicar un poco? Es de ASUS la tuya no? O me hablas de la EVGA?
Yan7 escribió:@neox3 ostias. Me puedes explicar un poco? Es de ASUS la tuya no? O me hablas de la EVGA?


Para el programa de renove de EVGA la gráfica no puede tener más de 90 días desde la compra. Una vez pasado ese plazo ya no te vale para ese "plan renove".
ionesteraX escribió:@Lemmiwinks La última versión beta ( no si estara ya sin ser beta ) del msi afterburner te da la memoria reservada y en uso de la gráfica.

Ummmm vale gracias, entonces supongo que es lo que monotorizo yo desde el afterburner.
Si es que hay tanto lio con la reservada y la usada, que ya uno no sabe.
Pero vamos, si es asi el horizon sin ir mas lejos me usa 7,5 gb. Ya se que esta mal optimizado y demas,al final mas de la mitad de juegos lo estan, y me hace dudar que antes necesitemos mas potencia a mas vram, porque de potencia anda sobradisima para 1440p y 60hz,en cambio de memoria no...
Tengo una duda “tonta”.
Leo que la cpu hace cuello de botella a resoluciones mas bajas que 4k. Es decir, a 1080p, el limitante es la cpu (En mi caso 6700k), y a 4K, no importa tanto la cpu sino que la grafica es la que tira.
Eso lo puedo llegar a entender.
Pero.. Si en un monitor 1080 empleas DSR o escalado de resolucion dentro del propio juego para simular 2k o 4k no daria em mismo resultado y dejaria de haber ese supuesto cuello de botella?
@Kalakatita lo del limite de la cpu es un poco chorrada.

Imagina que tu cpu puede dar 300 fps, y tu grafica 500 fps a 1080p, el limite te lo va dar la cpu y te van a dar 300fps.

Pero en 4k la cosa cambia, tu cpu va poder seguir dando 300fps pero tu grafica 50fps => tienes 50 fps en pantalla.

Fin de la historia.

Siempre hay algun "cuello de botella", o bien la grafica no da mas de si o la cpu no da más de si.

Luego hay otros limitantes, que se tienen menos en cuenta pero son más importantes como los limites de los cables, un hdmi 2.0 o displayport 1.4 quiza no puedan dar 144hz a 4k.

Y tambien hay un limite de fps que puede soltar la gpu que creo que son 500 o asi, es un limite fisico porque es la tasa de refresco maximo que tiene la memoria de salida de imagenes al monitor.

En cualquier caso yo no me preocuparia mucho, por encima de 60fps la ganancia es muy pequeña salvo en juegos competitivos que podria tener sentido tener más fps, pero normalmente en esos juegos la gente baja al maximo los graficos para centrarse en lo importante.
hh1 escribió:
Blackpo92 escribió:
metalgear escribió:@Blackpo92 eso es, el extra de los rayitos abre mucho el grifo para chupar más vram. De todas formas nvidia nos la ha colado, desde luego que juegos pasados en 4K no darían problemas, en el futuro próximo con las consolas ya aqui, los juegos van a pedir más recursos y para 4K se va a quedar limitada. Para mi no seria problema porque no la voy a usar para 4K, quiero jugarlo para 1440p. Y con ello iria sobrado. Pero primero no existe stock y las que me interesan valen su precio megainflado. Lo único que queda es esperar a que salga AMD sus tarjetas, estabilice un poco el mercado, mejore stock por un lado y otro, estabilice precios y podamos elegir bien y de paso ver demonios que movimiento hará nvidia para competir frente a la competencia.

Yo me pillé la 3070 para jugar a tope en 1440p y está por ver lo que me durará, sobre el papel para ésta resolución con 8 gb de vram no debería de quedarse corta a priori pronto, pero expectante estoy. Si se confirma lo peor tendré que venderla y pillarme un futuro modelo súper o ti o igual una AMD.
Saludos

Yo he hecho lo mismo ,pero me da tiempo a ver cómo sale la 6800Xt y ya valorar si cancelarla o no.
Además, de que me ha salido la 3070 "tirada" por suerte por 429€.
Pero si la 6800XT sale como debe, cancelo igualmente.

Yo creo que para 1440p da para años a buenos FPS.Y si es con DLSS, ni te cuento.

A lo que no estaba dispuesto es a pagar +700€ pensando que lo mismo la Vram se queda corta.

@Yan7
Que sean 10GB es lo de menos.
Con 4Gb más hubiese sido suficiente.
La cuestión es que 10 seguramente se queden en algunas circunstancias ,justos.
Con 10Gb a 1440p ,te dura bastante más de 3 años.Otra cosa es el 4K.
Hasta ahora, ninguna gráfica ha durado más de unos 3 años con un buen 4K.Sale muy caro de mantener.


429 la 3070 donde?
miliko_one escribió:
Elevation_ph escribió:
Yan7 escribió:@Elevation_ph se va a venir en enero. Y la verdad, vaya putada con esta de 10gb. Sabemos que Nvidia suele sacar sus versiones SUPER o TI. Pero es que la dobla en Vram. Es un factor muy determinante. No es que te suban 2gb, es que son 10. Es una barbaridad. Yo me estoy planteando muy seriamente la 6800XT de AMD la verdad. Es que una 10gb a lo sumo te dura 2 o 3 años. Y puede que me esté pasando...


Llevo esperando la versión RTX 3080 TI, todavía no sabia nada de la fecha exacta.

La 3080 no me convencennlos 10 gigas de vram y la 3090 se va de precio


Pues haces mal en mi opinon, los 10gb de vram son mas que suficientes actualmente y mas si no juegas en 4k, una cosa es la vram que lleve la vga y otra cosa es si se aprovecha, si el rdr2 con todo en ultra y en 2k no ocupa ni 6gb, el re3 en ultra y con escalado al 150% dice que ocupa 13gb :O y juego a 60fps sin problema.

La 3080ti no bajará de 1100-1200€ seguramente y a ver con que stock, yo con la 3080 voy sobrado para 3-4 años mas.


Tengo monitor 4K Acer Predator Xb321HK con una GTX 1080Ti.
Ganas de grafica nueva claro que hay no te lo voy a negar pero prefiero una con más Vram.
Alguien sabe si las bios de la rtx 3080 gaming oc funciona con la rtx 3080 eagle?
Dark_Crystal escribió:
hh1 escribió:
Blackpo92 escribió:Yo me pillé la 3070 para jugar a tope en 1440p y está por ver lo que me durará, sobre el papel para ésta resolución con 8 gb de vram no debería de quedarse corta a priori pronto, pero expectante estoy. Si se confirma lo peor tendré que venderla y pillarme un futuro modelo súper o ti o igual una AMD.
Saludos

Yo he hecho lo mismo ,pero me da tiempo a ver cómo sale la 6800Xt y ya valorar si cancelarla o no.
Además, de que me ha salido la 3070 "tirada" por suerte por 429€.
Pero si la 6800XT sale como debe, cancelo igualmente.

Yo creo que para 1440p da para años a buenos FPS.Y si es con DLSS, ni te cuento.

A lo que no estaba dispuesto es a pagar +700€ pensando que lo mismo la Vram se queda corta.

@Yan7
Que sean 10GB es lo de menos.
Con 4Gb más hubiese sido suficiente.
La cuestión es que 10 seguramente se queden en algunas circunstancias ,justos.
Con 10Gb a 1440p ,te dura bastante más de 3 años.Otra cosa es el 4K.
Hasta ahora, ninguna gráfica ha durado más de unos 3 años con un buen 4K.Sale muy caro de mantener.


429 la 3070 donde?

No es nada oficial.Simplemente por empresa,te deduces el IVA.
@Yan7
Como esto sea verdad:
https://www.noticias3d.com/noticia.asp?idnoticia=82353
Blackpo92 escribió:
Bio81 escribió:
Blackpo92 escribió:https://www.youtube.com/watch?v=lY9OSdebKcc&feature=youtu.be
Por aquí anda una 3090 también en el Godfall y chupa casi 12 gb de vram.
Aquí pasa algo y hasta que no salga oficialmente no creo que sepamos que es.
Saludos


mira el video que puse mas atrás de Godfall corriendo en la RTX 3080 , el rivatuner marca casi 9 GB y en los videos de la RTX 3090 marca mas de 10 GB , eso es por que en la tarjeta que tiene mas vram se reserva mas vram pero eso no quiere decir que el juego este consumiendo esa vram , en ambas tarjetas se consume la misma vram por que la configuración gráfica y la resolución es exactamente igual.

Los síntomas por falta de vram son que el juego empieza a pegar tirones , bajan los fps constantemente a 0 por unos segundos y desaparecen texturas , esto lo se por una prueba que hice hace años con una GTX 780 de 6 GB en GTA V a 4k , además otro indicador de que eso se estaba produciendo por falta de vram fue el marcador de vram del propio juego que advertía de que no había suficiente de hecho al desactivar el MSAA que consume una burrada de vram o bajar la resolución a 3K volvían las texturas y desaparecían los tirones.

Un saludo.

De todas formas, x lo que he visto en el vídeo en el que consume 7 gb no hay Raytracing, lo dice el autor del vídeo en los comentarios.
Saludos


ya pero el juego no tiene ray tracing de lanzamiento se añadirá mas adelante con un parche: https://wccftech.com/godfall-doesnt-sup ... -rtx-3090/
En resumen: análisis de varios juegos en digital foundry de la nueva Xbox en la que muestran ajustes gráficos lejos de ultra, declaraciones del vicepresidente de amd diciendo que rdna2 está pensado para 1440p con rt activo, bajo rendimiento en minado, menor rendimiento que Nvidia en OpenGL....etc. De momento tranquilo con la compra realizada [poraki]
Draifet escribió:@Bio81 vamos entonces es algo parecido a cómo funciona hoy día la memoria ram del sistema, cuanta más tienes, más se reserva, pero no quiere decir que sea imprescindible para funcionar bien, y si realmente te quedas sin ram es cuándo se queda la aplicación parada unos instantes con el relojito dando vueltas.


si al menos es así en rivatuner , los marcadores de vram de los juegos y el administrador de tareas de windows son mas precisos calculando el consumo de memoria
Interesante este video que acaban de subir los de digital foundry.

Poniendo los mismos settings de la nueva Xbox en un pc con una 2060super tiene un rendimiento superior.
Cual era la web/foro para vender codigos de juegos?
Yan7 escribió:@neox3 ostias. Me puedes explicar un poco? Es de ASUS la tuya no? O me hablas de la EVGA?


me referia a evga, de que no es tan bonito como lo pintan, por que solo te dan 90 dias... y si encima la compraste y te tardan 1 mes en entregarla como me ha pasado a mi... pues ya ves...
tgunator escribió:Interesante este video que acaban de subir los de digital foundry.

Poniendo los mismos settings de la nueva Xbox en un pc con una 2060super tiene un rendimiento superior.

Tampoco sorprende mucho. Series X esta resultando un autentico fracaso. Hasta la PS5 la esta superando en los juegos multiplataforma.

Al final las consolas rendirán como la gama media-baja de la generación en la que salen (supongo que como una RTX3050TI). Siempre ha sido así .
tgunator escribió:Interesante este video que acaban de subir los de digital foundry.

Poniendo los mismos settings de la nueva Xbox en un pc con una 2060super tiene un rendimiento superior.

Lo normal, en cada generación ha sido así, otra cosa es que nos quieran vender la moto cada vez.
Antoniopua está baneado por "saltarse el ban con un clon"
tgunator escribió:Interesante este video que acaban de subir los de digital foundry.

Poniendo los mismos settings de la nueva Xbox en un pc con una 2060super tiene un rendimiento superior.

¿Con una 2060 Super? No han mentido en NADA. Con la que competían era con la 2080 TI... con esa es con la que se iguala [carcajad] [+risas]
Antoniopua escribió:
tgunator escribió:Interesante este video que acaban de subir los de digital foundry.

Poniendo los mismos settings de la nueva Xbox en un pc con una 2060super tiene un rendimiento superior.

¿Con una 2060 Super? No han mentido en NADA. Con la que competían era con la 2080 TI... con esa es con la que se iguala [carcajad] [+risas]


Sasel dice que compite y supera a la rtx 3080 jajajajajajajajajaja
Antoniopua está baneado por "saltarse el ban con un clon"
Pulet escribió:
Antoniopua escribió:
tgunator escribió:Interesante este video que acaban de subir los de digital foundry.

Poniendo los mismos settings de la nueva Xbox en un pc con una 2060super tiene un rendimiento superior.

¿Con una 2060 Super? No han mentido en NADA. Con la que competían era con la 2080 TI... con esa es con la que se iguala [carcajad] [+risas]


Sasel dice que compite y supera a la rtx 3080 jajajajajajajajajaja

Un hecho polvo de la vida [carcajad] [+risas]
Pulet escribió:
Antoniopua escribió:
tgunator escribió:Interesante este video que acaban de subir los de digital foundry.

Poniendo los mismos settings de la nueva Xbox en un pc con una 2060super tiene un rendimiento superior.

¿Con una 2060 Super? No han mentido en NADA. Con la que competían era con la 2080 TI... con esa es con la que se iguala [carcajad] [+risas]


Sasel dice que compite y supera a la rtx 3080 jajajajajajajajajaja

Sasel me come los huevos
Y cuanto más escribáis su nombre, mas os lo agradecerá el y el algoritmo de Google , esta gente cae por si misma si nadie les cita/nombra/etc por inet [fiu]
Eilex_D escribió:Sasel me come los huevos


que alguien le de una cerveza a este hombre [beer] [qmparto] [qmparto]
Pues vale, he podido comprar la Gigabyte RTX 3070 OC, era una de las que estaba esperando a que hubiera stock así que estoy feliz. He tenido que usar un bot de twitter que notifica en cuanto una tienda tiene stock (sólo tiendas mexicanas), sino fuera por eso creo que no habría podido comprarla. Ahora a esperar a que llegue
31123 respuestas