A estas alturas se han quedado cortos 4GB para 4K?

Buenas.
Recientemente he pasado de una 980 Ti a un SLI de 980's.
Sin duda, en los juegos que tienen el SLI bien implementado tengo más rendimiento.
Sin embargo, me he encontrado con algo que no esperaba.

En algun juego (Tomb Raider por ejemplo) al subir algun setting al máximo, me avisa de que no tendre memoria suficiente.
Si ignoro ese mensaje, el juego pega unos tirones bestiales hasta que da error.

Si bajo algunos settings puedo jugarlo sin problemas.

Veo que con el NFS que viene ahora, piden 4GB para ultra en 1080p.
Y el Quantum Break pide otros 6GB.

Estoy pensando, que con el cambio de Ti a SLI de no Ti, he ganado músculo, pero en cambio hay settings que a 4K no habrá manera de mover.

Siempre he pensado que lo de la Vramitis era una "chorrada" pero este 2016 está empezando fortísimo en requerimientos, sobretodo en los de VRAM en 4K.
Vuelvo a la 980 Ti y me planto con ella hasta Pascal?
Me quedo con las gemelas 980 (no Ti)?
Que opinais vosotros?

Un saludo [beer]
Simplemente... no uses ajustes que consumen gran cantidad de VRAM. Por ejemplo, valores de MSAA muy altos requieren una cantidad muy alta de memoria, que aumenta exponencialmente con la resolución, y son bastante poco notorios en la imagen final teniendo en cuenta que con la densidad de píxels de un montor 4K ya es raro ver bordes de sierra con 2x o incluso sin AA.

Por el resto, coincido en tus conclusiones. Una sola 980Ti tiene poco músculo para 4K subiendo todos los ajustes de los juegos más pesados. Dos 980 tienen suficiente "chicha" pero poca VRAM en las mismas condiciones. En mi opinión la solución está en justamente no subir todos los ajustes posibles. Habitualmente un juego se ve mucho mejor en 4K sin filtros que en 1080p con todo lo que puedas meterle, aprovéchate de eso.

Yo no me gastaría dinero en volver a una sola 980Ti ni hacer más cambios. En todo caso tal vez a dos 980Ti si no puedes vivir sin poner todo en ultra, pero vas a perder mucho más dinero cara a Pascal.

Saludos
El tema del Tomb Raider es muy especial porque de momento no se se sabe a ciencia cierta cuan optimizado está en el uso de recursos pero desde luego que en texturas muy alto se le queda corto 4gb de VRAM hasta en 1080p. Yo el otro día lo estuve probando con mi fury y con 4GB de HBM no tengo tirones que antes con 4GB GDDR5 de una 290@390X si me daba con texturas en muy alto, de momento no he podido hacer muchas pruebas pero desde luego con 4gb HBM se comporta mejor.

Como te comento con 4gb GDDR5 pasa lo que comentas hasta en 1080p porque yo lo he vivido en mis carnes igualmente. Vaya tirones ... [facepalm]
7,5 GB me ha llegado a marcar a mi en el tomb con todo a tope a 1080

Imagen
El gran negocio del pc es asi,juegos que podrias tirar en ultra a 1080p con una gtx 970,empieza este año a ser imposible,porque?pues por lo que todos sabemos,vienen la nueva remesa de gráficas(pascal) y no les interesan a nvidia que sigamos con la misma gráfica,todo es un pu.o negocio...maletines y fajos de por medio
pazuzu77 escribió:7,5 GB me ha llegado a marcar a mi en el tomb con todo a tope a 1080

Imagen


O.o en serio te consume 7.5 GB en una AMD R9 390? Nvidia saboteando el consumo de las VRAMs de AMD en el juego? Yo vi por ahi en un video de un youtuber llamado Spartan Geek que la GTX 980 ti se le pasaba el limite de los 6 GB de VRAM cuando lo pone corriendo todo al maximo con 8 GB de VRAM en el GTA V

Pues con una Sli de GTX 980 tu pc va como una gran bestia y no te puedes imaginar que pasaria si se lo harias a una GTX 980 ti o incluso a la TITAN X que es la mas cara, pero la mas barata que fue la TITAN Z
otra causa parte de negocio que esta claro , tambien que muchos juegos se desarrollen consolas que tienen 8g ram hace cuando ports a pc la ram sea exagerada .
2 gb de ram deberian suficiaentes para jugar a full con antialising medio
Pollonidas escribió:Simplemente... no uses ajustes que consumen gran cantidad de VRAM. Por ejemplo, valores de MSAA muy altos requieren una cantidad muy alta de memoria, que aumenta exponencialmente con la resolución, y son bastante poco notorios en la imagen final teniendo en cuenta que con la densidad de píxels de un montor 4K ya es raro ver bordes de sierra con 2x o incluso sin AA.

Por el resto, coincido en tus conclusiones. Una sola 980Ti tiene poco músculo para 4K subiendo todos los ajustes de los juegos más pesados. Dos 980 tienen suficiente "chicha" pero poca VRAM en las mismas condiciones. En mi opinión la solución está en justamente no subir todos los ajustes posibles. Habitualmente un juego se ve mucho mejor en 4K sin filtros que en 1080p con todo lo que puedas meterle, aprovéchate de eso.

Yo no me gastaría dinero en volver a una sola 980Ti ni hacer más cambios. En todo caso tal vez a dos 980Ti si no puedes vivir sin poner todo en ultra, pero vas a perder mucho más dinero cara a Pascal.

Saludos

Veo que con sólo bajar las texturas de muy alto a alto, puedo jugar sin problemas y sin quedarme corto de vram.
Todo lo demás lo puedo dejar al tope.

Con una Ti sola a lo mejor podría dejar texturas en muy alto, pero tendría que bajar otras cosas por falta de chicha, así que...
Me quedo el SLI de 980's.

Si de todas formas, dijeron que con DX12 ganariamos rendimiento y va a ser lo contrario. Creo que con Pascal, nuestras graficas actuales van a quedar a la altura del betún.
Se va a repetir aquello que pasó con la salida de DX11.
Se llevaba demasiado tiempo tranquilo con DX9, sin tener que soltar billetacos y PAM!
Si acaba ocurriendo lo de que DX12 permite usar toda la memoria vram del sli será una gran noticia, y si no, pues tooooodas las gráficas de menos de 8 Gb lo tienen francamente mal en 2017 (Witcher 3 a parte)
pdriko31 escribió:El gran negocio del pc es asi,juegos que podrias tirar en ultra a 1080p con una gtx 970,empieza este año a ser imposible,porque?pues por lo que todos sabemos,vienen la nueva remesa de gráficas(pascal) y no les interesan a nvidia que sigamos con la misma gráfica,todo es un pu.o negocio...maletines y fajos de por medio


El negocio es meter opciones en Ultra que lo único que hacen es meter un sumpersampling bastísimo que mejora poco o nada la calidad visual, este negocio se nutre los pacos que lo único que quieren es sacar la fotito con todas las settings en Ultra@60 FPS cuando con algunos parámetros en Alto se vería exactamente igual y el consumo de recursos bajaría considerablemente; y no se molestan en comprobarlo (o no quieren hacerlo).
Metalhead escribió:
pdriko31 escribió:El gran negocio del pc es asi,juegos que podrias tirar en ultra a 1080p con una gtx 970,empieza este año a ser imposible,porque?pues por lo que todos sabemos,vienen la nueva remesa de gráficas(pascal) y no les interesan a nvidia que sigamos con la misma gráfica,todo es un pu.o negocio...maletines y fajos de por medio


El negocio es meter opciones en Ultra que lo único que hacen es meter un sumpersampling bastísimo que mejora poco o nada la calidad visual, este negocio se nutre los pacos que lo único que quieren es sacar la fotito con todas las settings en Ultra@60 FPS cuando con algunos parámetros en Alto se vería exactamente igual y el consumo de recursos bajaría considerablemente; y no se molestan en comprobarlo (o no quieren hacerlo).


Eso también es verdad.
Me incluyo en los cegaos de "todo al tope".
Muchos settings de ultra a high lo unico que varía, en texturas por ejemplo es meterlas sin compresión de ningún tipo. Y la diferencia no se ve.

De todas formas es parte del PC Master Race XD
yo creo que se les esta iendo la cabeza a los fabricantes de monitores con las resoluciones, no se puede pasar del 1080p al 4k en un año cuadriplicando el numero de pixeles a mover cuando los ultimos juegos como el tomb raider o el hitman sufren lo indecible para llegar a 60 fps en ultra a 1080 con las graficas mas pepino del mercado, simplemente una parte del mercado esta avanzando demasiado rapido sin esperar a la otra parte de la industria, es algo parecido a lo que esta pasando con los moviles, y sus resoluciones absurdas, su hardware pepino y su nula evolucion en baterias, ehi mira vas a poner tener 4k, la potencia de una ps4 en 5 pulgadas durante 3 horas antes de tener que enchufar el movil para cargarlo , yuju.
El 4K es una moda que sale MUY cara. En realidad no tiene mucho sentido como "evolución" este salto de resolución, por lo menos no en el gaming 3D.

Sí, se ve más nítido y definido todo (sólo faltaba) pero el coste en VRAM que tiene esto, con los motores de rendering actuales (de tipo deferred, completo o sólo para sombreados), que necesitan usar mil buffers de imágenes parciales y por supuesto a la resolución que va a ir al final la imagen enviada al monitor, multiplica y mucho el uso de VRAM.

No uses MSAA y tendrás bastante ganado.

Por otro lado, una gráfica puede marcar casi 8 GB como esa 390 mencionada, y una gráfica de 4 GB ir perfectamente en ese mismo juego.

Cada fabricante de gpus y cada modelo (según capacidad de su VRAM, también) tienen administraciones de VRAM distintas, en donde hay mucha VRAM, se tiende a cachear datos tanto futuros así como mantener texturas y otros ya usados antes pero no presentes en la imagen actual (por un "por si acaso lo necesito en la siguiente, y me ahorro esa carga de datos").

Eso no quiere decir que no se vaya a agotar la VRAM, pero distintas capacidades de ésta en distintos modelos, distinto tipo de usos. Lo que marca una con mucha VRAM no son las tablas de Dios al respecto del consumo mínimo necesario (seguramente una Titan z ría por encima de 8 GB por la misma razón).
Respuesta corta: sí.

Se estàn empezando a quedar cortos (por más que nos pese) en 1080p así que no digamos en 4K.
Esos juegos están hechos para vender graficas ¿Que esperabais? [sonrisa]
Esperad a ver la HBM2 , como os he comentado con la HBM 1 y 4gb he notado que el juego va mejor. No le he pegado duro porque me niego a jugar pre-alphas pero os aseguro que 4gb HBM vs 4gb GDDR5 la experiencia no era para nada igual, pero ni por asomo, eso sí, tampoco jugué las horas suficientes como para ver todo al 100% pero si lo suficiente para ver que no era lo mismo, que hay mejora.

PD: Aunque también es cierto que salió un parche y drivers entre mi prueba de 4gb GDDR5 y la 4gb HBM así que eso también ha podido ser el por qué la experiencia no fue la misma en el rato que eché. A ver si cuando tenga un rato lo pruebo más seriamente pero es que jugar a juegos sin acabar pues como que no sirven para sacar ningún tipo de conclusión seria.
Es exactamente eso que comentan por arriba.

Si quieres vender gráficas, necesitas que al Jacobo de turno el juego no le vaya fluido, aunque su ordenador sea Mazinger Z.

Para eso imprescindible unas opciones de Mega Wonder Slashing Ultra Motion Filter y God Bless America Render que no mueva ni la sede de la NASA para que luego el 80% de esa peña no lo distinga de la versión de PS4 en una cata a ciegas. Es el depurado arte del consumismo capitalista. Y ojo, yo soy de esos Jacobos.

Estoy deseando que salga una Pascal con la que poder hacer DSR a 8k en mi monitor 4k. Así evitaré los dientes de sierra. Porcelana, sólo quiero porcelana.
Fleishmann escribió:Es exactamente eso que comentan por arriba.

Si quieres vender gráficas, necesitas que al Jacobo de turno el juego no le vaya fluido, aunque su ordenador sea Mazinger Z.

Para eso imprescindible unas opciones de Mega Wonder Slashing Ultra Motion Filter y God Bless America Render que no mueva ni la sede de la NASA para que luego el 80% de esa peña no lo distinga de la versión de PS4 en una cata a ciegas. Es el depurado arte del consumismo capitalista. Y ojo, yo soy de esos Jacobos.

Estoy deseando que salga una Pascal con la que poder hacer DSR a 8k en mi monitor 4k. Así evitaré los dientes de sierra. Porcelana, sólo quiero porcelana.


[tadoramo] [qmparto]
Fleishmann escribió:Es exactamente eso que comentan por arriba.

Si quieres vender gráficas, necesitas que al Jacobo de turno el juego no le vaya fluido, aunque su ordenador sea Mazinger Z.

Para eso imprescindible unas opciones de Mega Wonder Slashing Ultra Motion Filter y God Bless America Render que no mueva ni la sede de la NASA para que luego el 80% de esa peña no lo distinga de la versión de PS4 en una cata a ciegas. Es el depurado arte del consumismo capitalista. Y ojo, yo soy de esos Jacobos.

Estoy deseando que salga una Pascal con la que poder hacer DSR a 8k en mi monitor 4k. Así evitaré los dientes de sierra. Porcelana, sólo quiero porcelana.


Tal cual. Qué grande xDD
Juas.
Hoy he arrancado el Tomb Raider en una pantalla 720p y con texturas en very high, mensaje de vram insuficiente.

Algo esta mal en ese juego.

Y mas vale que con DX12 se sume la vram en la mayoria de los juegos. De lo contrario el SLI de 980's va a ser la configuracion grafica mas fugaz que pasa por mis manos (si realmente salen "pasado mañana" las Pascal).

Si al menos hubieran salido variantes con el doble de memoria igual que en las 780...
SashaX escribió:Juas.
Hoy he arrancado el Tomb Raider en una pantalla 720p y con texturas en very high, mensaje de vram insuficiente.

Algo esta mal en ese juego.

Y mas vale que con DX12 se sume la vram en la mayoria de los juegos. De lo contrario el SLI de 980's va a ser la configuracion grafica mas fugaz que pasa por mis manos (si realmente salen "pasado mañana" las Pascal).

Si al menos hubieran salido variantes con el doble de memoria igual que en las 780...



La verdad es que es raro, nvidia siempre suele sacar modelos con doble de vram y esta vez no. Y sí, el juego está en estado alpha total, yo lo tengo completamente parado. No merece jugarlo así de mal.
El juego es una alpha, como casi todos ultimamente. Que tiempos aquellos de los betatesters...

Por cierto, otro juego que ha sido alpha meses y meses cumple lo de sumar la VRAM.
Es un caso aislado o van a empezar a hacerlo todos? O me equivoco y no las suma?
Es una captura del consumo de VRAM en la pantalla de opciones del Batman. 4 GB por gráfica y marca 7917 MB disponibles.
[comor?] [comor?] [comor?]
Imagen
no te ralle @SashaX el tomb raider es un BATMAN xD viene roto.. xD

pero vamos dentro de nada con la mierda de optimizacion de los juegos te digo ya que a 4k con todo en ultra si que vamos a necesitar graficas de 8gb como no bajemos los filtros
SashaX escribió:Juas.
Hoy he arrancado el Tomb Raider en una pantalla 720p y con texturas en very high, mensaje de vram insuficiente.

Algo esta mal en ese juego.

Y mas vale que con DX12 se sume la vram en la mayoria de los juegos. De lo contrario el SLI de 980's va a ser la configuracion grafica mas fugaz que pasa por mis manos (si realmente salen "pasado mañana" las Pascal).

Si al menos hubieran salido variantes con el doble de memoria igual que en las 780...



NO se va a sumar, no como muchos pensáis por una simple razón:

Para que una gpu acceda a la memoria de otra gráfica, tiene que usar el bus pci-e. NO hay magia que valga, es el mismo problema que se tiene al necesitar datos de RAM cuando no llega la VRAM, igual o PEOR (acceso a la VRAM de otra gráfica implica más pasos (1gpu->pci-e->sistema/cpu->pci-e->2gpu y otra vez, el camino al revés) y latencias que acceder a la RAM principal del sistema).

Que de facto esto es más lento que la RAM principal, de hecho cuando se cargan datos desde la RAM por no llegar VRAM, ese rendimiento "tan malo" que ofrece es sobre todo por el bus pci-e que es el factor limitante.

Lo de DX12 sólo sirve para facilitar el paso de datos puntuales de una gpu a otra, no para andar cargando GB de texturas de una gpu desde la otra.
wwwendigo escribió:
SashaX escribió:Juas.
Hoy he arrancado el Tomb Raider en una pantalla 720p y con texturas en very high, mensaje de vram insuficiente.

Algo esta mal en ese juego.

Y mas vale que con DX12 se sume la vram en la mayoria de los juegos. De lo contrario el SLI de 980's va a ser la configuracion grafica mas fugaz que pasa por mis manos (si realmente salen "pasado mañana" las Pascal).

Si al menos hubieran salido variantes con el doble de memoria igual que en las 780...



NO se va a sumar, no como muchos pensáis por una simple razón:

Para que una gpu acceda a la memoria de otra gráfica, tiene que usar el bus pci-e. NO hay magia que valga, es el mismo problema que se tiene al necesitar datos de RAM cuando no llega la VRAM, igual o PEOR (acceso a la VRAM de otra gráfica implica más pasos (1gpu->pci-e->sistema/cpu->pci-e->2gpu y otra vez, el camino al revés) y latencias que acceder a la RAM principal del sistema).

Que de facto esto es más lento que la RAM principal, de hecho cuando se cargan datos desde la RAM por no llegar VRAM, ese rendimiento "tan malo" que ofrece es sobre todo por el bus pci-e que es el factor limitante.

Lo de DX12 sólo sirve para facilitar el paso de datos puntuales de una gpu a otra, no para andar cargando GB de texturas de una gpu desde la otra.


Ok. Como explicas lo que aparece en esa captura? La que suma las VRAM de las dos 980?
O se me escapa algo? 7900 y pico es la suma de 4 GB por gráfica. Y se pueden usar más de 4000 MB como se ve ahí.
@SashaX porque contador de vram del juego estara programado para mostrar eso,( marketing ) pero de momento las vram no se suman, se hablo de eso pero no se a confirmado nada en ninguna parte

Y claro que se usan mas los " 8gb " el sli divide la pantalla en dos y cada grafica se encarga de una parte, a si que las dos graficas llenan la memoria a si que el total de memoria llena si son 7 y pico, pero no se suman

no se si me explico bien
Lo que te ha dicho Wiiboy, que una aplicación se le ocurra poner el consumo de VRAM de ambas tarjetas, aunque sea en realidad datos replicados en ambas gpus, por razones de marketing, no quiere decir que los estén usando realmente como si fuera "la misma memoria" y compartiéndola tan felizmente.

Hay que usar la lógica, el único canal de comunicación entre gpus tiene que pasar sí o sí por el bus pci-e, no hay otro (el puente SLI no es un canal de comunicación general entre gpus, básicamente sólo sirve para pasar framebuffers desde la gráfica esclava a la maestra, y en crossfire ya ahora mismo se ha abandonado el uso de este tipo de bus especializado).

Y es un canal lento, más que la propia RAM principal del sistema, a la que tiene que acceder una gpu cuando no le llega la VRAM que tiene.

DX12 posibilita usar fácilmente la memoria VRAM de ambas gráficas y poder compartir o pasarse datos, pero que se pueda hacer con relativa facilidad no quiere decir que no tenga un coste de rendimiento. Está más para pasar datos puntuales esta funcionalidad que para "unificar" la memoria. Entre otras, por la lentitud del bus pci-e amén de que aunque fuera mucho más rápido, una configuración de memoria NUMA, tan claramente, podría ser perjudicial para el rendimiento, aunque fuera bajo un bus bastante más rápido.

Si habláramos de velocidades de comunicación de no menos de 10X el bus pci-e actual, igual sería viable. El bus que comunique a ambas gráficas no debería ser mucho más lento que el bus a la VRAM de cada gpu para poder hacer esto de unificar la memoria VRAM de varias gpus.

En caso contrario, unificar de verdad la VRAM daría un rendimiento pésimo, que es la situación actual. Sí vale para pase de datos puntuales, pero nada más. Lo demás es publicidad.
si no recuerdo mal... con el max paine 3 a mi me pasó lo mismo... sumaba la vram del xfire que usaba entonces (radeon hd 6990 x 2, osea... 4 gpus)

de todas formas... habría que esperar a dx12 a ver como funciona y todo ese rollo
WiiBoy escribió:@SashaX porque contador de vram del juego estara programado para mostrar eso,( marketing ) pero de momento las vram no se suman, se hablo de eso pero no se a confirmado nada en ninguna parte

Y claro que se usan mas los " 8gb " el sli divide la pantalla en dos y cada grafica se encarga de una parte, a si que las dos graficas llenan la memoria a si que el total de memoria llena si son 7 y pico, pero no se suman

no se si me explico bien


Creo que no es así, al menos no lo es con el crossfire.

Con el crossfire en teoría bajo DX11 cada gráfica prepara un frame completo.

Por eso, en teroría de nuevo, las memorias de las tarjetas se suman en DX12. Porque cada tarjeta solo renderiza medio frame.

Imagen

Ahora mismo XBOX ONE hace algo parecido, usa esRam y ram conjuntamente xq divide el frame en varias partes y se utiliza cada tipo de memoria para un fragmento del frame.

Imagen
@papatuelo el crossfire y el sli lo hacen de manera diferente pero al final es igual, no se suma, repito salieron rumores y se hablo de que en un futuro la memoria se sumaria y que nvidia y amd trabajarian juntas y tal que cual
de momento siguen siendo rumores a dia de hoy no funciona, siguen sin sumarse y aunque salga DX12 es algo que debe habilitar tanto nvidia como amd y no lo an echo

por eso lo que veas ahora mismo es marketing no tiene mas
El tomb raider no es un juego en el que se pueda dar las mediciones como buenas ya que tiene produce un leak de memoria vram que aun no esta corregido. Yo tengo una 390x y el juego si pongo texturas en muy alto al rato se me cierra, en cambio si bajo los settings de texturas en alto me lo he podido pasar el juego sin ningun cierre inesperado.
Pues con el DOOM alpha parece que no le afecta tanto la VRAM, sino lo que importa es la potencia de render del GPU

Una Radeon Fury Nano de 4GB@VRAM tiene mas fps que una GTX 980Ti de 6GB@VRAM

Imagen
http://gamegpu.com/action-/-fps-/-tps/d ... t-gpu.html



.
TRASTARO escribió:Pues con el DOOM alpha parece que no le afecta tanto la VRAM, sino lo que importa es la potencia de render del GPU

Una Radeon Fury Nano de 4GB@VRAM tiene mas fps que una GTX 980Ti de 6GB@VRAM

Imagen
http://gamegpu.com/action-/-fps-/-tps/d ... t-gpu.html



.

Por cierto, no se por que prueban sli y crossfire si aun no lo soporta XD.
Supongo que por probar solamente y despues contrastar este grafico cuando aparezca DOOM BETA, donde como sea, es forzoso el tener una comparativa con multiGPU.

Ah, por cierto... dicen que NVIDIA no dara soporte a Vulkan en las GPU Fermi:
hilo_por-fin-liberan-la-especificacion-final-de-vulkan-y-ademas-estara-en-la-gdc_2154329

Imagen
TRASTARO escribió:Pues con el DOOM alpha parece que no le afecta tanto la VRAM, sino lo que importa es la potencia de render del GPU

Una Radeon Fury Nano de 4GB@VRAM tiene mas fps que una GTX 980Ti de 6GB@VRAM

Imagen
http://gamegpu.com/action-/-fps-/-tps/d ... t-gpu.html



.


Desde el momento en que una 980Ti rinde lo mismo que una 290 o ligeramente por encima de una 280X es que algo no va bien. ¿Está patrocinado por AMD? ¿No hay drivers de Nvidia?

En cuanto al SLI/CF, se le dio mucho bombo con que se podría juntar la VRAM sobre DX12 y nunca más se supo, una pena.
papatuelo escribió:
WiiBoy escribió:@SashaX porque contador de vram del juego estara programado para mostrar eso,( marketing ) pero de momento las vram no se suman, se hablo de eso pero no se a confirmado nada en ninguna parte

Y claro que se usan mas los " 8gb " el sli divide la pantalla en dos y cada grafica se encarga de una parte, a si que las dos graficas llenan la memoria a si que el total de memoria llena si son 7 y pico, pero no se suman

no se si me explico bien


Creo que no es así, al menos no lo es con el crossfire.

Con el crossfire en teoría bajo DX11 cada gráfica prepara un frame completo.

Por eso, en teroría de nuevo, las memorias de las tarjetas se suman en DX12. Porque cada tarjeta solo renderiza medio frame.

Imagen

Ahora mismo XBOX ONE hace algo parecido, usa esRam y ram conjuntamente xq divide el frame en varias partes y se utiliza cada tipo de memoria para un fragmento del frame.

Imagen


Ahí está el tema.
Con AFR no se suma. Pero con SFR se consigue.
Anoche estuve dándole vueltas, y o el SFR ya existía o no se cómo, pero mentalmente vi ese diagrama.
Yo creo que sí se podrá. SFR es un ejemplo. Y habrá más formas.
no eran las voodoo que hacían lo de pantallita también?
SashaX escribió:
papatuelo escribió:
WiiBoy escribió:@SashaX porque contador de vram del juego estara programado para mostrar eso,( marketing ) pero de momento las vram no se suman, se hablo de eso pero no se a confirmado nada en ninguna parte

Y claro que se usan mas los " 8gb " el sli divide la pantalla en dos y cada grafica se encarga de una parte, a si que las dos graficas llenan la memoria a si que el total de memoria llena si son 7 y pico, pero no se suman

no se si me explico bien


Creo que no es así, al menos no lo es con el crossfire.

Con el crossfire en teoría bajo DX11 cada gráfica prepara un frame completo.

Por eso, en teroría de nuevo, las memorias de las tarjetas se suman en DX12. Porque cada tarjeta solo renderiza medio frame.

Imagen

Ahora mismo XBOX ONE hace algo parecido, usa esRam y ram conjuntamente xq divide el frame en varias partes y se utiliza cada tipo de memoria para un fragmento del frame.

Imagen


Ahí está el tema.
Con AFR no se suma. Pero con SFR se consigue.
Anoche estuve dándole vueltas, y o el SFR ya existía o no se cómo, pero mentalmente vi ese diagrama.
Yo creo que sí se podrá. SFR es un ejemplo. Y habrá más formas.


Claro, es que yo creo que con el SFR se puede xq cada una de las gráficas usa sus recursos para renderizar solo la mitad de los frames, cada una usara su memoria para su tarea y necesitara la mitad de memoria.
Por cierto, parche de 650mb del tomb raider.
KailKatarn escribió:Por cierto, parche de 650mb del tomb raider.


Ya funciona?
papatuelo escribió:Ya funciona?



Ni lo he probado. [noop] [noop]


PD: Eso sí, por lo que se lee en el hilo del juego por parte de algún compañero no aparenta que hayan arreglado nada. Ya comentarán por aquí a ver ...
Menos mal que la 390(x) viene con 8gb sobradas [+risas]
juanmahl9 escribió:Menos mal que la 390(x) viene con 8gb sobradas [+risas]

Cosa que te da igual. Yo tengo la 390X y la verdad que los 8 Gb te dan igual si sacan chapuzas como el nuevo tomb raider que se comen la vram sin sentido aparente. ^Por que sinceramente, no noto diferencia entre alta y muy alta en la config de texturas, para mi lo unico que cambia es que el juego se vuelve injugable en algunos momentos y se me cierra continuamente.
Dennggar escribió:
Desde el momento en que una 980Ti rinde lo mismo que una 290 o ligeramente por encima de una 280X es que algo no va bien. ¿Está patrocinado por AMD? ¿No hay drivers de Nvidia?

En cuanto al SLI/CF, se le dio mucho bombo con que se podría juntar la VRAM sobre DX12 y nunca más se supo, una pena.


Al contrario, los motores de id software usan OpenGL y las Radeon desde la extinta ATI tenia penalizacion en el rendimiento usando OpenGL comparado con nvidia [no en balde compro a 3dfx, licencias y patentes]. El motor grafico de este DOOM, id tech 6, al igual que el id tech 5 se autoajusta al hardware para sacarle el mejor provecho posible.

Sobre todo VDDM 2.0 de windows 10 y Direct3D12 han mostrado su mejoria en el manejo multiGPU
hilo_adios-sli-y-cfx-radeon-y-geforce-trabajando-juntas_2156828


.Imagen
TRASTARO escribió:
Dennggar escribió:
Desde el momento en que una 980Ti rinde lo mismo que una 290 o ligeramente por encima de una 280X es que algo no va bien. ¿Está patrocinado por AMD? ¿No hay drivers de Nvidia?

En cuanto al SLI/CF, se le dio mucho bombo con que se podría juntar la VRAM sobre DX12 y nunca más se supo, una pena.


Al contrario, los motores de id software usan OpenGL y las Radeon desde la extinta ATI tenia penalizacion en el rendimiento usando OpenGL comparado con nvidia [no en balde compro a 3dfx, licencias y patentes]. El motor grafico de este DOOM, id tech 6, al igual que el id tech 5 se autoajusta al hardware para sacarle el mejor provecho posible.

Sobre todo VDDM 2.0 de windows 10 y Direct3D12 han mostrado su mejoria en el manejo multiGPU
hilo_adios-sli-y-cfx-radeon-y-geforce-trabajando-juntas_2156828


.Imagen


No entiendo lo que pretendes demostrar con esa gráfica.

Estamos hablando de Doom 4 tienen un rendimiento pésimo sobre Nvidia (4 fps de diferencia entre una 980TI y una 290 no es normal) y presentas unos resultados en los que muestran una tarjeta de Nvidia y otra de AMD trabajando juntas.

Desconozco en que marca a funcionado mejor históricamente el IDTech, pero dentro de unos pocos meses saldremos de dudas cuando ambos dispongas de drivers específicos.
44 respuestas