[Noticia] ¿Error de asignación de memoria de la 970 de 4GB?

1, 2, 3, 4, 58
En las 970 recientemente, muchos usuarios se han quejado de que algunos juegos no pasan de usar 3.5GB.
Algunos juegos no eran capaces de pasar de 3.5gb, o algunos daba bajones de FPS altas resoluciones y cuando la memoria ocupada pasaba de 3.5gb.
Aquí una imagen de referencia, (aplicación desarrollada por un usuario de guru3d):
Imagen
como se puede ver en la imagen, a partir de 3.5GB el rendimiento cae bestialmente y la 980 no se ve afectada.
Corrección por parte de wwwendigo:
La GTX 970 lo que hace es particionar la memoria en dos sectores, usando sólo 3,5 GB por razones de mantener el mejor rendimiento posible si el juego no requiere más (una cosa es la memoria usada y otra la necesaria para un juego). Esto es, si se puede renderizar el frame SIN usar más de 3,5 GB, en vez de mantener un cacheo de datos antiguos y usar el acceso a dos bloques de memoria con una pequeña pérdida de velocidad, se mantiene el uso de sólo 3,5 GB y asegurar la máxima velocidad posible.

No se sabía realmente porque tenía este bajón de rendimiento, hasta que la gente pregunto a nvidia y contesto esto:
The GeForce GTX 970 is equipped with 4GB of dedicated graphics memory. However the 970 has a different configuration of SMs than the 980, and fewer crossbar resources to the memory system. To optimally manage memory traffic in this configuration, we segment graphics memory into a 3.5GB section and a 0.5GB section. The GPU has higher priority access to the 3.5GB section. When a game needs less than 3.5GB of video memory per draw command then it will only access the first partition, and 3rd party applications that measure memory usage will report 3.5GB of memory in use on GTX 970, but may report more for GTX 980 if there is more memory used by other commands. When a game requires more than 3.5GB of memory then we use both segments.

We understand there have been some questions about how the GTX 970 will perform when it accesses the 0.5GB memory segment. The best way to test that is to look at game performance. Compare a GTX 980 to a 970 on a game that uses less than 3.5GB. Then turn up the settings so the game needs more than 3.5GB and compare 980 and 970 performance again.

Imagen

On GTX 980, Shadows of Mordor drops about 24% on GTX 980 and 25% on GTX 970, a 1% difference. On Battlefield 4, the drop is 47% on GTX 980 and 50% on GTX 970, a 3% difference. On CoD: AW, the drop is 41% on GTX 980 and 44% on GTX 970, a 3% difference. As you can see, there is very little change in the performance of the GTX 970 relative to GTX 980 on these games when it is using the 0.5GB segment.


Resumiendo nos dice que particionan la memoria para mantener equilibrado el controlador de memoria. y que ajustemos las opciones del juego para que no utilice más de 3.5gb para que no de bajones.

Fuente:
http://www.guru3d.com/news-story/does-t ... n-bug.html
Mi inglés no es muy bueno y no sirvo para escribir noticias [qmparto] , pero más o menos hecho un resumen del problema,si me equivocado con alguna cosa avisarme y lo rectifico.

Razón de edición: Mejoras.

Ahora sabemos porque la GTX960 ha salido con ese bus tan corto y con tan poca memoria de vídeo... la arquitectura Maxwell le va traer muchos dolores de cabeza a Nvidia.

Un saludo
He pasado la prueba esa en mi 970 y ocurre lo mismo.
A diferencia de la otra prueba con MSI Kombustor, que se bloqueaba el equipo al llegar a los 3.5GB y que pasaba con algunos modelos de GTX970, esta prueba si muestra el mismo problema generalizado en todas las GTX970.

Yo juego a 1080p así que no creo que me afecte pero no deja de ser una cagada de nVidia. [enfado1]
Behemot001 escribió:He pasado la prueba esa en mi 970 y ocurre lo mismo.
A diferencia de la otra prueba con MSI Kombustor, que se bloqueaba el equipo al llegar a los 3.5GB y que pasaba con algunos modelos de GTX970, esta prueba si muestra el mismo problema generalizado en todas las GTX970.

Yo juego a 1080p así que no creo que me afecte pero no deja de ser una cagada de nVidia. [enfado1]

Pues si, espero que Nvidia de una solución y os compense de alguna forma, porque la verdad es una putada muy gorda.
Un saludo
Rivroner escribió:Mis comentarios al respecto en el hilo oficial.
http://www.elotrolado.net/hilo_gtx-serie-800-900_2018962_s4810#p1738071838

Gracias, no sabía que se estaba debatiendo allí ya que no suelo mirar ese hilo y al ver que nadie publicaba lo puse, pero llego tarde xD.
Un saludo
O sea, que la gente compra una GPU de 4gb y tiene que jugar en detalles medios porque no puede usar los 4gb? Me sentiria estafado.
a mi en el testr de kombustor no me falla en el test de 4 gb que en realidad usa 3960 supongo por que lo demás lo usa Windows
en Windows 7 la carga con aero y demás era de unos 150-175 mb
luego cuando este en casa le paso este test
Rivroner escribió:Mis comentarios al respecto en el hilo oficial.
http://www.elotrolado.net/hilo_gtx-serie-800-900_2018962_s4810#p1738071838


las 980 no se ven afectadas por esto.

y en cuanto a la gtx 970 cito esto:

ROTOR escribió:Yo también he estado leyendo el articulo, y parece que se resumen que han hecho un par de usuarios es esto:

64 bit memory controller, con hay total 4 SM's = 256 bit.

De estos 4 SM's cada esta formado por 4 SMM = 16 x 16 = 256 bit's

De los 4 SM's solo hay uno completo y tres que tienen un SMM desactivado => 4+3+3+3=13
Las cuentas quedan así:

16 SMM = 256 bit = 4096 Mb
13 SMM = 208 bit = 3328 Mb

Vamos que técnicamente hablando las 970 son de 208 bit de bus rápido, 48 bits muy lento.
amos que nos an vuelto a clolar una 660 y sus 2 gb
lo peor es que salga esto cuando se han hinchado a vender graficas
mira que no me gusta el lado rojo
pero me da que la próxima no pico y me paso a amd
estas tonterías de nvida no me gustan un pelo
para que coño sacas graficas con memoria que no se puede utilizar
esta claro que sacarlas con 4gb era la escusa paque todo el que tuviera una 780 se pasara y ahora resulta que apenas gana 100 mb
Muy cabreado con este tema, yo de momento no tengo quejas del rendimiento, pero esto es publicidad engañosa.

Dejo en spoiler mi benchmark, de una G1 Gaming de Gigabyte.

Imagen
Pues vaya putada... a ver que solución dan a la gente, por que venden una gráfica con 4 GB, con con 3.5 y 0.5 a mal rendimiento.

PD: Falta algún nvidiano por aqui--
kevin! escribió:En las 970 recientemente, muchos usuarios se han quejado de que algunos juegos no pasan de usar 3.5GB.
Algunos juegos no eran capaces de pasar de 3.5gb, o algunos daba bajones de FPS altas resoluciones y cuando la memoria ocupada pasaba de 3.5gb.
Aquí una imagen de referencia, (aplicación desarrollada por un usuario de guru3d):
Imagen
como se puede ver en la imagen, a partir de 3.5GB el rendimiento cae bestialmente y la 980 no se ve afectada.
No se sabía realmente porque tenía este bajón de rendimiento, hasta que la gente pregunto a nvidia y contesto esto:
The GeForce GTX 970 is equipped with 4GB of dedicated graphics memory. However the 970 has a different configuration of SMs than the 980, and fewer crossbar resources to the memory system. To optimally manage memory traffic in this configuration, we segment graphics memory into a 3.5GB section and a 0.5GB section. The GPU has higher priority access to the 3.5GB section. When a game needs less than 3.5GB of video memory per draw command then it will only access the first partition, and 3rd party applications that measure memory usage will report 3.5GB of memory in use on GTX 970, but may report more for GTX 980 if there is more memory used by other commands. When a game requires more than 3.5GB of memory then we use both segments.

We understand there have been some questions about how the GTX 970 will perform when it accesses the 0.5GB memory segment. The best way to test that is to look at game performance. Compare a GTX 980 to a 970 on a game that uses less than 3.5GB. Then turn up the settings so the game needs more than 3.5GB and compare 980 and 970 performance again.

Imagen

On GTX 980, Shadows of Mordor drops about 24% on GTX 980 and 25% on GTX 970, a 1% difference. On Battlefield 4, the drop is 47% on GTX 980 and 50% on GTX 970, a 3% difference. On CoD: AW, the drop is 41% on GTX 980 and 44% on GTX 970, a 3% difference. As you can see, there is very little change in the performance of the GTX 970 relative to GTX 980 on these games when it is using the 0.5GB segment.


Resumiendo nos dice que particionan la memoria para mantener equilibrado el controlador de memoria. y que ajustemos las opciones del juego para que no utilice más de 3.5gb para que no de bajones.

Fuente:
http://www.guru3d.com/news-story/does-t ... n-bug.html
Mi inglés no es muy bueno y no sirvo para escribir noticias [qmparto] , pero más o menos hecho un resumen del problema,si me equivocado con alguna cosa avisarme y lo rectifico.

Razón de edición: Mejoras.

Ahora sabemos porque la GTX960 ha salido con ese bus tan corto y con tan poca memoria de vídeo... la arquitectura Maxwell le va traer muchos dolores de cabeza a Nvidia.

Un saludo
Para moderación: si se estaba hablando en su hilo oficial http://www.elotrolado.net/hilo_gtx-serie-800-900_2018962_s4810#p1738071838 desconocia que se estaba hablando ahí, y al ver la noticia lo compartí inmediatamente ya que no lo vi en ningún post con esta noticia hasta que rivroner aviso que se estaba debatiendo allí, si el hilo es innecesario borradlo, no hay problema :).



Mi madre qué poco entendimiento de lo que pone la noticia..... XD

La GTX 970 SI usa la memoria entera, lo que hace es particionar la memoria en dos sectores, usando sólo 3,5 GB por razones de mantener el mejor rendimiento posible si el juego no requiere más (una cosa es la memoria usada y otra la necesaria para un juego). Esto es, si se puede renderizar el frame SIN usar más de 3,5 GB, en vez de mantener un cacheo de datos antiguos y usar el acceso a dos bloques de memoria con una pequeña pérdida de velocidad, se mantiene el uso de sólo 3,5 GB y asegurar la máxima velocidad posible.

Si además lo dice en la noticia, es por un tema del bus crossbar usado por los SMMs/GPC que, al ser distinto al balance completo del chip (13 vs 16), es más óptimo limitar en el sector principal el acceso a 3,5 GB y mantener la misma velocidad con la que la GTX 980 accede a toda su memoria, que acceder de forma contínua a esos 4 GB en un único sector y aceptar una pérdida de velocidad marginal, de serie.

Es lo que se ve en el rendimiento, ese perjuicido extra de velocidad de un 2-4% al superar los 3,5GB de VRAM (ergo las GTX 970 sí usan esa memoria) relativamente inocuo, pero que el driver evita segmentando la memoria hasta que no se necesite más memoria que 3,5GB de VRAM. 100% de velocidad con hasta 3,5 GB de VRAM, 97% si se usa más, así de simple.

Lo del programa CUDA que está asignando bloques de memoria y midiendo ancho de banda, ya está explicado, más que posiblemente es un bug del uso del direccionamiento de memoria en CUDA, el cual es "transparente" dentro de lo que cabe al hard gráfico (nivel de abstracción) y entra por defecto y sin darse ni cuenta en uso de memoria LOCAL, memoria RAM principal, y cargada por el bus pci-e. De ahí tan bajos niveles de ancho de banda, coincidentes con los valores típicos de carga de datos por pci-e.

Así que sí, resulta que la GTX 970, cuando usa el total de los 4 GB, es un pelín más lenta que usando menos que 3,5 GB, ya podéis algunos abriros las venas de las muñecas, pero eso sí, acordaos, no se hace de forma transversal, se tiene que hacer de forma paralela, el bricoconsejo de la semana para los posibles dramaqueens :-| .

Seguramente si se investigara algo en otros chips recortados la gente se llevaría similares sorpresas "inexplicables" (variaciones de rendimiento en direccionamiento pleno de memoria, operaciones de ROPs, etc, todo eso que no se mira en AMD, muy posiblemente también se observa al mirar a chips como el de las R9 290 o 280 vs chips completos).

PD: Como nota, mi GTX 770 tampoco obtiene acceso con el mismo ancho de banda a todos sus 2 GB de VRAM (siendo como es un chip "completo), quedando como que 256 MB o más de datos a velocidad muy inferior, eso es porque esa memoria está en principio "bloqueada" por estar en uso por Aero, lo mismo pasa con la configuración por defecto de la GTX 970, sólo cuando una aplicación 3D intenta usar esa VRAM o una gpgpu lo hace de la forma correcta, permite el acceso (lo digo porque este test CUDA tiene la tendencia a dar errores varios, incluido en algún caso un error que lleva a reiniciar el driver gráfico, así que no es el mejor ejemplo de asignación de memoria bien realizada y limpia con CUDA, precisamente, está claro que no hace comprobaciones varias, precisamente).

PPD: En el adjunto va una demostración de lo que pasa cuando la memoria VRAM no se puede asignar así a las bravas como lo intenta el susodicho programa. ¿Memoria más lenta? NO, uso de memoria principal de sistema, via pci-e (el último chunk al pleno y parcialmente el penúltimo).

Adjuntos

gtx770a.png (19.69 KB)

GTX 770 con test CUDA de direccionamiento de memoria.
La gente no esta pidiendo explicaciones técnicas de porque sucede. Por mucho que otras marcas tengan fallos, ahora se está hablando de este, y de como se va a solucionar.

Sino no se pueden publicitar 4 GB de VRAM efectiva, cuando no toda funciona a la misma velocidad, punto.
Rectificare la noticia, con una breve descripción del problema. Gracias wwwendigo por la aclaración.
Un saludo
Nvidia se pronunció oficialmente respecto a un problema que perjudica a todas las Nvidia GeForce GTX 970, las cuales podrían no son capaces de hacer uso de sus 4 GB de memoria VRAM al completo, todas se encuentran limitadas a un acceso de 3.5 GB, pues cuando se trata de acceder a los 500 MB de memoria restantes el rendimiento decae en cierta medida.

La respuesta ante dicho problema por parte de la compañía es que esos 500 MB restantes están en una partición usada para otros comandos:



La GeForce GTX 970 está equipada con 4 GB de memoria gráfica dedicada. Sin embargo, la GTX 970 tiene una configuración diferente de SMs respecto a la GTX 980, y menos recursos de interconexión al sistema de memoria. Para gestionar de manera óptima el tráfico de memoria en esta configuración, dividimos el segmento de memoria de gráfica en una sección de 3.5 GB y en una sección de 0.5GB. La GPU tiene mayor prioridad en el acceso a la sección de 3.5 GB. Cuando un juego necesita menos de 3.5 GB de memoria VRAM por comando dibujado entonces sólo accederá a la primera partición, y las aplicaciones de terceros que miden el uso de memoria reportará 3.5 GB de memoria en uso para la GTX 970. Cuando un juego requiera más de 3.5 GB de memoria entonces se usará la de ambos segmentos.

Entendemos que ha habido algunas preguntas sobre cómo rendirá la GTX 970 cuando accede al segmento de 0.5 GB de memoria. La mejor manera de probarlo es mirar el rendimiento del juego. Comparar una GTX 980 con una GTX 970 en un juego que utilice al menos de 3.5 GB. A continuación, puedes ver los juegos y ajustes que hacen uso de más de 3.5 GB de memoria y comparar el rendimiento gráfico entre ambos modelos.


Ejemplo de algunos datos de rendimiento:

Imagen



En la GTX 980, Sombras de Mordor cae un 24% en la GTX 980 y un 25% en GTX 970, una diferencia de 1%. En Battlefield 4, la caída es del 47% en la GTX 980 y del 50% en la GTX 970, una diferencia de 3%. En CoD:AW, la caída es del 41% en la GTX 980 y del 44% en la GTX 970, una diferencia de 3%. Como se puede observar, hay muy pocos cambios en el rendimiento de la GTX 970 en relación con la GTX 980 de estos juegos cuando se utiliza el segmento de 0.5GB.

La información llega para contentar a los usuarios, aunque es más que evidente la pérdida de rendimiento tras superar la utilización de los 3.5 GB de memoria ante una mala gestión de los 0.5 GB restantes. La GPU GM204-200 GPU tiene tres unidades SMM deshabilitadas con un total de 13/16 SMM. Esto a su vez desactiva algunos componentes del subsistema de la memoria. Esto deja el chip con menos recursos para gestionar la misma cantidad de memoria que la GTX 980.

La utilización de un doble segmento (3.5 GB + 0.5 GB) tendría que ver con asegurar que el primer segmento de memoria es más rápido que el segundo. En resumen, los 3.5 GB de memoria GDDR5 es más rápida que la aislada en forma de 500 MB, siempre y cuando no se use altas resoluciones o mods que impliquen el aumento drástico de la memoria usada no habrá problemas.
Vamos que se la han vuelto a colar a los compradores como con la 660 Ti.

Gg Nvidia, entre sus politicas y esto [toctoc]
NasterX escribió:Vamos que se la han vuelto a colar a los compradores como con la 660 Ti.

Gg Nvidia, entre sus politicas y esto [toctoc]

this.

En la gtx660 y gtx660ti de 2gb ya lo hicieron.
Por lo menos molestaros en entender lo que dice antes de postear mentiras.

Explica cómo funciona la gestión de memoria, simplemente eso, y que esa forma de trabajar no merma en el rendimiento de los juegos y que tiene acceso a los 4GB, solo que solo accede a los últimos 0.5GB en caso de necesitarlos realmente.
En realidad a partir de poco mas de 3GB ya empieza a caer en picado

Imagen
futuro mad max escribió:En realidad a partir de poco mas de 3GB ya empieza a caer en picado

Imagen


En realidad ese test no tiene fiabilidad ninguna, eso se ha visto en Titan y GTX 680.

http://foro.noticias3d.com/vbulletin/sh ... 62&page=24

Te pongo pruebas, mi mismo PC con una GTX970:

http://youtu.be/LVOIo0E1SbQ

No he visto aún ningún video sobre el problema en el que se vea el stutering del que se habla.

Habláis por hablar, solo estáis alimentando un rumor sin fundamento, del cual NVIDIA ya se ha pronunciado.
Matuso escribió:
futuro mad max escribió:En realidad a partir de poco mas de 3GB ya empieza a caer en picado

Imagen


En realidad ese test no tiene fiabilidad ninguna, eso se ha visto en Titan y GTX 680.

http://foro.noticias3d.com/vbulletin/sh ... 62&page=24

Te pongo pruebas, mi mismo PC con una GTX970:

http://youtu.be/LVOIo0E1SbQ

No he visto aún ningún video sobre el problema en el que se vea el stutering del que se habla.

Habláis por hablar, solo estáis alimentando un rumor sin fundamento, del cual NVIDIA ya se ha pronunciado.


como tu dices la GTX 970 tiene una configuración diferente de SMs respecto a la GTX 980 Y es por esto;

64 bit memory controller, con hay total 4 SM's = 256 bit.

De estos 4 SM's cada esta formado por 4 SMM = 16 x 16 = 256 bit's

De los 4 SM's solo hay uno completo y tres que tienen un SMM desactivado => 4+3+3+3=13
Las cuentas quedan así:

16 SMM = 256 bit = 4096 Mb
13 SMM = 208 bit = 3328 Mb

Vamos que técnicamente hablando las 970 son de 208 bit de bus rápido, 48 bits muy lento.

esto en principio tampoco tiene poruqe hacer perder rendimiento porque realmente los juegosd que se comen mas de 3GB de ram no la utilizan toda.
por si alguien quiere probar el bench de marras
http://nl.guru3d.com/vRamBandWidthTest-guru3d.zip

alguien lo conocía por eso?

cosa curiosa... no me deja pasarlo con la 290....

edito:
[mode ironic on]
esta gráfica debe ser el relevo de la 660 ...
[qmparto] [qmparto] [qmparto] [qmparto]
Matuso escribió:
futuro mad max escribió:En realidad a partir de poco mas de 3GB ya empieza a caer en picado

Imagen


En realidad ese test no tiene fiabilidad ninguna, eso se ha visto en Titan y GTX 680.

http://foro.noticias3d.com/vbulletin/sh ... 62&page=24

Te pongo pruebas, mi mismo PC con una GTX970:

http://youtu.be/LVOIo0E1SbQ

No he visto aún ningún video sobre el problema en el que se vea el stutering del que se habla.

Habláis por hablar, solo estáis alimentando un rumor sin fundamento, del cual NVIDIA ya se ha pronunciado.



El test mide el ancho de banda real que es de lo que trata el hilo otra cosa es que a ti no te parezca importante, rumor sin fundamento el que?
lo mas gracioso del hilo es que todos los poseedores de la 970 no notan esos problemas, y los unicos que se quejan y achacan el problema tienen en su firma una grafica amd [hallow]
paconan escribió:por si alguien quiere probar el bench de marras
http://nl.guru3d.com/vRamBandWidthTest-guru3d.zip

alguien lo conocía por eso?

cosa curiosa... no me deja pasarlo con la 290....

edito:
[mode ironic on]
esta gráfica debe ser el relevo de la 660 ...
[qmparto] [qmparto] [qmparto] [qmparto]


El programa es para cuda. No sirve para AMD.
Nachoyazid escribió:La gente no esta pidiendo explicaciones técnicas de porque sucede. Por mucho que otras marcas tengan fallos, ahora se está hablando de este, y de como se va a solucionar.

Sino no se pueden publicitar 4 GB de VRAM efectiva, cuando no toda funciona a la misma velocidad, punto.


Se puede publicitar 4 GB de VRAM, cuando resulta que sí que es efectiva, sólo con una pérdida del rendimiento del 1-3% por usar el segmento pequeño de VRAM, punto.


La "pérdida de velocidad" se aplica sólo respecto a cómo accede a esa memoria la GTX 980, y hasta ahora nadie la ha notado, ni la habría notado, si no fuera porque por comparación entre usuarios, no hubiera gente que se alarmara al ver sus GTX 970 que no usan la misma VRAM total que las GTX 980.... cuando es precisamente para mantener el mejor rendimiento posible. El razonamiento técnico es necesario porque si no se acaban diciendo burradas como "buses de 208 bits" y cosas más bestias.

Las gráficas usan su memoria tanto para los datos que realmente necesitan (texturas, geometría, buffers y otros datos para renderizar la imagen actual) así como para mantener datos obsoletos o incluso precargar datos que se prediga que harán falta en breve. La idea es, si tienes memoria de sobra, quizás mantener texturas y otros datos en la memoria sin usar, o precargar datos, sirva para evitar tener que cargarlos después cuando hagan falta, total, no hay perjuicio por mantener esos datos en memoria si ésta sobra.

Pero en este caso no es así, existe un perjuicio, pequeño pero real, en usar más de 3,5GB sobre todo si no hace falta (nvidia dice claramente, y también las fuentes de dicha noticia, que sí usa más VRAM la GTX 970, simplemente que sigue una política de evitar su uso si no es realmente necesario, por pequeño que sea el efecto en el rendimiento).

La gráfica direcciona los 4 GB SI (condicional muy importante) los necesita de verdad para renderizar un frame dado. NO los usa como igual sí (afirmativo) lo hace una GTX 980 en las mismas condiciones porque el algoritmo de uso de la VRAM es DISTINTO en ambos casos.

En la GTX 980 -> Uso y CACHEO datos antiguos en la VRAM sin distinción de ningún área porque no suponen ni una brizna de menoscabo de rendimiento y sí puede suponer cierta ventaja en condiciones concretas, evitando carga de datos futuras en, por decir, un bus pci-e antiguo, o aunque sea moderno, ahorrándoselo al driver.

En la GTX 970 -> Usa tanta memoria VRAM como me de la gana, incluido CACHEO de datos no necesarios o antiguos, HASTA los 3,5GB de VRAM, si llego a este límite hay dos rutas:

1.- NECESITO más VRAM para renderizar un frame->Accedo a la memoria extra de 500MB en el otro bloque aunque eso suponga una ligera reducción del rendimiento por sobrecarga del método de acceso a la memoria (posiblemente usando un método de direccionamiento más complejo y menos directo), por hacer una mala comparación, sería como el modo PAE de direccionamiento de memoria por encima del límite de 32 bits en un cpu x86. No es lo mismo, pero se puede hacer un símil porque son barreras existentes en cómo se accede a nivel hard y arregladas en éste con "trucos" cuyo impacto real en rendimiento es bajo, pero existente.

2.- Necesito menos VRAM que el total de 3,5 GB para renderizar el frame actual, pero tengo almacenados datos de cacheo en la VRAM que ocupan parte del espacio necesario->eliminar datos de cacheo hasta tener suficiente hueco en la memoria de acceso rápido->llenar con nuevos datos y renderizar.

Volver a empezar, una y otra vez, hasta que exista la auténtica necesidad de superar la barrera, y sufrir una penalización de un 2-3% del rendimiento.

Addenda----

Más que posiblemente muchos chips "capados" tienen problemas similares, todos están basados en multiprocesadores en forma de SMs, SMXs o SMMs, o el equivalente de AMD, que suelen usar un bus tipo Xbar para acceder en conjunto a unos controladores de memoria, una forma rápida de trabajar y hacer un direccionamiento rápido de memoria, es segmentar en bloques la memoria, de fácil manejo, por ejemplo 16 bloques por SMM, o más posiblemente, cuatro particiones por cada SMM dado que tienen 4 schedulers independientes manejando un stream de código distinto con sus requerimientos de acceso a memoria propios (un total de 64 segmentos), y mantener X bits como índice para identificar el bloque y posibles recursos tipo punteros u otros que se necesiten dentro de cada segmento para el código shader a ejecutar.

Curiosamente el número de schedulers de un GM204 (un GK104 usa 32) es de 64, cada uno con un hilo de ejecución, esto es, 2^6. Un bloque de 26 bits por segmento daría un tamaño de bloque de 64 MB, este segmento con un índice de 6 bits como el anterior, daría un direccionamiento de 32 bits en total (4GB). Seguramente para acceder por encima de esta cantidad de VRAM hace falta usar métodos de direccionamiento más complejos o cuanto menos cambiar el tamaño de la palabra usada. Sea como sea, será algo menos eficiente usar tamaños demasiado grandes de memoria, poco, pero curiosamente eso se ha visto en algún caso donde configuraciones con "extra" de memoria no van más rápido hasta que supone un beneficio claro y directo el tener más memoria, de hecho hay casos donde lo que se ha visto es una ligera reducción de rendimiento con tarjetas con "extra" de RAM.

El problema está en que en vez de usar el mismo acceso mediocre que puede haber en otros chips de nvidia, incluidos otros chips capados de ésta de generaciones anteriores, y por supuesto AMD, ya que la estructura de SMMs y SMXs es extremadamente parecida, han buscado un método igual de óptimo que en chips superiores y enteros hasta una capacidad máxima, y después, si hace falta, se usa el resto con el mencionado menoscabo de velocidad, que es muy escaso, pero real, y no tiene sentido provocarlo si un juego no necesita ni se va a beneficiar de cacheos de datos excesivos y en contra del rendimiento. La gracia del cacheo de datos está en evitar transferencias y obtener cargas de datos "gratis" al volver a solicitar datos existentes, esto es, en que su implementación no tiene coste alguno. Si implementar esto tiene coste aunque sea pequeño, no se usa, no por lo menos cuando hablamos de superar los 3,5 GB y asumir el coste de un manejo de memoria algo más complejo que por debajo de esa zona (en realidad sobre los 3,25GB).

Problemas de rendimiento "anómalo" en chips capados siempre se han visto, pero sólo que se asumen con pasmosa facilidad (al fin y al cabo, estás comprando la solución con recortes, no la 100% habilitada, y lo asumes), por ejemplo, en el caso del GM204 es el problema del fillrate:

http://techreport.com/blog/27143/here-another-reason-the-geforce-gtx-970-is-slower-than-the-gtx-980

Temas como el pixel rate, cuando va acoplado el funcionamiento del hard en distintos niveles, puede hacer que las cifras teóricas no sean las prácticas, dado que cuando se reduce en un hard concreto, se afecta a toda la "pipeline gráfica" a pesar de que tengamos el potencial teórico de, como en este caso, dibujar tantos o más píxeles en una GTX 970.

Se ve un efecto similar entre la GTX 770 y 760, ya que ambas gráficas comparten tanto bus como ROPs, sólo diferenciándose un poco en frecuencia y algo en ancho de banda. Tanto en pixel fillrate (frecuencia x ops de ROPs) como ancho de banda ambos chips sólo se diferencian en un 10% del rendimiento, y por tanto ésa es la diferencia esperable entre ambas en una prueba teórica de fillrate.

Y sin embargo es el doble, se diferencian en un 20%, una muestra de un tipo de dependencia similar a la vista con el GM204 y vinculada al recorte de SMX/SMM en la gpu.

Si posiblemente no vemos problemas similares en otros chips, es porque sinceramente, estarán usando el modo de direccionamiento a lo bruto si es necesario, aunque eso signifique perjudicar levemente al rendimiento, ya hemos visto que el problema del pixel rate existe. Siendo tan parecidos en cómo funcionan SMX y SMM en kepler y maxwell, es más posible que con kepler simplemente mantengan una forma de acceso "simétrico" a memoria en chips capados pero con la penalización (que nadie podría medir, ya que además de pequeña, estaría integrada de forma natural en pruebas), y que lo de maxwell sea una forma de exprimir mejor las capacidades de chips capados sin forzar a usar métodos de direccionamiento y manejo de memoria que no irían tan finas como el "original" GM204 completo.
ismarub escribió:
paconan escribió:por si alguien quiere probar el bench de marras
http://nl.guru3d.com/vRamBandWidthTest-guru3d.zip

alguien lo conocía por eso?

cosa curiosa... no me deja pasarlo con la 290....

edito:
[mode ironic on]
esta gráfica debe ser el relevo de la 660 ...
[qmparto] [qmparto] [qmparto] [qmparto]


El programa es para cuda. No sirve para AMD.


Ya, con ese nivelazo no me extraña que después la gente se invente historias (lo de los 208 bits me ha matado)... [facepalm]

Joder, ¿tan dificil es comprobar de qué va el probrama mencionado, qué hace y porqué? Como si fuera poca pista una dll llamada CUDArt64_65.dll, ya no digo nada de las capturas de pantalla con la aplicación que no dejan lugar a dudas.

El programa sólo muestra cómo se intenta direccionar X memoria (el programa automáticamente intenta direccionar tantos segmentos de 128 MB como tenga la gráfica menos uno. El problema es que si no puede (está claro que el programa no hace la petición de forma elegante, porque se cuelga con una facilidad pasmosa), gracias a cómo funciona CUDA que permite usar memoria local de la cpu si hace falta, acaba usando parte de los segmentos desde la memoria principal, y cargados desde la memoria local.

Por eso a mí los últimos bloques usados por Aero, que los acaba asignando en la memoria local, bajan hasta a 8 GB/S (pci-e 2.0), porque se cargan esa área de memoria localizada desde la RAM principal. (y ... con una GTX 770, esto pasa con cualquier gráfica, simplemente la GTX 970 no le da la gana de darle a la aplicación CUDA toda la memoria y menos vista la "finura" en cómo la pide (con incluso reseteos del driver):

viewtopic.php?p=1738074492

Que resulta que tengo 2 bloques sin contar el que no intenta usar la aplicación funcionando mucho más lento.

Ohh, sorpresa, que resulta que mi GTX 770 tiene menos de 2 GB de memoria "usables" ... [qmparto] (es lo que pasa cuando no es entiende el funcionamiento y qué hace el programa de marras).


PD: ¿Porqué hay dos hilos tratando lo mismo?

Esto lo comenté sobradamente:

Adjuntos

Después de pasar un millón de test a mi 980 estoy totalmente de acuerdo con Wwendigo, pues mis test han sido muy variados dependiendo de lo que tuviera abierto en el PC, si lo dejo seco sin nada abierto ya me sale bien el test o casi.
el caso es que tiene una particion rapida de 3,5GB y otra lenta de 500MB y si no leetelo. Es un fail en toda regla por parte de nvidia, ha hecho lo mismo que con la gtx 660.
http://www.guru3d.com/news-story/does-the-geforce-gtx-970-have-a-memory-allocation-bug.html

leeros los updates.
ismarub escribió:
paconan escribió:por si alguien quiere probar el bench de marras
http://nl.guru3d.com/vRamBandWidthTest-guru3d.zip

alguien lo conocía por eso?

cosa curiosa... no me deja pasarlo con la 290....

edito:
[mode ironic on]
esta gráfica debe ser el relevo de la 660 ...
[qmparto] [qmparto] [qmparto] [qmparto]


El programa es para cuda. No sirve para AMD.


ya, dice no cuda noseque...
pero lo suyo es que valiera para todas.... como se que mi amd no hace lo mismo?

de todas formas por lo que explica wwwendingo... parece que el test este tampoco es una joya en optimización...
si solo es un 2 o 3% de perdida como dicen.... no creo que se note demasiado jugando a 60
Project-2501 escribió:el caso es que tiene una particion rapida de 3,5GB y otra lenta de 500MB y si no leetelo. Es un fail en toda regla por parte de nvidia, ha hecho lo mismo que con la gtx 660.
http://www.guru3d.com/news-story/does-the-geforce-gtx-970-have-a-memory-allocation-bug.html

leeros los updates.


Leetelo tu anda, eso no pone y no es el mismo caso que las 660 porque el bus de las 660 desde un principio se dijo que era de 192 bits por lo que antes de que saliera la gente ya sabía que había gato encerrado ya que necesitas 256 o 128 para direccionar 2GB de RAM

Project-2501 escribió:
Matuso escribió:
futuro mad max escribió:En realidad a partir de poco mas de 3GB ya empieza a caer en picado

Imagen


En realidad ese test no tiene fiabilidad ninguna, eso se ha visto en Titan y GTX 680.

http://foro.noticias3d.com/vbulletin/sh ... 62&page=24

Te pongo pruebas, mi mismo PC con una GTX970:

http://youtu.be/LVOIo0E1SbQ

No he visto aún ningún video sobre el problema en el que se vea el stutering del que se habla.

Habláis por hablar, solo estáis alimentando un rumor sin fundamento, del cual NVIDIA ya se ha pronunciado.


como tu dices la GTX 970 tiene una configuración diferente de SMs respecto a la GTX 980 Y es por esto;

64 bit memory controller, con hay total 4 SM's = 256 bit.

De estos 4 SM's cada esta formado por 4 SMM = 16 x 16 = 256 bit's

De los 4 SM's solo hay uno completo y tres que tienen un SMM desactivado => 4+3+3+3=13
Las cuentas quedan así:

16 SMM = 256 bit = 4096 Mb
13 SMM = 208 bit = 3328 Mb

Vamos que técnicamente hablando las 970 son de 208 bit de bus rápido, 48 bits muy lento.

esto en principio tampoco tiene poruqe hacer perder rendimiento porque realmente los juegosd que se comen mas de 3GB de ram no la utilizan toda.


Esto es un copy paste de conjeturas de uno (puede que el creador del famoso test) puso en Guru3D entre otro sitios, pero es imposible que acceda a 500MB con un bus de 48 bits y aunque intentes cuadrar la cifra no salen las cuentas, además de que no se sabe el orden de desconexión de los SMM.

En el simil de que fuera de 64 (como es el caso de las 660) se notaría muchisimo y la red esta llena de muestras, yo mismo subi el del FC4 ocupando 3800MB y perfecto, y así hay muchos videos.

Paree que os gusta la prensa rosa, poneis conjeturas de uno como cierto, no se que pretendeis desinformando a la gente.

futuro mad max escribió:
Matuso escribió:
futuro mad max escribió:En realidad a partir de poco mas de 3GB ya empieza a caer en picado

Imagen


En realidad ese test no tiene fiabilidad ninguna, eso se ha visto en Titan y GTX 680.

http://foro.noticias3d.com/vbulletin/sh ... 62&page=24

Te pongo pruebas, mi mismo PC con una GTX970:

http://youtu.be/LVOIo0E1SbQ

No he visto aún ningún video sobre el problema en el que se vea el stutering del que se habla.

Habláis por hablar, solo estáis alimentando un rumor sin fundamento, del cual NVIDIA ya se ha pronunciado.



El test mide el ancho de banda real que es de lo que trata el hilo otra cosa es que a ti no te parezca importante, rumor sin fundamento el que?


Bueno ya has visto que también hay rumores de que ese test puede tener un bug, ni me lo creo ni me lo dejo de creer. Pero fiarse de un test que ha aparecido hace dos días, con origen desconocido, que falla según las aplicaciones que tengas abiertas, que falla en otras graficas (Titan y GTX680, ya lo puse antes) y que además está hecho en consola... pues es un querer y no poder. Si me dijeras que es un Sisoft Sandra o un 3d Mark, pero vamos es de broma.

Llevais un día de retraso en todo lo que está pasando y lo que publicais, solo intento que la gente que realmente quiere informarse y dejarse de farandulas lo haga, dudo mucho que esto se resuelva en que Nvidia tenga finalmente un problema ya que soy poseedor de una GTX970 y he hecho las pertinentes pruebas (fiables) y ni rastro sobre merma de rendimiento, otra cosa es como se organice la memoria, pero definitivamente la GTX970 tiene acceso a los 4GB y su rendimiento no se ve afectado.
kevin! escribió:Rectificare la noticia, con una breve descripción del problema. Gracias wwwendigo por la aclaración.
Un saludo


Te lo rectifico yo con solo una imagen.

Imagen

Es una broma eh? Es quelo he visto en la web de techpowerup y no lo he podido evitar.
Project-2501 escribió:
kevin! escribió:Rectificare la noticia, con una breve descripción del problema. Gracias wwwendigo por la aclaración.
Un saludo


Te lo rectifico yo con solo una imagen.

Imagen

Es una broma eh? Es quelo he visto en la web de techpowerup y no lo he podido evitar.

"me meto para mofarme con un gif pero oye que es una broma eh?"

lo vuelvo a repetir, los que mas se quejan del asunto son usuarios con graficas amd que ni por asomo se molestan a probar las cosas y con cualquier motivo ponen el grito en el cielo
Fie escribió:
Project-2501 escribió:
kevin! escribió:Rectificare la noticia, con una breve descripción del problema. Gracias wwwendigo por la aclaración.
Un saludo


Te lo rectifico yo con solo una imagen.

Imagen

Es una broma eh? Es quelo he visto en la web de techpowerup y no lo he podido evitar.

"me meto para mofarme con un gif pero oye que es una broma eh?"

lo vuelvo a repetir, los que mas se quejan del asunto son usuarios con graficas amd que ni por asomo se molestan a probar las cosas y con cualquier motivo ponen el grito en el cielo

Imagen

[qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto]

en cierta manera es normal, los verdes también protestais cuando amd la lia [plas]
Yo ni soy fanboy de AMD ni Nvidia XD. Si nvidia la caga es su problema, yo solo postee esta noticia porque me pareció muy fuerte.
Un saludo
wwwendigo escribió:Seguramente si se investigara algo en otros chips recortados la gente se llevaría similares sorpresas "inexplicables" (variaciones de rendimiento en direccionamiento pleno de memoria, operaciones de ROPs, etc, todo eso que no se mira en AMD, muy posiblemente también se observa al mirar a chips como el de las R9 290 o 280 vs chips completos)

Mal de muchos...

Medio giga es mucho engaño, no hay excusa en gráficas de 400 pavos. Es la tónica de cada generación, lo mismo que las 660/660ti y sus 2gb.

Pero claro en los datos ponemos el ancho de banda de los 3,5 gb, que queda más bonito.
Fie escribió:lo mas gracioso del hilo es que todos los poseedores de la 970 no notan esos problemas, y los unicos que se quejan y achacan el problema tienen en su firma una grafica amd [hallow]


Eso mismo iba a decir yo, parece que les fastidia que Nvidia con la 970 ha sacado una relación calidad/precio excelente. No entiendo toda esta problemática, yo estoy encantado con la mía, me va genial y sin ningún problema.

Saludos.
Imagen

la que se va a liar...
wwwendigo escribió:
Nachoyazid escribió:La gente no esta pidiendo explicaciones técnicas de porque sucede. Por mucho que otras marcas tengan fallos, ahora se está hablando de este, y de como se va a solucionar.

Sino no se pueden publicitar 4 GB de VRAM efectiva, cuando no toda funciona a la misma velocidad, punto.


Se puede publicitar 4 GB de VRAM, cuando resulta que sí que es efectiva, sólo con una pérdida del rendimiento del 1-3% por usar el segmento pequeño de VRAM, punto.


...


Eso de que sigue siendo efectiva cuando pierde rendimiento lo seguirá siendo para ti.
un saludo.
Aunque esos 500MB restantes sean a menos rendimiento, la 970 puede usar los 4GB de memoria sin problemas (4096mb) lo que si quizás perdiendo 2-4Fps como MAXIMO en algun juego que tire mucho.

Saliendo la 780 a 650 euros o 600 minimo, y la 970 al año siguiente que es hasta superior por tener 4GB de vram, maxwell blablabla, salio a 350 de base, ahi hay 300 euros o 250 de diferencia... Yo no me quejo porque tenga 0,5GB a "menos velocidad" que luego en terminos no se nota
josele69 está baneado por "faltas de respeto, flames, troleos y clones"
Nachoyazid escribió:
wwwendigo escribió:
Nachoyazid escribió:La gente no esta pidiendo explicaciones técnicas de porque sucede. Por mucho que otras marcas tengan fallos, ahora se está hablando de este, y de como se va a solucionar.

Sino no se pueden publicitar 4 GB de VRAM efectiva, cuando no toda funciona a la misma velocidad, punto.


Se puede publicitar 4 GB de VRAM, cuando resulta que sí que es efectiva, sólo con una pérdida del rendimiento del 1-3% por usar el segmento pequeño de VRAM, punto.


...


Eso de que sigue siendo efectiva cuando pierde rendimiento lo seguirá siendo para ti.
un saludo.


Si, pero no es la bajada que intenta mostrar el test de Nai. Este test, al no poder acceder en la 970 a esos 0.5 gb de VRAM, tira de RAM y de ahi la bajada tan importante del ancho de banda.

En JUEGOS, al acceder a esos 0.5 gb se pierde de un 3 a un 5 %, nada comparado a lo que muestra el test.

Claro, el problema es que algunos afirman que esa ligera bajada de rendimiento en juegos va acompañado de un stuttering brutal, pero no me fio ni un pelo ya que hay paranoicos que ven cosas donde no las hay y he visto videos donde se dice OH MIRAD QUE STUTTERING TENGO y no se aprecia absolutamente nada.

Hay un usuario en N3D y FC que controla bastante del tema y ha hecho pruebas en juegos y ocurre lo que estoy diciendo arriba.
Project-2501 escribió:
kevin! escribió:Rectificare la noticia, con una breve descripción del problema. Gracias wwwendigo por la aclaración.
Un saludo


Te lo rectifico yo con solo una imagen.

Imagen

Es una broma eh? Es quelo he visto en la web de techpowerup y no lo he podido evitar.


Te lo resumo en una frase:

Acceso a memoria RAM del sistema, no a la de la gráfica. Y no, no es una broma... ;)

Nachoyazid escribió:
wwwendigo escribió:
Nachoyazid escribió:La gente no esta pidiendo explicaciones técnicas de porque sucede. Por mucho que otras marcas tengan fallos, ahora se está hablando de este, y de como se va a solucionar.

Sino no se pueden publicitar 4 GB de VRAM efectiva, cuando no toda funciona a la misma velocidad, punto.


Se puede publicitar 4 GB de VRAM, cuando resulta que sí que es efectiva, sólo con una pérdida del rendimiento del 1-3% por usar el segmento pequeño de VRAM, punto.


...


Eso de que sigue siendo efectiva cuando pierde rendimiento lo seguirá siendo para ti.
un saludo.


No es una cuestión subjetiva, ni de opiniones, por lo menos no de opiniones no ilustradas sobre el tema y que deciden ignorar los datos aportados.

Ya sabemos qué hace el programa y porqué baja el ancho de banda tanto (pasa en una GTX 770, en cualquier gráfica que tenga bloqueada algo de memoria y no pueda asignarla la aplicación, cogiendo RAM del sistema, esto está explicado y no es matizable).

Y también sabemos que el efecto de usar el área de memoria por encima del límite de 3,3 GB (según nvidia 3,5 GB) es de más o menos una bajada del 2-3%.

Puedes ponerte como quieras, pero no por mentir vas a tener razón, no puedes decir que una memoria no es usable o no la usa con efectividad porque, en el ejercicio real de su uso práctico, signifique una bajada del rendimiento del 2-3%.

Como he dicho por otros lares, ¿qué opinas de esto?:

http://www.tomshardware.com/reviews/sapphire-vapor-x-r9-290x-8gb,3977-3.html

8 GB vs 4 GB, mismo equipo, misma frecuencia y condiciones de funcionamiento. Y sin embargo resulta que en varios casos la versión de 8GB funciona PEOR que la de 4 GB (BF4, ARMA3 y Watchdogs van peor en 1080p o 4K, con peores fps medios o mínimos, según cada caso). Las diferencias de rendimiento llegan a ser del 4% en el caso de fps medios, y del 6,5% en mínimos, y a favor de la versión de 4GB.

Es fácil comprender porqué va "mejor" cuando hace falta esa memoria VRAM extra, o porqué a veces va igual, eso no es lo cuestionable. Sí lo es que el rendimiento con 8 GB es en varias ocasiones y además de forma notable MAS LENTA que la versión de 4 GB (misma frecuencia, repito). Y por mayor porcentaje además que el "incidente" de la GTX 970.


¿Vas a acusar a AMD de publicidad engañosa, de mentir al publicitar 8 GB cuando "no son efectivos" por esas diferencias?
Están ahí, y son más relevantes que lo de la GTX 970. A la GTX 970 le es también más beneficioso usar esa memoria extra aún a costa de perder 2-3% del rendimiento posible (insisto, es un problema de la forma de direccionamiento de la memoria física, NO un problema de ancho de banda, se requerirán más ciclos de reloj en la gpu para poder acceder a datos en el bloque último de memoria en las GTX 970), que no usarla donde el rendimiento sí se derrumbaría.

Porque es exactamente lo que estás haciendo con nvidia. Acusar de publicidad engañosa y de un uso no efectivo de la memoria, cuando existe una degradación mínima en su uso. Y eso en mi pueblo lo llaman mentir. Si tienes pruebas de lo contrario, de una mayor degradación real, muéstralas.
Wwwendigo, defensor oficial de NVIDIA. Eres un poco cansino, lo sabias?
kakarot88 escribió:Wwwendigo, defensor oficial de NVIDIA. Eres un poco cansino, lo sabias?


Gran aporte el tuyo. De lujo como siempre que abres la boca. Si no te interesa hablar del tema, entonces para qué entras en el hilo. Y no se trata de defender, aquí más bien parece que hay que atacar a nvidia por un tema tan ridículo como un efecto en la gestión de memoria con el que.... se pierde un 2-3% de rendimiento en uso máximo de ésta. Y respecto a lo que sería de usar la memoria de la misma forma que la GTX 980 con todos los recursos de un chip completo.

Anda, para cansino lo de algunos. Después de la semana pasada aguantando mil pestes sobre que nvidia, que sí, que iba a subir precios a tope con las GTX 960, que si no iba a rendir una mierda, que si...

Algunos vivís sólo para criticar a nvidia.

La raza de los nvidia haters. Critica, aunque no sepas ni de lo que hablas o roce el ridículo del 2-3%. [oki]
kakarot88 escribió:Wwwendigo, defensor oficial de NVIDIA. Eres un poco cansino, lo sabias?

en resumen:
dar una explicacion = cansino y defensor

echar mierda y crear 2-3 hilos sobre lo mismo (cuando ya se hablaba de esto en el hilo oficial) de gente que ni tiene la grafica = esta muy bien

miro la firma y leo: Mi equipo: Fx 8320 4.5 Gh, Asus M5A97 evo R2.0, Sapphire R9 280X OC
Fie escribió:
kakarot88 escribió:Wwwendigo, defensor oficial de NVIDIA. Eres un poco cansino, lo sabias?

en resumen:
dar una explicacion = cansino y defensor

echar mierda y crear 2-3 hilos sobre lo mismo (cuando ya se hablaba de esto en el hilo oficial) de gente que ni tiene la grafica = esta muy bien

miro la firma y leo: Mi equipo: Fx 8320 4.5 Gh, Asus M5A97 evo R2.0, Sapphire R9 280X OC


Mira lo que quieras, antes tenía una 460 y mi primera gráfica fue una 8600 GT.
Yo por lo menos he probado las 2 marcas.

Lo que cansa es que cuando AMD lo hace mal (muchas veces) salis a soltar mierda, ahora si es NVIDIA, pobrecitos.
Rivroner escribió:Después de pasar un millón de test a mi 980 estoy totalmente de acuerdo con Wwendigo, pues mis test han sido muy variados dependiendo de lo que tuviera abierto en el PC, si lo dejo seco sin nada abierto ya me sale bien el test o casi.

Y es por eso que el problema no está? Desmientes el comunicado de NVIDIA?
Os puede parecer mejor o peor, pero es un fraude por parte de Nvidia, y que lo diga yo o que lo digan 20 poseedores de 970 no cambia los hechos. Tampoco lo cambia ni que AMD haga ni deshaga...
Es patético que incluso tratéis de justificarles, por favor...

Edito: y no va por quien cité ni por nadie en concreto, es en general y que nadie se sienta ofendido.
josele69 está baneado por "faltas de respeto, flames, troleos y clones"
Sacado de N3D:

Creo que te va a dar igual. Yo lo he probado sólo con iGPU, y el monitor MSI Kombustor me sigue indicando que la GPU consume un 3,x% de VRAM. ¿Lo reservará el driver para Physic o para el sistema operativo?

De todas formas, he hecho un test que confirma que el benchmark Nai está tirando de RAM principal del sistema. He tenido que deshabilitar la memoria swap o memoria virtual del sistema para que no se me "cuelgue" el equipo, que no es cosa del driver de NVIDIA, porque me pasa lo mismo en Linux cuando lanzo un proceso que se "desboca", se come toda la RAM y colapsa el sistema al haber trasiego masivo de RAM a SWAP de intercambio (memoria en disco duro muuuuucho más lenta).

Adjunto capturas de la jugada, donde abro consecutivamente dos "benchmark Nai" sin cerrar el anterior, y el sistema operativo me lanza un aviso donde dice que me quedo sin memoria RAM

....

Y si los juegos aparentemente (segun MSI Afterburner) ocupan casi todo el espacio de 4096 Mb sin pérdida apreciable de rendimiento, el hecho de que este Benchmark no pueda acceder a TODO el espacio de VRAM, no quiere decir que estén inutilizados esos 0,5 Gb porque sí se usan en los juegos y nada parece indicar que sean sustituídos por la RAM principal del sistema traída del bus PCIe es muchísimo más lenta que la VRAM y se debería de notar bastante en los juegos.
Aquí va el mio. ¿Sufre el error de asignación?
http://i.gyazo.com/d2e7eeb5870bd58b87d47ad16f62fb02.png

¿Como debo hacer el benchmark? ¿Tengo que cerrar todas las demás aplicaciones?
Solo tenía el Google Chrome abierto
Danaera escribió:Aquí va el mio. ¿Sufre el error de asignación?
http://i.gyazo.com/d2e7eeb5870bd58b87d47ad16f62fb02.png

¿Como debo hacer el benchmark? ¿Tengo que cerrar todas las demás aplicaciones?
Solo tenía el Google Chrome abierto


Hola, pues tal parece que tu tarjeta tiene el mismo problema que el mío y eso si es más grave. En todas las demás imágenes se puede ver que el bajón se da en los pultimos chunks solamente(que corresponden a los .5 Gb de VRam) pero el tuyo empieza más arriba(cosa que también me pasa a mí).

Si tienes Far Cry 4, córrelo, ponle todo en Ultra y usando MSI Afterburner(o el medidor de tu elección) fíjate en el uso de Vram que da tu tarjeta, porque la mía no usa ni siquiera 3 Gb sino que se queda en 2.5 Gb de uso máximo y el juego va a tirones horriblemente, creo que este caso es peor que el de los demás.
353 respuestas
1, 2, 3, 4, 58