vinzenzo34 escribió:se defiende mejor que 3060 ti y 3070 pero claro a unos fps muy cortos.
Anoche e jugue al plague requiem y lo puse en alto me sobraban 2 gigas de vram y iba fenomenal como mucho bajaba a 55 fps en las zonas de mas gente. Que funciene este asi y the last of us no... es un claro ejemplo de dejadez
AxelStone escribió:@esami Muy interesante el video y me gusta el matiz que comenta acabando el video. No deberíamos decir "estarán obsoletas", da a entender que no podrás jugar, sino más bien "no podrás jugar al máximo".
Eso cambia mucho el sentido de la frase y a fin de cuentas viene a ser un clásico en el mundo del PC desde el origen de los tiempos. Jugar al máximo está reservado solo a los sistemas más potentes en todos los sentidos: mejor CPU, mejor GPU, más RAM, mejor SSD...
[Sheer] escribió:Tenía previsto actualizar mi PC y llevo dos días poniéndome al día. Solo puedo decir que me parece una absoluta verguenza lo de las gráficas, especialmente las de nvidia.
[Sheer] escribió:Tenía previsto actualizar mi PC y llevo dos días poniéndome al día. Solo puedo decir que me parece una absoluta verguenza lo de las gráficas, especialmente las de nvidia.
Al final he decidido no actualizar y estrujar mi actual GTX 1080 hasta que pueda (aun recuerdo como mi actual equipo bastante top me costó en total 1500€...).
Aunque tenga que bajar parámetros, paso de sentirme engañado.
Nomada_Firefox escribió:[Sheer] escribió:Tenía previsto actualizar mi PC y llevo dos días poniéndome al día. Solo puedo decir que me parece una absoluta verguenza lo de las gráficas, especialmente las de nvidia.
Por curiosidad ¿que te parecia en 2020/21?
Cuando veas el precio de las CPUs y placas base, seguramente pienses lo mismo de Intel y AMD.
KindapearHD escribió:Pienso, que el foro en general, es contraproducente para mantener equipos mas a la larga. Aquí entre unos y otros solamente nos ponemos los dientes largos y nos empujamos a gastar anualmente para enseñar nuestros equipos.
Lo mejor que puedes hacer es olvidarte del hardware una vez actualizas y no seguir cada paso de los fabricantes.[Sheer] escribió:Tenía previsto actualizar mi PC y llevo dos días poniéndome al día. Solo puedo decir que me parece una absoluta verguenza lo de las gráficas, especialmente las de nvidia.
Al final he decidido no actualizar y estrujar mi actual GTX 1080 hasta que pueda (aun recuerdo como mi actual equipo bastante top me costó en total 1500€...).
Aunque tenga que bajar parámetros, paso de sentirme engañado.
Como digo, olvidate. Esa 1080 aún se puede exprimir mas. Cuando de verdad necesites cambiar, porque no puedas jugar de la manera que tu creas oportuna, entonces ponte al día y haz una nueva inversión de años. Pero el actualizar por actualizar, por gusto hoy en día, a los que no están puestos en el hardware mes a mes, les sienta como el culo al ver los precios actuales.
garbaje_de_potanzos escribió:Pero hay alguien que lo dude? Que los 8GB eran standard en gama media desde hace 7 años, que a día de hoy empiecen a quedarse cortos para ciertos juegos y mas aún en los venideros pues es de cajón. Quien quiera quedarse con 8GB pues ya sabe que sacrificar: texturas, RT, sombras y resolución. Quien no pues ya sabe que si quiere una gráfica decente para aguantar un par de años o mas que mire de 12GB para arriba dependiendo de la resolución y los settings que quiera mantener. Dentro de 5 años tendremos el mismo debate pero con 16GB que ya se quedarán cortos y hay que pillar gráficas de 24 ó 32GB y tal pascual. No se que debate puede haber aquí, es el curso natural de los avances en técnicas y hardware xD
esami escribió:A mi cada vez me da mas la impresion que Epic ha recibido dinero de AMD o NVIDIA para activar la venta de tarjetas de esta generacion utilizando dos titulos muy mediaticos y que en realidad estan mal optimizados. Para meternos miedo en el cuerpo y que saquemos los billetes.
Desde luego que cuanto mas VRAM mejor pero si uno no sufre de ultritis y rtitis puede estar tranquilo con el tema.
FranciscoVG escribió:esami escribió:A mi cada vez me da mas la impresion que Epic ha recibido dinero de AMD o NVIDIA para activar la venta de tarjetas de esta generacion utilizando dos titulos muy mediaticos y que en realidad estan mal optimizados. Para meternos miedo en el cuerpo y que saquemos los billetes.
Desde luego que cuanto mas VRAM mejor pero si uno no sufre de ultritis y rtitis puede estar tranquilo con el tema.
Ni epic tiene la necesidad de recibir dinero de esta gente ni está gente de dárselo
Epic solo dice la verdad, lo que tu dices y lo que actualmente pasa de que haya juegos donde no puedas poner rt o poner ultra es solo el inicio del declive, con el tiempo serán más y será más grave llegando a pasar en cualquier configuración, los juegos no son tan escalables como os pensáis, esto ya a pasado otras veces y por lo general a igualdad de rendimiento una grafica con más vram suele envejecer bastante mejor, es algo que históricamente ya se a demostrado decenas de veces
La variante es cuando pasará eso, es algo que va a depender de los desarrollos, pero una cosa está clara, lo que comúnmente llamamos "next gen" los juegos con nuevas tecnologías y nuevos motores van a empezar a salir ahora y eso va a acelerar el proceso
FranciscoVG escribió:Usar el video de sfdxshow como argumento es la clásica del que simplemente busca creer lo que le interesa, por que pretender predecir el futuro en base a una demo técnica es una catetada de manual
@Wookiee
También puedes escuchar lo que dice que lo explica claramente, de inicio y sobre el papel la diferencia entre ambas es de 5-7%, esa diferencia a ido aumentando con el paso del tiempo, ¿cuál es la conclusión?, y aquí solo hablamos de rendimiento por que habría que ver luego en pantalla y es que cuando la vram escasea pueden haber problemas visuales también no sólo de rendimiento
Wookiee escribió:FranciscoVG escribió:Usar el video de sfdxshow como argumento es la clásica del que simplemente busca creer lo que le interesa, por que pretender predecir el futuro en base a una demo técnica es una catetada de manual
@Wookiee
También puedes escuchar lo que dice que lo explica claramente, de inicio y sobre el papel la diferencia entre ambas es de 5-7%, esa diferencia a ido aumentando con el paso del tiempo, ¿cuál es la conclusión?, y aquí solo hablamos de rendimiento por que habría que ver luego en pantalla y es que cuando la vram escasea pueden haber problemas visuales también no sólo de rendimiento
Claro, la conclusión en ese ejemplo es indiscutible. El mismo producto pero con mas vram va a rendir en el peor de los casos igual, y a partir de ahi, siempre va a ir mejor. No hay discusión. Pero es que no se trata de eso. Se trata de si, sin tener nada más en cuenta, una gpu con 12/16gb de vram es mejor que otra con 8, y aquí creo que todos estamos de acuerdo en que no es así, aunque lo reconozcamos solo en la intimidad.
Ahí tienes la A770 que tiene nada menos que 16GB de vram. ¿Alguien en su sano juicio escogería para jugar la de intel, no ya por encima de una 3080 con sus miseros 10GB, si no por delante de una 3070 con unos paupérrimos 8GB?
Y entre la 3060 y la 3070... Cara a futuro, cuando los juegos obliguen a la 3070 a usar texturas en low para mantener 40fps, te podrías encontrar con que con la 3060 estarías jugando con todo en low (no solo las texturas, sino todo lo demás también) por debajo de la barrera de los 30fps.
Además, podríamos hablar del sentido que tiene usar texturas 4k en un monitor 1080p y si es o no disparar con pólvora de rey.
Sea como sea, sin entrar en opiniones o en usar la bola de cristal, los datos están ahí. A día de hoy, la 3070 y la 3080 rinden, tanto en fps medios como en mínimos, muy por encima de gpus que tienen más vram, simple y llanamente porque suplen su falta de vram con mayor bus, núcleos de procesamiento o frecuencias. Y eso mismo se aprecia también si comparamos una 4080 de 16GB con una 3090 de 24GB. Y es que no solo de vram vive el gamer.
elneocs escribió:Si de paso no te impacta la vista el usar FSR tienes alli un boost de FPS que es bienvenidos por muchos. En mi caso uso DLSS siempre que puedo ya que a diferencia del FSR, este no me interfiere en la experiencia o no me molesta en lo mas mínimo porque gano en rendimiento y de paso la gpu consume menos vatios así que no problem.
ditifet escribió:
Pienso que este vidrio va para mi, dado que tu pc / movil no tiene boton de citar
La 1060 3gb y 1060 6gb NO llevan el mismo chip
https://elchapuzasinformatico.com/2016/ ... -1060-3gb/
estamos ante dos gráficas distintas, y no solo por que tengan distinta capacidad de memoria VRAM, sino que el modelo de 6 GB usa un silicio GP106 con 1280 CUDA Cores, 80 TMUs y 48 ROPs mientras que el modelo de 3 GB usa un silicio GP106 capado con 1152 CUDA Cores, 72 TMUs y 48 ROPs, por lo que a Nvidia no le costaba nada llamarla GeForce GTX 1060 SE/LE para diferenciarla de un modelo que quieran o no, es diferente en muchos aspectos y ofrece un rendimiento distinto.
Ahora sigue intentándolo con las "decenas" de ejemplos mas que comentabas
Te pongo yo un ejemplo de los que indicas que SI llevan el mismo chip?
https://www.noticias3d.com/noticia.asp?idnoticia=75491
...En la mayoría de los casos ambas ofrecen un rendimiento prácticamente idéntico...
FranciscoVG escribió:ditifet escribió:
Pienso que este vidrio va para mi, dado que tu pc / movil no tiene boton de citar
La 1060 3gb y 1060 6gb NO llevan el mismo chip
https://elchapuzasinformatico.com/2016/ ... -1060-3gb/
estamos ante dos gráficas distintas, y no solo por que tengan distinta capacidad de memoria VRAM, sino que el modelo de 6 GB usa un silicio GP106 con 1280 CUDA Cores, 80 TMUs y 48 ROPs mientras que el modelo de 3 GB usa un silicio GP106 capado con 1152 CUDA Cores, 72 TMUs y 48 ROPs, por lo que a Nvidia no le costaba nada llamarla GeForce GTX 1060 SE/LE para diferenciarla de un modelo que quieran o no, es diferente en muchos aspectos y ofrece un rendimiento distinto.
Ahora sigue intentándolo con las "decenas" de ejemplos mas que comentabas
Te pongo yo un ejemplo de los que indicas que SI llevan el mismo chip?
https://www.noticias3d.com/noticia.asp?idnoticia=75491
...En la mayoría de los casos ambas ofrecen un rendimiento prácticamente idéntico...
Para ti no va, lo pongo como ejemplo por si alguien tiene la misma duda pero no va para ti por eso no te cito, contigo ya se que es perder el tiempo por eso ni me molesto te lo digo como aviso para la proxima
No hay más que ver tus ejemplos, me pones un link donde en el primer párrafo pone que ambas usan el mismo chip para luego intentar convencerme que no con una imagen sacada a saber donde, pero luego encima pones otro link con un enlace al clásico video clickbait de las barritas que hemos dicho en este foro mil veces que no valen para nada, además genio si dos gráficas de la misma arquitectura con un rendimiento de diferencia de 5-7% con el tiempo la diferencia literalmente se multiplica ¿a que crees que puede ser debido?
Cuando quiera que alguien manipule lo que digo y no le importe engañar para quedar por encima de los demás te aviso crack, un saludo
@vinzenzo34
Y quien esta siendo alarmista? Por qué yo desde luego no decir que si puede perjudicar no es decir que tu gpu no vale para nada, insisto en el detalle que es importante, es que para mí los más alarmistas están siendo precisamente los youtubers y prensa en general, no creo que epic este diciendo ninguna mentira solo hay que entender lo que estan diciendo
ditifet escribió:FranciscoVG escribió:ditifet escribió:
Pienso que este vidrio va para mi, dado que tu pc / movil no tiene boton de citar
La 1060 3gb y 1060 6gb NO llevan el mismo chip
https://elchapuzasinformatico.com/2016/ ... -1060-3gb/
estamos ante dos gráficas distintas, y no solo por que tengan distinta capacidad de memoria VRAM, sino que el modelo de 6 GB usa un silicio GP106 con 1280 CUDA Cores, 80 TMUs y 48 ROPs mientras que el modelo de 3 GB usa un silicio GP106 capado con 1152 CUDA Cores, 72 TMUs y 48 ROPs, por lo que a Nvidia no le costaba nada llamarla GeForce GTX 1060 SE/LE para diferenciarla de un modelo que quieran o no, es diferente en muchos aspectos y ofrece un rendimiento distinto.
Ahora sigue intentándolo con las "decenas" de ejemplos mas que comentabas
Te pongo yo un ejemplo de los que indicas que SI llevan el mismo chip?
https://www.noticias3d.com/noticia.asp?idnoticia=75491
...En la mayoría de los casos ambas ofrecen un rendimiento prácticamente idéntico...
Para ti no va, lo pongo como ejemplo por si alguien tiene la misma duda pero no va para ti por eso no te cito, contigo ya se que es perder el tiempo por eso ni me molesto te lo digo como aviso para la proxima
No hay más que ver tus ejemplos, me pones un link donde en el primer párrafo pone que ambas usan el mismo chip para luego intentar convencerme que no con una imagen sacada a saber donde, pero luego encima pones otro link con un enlace al clásico video clickbait de las barritas que hemos dicho en este foro mil veces que no valen para nada, además genio si dos gráficas de la misma arquitectura con un rendimiento de diferencia de 5-7% con el tiempo la diferencia literalmente se multiplica ¿a que crees que puede ser debido?
Cuando quiera que alguien manipule lo que digo y no le importe engañar para quedar por encima de los demás te aviso crack, un saludo
@vinzenzo34
Y quien esta siendo alarmista? Por qué yo desde luego no decir que si puede perjudicar no es decir que tu gpu no vale para nada, insisto en el detalle que es importante, es que para mí los más alarmistas están siendo precisamente los youtubers y prensa en general, no creo que epic este diciendo ninguna mentira solo hay que entender lo que estan diciendo
Sabes leer? Bueno veo que no, te lo pongo en grande porque veo que te falla la vista
estamos ante dos gráficas distintas, y no solo por que tengan distinta capacidad de memoria VRAM, sino que el modelo de 6 GB usa un silicio GP106 con 1280 CUDA Cores, 80 TMUs y 48 ROPs mientras que el modelo de 3 GB usa un silicio GP106 capado con 1152 CUDA Cores, 72 TMUs y 48 ROPs, por lo que a Nvidia no le costaba nada llamarla GeForce GTX 1060 SE/LE para diferenciarla de un modelo que quieran o no, es diferente en muchos aspectos y ofrece un rendimiento distinto.
La 1060 3gb y la de 6gb, las que has enlazado tu NO LLEVAN EL MISMO CHIP , por eso la diferencia de rendimiento, no por la cantidad de VRAM
Te lo pongo abreviado porque veo que si me extiendo no te llega la neurona para entenderlo
Nomada_Firefox escribió:vinzenzo34 escribió:se defiende mejor que 3060 ti y 3070 pero claro a unos fps muy cortos.
Aunque tu comentario total lo veo acertado. Esto es un poco falso porque las pones a 1080p, a tope de detalle, todas las opciones graficas, incluso usando el DLSS y las diferencias no son tan grandes, simplemente nimias pero con mejor suavidad que viene a ser tu comentario total.Anoche e jugue al plague requiem y lo puse en alto me sobraban 2 gigas de vram y iba fenomenal como mucho bajaba a 55 fps en las zonas de mas gente. Que funciene este asi y the last of us no... es un claro ejemplo de dejadez
Si funcionan suaves de movimiento, comodos, funcionan bien. No se porque habria que esperar que funcionaran a más fps y estables cuando las consolas funcionan a 30fps y 60fps todo lo más. The Last of Us es un juego hecho para la PS5, que lo sacaran en PC, vale, pero fue hecho para una maquina que solo pedia 30fps, ni un gramo más a resoluciones que tenian que ser altas, de pantalla de TV, asi que yo no entiendo como se puede ni imaginar que los creadores iban a rehacer todo el juego para que estando en el PC aprovechara toda la potencia.
Aún asi hay titulos y titulos. No todos se hacen pensando más en la consola o solo en ella.
FranciscoVG escribió:ditifet escribió:FranciscoVG escribió:
Para ti no va, lo pongo como ejemplo por si alguien tiene la misma duda pero no va para ti por eso no te cito, contigo ya se que es perder el tiempo por eso ni me molesto te lo digo como aviso para la proxima
No hay más que ver tus ejemplos, me pones un link donde en el primer párrafo pone que ambas usan el mismo chip para luego intentar convencerme que no con una imagen sacada a saber donde, pero luego encima pones otro link con un enlace al clásico video clickbait de las barritas que hemos dicho en este foro mil veces que no valen para nada, además genio si dos gráficas de la misma arquitectura con un rendimiento de diferencia de 5-7% con el tiempo la diferencia literalmente se multiplica ¿a que crees que puede ser debido?
Cuando quiera que alguien manipule lo que digo y no le importe engañar para quedar por encima de los demás te aviso crack, un saludo
@vinzenzo34
Y quien esta siendo alarmista? Por qué yo desde luego no decir que si puede perjudicar no es decir que tu gpu no vale para nada, insisto en el detalle que es importante, es que para mí los más alarmistas están siendo precisamente los youtubers y prensa en general, no creo que epic este diciendo ninguna mentira solo hay que entender lo que estan diciendo
Sabes leer? Bueno veo que no, te lo pongo en grande porque veo que te falla la vista
estamos ante dos gráficas distintas, y no solo por que tengan distinta capacidad de memoria VRAM, sino que el modelo de 6 GB usa un silicio GP106 con 1280 CUDA Cores, 80 TMUs y 48 ROPs mientras que el modelo de 3 GB usa un silicio GP106 capado con 1152 CUDA Cores, 72 TMUs y 48 ROPs, por lo que a Nvidia no le costaba nada llamarla GeForce GTX 1060 SE/LE para diferenciarla de un modelo que quieran o no, es diferente en muchos aspectos y ofrece un rendimiento distinto.
La 1060 3gb y la de 6gb, las que has enlazado tu NO LLEVAN EL MISMO CHIP , por eso la diferencia de rendimiento, no por la cantidad de VRAM
Te lo pongo abreviado porque veo que si me extiendo no te llega la neurona para entenderlo
A ver genio si dos gpu usan el mismo silicio es por que son el mismo chip, y ahi te lo dice claro ambas son el GP106, una cosa es que sean iguales y otra que el chip sea el mismo, los chips son iguales la diferencia es que la de 3gb esta un poco recortado
Pero es que eso es lo de menos la cosa es la estupidez de argumento que te has buscado, cualquier persona racional ve imagenes como estas:
Y entiende que eso es por culpa de la vram, habiendo casos incluso de no poder ejecutarse por lo mismo, pero no, tu nos quieres vender que eso pasa por que la de 3gb tiene 100 CUDAs menos que la otra, y el listo eres tu...
Veo que sigues con lo mismo, con argumentos sin sentido para intentar demostrar lo que te interesa, manipulando y mintiendo si es necesario, y con el mismo respeto de siempre, la vida sigue igual por lo que veo xd
parh escribió:pero alguien en PC sigue jugando a la obsoleta resolucion de 1080p? para eso mejor comoprarse una PS5/SERIES X y ahorrar dinero y dolores de cabeza
Gnoblis escribió:pero alguien en PC sigue jugando a la obsoleta resolucion de 1080p? para eso mejor comoprarse una PS5/SERIES X y ahorrar dinero y dolores de cabeza
parh escribió:Nomada_Firefox escribió:vinzenzo34 escribió:se defiende mejor que 3060 ti y 3070 pero claro a unos fps muy cortos.
Aunque tu comentario total lo veo acertado. Esto es un poco falso porque las pones a 1080p, a tope de detalle, todas las opciones graficas, incluso usando el DLSS y las diferencias no son tan grandes, simplemente nimias pero con mejor suavidad que viene a ser tu comentario total.Anoche e jugue al plague requiem y lo puse en alto me sobraban 2 gigas de vram y iba fenomenal como mucho bajaba a 55 fps en las zonas de mas gente. Que funciene este asi y the last of us no... es un claro ejemplo de dejadez
Si funcionan suaves de movimiento, comodos, funcionan bien. No se porque habria que esperar que funcionaran a más fps y estables cuando las consolas funcionan a 30fps y 60fps todo lo más. The Last of Us es un juego hecho para la PS5, que lo sacaran en PC, vale, pero fue hecho para una maquina que solo pedia 30fps, ni un gramo más a resoluciones que tenian que ser altas, de pantalla de TV, asi que yo no entiendo como se puede ni imaginar que los creadores iban a rehacer todo el juego para que estando en el PC aprovechara toda la potencia.
Aún asi hay titulos y titulos. No todos se hacen pensando más en la consola o solo en ella.
pero alguien en PC sigue jugando a la obsoleta resolucion de 1080p? para eso mejor comoprarse una PS5/SERIES X y ahorrar dinero y dolores de cabeza
joakylla escribió:Epic games diciendo lo que le piden los fabricantes que diga. Nada nuevo.
Putoskizzo escribió:Menuda chorrada, eso será para los que necesitan poner todas las settings a la derecha, se baja la calidad de las texturas y listo. Los desarrolladores no se van a pegar un tiro en el pie haciendo que su juego solo funcione bien en un 10% de los ordenadores del mercado
Nomada_Firefox escribió:Putoskizzo escribió:Menuda chorrada, eso será para los que necesitan poner todas las settings a la derecha, se baja la calidad de las texturas y listo. Los desarrolladores no se van a pegar un tiro en el pie haciendo que su juego solo funcione bien en un 10% de los ordenadores del mercado
Evidentemente pero......... viene la pregunta ¿gastarias 600/700€ en una grafica para tener que bajar el detalle en un juego? y no hablamos de dentro de años, ahora mismo te puede suceder.
Nomada_Firefox escribió:Putoskizzo escribió:Menuda chorrada, eso será para los que necesitan poner todas las settings a la derecha, se baja la calidad de las texturas y listo. Los desarrolladores no se van a pegar un tiro en el pie haciendo que su juego solo funcione bien en un 10% de los ordenadores del mercado
Evidentemente pero......... viene la pregunta ¿gastarias 600/700€ en una grafica para tener que bajar el detalle en un juego? y no hablamos de dentro de años, ahora mismo te puede suceder.