[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

eR_pOty está baneado por "GAME OVER"
Dfx escribió:
eR_pOty escribió:Para mi no compiten en absoluto, AMD esta 2 pasos/generaciones por detras de Nvidia mientras no tenga hardware dedicado para raytracing y el otro paso es que el FSR es un arma de doble filo que lo unico que hace es beneficiar a los usuarios que compren una nvidia mientras que el DLSS no beneficia a los usuarios de amd (y ya no entro en si uno es muchisimo mejor que el otro)


AMD tiene unidades dedicadas Ray Accelerator por cada CU, igual que NVIDIA tiene sus núcleos RT por cada SM. Lo que no tiene AMD son Tensors.

Yo mismo he dicho que el acercamiento de AMD con los Ray Accelerator ha sido tímido para ser la primera generación, pero aún así, bueno, han dado resultado. De todas maneras NVIDIA también viene quedándose corta en unidades RT, así que si estamos a dos generaciones por detrás es de una aplicación del Ray Tracing fluida y efectiva.

Emmmm No. no es lo mismo ni por asomo ,ni el ray acelerator es hard dedicado... ni por asomo... La mayor diferencia inmediatamente obvia al comparar los nucleos RT y los rayacelarators es que mientras que ambos realizan sus funciones de manera bastante similar, los núcleos RT son núcleos de hardware separados dedicados que tienen una funcion singular, mientras que los aceleradores de rayos son parte de la estructura de unidad de computación estándar en la arquitectura RDNA 2 incorporados en el diseño de unidad de computo (Compute Unit Design), ideados para incrementar la eficiencia de los CUs a la hora de enfrentarse a cargas de trabajo derivadas de Ray Tracing.. No solo eso, los RT Cores de Nvidia están en su segunda generación con Ampere con muchas mejoras técnicas y arquitectónicas bajo el capó. Esto hace que la implementación rt core de Nvidia sea un método de trazado de rayos mucho más eficiente y potente que la implementación de AMD con los rayacelerators


resumiendo, amd usa una solucion en la propia unidad de computo haciendo uso de su arquitectura , mientras que los rt core son NUCLEOS DEDICADOS especificamente para raytracing, resumiendo aun mas, lo de AMD es una ñapa y no responde a lo que yo estaba diciendo de hardware dedicado.

Lo que no se puede pretender es que AMD se ponga a la altura de Nvidia que lleva 10 años trabajando en implementar el raytracing porque por mas que se empeñe alguno en hacer comparaciones aun le falta muchisimo camino a nvidia, pero es que AMD aun no esta ni en la parrilla de salida... mientras que nvidia ya le ha dado unas cuantas vueltas.


@ViRuSz touché, claro que no se ponen a esas temperaturas, si precisamente los que se quedan del T.juction adivina quienes suelen ser SIEMPRE... si .. mineros , mientras que a los que jugamos nos cojen 30 grados menos.. porque sera? luego te los ves mintiendo que minar no es malo para la gpu, que la culpa es de nvidia por meter gddr6X [qmparto]
Me leí toda la discusión.. y los argumentos dados, y en la generación actual la verdad es que si hablamos netamente de gaming pues la verdad la que este mas barata y de para aprovechar el monitor que tengamos PERO............ si hay algo que no tienen las graficas de AMD y que lo echo de menos es algo como NVIDIA BROADCAST algo tan utili si en juegas en linea con mas compañeros donde lo pones y no jode el ruido que tu o tus compañeros generen y solo se escuche la voz... o que tengas un Reunión por videoconferencia y puedas quitar el fondo solo con un click, no se a ustedes pero a mi eso me parece super útil y creo que actualmente es lo único que le falta a las graficas de AMD

y ya como apunte personal me parece que lo propuesto por AMD en esta generación tira mas como a hacer mas con menos hardware haciendo un uso mas eficiente de las capacidades de este.. mientras que NVIDIA me suena que va mas a dar fuerza bruta.. que yo no veo mal ninguna de las 2 y al final ambas dan opciones mas que suficientes para una experiencia de juego muy buena
PepeC12 escribió:
Asran escribió:Ultimo mensaje que dejo aqui, mientras haya lameculos de una sola marca en concreto los que perdemos somos nosotros los consumidores la serie 3000 no son malas graficas pero en algunos modelos han patinado y hay que reconocerlo, sino nos mean en la boca y nos lo tragamos tan ricamente, que tenga que abrir mi 3080ti porque las memorias se ponen a 110 grados y hagan thermal throttling es muy normal, espera pero como tienen mejor rtx tecnologia que esta implementada en el 1% de los juegos del mercado y me ofrecen una tecnologia de reescalado por IA ya esta puedo estar contento.
La generacion pasada no toque una sola grafica de amd, tuve una rtx 2060, esta generacion tengo una 6800 y le di la oportunidad a la 3080ti y me quedo con la 6800 de calle, menos ruido, mucho menos consumo, no hay que abrirla por posibles temperaturas excesivas de la Vram, sin usar tecnicas de reescalado pierdo 20 fps a lo sumo depende del juego en algunos incluso le gana a la 3080ti y vale exactamente la mitad de dinero.
https://hardzone.es/noticias/tarjetas-g ... ermal-pad/


No merece la pena discutir con fanaticos, no vas a cambiarles de opinion.

Que cada uno haga lo que quiera, tampoco es que haya stock ni precios competentes en ningun sitio.

Yo desde luego tengo claro que iria a por una 6800 o 6800 xt por encima de las nvidia, por consumo y vram simplemente, pero porque el RT no me llama la atencion, prefiero apostar por FSR antes que DLSS y suelo alargar mucho la vida de las graficas por lo que la vram creo que va ser importante.

Al final parece que Nvidia y Amd han hecho un pacto de no agresion porque basicamente ofrecen lo mismo por el mismo precio, son productos super parecidos por mas que nos empeñemos en que esta es mejor o no.


Yo ando siguiendo los comentarios y parece que coincidís en que la 6800 es más fresquita y con menor consumo, que en mi caso es lo que me importa, leo que son más silenciosas pero supongo que será normal si consumen menos, si también me interesa alargar la vida de la gráfica me recomendarías una 6800? me da igual lo del raytracing si te soy sincero, prefiero menor consumo y ruido por las noches. [beer]
@joanvicent

Yo diría que si, al nivel de la 6800 tienes tres opciones en nvidia, la 3070, 3070ti y 3080.

Lo más parecido en rendimiento es la 3070ti, pero amd tiene 16 gb de vram vs 8 de nvidia. Hoy puede valer con 8 pero estas muy en el límite.

Si pretendes que te dure más de 4 años yo veo mas seguro una 6800 ( por la vram más que nada).

Al final las dos marcas ofrecen el mismo rendimiento por el mismo precio más o menos.
@eR_pOty son dos acercamientos diferentes, pero si no usas RT ni tareas Tensor tienes hardware muerto de risa, mientras que integrado en el CU como una tarea adicional se va utilizando, no hablemos ya de las diferencias de tener integrado a tenerlo por separado en núcleos independientes, lo que supone latencias, etc...

En lo que tienes razón es que AMD no podía pretender superar a NVIDIA en su primera intentona, pero lo cierto es que AMD en su primer intento se ha quedado por encima de Turing con una GPU más eficiente y las diferencias a nivel de Ray Tracing quedan ya simplemente en el terreno de la potencia de procesar el efecto.

NVIDIA por su parte, y lo digo como poseedor de una RTX 3080, ha hecho sus núcleos RT más eficientes, pero los ha reducido en cantidad frente a Turing, probablemente reservando la jugada para Ada de aumentar el número y ganar rendimiento.

Pero vamos, a estas alturas decir que AMD está dos generaciones por detrás, es mentir vilmente, cuando RDNA 2 está demostrando potencial allí donde se integra.
Sobre la cantidad de vram y que envejecera peor la tarjeta que menos vram tenga lo llevo escuchandolo desde que me interese por el mundo de la informatica hace mas de 15 años, y siempre, siempre, una grafica se queda anticuada por la potencia grafica del chip que por el tamaño de su vram. Cuando una 3070/6800 se quede corta para jugar a ciertos juegos, no sera porque se sature sus memorias. Ademas, no es lo mismo la vram de una 3070-3080 que una 1080ti con 11gb, el bus es muchisimo mayor y con menos hacen mucho mas.
Por lo menos no estáis discutiendo por la escasez, es bueno ver eso de "Mi gpu es la mejo!", yo aún sigo sin gpu :(
eR_pOty está baneado por "GAME OVER"
@Dfx Ten en cuenta que Nvidia está trabajando con una litrografia mayor que AMD y aun así le está dando muy duramente la batalla en potencia de cómputo por lo que el mérito es muy grande

Con esto que te quiero decir? Que Nvidia en la próxima gen va a usar la misma litrografia que AMD y se van a quedar muy pero que muy atrás estás gráficas. La única escusa será la VRAM o algo que se inventen por donde atacar

Es básicamente lo mismo que con los 14nm++++ de Intel... Si si. Muucha risa los de AMD pero con una litrografia mayor compite perfectamente con los 7nm.

En cuanto tsmc libere obleas y carga de trabajo de Apple van a haber muchos escollos en siguientes generaciones de manos de los fans más aferrimos de la compañía roja
@eR_pOty Las opiniones son como todo, NVIDIA ha utilizado los 8nm de Samsung porque le salía más barato, que no es un nodo mucho peor que el de 7nm de TSMC, pero si menos eficiente en cuanto a chips funcionales.

AMD no tiene porque poner excusas ningunas, a excepción de la baja entrega de GPU de sobremesa. Tiene CPU competentes y está alimentando las consolas de la pasada, y de la nueva generación, mientras que a NVIDIA ni se le consulta.

En cuanto a Intel, se le han comido la tostada con MCM y meterse con big.LITTLE no parece muy tentador para los entusiastas.
colado escribió:Sobre la cantidad de vram y que envejecera peor la tarjeta que menos vram tenga lo llevo escuchandolo desde que me interese por el mundo de la informatica hace mas de 15 años, y siempre, siempre, una grafica se queda anticuada por la potencia grafica del chip que por el tamaño de su vram. Cuando una 3070/6800 se quede corta para jugar a ciertos juegos, no sera porque se sature sus memorias. Ademas, no es lo mismo la vram de una 3070-3080 que una 1080ti con 11gb, el bus es muchisimo mayor y con menos hacen mucho mas.


yo creo que al final es una tonteria fijarse en la vram, mientras el equipo este compensado con cantidad decente de ram normal y discos ssd, el juego tirará de esa ram o de memoria virtual.

Tengo una 3080 de 10gigas, y me he puesto hace unos dias con resident evil village,, todo a tope, jugando a 2k, escala de resolucion aumentada... me detecta en la gráfica 9 gigas y pico,, y el medidor de uso de vram en "rojo" , y marcando 12gigas y pico de vram....

El juego va como la seda [+risas]
neox3 escribió:
colado escribió:Sobre la cantidad de vram y que envejecera peor la tarjeta que menos vram tenga lo llevo escuchandolo desde que me interese por el mundo de la informatica hace mas de 15 años, y siempre, siempre, una grafica se queda anticuada por la potencia grafica del chip que por el tamaño de su vram. Cuando una 3070/6800 se quede corta para jugar a ciertos juegos, no sera porque se sature sus memorias. Ademas, no es lo mismo la vram de una 3070-3080 que una 1080ti con 11gb, el bus es muchisimo mayor y con menos hacen mucho mas.


yo creo que al final es una tonteria fijarse en la vram, mientras el equipo este compensado con cantidad decente de ram normal y discos ssd, el juego tirará de esa ram o de memoria virtual.

Tengo una 3080 de 10gigas, y me he puesto hace unos dias con resident evil village,, todo a tope, jugando a 2k, escala de resolucion aumentada... me detecta en la gráfica 9 gigas y pico,, y el medidor de uso de vram en "rojo" , y marcando 12gigas y pico de vram....

El juego va como la seda [+risas]


A ver, el caso de RE suele ser diferente porque el medidor de uso de VRAM no es real. Al menos en RE2/RE3 y sospecho que en el Village será igual. Si realmente necesitaras 12GB de VRAM el juego te iría a tirón limpio. De hecho en RE2 es lo contrario, se aconsejaba superar el límite de VRAM en las opciones porque era mas bien una caché de texturas.

Seguramente si usas programas para medir el uso no estará usando la vram completa. De hecho creo que solo hay un par de juegos en el mercado que se atragantan un poco pero con 8GB de VRAM y tú GPU tiene 10.

Lo que quiero decir es que una tontería ya te digo yo que no va a ser. Otro asunto es que sea algo inasumible ni nada parecido, pero al menos en mi experiencia, más vale quedarte corto de gráfica que de VRAM. Solo hay que ver las gráficas de 2013-2014-2015, que modelos con potencia similar las de 2GB se mueren y las de 4GB aguantan muchísimo mejor el tipo.

Importante en mi opinión es.
eR_pOty está baneado por "GAME OVER"
colado escribió:Sobre la cantidad de vram y que envejecera peor la tarjeta que menos vram tenga lo llevo escuchandolo desde que me interese por el mundo de la informatica hace mas de 15 años, y siempre, siempre, una grafica se queda anticuada por la potencia grafica del chip que por el tamaño de su vram. Cuando una 3070/6800 se quede corta para jugar a ciertos juegos, no sera porque se sature sus memorias. Ademas, no es lo mismo la vram de una 3070-3080 que una 1080ti con 11gb, el bus es muchisimo mayor y con menos hacen mucho mas.

totalmente, la 1060 de 3gb se moria con los juegos de hoy en dia saltandome una generacion y ya te digo que la de 6gb se hubiera muerto igual.

por lo que en cuanto salga la nueva gen la serie 3000 se va a la venta ipsofacta, ademas asi no se le pierde valor que las graficas en cuanto las dejas pasar 2 generaciones se devaluan muchisimo

no me quiero imaginar la gente que pretende aguantar 4-6 años con la misma grafica solo porque tiene VRAM para 10 años mas... [facepalm]
katatsumuri escribió:Por lo menos no estáis discutiendo por la escasez, es bueno ver eso de "Mi gpu es la mejo!", yo aún sigo sin gpu :(

Y mejor que no, todavía falta muchísimo, hoy mismo ha dicho nvidia que va a seguir igual durante la gran mayoría del 2022, y como le pase algo a Taiwán con todos los líos que se están montando ya si que nos vamos a reír.

https://www.pcmag.com/news/nvidia-gpu-s ... ty-of-2022
Hegolan escribió:
katatsumuri escribió:Por lo menos no estáis discutiendo por la escasez, es bueno ver eso de "Mi gpu es la mejo!", yo aún sigo sin gpu :(

Y mejor que no, todavía falta muchísimo, hoy mismo ha dicho nvidia que va a seguir igual durante la gran mayoría del 2022, y como le pase algo a Taiwán con todos los líos que se están montando ya si que nos vamos a reír.

https://www.pcmag.com/news/nvidia-gpu-s ... ty-of-2022


Yo lo veo por el lado bueno, dicen que las siguientes generaciones vienen fuertes.

Los rumores por ejemplo a mi me tienen un poco loco eh, la Navi 21 tiene 5120 SPs, pues la navi 31 tendria 15360 SPs.

3 veces más, me parece una jodida burrada.

Si se cumplen los rumores la 6800xt en la generacion que viene seria gama baja :D
@PepeC12 Todos los años se dice lo mismo y luego el salto es pequeño en comparación xd
Cyborg_Ninja escribió:Lo que quiero decir es que una tontería ya te digo yo que no va a ser. Otro asunto es que sea algo inasumible ni nada parecido, pero al menos en mi experiencia, más vale quedarte corto de gráfica que de VRAM. Solo hay que ver las gráficas de 2013-2014-2015, que modelos con potencia similar las de 2GB se mueren y las de 4GB aguantan muchísimo mejor el tipo.

Importante en mi opinión es.


Bueno, si hablamos de tarjetas de 2014, voy a coger la mejor de aquella epoca contra las gama baja/media de 2 años despues, la 780ti con sus 3 gb de vram, rinde mas o menos igual que una 1050ti 4gb, pero si la comparamos con la 1060 3gb, la keppler sale perdiendo por bastante aun teniendo la misma cantidad de vram. Si la 780ti tuviese 10gb, el resultado seria el mismo.
Tener mas vram te hace envejecer mejor? Para mi no, porque dentro de 2,3 o 4 años tendras que bajar requisitos y resoluciones para que el chip grafico pueda con el juego, por lo que el consumo de vram disminuye.
Que hay 2 juegos que saturan con 8gb? Cuales? A que resolucion? Que de optimizados estan?
colado escribió:
Cyborg_Ninja escribió:Lo que quiero decir es que una tontería ya te digo yo que no va a ser. Otro asunto es que sea algo inasumible ni nada parecido, pero al menos en mi experiencia, más vale quedarte corto de gráfica que de VRAM. Solo hay que ver las gráficas de 2013-2014-2015, que modelos con potencia similar las de 2GB se mueren y las de 4GB aguantan muchísimo mejor el tipo.

Importante en mi opinión es.


Bueno, si hablamos de tarjetas de 2014, voy a coger la mejor de aquella epoca contra las gama baja/media de 2 años despues, la 780ti con sus 3 gb de vram, rinde mas o menos igual que una 1050ti 4gb, pero si la comparamos con la 1060 3gb, la keppler sale perdiendo por bastante aun teniendo la misma cantidad de vram. Si la 780ti tuviese 10gb, el resultado seria el mismo.
Tener mas vram te hace envejecer mejor? Para mi no, porque dentro de 2,3 o 4 años tendras que bajar requisitos y resoluciones para que el chip grafico pueda con el juego, por lo que el consumo de vram disminuye.
Que hay 2 juegos que saturan con 8gb? Cuales? A que resolucion? Que de optimizados estan?



Hombre ten en cuenta que la mayoria de juegos no pasaran de esa vram, y que en la media no vas a ver que esa grafica vaya mal, pero ponte a jugar a un juego que necesite más vram y estas vendido.

Ya hay algun juego que no te deja activar el maximo detalle en la 3070 por falta de vram (creo que era el Resident Evil VIII no?).

Ademas, eso que decis del rendimiento esta bien, pero tener en cuenta que tener texturas de alta calidad no afecta practicamente nada al rendimiento y si ocupa vram, por lo que una grafica que tenga más vram tendra que bajar detalles pero se notaran bastante menos que si tiene que bajar la calidad de las texturas.

Incluso aunque no se vea afectado en la media de fps muchas veces la falta de vram se nota en microtirones, debido a la paginacion de la vram, esto es el tipico comentario que se dice de este juego reserva 12gb pero no las usa realmente... puede que no o puede que si y no te estes percatando, porque sea una cache de texturas o algo asi y si solicita una textura pues tienes un microparon.

Ademas estamos hablando de graficas muy potentes, una 3070 es un buen bicho, podria aguantar muchisimo y va muy ajustada en vram, hay muchisimos juegos que rozan los 8gb de vram.

Es que ni la propia Nvidia es consistente, que sentido tiene tener una 3060 con 12gb y una 3070 con 8, no hay mas que ver otras generaciones 1060 3/6gb, 1070 8gb de ahi en adelante.

Pensarlo bien, la 3090 tiene 24 malditos gigas de vram (aqui si que se han pasado), pero es que no le veo ninguna coherencia a la cantidad de vram que monta nvidia en esta generación.

Te guste o no Amd ha puesto cantidades más coherentes de vram en sus graficas:
- 6800/6900 con 16gb, puede que sea algo más de lo necesario, pero es una gama alta y es coherente que sobre a que falte (sobretodo por el precio de los chips de vram)
- 6700xt con 12 gb, sabes que no se va quedar corta y es una grafica de más de 400€ que se dice pronto.
- 6600xt con 8gb lo veo tambien coherente para ser gama baja y estar orientada a 1080p.

Mucha gente parece que te estas metiendo con ellos por criticar productos de ciertas compañias, pero personalmente pienso que poco se le ha criticado a Nvidia en esta generación, hay que reconocer que son graficas potentes, tragonas como ellas solas y con escasa cantidad de vram. Comparas la gama 1000 con esta 3000 y vamos, la gama 1000 era muchisimo mejor producto que estas, de aqui a roma.

Luego el pensamiento general es que Nvidia tiene las graficas más potentes y mejores, porque tiene la grafica más potente (la 3090), cuando la realidad es que más alla de la 3080 el precio es desproporcionado por el rendimiento que obtienes y la diferencia de rendimiento entre la 6800xt y la 3080 es inapreciable.

Tambien os digo que como muchos de vosotros seguramente cambiareis las graficas en cuanto salga la gama 4000 os dara igual, pero yo personalmente que me gusta aguantar por lo menos 2 o 3 generaciones de graficas...
@PepeC12 yo no defiendo ni a nvidia ni amd. Tengo una 3070 porque es la que pude comprar gracias al magnifico stock que hay. Aunque si soy sincero, la que mas me gustaba de esfa gen era la 3080, pero de momento me es imposible comprarla a msrp.
Que preferiria que la 3070 tuviera 12gb de ram, por supuesto. Pero, como dije antes, ten en cuenta que la 3060 tiene un bus de memoria de 192bits y la 3070 es de 256, hay mas de 100 gbs de transmision de datos de diferencia, por eso la 3060 tiene mas memoria, para suplirlo.

Osea que es un juego, es el re viii, que no voy a poder poner al maximo por por tener menos ram? Un juego en el que con rtx la 3070 gana a una 6900xt? Un juego que poniendo con todo al maximo a 4k va a 70fps en una 3070 sin tirones y aun asi dices que completa la vram? Como te dije, no son todos gb de ram si no como la procese el chip.
Que mas vram hace envejecer mejor a una grafica, claro, cuanto algo tenga mas mejor, que es determinante? Para mi no, sigo diciendo que es el procesador grafico el que envejece, por mucha vram que le pongas.
Cyborg_Ninja escribió:
neox3 escribió:
colado escribió:Sobre la cantidad de vram y que envejecera peor la tarjeta que menos vram tenga lo llevo escuchandolo desde que me interese por el mundo de la informatica hace mas de 15 años, y siempre, siempre, una grafica se queda anticuada por la potencia grafica del chip que por el tamaño de su vram. Cuando una 3070/6800 se quede corta para jugar a ciertos juegos, no sera porque se sature sus memorias. Ademas, no es lo mismo la vram de una 3070-3080 que una 1080ti con 11gb, el bus es muchisimo mayor y con menos hacen mucho mas.


yo creo que al final es una tonteria fijarse en la vram, mientras el equipo este compensado con cantidad decente de ram normal y discos ssd, el juego tirará de esa ram o de memoria virtual.

Tengo una 3080 de 10gigas, y me he puesto hace unos dias con resident evil village,, todo a tope, jugando a 2k, escala de resolucion aumentada... me detecta en la gráfica 9 gigas y pico,, y el medidor de uso de vram en "rojo" , y marcando 12gigas y pico de vram....

El juego va como la seda [+risas]


A ver, el caso de RE suele ser diferente porque el medidor de uso de VRAM no es real. Al menos en RE2/RE3 y sospecho que en el Village será igual. Si realmente necesitaras 12GB de VRAM el juego te iría a tirón limpio. De hecho en RE2 es lo contrario, se aconsejaba superar el límite de VRAM en las opciones porque era mas bien una caché de texturas.

Seguramente si usas programas para medir el uso no estará usando la vram completa. De hecho creo que solo hay un par de juegos en el mercado que se atragantan un poco pero con 8GB de VRAM y tú GPU tiene 10.

Lo que quiero decir es que una tontería ya te digo yo que no va a ser. Otro asunto es que sea algo inasumible ni nada parecido, pero al menos en mi experiencia, más vale quedarte corto de gráfica que de VRAM. Solo hay que ver las gráficas de 2013-2014-2015, que modelos con potencia similar las de 2GB se mueren y las de 4GB aguantan muchísimo mejor el tipo.

Importante en mi opinión es.


Exacto, los que opinan que no es tan importante la cantidad de ram porque la potencia de la gpu ya se va a ver comprometida y no vas a poder jugar es porque quieren conservar detalles gráficos altos.
En mi caso que prefiero jugar a 25fps, o 20fps, que no jugar a nada, me interesa estirar más la vida de la tarjeta gráfica, tengo por casa una HD5770 de 1GB que no puedo usar porque el juego al que quiere jugar el nano pide 2GB, ¿que se verá como el culo, o que le irá a 15fps? pues igual sí, pero es la diferencia entre tenerla tirada en un cajón y tener que buscar una gpu o al menos poder ejecutar el juego.
Creo que lo mismo podría verse en juegos que con 2GB se han quedado cortos y necesitarían 4GB, también es cierto que no creo que estos problemas en tarjetas viejunas se den ahora porque al menos con cantidades de 6, 8gb, etc podrías bajar resolución y tener así un menor requerimiento de vram.
Pero prefiero en mi caso también quedarme corto de gpu que de vram, entre dos tarjetas con una diferencia de potencia de un 15-20% pero contando la más lenta con un 25% más de VRAM... me quedo con la de más memoria XD [beer] en todo caso es sólo una opinión personal.
Aunque a mí tampoco me gusta cómo han asignado la RAM en la serie 3000 (o poca o demasiada), también es verdad que en unos meses tendremos (los que puedan) Direct Storage y quizás sí que es verdad que no hacía falta tanta VRAM:
https://hardzone.es/noticias/componente ... cie-gen-3/

Desde luego con tanto cambio pendiente por venir (Direct Storage quizás a medias en Windows 10, TPM 2.0 para Windows 11...) y tantas cosas en el aire aún no veo el momento de montar un nuevo PC.
PepeC12 escribió:@joanvicent

Yo diría que si, al nivel de la 6800 tienes tres opciones en nvidia, la 3070, 3070ti y 3080.

Lo más parecido en rendimiento es la 3070ti, pero amd tiene 16 gb de vram vs 8 de nvidia. Hoy puede valer con 8 pero estas muy en el límite.

Si pretendes que te dure más de 4 años yo veo mas seguro una 6800 ( por la vram más que nada).

Al final las dos marcas ofrecen el mismo rendimiento por el mismo precio más o menos.


Yo creo sinceramente que estais pecando un poco,entiendo lo de los modelos FE pero que no es asi en todos los casos,no lo digo por defender nvidia simplemente como dato añadido.

Ya comente que en mi caso tengo una 3080ti ftw3 con undervolt en 1800mhz a 800mv(si podria darle bastante mas caña) y con 80-90W de consumo ahorrado, el nucleo se mueve entre entre 60-70 grados normalmente por debajo de los 70,en rdr2 maximo unos 67 y si acaso 68,ayer me llego a 71 en un momento que no tenia aire acondicionado puesto en metro exodus enhanced edition,depende el % uso de gpu,los ventiladores de la grafica al 70% y con ventiladores añadidos en una torre que sinceramente no es nada del otro mundo una nzxt 710i

La temperatura tjunction que solo comprobe una ocasion y debo ponerme a monitoreala en rdr2 al 98% de uso de gpu alcanzaba 81 grados no los 100 de las FE,que aun asi me gustaria ver una temperatura de 72 maximo? en el chip de memoria que alcance mas temperatura y menor en el resto,seria lo ideal con cierto margen respecto a la temperatura maxima de operacion.

almenos en la 3080ti que es lo que yo he mirado en otro modelo de msi en una review era un rollo similar a lo que comento,ya vi la necesidad de comprar una grafica con refrigeracion liquida integrado porque que un nucleo teniendo la grafica sacada de la caja alcance 80 grados es...,la memoria ram va aparte y eso lo entiendo porque deberia ser un bloque de RL que disipase no solo el nucleo tambien la memoria pero para eso hace falta refrigeracion custom y es bastante mas pasta,sacada de la caja la mia son 400w y hasta 80 grados,una locura,pero si la afinas tienes otro escenario que igualmente como digo se ve la necesidad de RL.

@colado

Sobre lo que comentas de necesidad de vram,a ver siempre van a sacar juegos mas exigentes y en algun momento se pedira mas pero actualmente basado en mi experiencia tanto con una 2080ti como con una 3080ti el unico caso donde vi que demandaba mas ram es en re2 remake y re3 remake porque se le puede subir la barra de % de escalado en el juego,aparece una imagen de muestra cutre y pequeña y parece que subiendola un poco mejora algo pero igual la diferencia es minima pero creo que el juego ganaba definicion,en la misma ventana de configuracion grafica ves el consumo de vram que va subiendo al igual que en GTAV si no recuerdo mal,aun asi yo lo dejaba al 100% la barra de escalado que eso significa la resolucion original de mi monitor sin escalado y creo que fue en re3 remake no pude poner todas las opciones graficas totalmente al maximo porque me pasaba de vram,en algun filtro concreto ya no me acuerdo bien.

Pero vamos en todo lo demas perfecto.
Como veis una gigabyte 3070 ti por 820 euros? Nueva en tienda
ReinRaus escribió:Como veis una gigabyte 3070 ti por 820 euros? Nueva en tienda

Que modelo de gigabyte? Ten en cuenta que la fe esta a 629€, si es una aorus no esta del todo mal de precio
ReinRaus escribió:Como veis una gigabyte 3070 ti por 820 euros? Nueva en tienda


Yo en gpus no compraría nunca ni gygabite ni zotac. Por ese precio buscaría una msi.
Para encontrarlas a buen precio qué hacéis? Existen grupos/bots de Telegram?
Laguna_I escribió:Para encontrarlas a buen precio qué hacéis? Existen grupos/bots de Telegram?

Yo me metí un bot de telegram que se llama FE PartAlert y pude pillar una gráfica hace poco, creo que el enlace es este: https://t.me/joinchat/AAAAAEii3xT81U1A6tLjrQ , pero ojo que solo avisa de gráficas versión founders, nada de otros ensambladores. En mi caso, en mi torre que es pequeña solo me cabía una founders.
Tambien está este hilo:
hilo_hilo-oficial-compras-y-reservas-rtx-3000-bot-grupo-telegram-en-1er-post_2396651
Laguna_I escribió:Para encontrarlas a buen precio qué hacéis? Existen grupos/bots de Telegram?


Yo pille una 3080 ti Kfa2 SG en coolmod por 1199€, y fue a base de mirar y mirar diariamente hasta que dio la casualidad de que la pude comprar, y debo decir que voló, con lo que si realmente quieres pillar algo, solo te queda mirar habitualmente y tener suerte de que no te quiten "los chollos" de las manos.
eR_pOty está baneado por "GAME OVER"
Laguna_I escribió:Para encontrarlas a buen precio qué hacéis?


Leerse el hilo y no preguntar lo mismo a cada pagina. Mano de santo [ok]
eR_pOty escribió:
Laguna_I escribió:Para encontrarlas a buen precio qué hacéis?


Leerse el hilo y no preguntar lo mismo a cada pagina. Mano de santo [ok]



Mejor eso a que esto sea como una batalla en plan 300 [+risas]

Estoy de coña,simplemente que me lo dejaste a huevo.
Después de cambiar los pads de la VRAM me he dado cuenta de una cosa, cuando la VRAM empieza a calentarse demasiado las rtx 3000 empiezan a bajar MHz del núcleo de la GPU para generar menos calor.

Ahora que tengo la VRAM más fresquita la gráfica tiene MHz más altos en el núcleo, no los baja porque la VRAM tiene temperaturas más bajas.

Edit: core con undervolt a 875mv y 1920mhz y ahora me va siempre a 1935mhz.
@the_aeon Las 3000 tienen un extra boost en la velocidad del núcleo, te meten entre 15 y 30Mhz extras al tope que le tienes asignado. Esto provoca que muchas veces en undervolt crashee al rato porque en X es estable pero X+15 no.
Por lo visto ya hay otro competidor al DLSS.

Este me ha sorprendido la verdad:

https://videocardz.com/newz/intel-xess- ... it-matures

Intel XeSS, se basa al igual que el DLSS en vectores de movimiento y redes de neuronas,

Utiliza instrucciones XMX o DP4a y es open source.
Vli escribió:@the_aeon Las 3000 tienen un extra boost en la velocidad del núcleo, te meten entre 15 y 30Mhz extras al tope que le tienes asignado. Esto provoca que muchas veces en undervolt crashee al rato porque en X es estable pero X+15 no.

Lo sé, pero antes me subía a 1935 MHz y a la que subía la temperatura bajaba a 1920 MHz, ahora no baja de 1935mhz nunca
¿De estas 3080 cuál os compraríais? (Al mismo precio las 3)

- Asus TUF Gaming OC
- MSI Gaming Z Trio
- Gigabyte Gaming OC
PepeC12 escribió:Por lo visto ya hay otro competidor al DLSS.

Este me ha sorprendido la verdad:

https://videocardz.com/newz/intel-xess- ... it-matures

Intel XeSS, se basa al igual que el DLSS en vectores de movimiento y redes de neuronas,

Utiliza instrucciones XMX o DP4a y es open source.


La competencia siempre es buena.
@LynX

La Gaming Trio.

A esta le puedes meter la Bios que te de la gana de cualquier otro modelo de 3080 y se la traga como una campeona, yo es el modelo que pille y el tiempo que la tuve contento estuve con ella.
ViRuSz escribió:Después de 1 hora jugando al Horizon con los ventiladores de la gráfica al 90%, he tenido estas temperaturas:

Imagen

Debo ser un suertudo por no tener 100 grados en las memorias como se dice por aquí.

El Horizon no es un buen ejemplo para mirar temperaturas de la memoria, juega al resident village o metro exodus y luego nos dices....
PepeC12 escribió:Por lo visto ya hay otro competidor al DLSS.

Este me ha sorprendido la verdad:

https://videocardz.com/newz/intel-xess- ... it-matures

Intel XeSS, se basa al igual que el DLSS en vectores de movimiento y redes de neuronas,

Utiliza instrucciones XMX o DP4a y es open source.

De hecho, Intel fichó hace un tiempo al dev principal del DLSS y RT de Nvidia, Anton Kaplanyan, así que ya sabes de quien sale XeSS.
LynX escribió:¿De estas 3080 cuál os compraríais? (Al mismo precio las 3)

- Asus TUF Gaming OC
- MSI Gaming Z Trio
- Gigabyte Gaming OC


Pues en el orden que las has puesto, elegiría la asus primero aunque la msi también es un buen modelo, la gigabyte ni me la planteo por encima de esas salvo que cueste bastante menos

En muchos sitios ponen a la tuf como el mejor modelo en cuanto a temperaturas, quitando claro modelos con refrigeración liquida
the_aeon escribió:El Horizon no es un buen ejemplo para mirar temperaturas de la memoria, juega al resident village o metro exodus y luego nos dices....

Tras media hora de Metro...

Imagen

El Resident Evil Village no lo tengo, así que...
eR_pOty está baneado por "GAME OVER"
Intel,Otro que se suma al súper sampling mediante redes neuronales. Y luego nos quieren vender la moto de que el futuro está mediante un reescalado por algoritmos y que el timo es el Deep learning porque no es Open sooooourceeeee

Emya.
LynX escribió:¿De estas 3080 cuál os compraríais? (Al mismo precio las 3)

- Asus TUF Gaming OC
- MSI Gaming Z Trio
- Gigabyte Gaming OC


La Tuf , las reviews la pusieron muy bien. La MSI también es buena opción, yo tengo la X trio y encantado , no se qué diferencia hay con respecto a la Z trio.
LynX escribió:¿De estas 3080 cuál os compraríais? (Al mismo precio las 3)

- Asus TUF Gaming OC
- MSI Gaming Z Trio
- Gigabyte Gaming OC

Yo tiraría por la Asus, creo que la ponían muy bien de temperaturas y tiene un tamaño más cometido.
ViRuSz escribió:
the_aeon escribió:El Horizon no es un buen ejemplo para mirar temperaturas de la memoria, juega al resident village o metro exodus y luego nos dices....

Tras media hora de Metro...

Imagen

El Resident Evil Village no lo tengo, así que...

Que modelo es? es una founders?
the_aeon escribió:
ViRuSz escribió:
the_aeon escribió:El Horizon no es un buen ejemplo para mirar temperaturas de la memoria, juega al resident village o metro exodus y luego nos dices....

Tras media hora de Metro...

Imagen

El Resident Evil Village no lo tengo, así que...

Que modelo es? es una founders?

Sí, es una founders, si pinchas en mi firma lo podrás ver.
De todas maneras, en la captura del Metro no se puede apreciar que el undervolt que uso con prácticamente cualquier juego, 1980MHz@0.900V, no funciona. Empieza a bajar frecuencias y acaba bajando incluso por debajo de los 1800MHz. La dejé con esa configuración para que se calentase la gráfica lo máximo posible, pero en el Metro lo más estable que he conseguido, ha sido 1830MHz@0.825V. Y con ese undervolt, no pasa de 67 grados el núcleo y 80 las memorias.
Todos los que andéis sin gráfica, atentos al bot de telegram hoy y el lunes a las 13:00/15:00/21:00, tengo un presentimiento fuerte.
Acabo de leer un mensaje en el foro que se merece un quote en toda regla:

"+1 Que yo vendi mi targeta 1080 a principios de año casi al precio que me costo nueva hace 4 años para tratar de pillar una 3070, pero nunca salio a pvp y mejor me pille PS5, esta si en 500 usd y asi seguire hasta que esto vuelva a la normalidad o me aviento toda la generacion en PS5, no pienso pagar esos precios."

Hace lo mismo timando a alguien y se queja de los precios?

Menuda picaresca,me recuerda totalmente a los usuarios que fueron a vender corriendo sus 2080ti intentando piyar al incauto por banda,yo tenia una y no hice eso y seguro mas de uno palmo pasta malvendiendo su grafica.

Luego nos quejamos de los precios y no es justificable que pase esto y no todo el mundo es igual obviamente pero tambien hay especimenes de este palo.
Jorginhone escribió:Acabo de leer un mensaje en el foro que se merece un quote en toda regla:

"+1 Que yo vendi mi targeta 1080 a principios de año casi al precio que me costo nueva hace 4 años para tratar de pillar una 3070, pero nunca salio a pvp y mejor me pille PS5, esta si en 500 usd y asi seguire hasta que esto vuelva a la normalidad o me aviento toda la generacion en PS5, no pienso pagar esos precios."

Hace lo mismo timando a alguien y se queja de los precios?

Menuda picaresca,me recuerda totalmente a los usuarios que fueron a vender corriendo sus 2080ti intentando piyar al incauto por banda,yo tenia una y no hice eso y seguro mas de uno palmo pasta malvendiendo su grafica.

Luego nos quejamos de los precios y no es justificable que pase esto y no todo el mundo es igual obviamente pero tambien hay especimenes de este palo.


Sinceramente la culpa es del comprador, que parece que se pone una pistola en la cabeza para que compremos o algo.

Y realmente si vas a vender una grafica o cualquier producto, miras los precios que tienen esos productos en el mercado y pones el precio que te parece, luego el comprador decide si es un buen negocio o no.

Yo no le veo mayor problema, igual el que se la vendio esta minando como un campeon y ha rentabilizado el precio de largo.
@PepeC12

Desconozco el precio por el que la vendio o si fuera para minar,al final de su vida cuando se estaban desaciendo del stock de 1080ti valian alrededor de 500-650?

Igual razon no te falta,pero la intencion de timo y aprobechamiento para comprar un modelo mejor a costa de alguien es evidente,el comprador tiene culpa por desconocimiento tambien es verdad.
31123 respuestas