[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

¿Alguien es capaz de explicar por qué la RTX3070, una gráfica de 20 TF, el doble de RT Cores y el doble de Tensor Cores sólo es capaz de rendir igual que una RTX2080TI, una gráfica de 13,45 TF, la mitad de RT Cores y la mitad de Tensor Cores? ¿Y la RTX3080 de 29 TF que sólo rendirá alrededor de un 35% más? A ésta no la limita un pobre ancho de banda.

Me temo que los desarrolladores no modificarán su código para aprovechar el doble de CUDA Cores en el SM y lo que pensaba se ha cumplido, Ampere es una gama para salir del paso. Lo que Nvidia ha hecho bien, excelente, es dar una imagen de poderío que no tiene.


Edito: y es una jugada maestra presentar las gráficas dos semanas antes de su puesta a la venta.
elamos escribió:Ya vereis los precios de las 3080 de los diversos ensambladores, al final los precios van a ser casi los de siempre... El sistema de refrigeración que le meta el ensamblador X + el overclock + mas Vram + los leds y toda la mandanga se va una 3080 de los 719€ que cuesta la pelada a 850- 900 € o mas.

Poca gente se pilla una grafica de stock casi todo el mundo las compra ensambladas por otras marcas, ya sea por garantia, por ser mas cool o por cualquier otra historia.

Hombre eso es casi seguro el aumento de precio, pero lo que me atrae de las FE es que la mitad de la calor de la gráfica sale por detras, como si de un modelo antiguo de turbina se tratase, eso beneficia muchísimo a las temperaturas en genral.
Ahora de repente la serie 20XX es una basura. Cuánta envidia.
Juanatan escribió:Ahora de repente la serie 20XX es una basura. Cuánta envidia.

De repente no, lo eran desde el primer día..............pero no tenían competencia y eran la mejor opción.
Yo creo que voy a tirar por una 3080, estoy con la jodida de sólo 10 gb de VRAM, quizás se quede corta en un par de años... pero en rendimiento parece una bestia considerable. No obstante, sigo loco, porqué pensaba comprarme un monitor 2k 144 hz y ahora creo que debería plantearme un 4k... que decís?
Lemmiwinks escribió:
eldespertar escribió:Joder, es que además de destrozar precios y prestaciones respecto a la serie 2000 encima salen en nada, si aún tardasen unos meses en salir pues quizás aún se podrían revender un poco mejor las 2000
.
Es un puto desastre para las tiendas de informática que tengan stock y usuarios que quieran hacer un upgrade vendiendo su serie 2000.

Yo he puesto en segunda mano mi gtx1070 por 180€ en alemania (vivo aqui). He visto que todos la ponen a 230,pues yo 50 mas barato :D.
Ojala haya suerte jajajajaja. Me compraria la 3070 por 300pavis


No tendras problemas en venderla, yo vendi una 1070 g1 esta mañana por 190€.

Sobre la serie 30 yo la verdad es que quiero esperar a ver que saca amd y para mi la ideal sería una 3080ti con 16gb, seguramente me pueda el ansia y pille una 3080 a secas pero la veo muy corta la verdad y ese gap entre 3080 y 3090 da para una Ti en breve.
Yo soy de los que dudo entre la 3070 y la 3080, esta vez entre ellas va a haber mucha diferencia.
Esperar más no lo contemplo, es un bucle que nunca acaba y aquí sigo con la 970.
Esperando reviews a ver en qué queda todo esto.
Que tal es la garantía de Nvidia con sus FE, tienen una buena atención al cliente, años que cubren, son rápidos tramitando?
XsX escribió:¿Alguien es capaz de explicar por qué la RTX3070, una gráfica de 20 TF, el doble de RT Cores y el doble de Tensor Cores sólo es capaz de rendir igual que una RTX2080TI, una gráfica de 13,45 TF, la mitad de RT Cores y la mitad de Tensor Cores? ¿Y la RTX3080 de 29 TF que sólo rendirá alrededor de un 35% más? A ésta no la limita un pobre ancho de banda.

Me temo que los desarrolladores no modificarán su código para aprovechar el doble de CUDA Cores en el SM y lo que pensaba se ha cumplido, Ampere es una gama para salir del paso. Lo que Nvidia ha hecho bien, excelente, es dar una imagen de poderío que no tiene.


Edito: y es una jugada maestra presentar las gráficas dos semanas antes de su puesta a la venta.



No puedes comparar los Tflops de una arquitecutra a otra, y con Ampere menos, porque han doblado Cuda cores pero estos rinden menos que los de Turing, y cuanto rinde cada Cuda core no se tiene en cuenta para el calculo de los Tflops.
XsX escribió:¿Alguien es capaz de explicar por qué la RTX3070, una gráfica de 20 TF, el doble de RT Cores y el doble de Tensor Cores sólo es capaz de rendir igual que una RTX2080TI, una gráfica de 13,45 TF, la mitad de RT Cores y la mitad de Tensor Cores? ¿Y la RTX3080 de 29 TF que sólo rendirá alrededor de un 35% más? A ésta no la limita un pobre ancho de banda.

Me temo que los desarrolladores no modificarán su código para aprovechar el doble de CUDA Cores en el SM y lo que pensaba se ha cumplido, Ampere es una gama para salir del paso. Lo que Nvidia ha hecho bien, excelente, es dar una imagen de poderío que no tiene.


Edito: y es una jugada maestra presentar las gráficas dos semanas antes de su puesta a la venta.


por que el doble de transistores y de potencia bruta no se traduce directamente al doble de potencia "practica"... depende de cambios en arquitectura, software y factores varios

yo personalmente no diria que ampere es una gama para salir del paso, han mejorado considerablemente el rendimiento... turing fue mas bajonera por que introdujeron rtx, ampere esta mejorando en mucho lo introducido en turing

todo esto creyendonos lo visto en la conferencia... cuando veamos benchmarks reales a ver que pasa

jiujinkai escribió:Que tal es la garantía de Nvidia con sus FE, tienen una buena atención al cliente, años que cubren, son rápidos tramitando?

me uno a esta pregunta... estan muy muy interesantes las FE ampere
cunado se espera que salgan los primeros analisis y benchmarks?
Pues si yo fuera usuario de una 2080ti me la quedo hasta que salga fuego de ella. O realmente cuando vayan por la rtx 5000 y se note anticuada. Es la mejor forma de amortizarla y dormir tranquilo.

Por otro lado muy contento con Nvidia, llevo todo el año esperando a montarme un Pc y ha merecido claramente la pena, además podré montarlo teniendo en cuenta lo del pcie 4.0 y el ssd nvme, cosa que anteriormente no había que tenerlo tan en cuenta.
@Dracot el tema es que viendo lo cortas que parece que van de VRAM el RTX IO parece importante, sobre todo para los juegos que vienen de consolas (los nuevos claro)
JaviGabber escribió:Yo soy de los que dudo entre la 3070 y la 3080, esta vez entre ellas va a haber mucha diferencia.
Esperar más no lo contemplo, es un bucle que nunca acaba y aquí sigo con la 970.
Esperando reviews a ver en qué queda todo esto.


Como estamos ,muchos a la espera ver que tal los analisis,pruebas... Yo tengo i9700k 32MB, una 2080, fuente 850 y placa base MSi Z390, a ver si tengo que cambiar la placa base por el tema del PCle 4.0, que lio...jeje.
Lo dicho a esperar analisis y asesorarme bien jeje.

Saludos.
Se sabe cuando dirán el precio de las no Founder Edition? es decir, las Asus, MSI, KFA2, eVGA etc...
La duda que tengo es si el RTX IO sera solamente para PciE4 o servirá también para PciE3 (tengo una placa x470).
DaNi_0389 escribió:
rubee3n escribió:Hola chicos, con un ryzen 2600x 16gb ram creeis que me iría bien la 3070 con una fuente 550w plus platinum?
Recomiendan 650w... Y me joderia mucho tener que cambiarla.


La 3070 son 220W de TDP, no tendrías que tener problemas.
El 2600X es un mechero.



Donde más puede haber problemas es juntar una 3090/3080 con un Intel Cheese Lake con sus 8/10 cores a 5Ghz, ahí te puedes montar una buena barbacoa [qmparto]

@nomada_firefox
https://www.amazon.de/dp/B074N8YBK9/ref ... E_SCE_dp_1
Sería ésta. Tengo que estar seguro de que la soportará y bien, no quiero arriesgarme a joder todo mi equipo.

Y por otro lado, se sabe si se podrá usar en placas pci 3.0 y si al no ser 4.0 se perderá mucho rendimiento?
Sacado de Reddit xDDDD

"The new 3070 is a masterpiece"

Imagen


EDIT: un poquito mas de humor para empezar el dia.

Imagen

Imagen
Salu2!!
Esta tarde a las 16:00 MSI va hacer un evento especial, donde supongo que mostrara las nuevas graficas y el precio, o eso espero. [360º]
@KindapearHD

Compi, es eso, oferta y demanda, no hay más.

Con el inicio de la mineria se vendía la 1080 que a mi me valió 510€ (con un programa de retorno de 50€, vamos fueron 560 y al mes o por ahi me devolvieron 50), después las veía de segunda mano por 900 o 1000 €. Pero es que no habia en el. Mercado, no podías ir a la tienda a comprar una, de hecho incluso las tiendas se pusieron a especular.

Ahora les ha salido al revés. De hecho ya te digo que la gente se lanzó luego de cabeza a las series 20 por unos precios altísimos, con intención de lo uso y lo vendo casi al mismo precio que pague.

Que es una putada, pero es el reajuste del mercado.

De hecho a que precio vendían esos productos usados? Que devaluacion les habían marcado??

Mi 1080 tiene horas suficientes para que incluso si me diesen 50 o 100 euros por ella, realmente habría disfrutado de sobra los otros 400.

Yo tenía la esperanza de que fuese AMD que sacasen gráficas solo un poco peor que nvidia, pero a precios mucho más ajustados, me ha sorprendido de hecho que siendo nvidia (con legión de fanboys y encima a la cabeza) la que haya dinamitado sus precios... A lo mejor esta vez si ven peligro en los competidores.
Buenos días, poseo una 1080ti con un Ryzen 2700x y visto lo nuevo me plantearé comprar la 3080. Creéis que con el 2700x tendré cuello de botella? De fuente voy con EVGA 650w plus bronze, quizás se debería aumentar.
DaNi_0389 escribió:
XsX escribió:¿Alguien es capaz de explicar por qué la RTX3070, una gráfica de 20 TF, el doble de RT Cores y el doble de Tensor Cores sólo es capaz de rendir igual que una RTX2080TI, una gráfica de 13,45 TF, la mitad de RT Cores y la mitad de Tensor Cores? ¿Y la RTX3080 de 29 TF que sólo rendirá alrededor de un 35% más? A ésta no la limita un pobre ancho de banda.

Me temo que los desarrolladores no modificarán su código para aprovechar el doble de CUDA Cores en el SM y lo que pensaba se ha cumplido, Ampere es una gama para salir del paso. Lo que Nvidia ha hecho bien, excelente, es dar una imagen de poderío que no tiene.


Edito: y es una jugada maestra presentar las gráficas dos semanas antes de su puesta a la venta.



No puedes comparar los Tflops de una arquitecutra a otra, y con Ampere menos, porque han doblado Cuda cores pero estos rinden menos que los de Turing, y cuanto rinde cada Cuda core no se tiene en cuenta para el calculo de los Tflops.


wildchild_bcn escribió:
XsX escribió:¿Alguien es capaz de explicar por qué la RTX3070, una gráfica de 20 TF, el doble de RT Cores y el doble de Tensor Cores sólo es capaz de rendir igual que una RTX2080TI, una gráfica de 13,45 TF, la mitad de RT Cores y la mitad de Tensor Cores? ¿Y la RTX3080 de 29 TF que sólo rendirá alrededor de un 35% más? A ésta no la limita un pobre ancho de banda.

Me temo que los desarrolladores no modificarán su código para aprovechar el doble de CUDA Cores en el SM y lo que pensaba se ha cumplido, Ampere es una gama para salir del paso. Lo que Nvidia ha hecho bien, excelente, es dar una imagen de poderío que no tiene.


Edito: y es una jugada maestra presentar las gráficas dos semanas antes de su puesta a la venta.


por que el doble de transistores y de potencia bruta no se traduce directamente al doble de potencia "practica"... depende de cambios en arquitectura, software y factores varios

yo personalmente no diria que ampere es una gama para salir del paso, han mejorado considerablemente el rendimiento... turing fue mas bajonera por que introdujeron rtx, ampere esta mejorando en mucho lo introducido en turing

todo esto creyendonos lo visto en la conferencia... cuando veamos benchmarks reales a ver que pasa

Los CUDA Cores son iguales en Ampere y en Turing, pero al haber el doble en cada SM hace que la capacidad teórica se duplique y el rendimiento no. Vamos, que se quedarán inactivos a no ser que se cambie la forma de programar.

Nvidia aumenta un 270% la capacidad FP32 y se traduce en un aumento de sólo el 70% de rendimiento real en juegos seleccionados que se ejecutan razonablemente bien en la nueva arquitectura.

Para mi hubiera sido mejor dejar el SM tal cual, alcanzar frecuencias cercanas a los 2 GHz y doblar las cachés como decían los rumores. Eso sí habría sido un monstruo.
XsX escribió:
DaNi_0389 escribió:
XsX escribió:¿Alguien es capaz de explicar por qué la RTX3070, una gráfica de 20 TF, el doble de RT Cores y el doble de Tensor Cores sólo es capaz de rendir igual que una RTX2080TI, una gráfica de 13,45 TF, la mitad de RT Cores y la mitad de Tensor Cores? ¿Y la RTX3080 de 29 TF que sólo rendirá alrededor de un 35% más? A ésta no la limita un pobre ancho de banda.

Me temo que los desarrolladores no modificarán su código para aprovechar el doble de CUDA Cores en el SM y lo que pensaba se ha cumplido, Ampere es una gama para salir del paso. Lo que Nvidia ha hecho bien, excelente, es dar una imagen de poderío que no tiene.


Edito: y es una jugada maestra presentar las gráficas dos semanas antes de su puesta a la venta.



No puedes comparar los Tflops de una arquitecutra a otra, y con Ampere menos, porque han doblado Cuda cores pero estos rinden menos que los de Turing, y cuanto rinde cada Cuda core no se tiene en cuenta para el calculo de los Tflops.


wildchild_bcn escribió:
XsX escribió:¿Alguien es capaz de explicar por qué la RTX3070, una gráfica de 20 TF, el doble de RT Cores y el doble de Tensor Cores sólo es capaz de rendir igual que una RTX2080TI, una gráfica de 13,45 TF, la mitad de RT Cores y la mitad de Tensor Cores? ¿Y la RTX3080 de 29 TF que sólo rendirá alrededor de un 35% más? A ésta no la limita un pobre ancho de banda.

Me temo que los desarrolladores no modificarán su código para aprovechar el doble de CUDA Cores en el SM y lo que pensaba se ha cumplido, Ampere es una gama para salir del paso. Lo que Nvidia ha hecho bien, excelente, es dar una imagen de poderío que no tiene.


Edito: y es una jugada maestra presentar las gráficas dos semanas antes de su puesta a la venta.


por que el doble de transistores y de potencia bruta no se traduce directamente al doble de potencia "practica"... depende de cambios en arquitectura, software y factores varios

yo personalmente no diria que ampere es una gama para salir del paso, han mejorado considerablemente el rendimiento... turing fue mas bajonera por que introdujeron rtx, ampere esta mejorando en mucho lo introducido en turing

todo esto creyendonos lo visto en la conferencia... cuando veamos benchmarks reales a ver que pasa

Los CUDA Cores son iguales en Ampere y en Turing, pero al haber el doble en cada SM hace que la capacidad teórica se duplique y el rendimiento no. Vamos, que se quedarán inactivos a no ser que se cambie la forma de programar.

Nvidia aumenta un 270% la capacidad FP32 y se traduce en un aumento de sólo el 70% de rendimiento real en juegos seleccionados que se ejecutan razonablemente bien en la nueva arquitectura.

Para mi hubiera sido mejor dejar el SM tal cual, alcanzar frecuencias cercanas a los 2 GHz y doblar las cachés como decían los rumores. Eso sí habría sido un monstruo.


Además de lo que comentas no es que hayan doblado los Cuda Cores, han agregado unos ALU FP64 que teóricamente hacen 2 operaciones FP32 pero tengo mis dudas de que rindan el doble completamente. Tambien como comentas han paralelizado más dentro de las SM lo cual hace más compleja la gestion interna, también han agregado una caché L0 que seguro que ayuda bastante pero no sé si hasta el punto de redoblar el rendimiento para no estrangular la SM por memoria.

El software irá mejorando para aumentar el Uso de los SM y seguramente debido al OC las caches aumenten su rendimiento y las GPU escaleno bien con clocks.

Sin embargo no hay nada como un benchmarkt.
julenchu escribió:Buenos días,

Como veis mi placa y procesador (I7 7700k, msi z270) para la 3080/3070? Habra cuello de botella?

De fuente tengo una corsair 750w, gracias.

Alguna recomendación si tengo que cambiar algo?

A 2160 te iría bien, a 1440p te sobrara gráfica, y a 1080p es desperdiciar gráfica.
sergio1212 escribió:Esta tarde a las 16:00 MSI va hacer un evento especial, donde supongo que mostrara las nuevas graficas y el precio, o eso espero. [360º]


añado la url del stream:
https://www.youtube.com/watch?v=jfDqaDZ ... e=youtu.be

estaba en el email promocional de msi :P
xejo22 escribió:Yo creo que voy a tirar por una 3080, estoy con la jodida de sólo 10 gb de VRAM, quizás se quede corta en un par de años... pero en rendimiento parece una bestia considerable. No obstante, sigo loco, porqué pensaba comprarme un monitor 2k 144 hz y ahora creo que debería plantearme un 4k... que decís?


Que con uno 2k vas a poder jugar a 120 fps seguro y vas a aprovechar los hz del monitor y cuando los juegos sean demasiado tochos podras seguir jugando en ultra 60 fps sin despeinarte

En cambio con un monitor 4k no vas a notar mejora visual si no te pones a 50 cm del monitor y si no tienes otro monitor 2k con el que comparar la diferencia, ademas tu monitof no va a darte mas de 60 hz y los juegos mas tochos a medio plazo te veras obligado a renovar o a bajar graficos para mantener los 60..

Yo lo tengo claro no cambio mi 2k 165hz VA gsync por nada del mundo xD Miento, lo cambiaré cuando haya un 4k de iguales caracteristicas
Hola buenas a todos. Estoy pensando montarme un pc con una 3070. Yo queria meterle un Ryzen 5 3600, 16 gb, y 750 de fuente. La placa una 550. Como lo veis?. Edta equilibrado?. Muchas gracias.
xejo22 escribió:Yo creo que voy a tirar por una 3080, estoy con la jodida de sólo 10 gb de VRAM, quizás se quede corta en un par de años... pero en rendimiento parece una bestia considerable. No obstante, sigo loco, porqué pensaba comprarme un monitor 2k 144 hz y ahora creo que debería plantearme un 4k... que decís?


Que no xD

Si quieres los 144 estables, yo no me lo plantearía.

De hecho yo estoy en esa situación, con una 27GL850, y no se me ocurre subir de 1440p@144
Yo creo sinceramente que a pesar que es muy tentador, algo no me cuadra aquí. Yo no compraría tan rápido.

No me cuadra lo de las VRAM, sinceramente creo que como ya han puesto, no van a tardar mucho en sacar las Ti o Super con más VRAM y espero que con GDDR6X, porque esa filtración de Lenovo espero sea solo para ellos (OEM) pero que al público sea GDDR6X. Lo del pcie4.0 con nmve que sirva para ampliar RAM... quiero ver como rinde antes.

Tampoco me da confianza la subida tan "bruta" de potencia, temperatura y demás. Quiero ver tests y benchmarks. Sobretodo después de ver que los ensambladores no han podido probar aún las custom en condiciones y no sabemso ni que temperatura MAX aguanta, ni que OC se le puede hacer, ni que pasará con las memorias, ni si la refrigeración permite que la gráfica trabaje fresquita en condiciones normales o necesita mejor enfriamiento, etc etc...

A mi esto me huele a que nVidia saca esto para vender ahora con el hype antes que salga lo de AMD, que intuyo saben será algo a tener en cuenta. Creo que será entonces cuando ellos realmente presenten lo mejor... me huele a que AMD viene fuerte esta vez y no será tanto bluf como hasta ahora, yo si creo van a sacar algo con 16GB, GDDR6X y rendimiento similar a la 3080 por unos 600 (ya lo dije y me tacharon de... que ni de coña iba a costar menos de 650-700.. pues ya me dirás ahora si esos 600 euros es o no el precio adecuado...). Sinceramente creo que en Octubre AMD pondrá esos 16GB en una equivalente a la 3080 y obligará a nVidia a sacar las versiones Ti o Super por precios no muy diferentes a los de ahora... vamos que mucho me temo que los que compren ahora se van a quedar un poco "plof" como ocurrió con turing.

Creo que espera´re 1 mes o me pillaré una 1080Ti baratita para poder esperar un poquito más.
Eso de que la vram de la serie 3000 se va a quedar corta a que resolución estamos hablando? 4k? 2k? Por ejemplo yo solo quiero 75 fps a 2k, no me planteo en un futuro las 4k, no lo necesito, en ese caso se quedará corta?
Nowcry escribió:
XsX escribió:
DaNi_0389 escribió:

No puedes comparar los Tflops de una arquitecutra a otra, y con Ampere menos, porque han doblado Cuda cores pero estos rinden menos que los de Turing, y cuanto rinde cada Cuda core no se tiene en cuenta para el calculo de los Tflops.


wildchild_bcn escribió:
por que el doble de transistores y de potencia bruta no se traduce directamente al doble de potencia "practica"... depende de cambios en arquitectura, software y factores varios

yo personalmente no diria que ampere es una gama para salir del paso, han mejorado considerablemente el rendimiento... turing fue mas bajonera por que introdujeron rtx, ampere esta mejorando en mucho lo introducido en turing

todo esto creyendonos lo visto en la conferencia... cuando veamos benchmarks reales a ver que pasa

Los CUDA Cores son iguales en Ampere y en Turing, pero al haber el doble en cada SM hace que la capacidad teórica se duplique y el rendimiento no. Vamos, que se quedarán inactivos a no ser que se cambie la forma de programar.

Nvidia aumenta un 270% la capacidad FP32 y se traduce en un aumento de sólo el 70% de rendimiento real en juegos seleccionados que se ejecutan razonablemente bien en la nueva arquitectura.

Para mi hubiera sido mejor dejar el SM tal cual, alcanzar frecuencias cercanas a los 2 GHz y doblar las cachés como decían los rumores. Eso sí habría sido un monstruo.


Además de lo que comentas no es que hayan doblado los Cuda Cores, han agregado unos ALU FP64 que teóricamente hacen 2 operaciones FP32 pero tengo mis dudas de que rindan el doble completamente. Tambien como comentas han paralelizado más dentro de las SM lo cual hace más compleja la gestion interna, también han agregado una caché L0 que seguro que ayuda bastante pero no sé si hasta el punto de redoblar el rendimiento para no estrangular la SM por memoria.

El software irá mejorando para aumentar el Uso de los SM y seguramente debido al OC las caches aumenten su rendimiento y las GPU escaleno bien con clocks.

Sin embargo no hay nada como un benchmarkt.

No sé cuántas ALUs FP64 habrá, Nvidia habla claramente de CUDA Cores. Si cuenta una ALU FP64 como dos FP32, aunque en la práctica y con código optimizado sería igual (o casi), está engañando descaradamente y en USA demandarían a Nvidia sin pestañear.

En fin, descartadas todas las Ampere para una posible compra, no pinto nada en este hilo. Adios y sed muy felices.
junomap escribió:Buenos días, poseo una 1080ti con un Ryzen 2700x y visto lo nuevo me plantearé comprar la 3080. Creéis que con el 2700x tendré cuello de botella? De fuente voy con EVGA 650w plus bronze, quizás se debería aumentar.


Yo estoy como tu estoy valorando seriamente pilar la la 3080 con un Ryzen 2600X y una fuente corsair de 650W. Yo creo que por el consumo no vamos a tener problema por ahora pero cuando cambiemos el procesador quizás si.

Saludos
lucer1 escribió:
junomap escribió:Buenos días, poseo una 1080ti con un Ryzen 2700x y visto lo nuevo me plantearé comprar la 3080. Creéis que con el 2700x tendré cuello de botella? De fuente voy con EVGA 650w plus bronze, quizás se debería aumentar.


Yo estoy como tu estoy valorando seriamente pilar la la 3080 con un Ryzen 2600X y una fuente corsair de 650W. Yo creo que por el consumo no vamos a tener problema por ahora pero cuando cambiemos el procesador quizás si.

Saludos

Esa es mi otra duda, haría falta cambiar la CPU para 2k o 4k?
Para comprar, al menos de 3070 para abajo, lo mejor es esperar a AMD porque seguramente en el momento que AMD lance sus gráficas nuevas (que harán competición a la 3070 seguramente), Nvidia responderá bajando algo sus precios, quizas unos 50 euros.

Es lo que siempre hacen, cada vez que AMD lanza gráficas, como son mas económicas Nvidia siempre responde bajando precios.
Gwyn escribió:
xejo22 escribió:Yo creo que voy a tirar por una 3080, estoy con la jodida de sólo 10 gb de VRAM, quizás se quede corta en un par de años... pero en rendimiento parece una bestia considerable. No obstante, sigo loco, porqué pensaba comprarme un monitor 2k 144 hz y ahora creo que debería plantearme un 4k... que decís?


Que no xD

Si quieres los 144 estables, yo no me lo plantearía.

De hecho yo estoy en esa situación, con una 27GL850, y no se me ocurre subir de 1440p@144


Yo me acabo de comprar un monitor de 2k y 144hz y pensaba comprar la 3070 pero creo que me voy a ir a por la 3080 y me quedo mas tranquilo, también tengo otro monitor 4k 60 hz y así creo que podría utilizar el monitor según el juego y ya darle mas años de vida a la gráfica porque si compro la 3070 me veo cambiándola en unos años.

Saludos
Mi teoría es que AMD con RDNA2 va a pegar un buen pelotazo esta vez, y por eso Nvidia, por fin, ajusta los precios.
Además de que la "escasez" de RAM en las nuevas gráficas probablemente sea un debe dentro de dos o tres años.

owenfran escribió:Una duda, ¿el precio de las founders es más alto o más bajo que el que luego sacan los ensambladores?


Esto, que creo que nadie ha contestado, me interesa.
jiujinkai escribió:Que tal es la garantía de Nvidia con sus FE, tienen una buena atención al cliente, años que cubren, son rápidos tramitando?

Me uno a la pregunta de este compañero, además creo que con pedazo de precio de la 3080 por ejemplo, ¿saldrá mas barata la FE que la Custom? ¿Merece la pena pillarse por el precio las FE?
¿Cuales suelen ser mejores en calidad, las custom o las FE?

Gracias y un saludo.
Los ensambladores sacan varios modelos de la misma gráfica con mejor OC, mejor ventilación, preparadas para agua etc.

Habrá algunas que no difieran mucho y otras considerablemente más caras.
junomap escribió:
lucer1 escribió:
junomap escribió:Buenos días, poseo una 1080ti con un Ryzen 2700x y visto lo nuevo me plantearé comprar la 3080. Creéis que con el 2700x tendré cuello de botella? De fuente voy con EVGA 650w plus bronze, quizás se debería aumentar.


Yo estoy como tu estoy valorando seriamente pilar la la 3080 con un Ryzen 2600X y una fuente corsair de 650W. Yo creo que por el consumo no vamos a tener problema por ahora pero cuando cambiemos el procesador quizás si.

Saludos

Esa es mi otra duda, haría falta cambiar la CPU para 2k o 4k?


Yo creo que no, ahora mismo yo con una 2060 super puedo jugar a 2k y 4k, así que con las nuevas pues mejor.

Pero vamos yo creo que no tardare mucho en renovar el procesador.

Saludos
yo creo que en unos meses sacaran la 3080 super con 20 Gb , y la 3070 a pesar de tener 20 Teraflops no creo que le saque mas de 10 fps a la 2080 ti en rasterizado , seria una sorpresa si le saca mas , con la 1080 ti dijeron lo mismo faster than titan x respecto a la titan x (pascal) y solo le sacaba 5 fps y por que aumentaron la frecuencia , pero por 500 pavos es un chollo , eso si , seguro que en unos meses sacan una variante super con mas vram
No dudo que AMD vaya a sacar algo potente capaz de situarse por lo menos en el nivel de la 3070 pero lo que si dudo mucho es que pueda competir con Nvidia en temas de Ray tracing y DLSS , esas características para mí le dan bastante valor a las Nvidia.
Ojalá sean capaces de competir en todos los campos .
Me ofrecen 300€ por mi RTX 2070 normal. No se si aceptarlo, creo que es buen precio viendo el panorama. Pero, me gustaría esperar a ver el rendimiento real dea RTX 3070 y las gráficas de AMD. Algún Consejo?

Tengo también un laptop con una GTX 1050 para tirar mientras este sin gráfica.
tigerscream escribió:Yo creo sinceramente que a pesar que es muy tentador, algo no me cuadra aquí. Yo no compraría tan rápido.

No me cuadra lo de las VRAM, sinceramente creo que como ya han puesto, no van a tardar mucho en sacar las Ti o Super con más VRAM y espero que con GDDR6X, porque esa filtración de Lenovo espero sea solo para ellos (OEM) pero que al público sea GDDR6X. Lo del pcie4.0 con nmve que sirva para ampliar RAM... quiero ver como rinde antes.



Micron no tendra listos chips de memoria de mas densidad hasta 2021, por eso van algo justas actualmente, excepto la 3090.

https://www.techpowerup.com/271656/micron-announces-gddr6x-memory-powering-the-worlds-fastest-graphics-cards



Visto el panorama, veo perfectamente en 2021 una 3080Ti 20GB
Que tal son KFA2 como ensambladores? seguramente tire por ellos, suelen ser mas baratos que los demás...
spaizor6 escribió:Me ofrecen 300€ por mi RTX 2070 normal. No se si aceptarlo, creo que es buen precio viendo el panorama. Pero, me gustaría esperar a ver el rendimiento real dea RTX 3070 y las gráficas de AMD. Algún Consejo?

Tengo también un laptop con una GTX 1050 para tirar mientras este sin gráfica.


yo la vendia de cabeza... se han puesto muy muy bajas de precio todas las rtx2000
XsX escribió:
Juanatan escribió:Ahora de repente la serie 20XX es una basura. Cuánta envidia.

De repente no, lo eran desde el primer día..............pero no tenían competencia y eran la mejor opción.


Cuéntanos más. Lo que hay que leer....
Bio81 escribió:yo creo que en unos meses sacaran la 3080 super con 20 Gb , y la 3070 a pesar de tener 20 Teraflops no creo que le saque mas de 10 fps a la 2080 ti en rasterizado , seria una sorpresa si le saca mas , con la 1080 ti dijeron lo mismo faster than titan x respecto a la titan x (pascal) y solo le sacaba 5 fps y por que aumentaron la frecuencia , pero por 500 pavos es un chollo , eso si , seguro que en unos meses sacan una variante super con mas vram


Seguro que si pero es un bucle interminable, esperar esperar y esperar. Para mí el mejor momento de cambiar es en el principio de una arquitectura como es el caso, sabes que hasta dentro de 2 años seguramente no se de un salto como el que acabamos de ver.

10fps puede ser muchísimo o poquísimos, mejor hablar en %. Yo pienso que la 3070 estará a la par que la 2080Ti pero con el tiempo se irá despegando un poco a parte de las mejoras tecnológicas que pueda tener, mejor rendimiento en RT, dlss 3.0....
Raizan Snake escribió:
jiujinkai escribió:
david14mh escribió:3070 TI con 16 GB https://videocardz.com/newz/nvidia-gefo ... dr6-memory

Joder más vram que una 3080??


Lo jodido es que no están en venta y ya sale una 3070ti? Seguro que mañana sale la 3080ti con 20gb.... [facepalm]

Para luego fiarse de algun manco con aires de rapel que decia que saldrian el dia 1 de septiembre.............

Cuando la semana pasada dije que lo dudaba porque no habia un solo driver nuevo donde incluyesen las tarjetas ni el menor de los indicios para un lanzamiento el dia 1.

rubee3n escribió:
DaNi_0389 escribió:
rubee3n escribió:Hola chicos, con un ryzen 2600x 16gb ram creeis que me iría bien la 3070 con una fuente 550w plus platinum?
Recomiendan 650w... Y me joderia mucho tener que cambiarla.


La 3070 son 220W de TDP, no tendrías que tener problemas.
El 2600X es un mechero.



Donde más puede haber problemas es juntar una 3090/3080 con un Intel Cheese Lake con sus 8/10 cores a 5Ghz, ahí te puedes montar una buena barbacoa [qmparto]

@nomada_firefox
https://www.amazon.de/dp/B074N8YBK9/ref ... E_SCE_dp_1
Sería ésta. Tengo que estar seguro de que la soportará y bien, no quiero arriesgarme a joder todo mi equipo.

Y por otro lado, se sabe si se podrá usar en placas pci 3.0 y si al no ser 4.0 se perderá mucho rendimiento?

No es mala fuente. Pero esto es lo que recomienda Nvidia para la FE.
Especificaciones térmicas y potencia: de Founders Edition: Temperatura máxima de la GPU (en ºC) 93
Potencia de la tarjeta gráfica (W) 220
Potencia recomendada para el sistema (W) (2) 650
Conectores de alimentación suplementarios 1x PCIe 8 pines


Por cierto que las 3070 no estaran disponibles hasta octubre, lo dice claramente la web de Nvidia. Es un mes donde iran liquidando la serie 2000.
31123 respuestas