elamos escribió:Ya vereis los precios de las 3080 de los diversos ensambladores, al final los precios van a ser casi los de siempre... El sistema de refrigeración que le meta el ensamblador X + el overclock + mas Vram + los leds y toda la mandanga se va una 3080 de los 719€ que cuesta la pelada a 850- 900 € o mas.
Poca gente se pilla una grafica de stock casi todo el mundo las compra ensambladas por otras marcas, ya sea por garantia, por ser mas cool o por cualquier otra historia.
Juanatan escribió:Ahora de repente la serie 20XX es una basura. Cuánta envidia.
Lemmiwinks escribió:eldespertar escribió:Joder, es que además de destrozar precios y prestaciones respecto a la serie 2000 encima salen en nada, si aún tardasen unos meses en salir pues quizás aún se podrían revender un poco mejor las 2000
.
Es un puto desastre para las tiendas de informática que tengan stock y usuarios que quieran hacer un upgrade vendiendo su serie 2000.
Yo he puesto en segunda mano mi gtx1070 por 180€ en alemania (vivo aqui). He visto que todos la ponen a 230,pues yo 50 mas barato .
Ojala haya suerte jajajajaja. Me compraria la 3070 por 300pavis
XsX escribió:¿Alguien es capaz de explicar por qué la RTX3070, una gráfica de 20 TF, el doble de RT Cores y el doble de Tensor Cores sólo es capaz de rendir igual que una RTX2080TI, una gráfica de 13,45 TF, la mitad de RT Cores y la mitad de Tensor Cores? ¿Y la RTX3080 de 29 TF que sólo rendirá alrededor de un 35% más? A ésta no la limita un pobre ancho de banda.
Me temo que los desarrolladores no modificarán su código para aprovechar el doble de CUDA Cores en el SM y lo que pensaba se ha cumplido, Ampere es una gama para salir del paso. Lo que Nvidia ha hecho bien, excelente, es dar una imagen de poderío que no tiene.
Edito: y es una jugada maestra presentar las gráficas dos semanas antes de su puesta a la venta.
XsX escribió:¿Alguien es capaz de explicar por qué la RTX3070, una gráfica de 20 TF, el doble de RT Cores y el doble de Tensor Cores sólo es capaz de rendir igual que una RTX2080TI, una gráfica de 13,45 TF, la mitad de RT Cores y la mitad de Tensor Cores? ¿Y la RTX3080 de 29 TF que sólo rendirá alrededor de un 35% más? A ésta no la limita un pobre ancho de banda.
Me temo que los desarrolladores no modificarán su código para aprovechar el doble de CUDA Cores en el SM y lo que pensaba se ha cumplido, Ampere es una gama para salir del paso. Lo que Nvidia ha hecho bien, excelente, es dar una imagen de poderío que no tiene.
Edito: y es una jugada maestra presentar las gráficas dos semanas antes de su puesta a la venta.
jiujinkai escribió:Que tal es la garantía de Nvidia con sus FE, tienen una buena atención al cliente, años que cubren, son rápidos tramitando?
JaviGabber escribió:Yo soy de los que dudo entre la 3070 y la 3080, esta vez entre ellas va a haber mucha diferencia.
Esperar más no lo contemplo, es un bucle que nunca acaba y aquí sigo con la 970.
Esperando reviews a ver en qué queda todo esto.
DaNi_0389 escribió:rubee3n escribió:Hola chicos, con un ryzen 2600x 16gb ram creeis que me iría bien la 3070 con una fuente 550w plus platinum?
Recomiendan 650w... Y me joderia mucho tener que cambiarla.
La 3070 son 220W de TDP, no tendrías que tener problemas.
El 2600X es un mechero.
Donde más puede haber problemas es juntar una 3090/3080 con un Intel Cheese Lake con sus 8/10 cores a 5Ghz, ahí te puedes montar una buena barbacoa
DaNi_0389 escribió:XsX escribió:¿Alguien es capaz de explicar por qué la RTX3070, una gráfica de 20 TF, el doble de RT Cores y el doble de Tensor Cores sólo es capaz de rendir igual que una RTX2080TI, una gráfica de 13,45 TF, la mitad de RT Cores y la mitad de Tensor Cores? ¿Y la RTX3080 de 29 TF que sólo rendirá alrededor de un 35% más? A ésta no la limita un pobre ancho de banda.
Me temo que los desarrolladores no modificarán su código para aprovechar el doble de CUDA Cores en el SM y lo que pensaba se ha cumplido, Ampere es una gama para salir del paso. Lo que Nvidia ha hecho bien, excelente, es dar una imagen de poderío que no tiene.
Edito: y es una jugada maestra presentar las gráficas dos semanas antes de su puesta a la venta.
No puedes comparar los Tflops de una arquitecutra a otra, y con Ampere menos, porque han doblado Cuda cores pero estos rinden menos que los de Turing, y cuanto rinde cada Cuda core no se tiene en cuenta para el calculo de los Tflops.
wildchild_bcn escribió:XsX escribió:¿Alguien es capaz de explicar por qué la RTX3070, una gráfica de 20 TF, el doble de RT Cores y el doble de Tensor Cores sólo es capaz de rendir igual que una RTX2080TI, una gráfica de 13,45 TF, la mitad de RT Cores y la mitad de Tensor Cores? ¿Y la RTX3080 de 29 TF que sólo rendirá alrededor de un 35% más? A ésta no la limita un pobre ancho de banda.
Me temo que los desarrolladores no modificarán su código para aprovechar el doble de CUDA Cores en el SM y lo que pensaba se ha cumplido, Ampere es una gama para salir del paso. Lo que Nvidia ha hecho bien, excelente, es dar una imagen de poderío que no tiene.
Edito: y es una jugada maestra presentar las gráficas dos semanas antes de su puesta a la venta.
por que el doble de transistores y de potencia bruta no se traduce directamente al doble de potencia "practica"... depende de cambios en arquitectura, software y factores varios
yo personalmente no diria que ampere es una gama para salir del paso, han mejorado considerablemente el rendimiento... turing fue mas bajonera por que introdujeron rtx, ampere esta mejorando en mucho lo introducido en turing
todo esto creyendonos lo visto en la conferencia... cuando veamos benchmarks reales a ver que pasa
XsX escribió:DaNi_0389 escribió:XsX escribió:¿Alguien es capaz de explicar por qué la RTX3070, una gráfica de 20 TF, el doble de RT Cores y el doble de Tensor Cores sólo es capaz de rendir igual que una RTX2080TI, una gráfica de 13,45 TF, la mitad de RT Cores y la mitad de Tensor Cores? ¿Y la RTX3080 de 29 TF que sólo rendirá alrededor de un 35% más? A ésta no la limita un pobre ancho de banda.
Me temo que los desarrolladores no modificarán su código para aprovechar el doble de CUDA Cores en el SM y lo que pensaba se ha cumplido, Ampere es una gama para salir del paso. Lo que Nvidia ha hecho bien, excelente, es dar una imagen de poderío que no tiene.
Edito: y es una jugada maestra presentar las gráficas dos semanas antes de su puesta a la venta.
No puedes comparar los Tflops de una arquitecutra a otra, y con Ampere menos, porque han doblado Cuda cores pero estos rinden menos que los de Turing, y cuanto rinde cada Cuda core no se tiene en cuenta para el calculo de los Tflops.wildchild_bcn escribió:XsX escribió:¿Alguien es capaz de explicar por qué la RTX3070, una gráfica de 20 TF, el doble de RT Cores y el doble de Tensor Cores sólo es capaz de rendir igual que una RTX2080TI, una gráfica de 13,45 TF, la mitad de RT Cores y la mitad de Tensor Cores? ¿Y la RTX3080 de 29 TF que sólo rendirá alrededor de un 35% más? A ésta no la limita un pobre ancho de banda.
Me temo que los desarrolladores no modificarán su código para aprovechar el doble de CUDA Cores en el SM y lo que pensaba se ha cumplido, Ampere es una gama para salir del paso. Lo que Nvidia ha hecho bien, excelente, es dar una imagen de poderío que no tiene.
Edito: y es una jugada maestra presentar las gráficas dos semanas antes de su puesta a la venta.
por que el doble de transistores y de potencia bruta no se traduce directamente al doble de potencia "practica"... depende de cambios en arquitectura, software y factores varios
yo personalmente no diria que ampere es una gama para salir del paso, han mejorado considerablemente el rendimiento... turing fue mas bajonera por que introdujeron rtx, ampere esta mejorando en mucho lo introducido en turing
todo esto creyendonos lo visto en la conferencia... cuando veamos benchmarks reales a ver que pasa
Los CUDA Cores son iguales en Ampere y en Turing, pero al haber el doble en cada SM hace que la capacidad teórica se duplique y el rendimiento no. Vamos, que se quedarán inactivos a no ser que se cambie la forma de programar.
Nvidia aumenta un 270% la capacidad FP32 y se traduce en un aumento de sólo el 70% de rendimiento real en juegos seleccionados que se ejecutan razonablemente bien en la nueva arquitectura.
Para mi hubiera sido mejor dejar el SM tal cual, alcanzar frecuencias cercanas a los 2 GHz y doblar las cachés como decían los rumores. Eso sí habría sido un monstruo.
julenchu escribió:Buenos días,
Como veis mi placa y procesador (I7 7700k, msi z270) para la 3080/3070? Habra cuello de botella?
De fuente tengo una corsair 750w, gracias.
Alguna recomendación si tengo que cambiar algo?
sergio1212 escribió:Esta tarde a las 16:00 MSI va hacer un evento especial, donde supongo que mostrara las nuevas graficas y el precio, o eso espero.
xejo22 escribió:Yo creo que voy a tirar por una 3080, estoy con la jodida de sólo 10 gb de VRAM, quizás se quede corta en un par de años... pero en rendimiento parece una bestia considerable. No obstante, sigo loco, porqué pensaba comprarme un monitor 2k 144 hz y ahora creo que debería plantearme un 4k... que decís?
xejo22 escribió:Yo creo que voy a tirar por una 3080, estoy con la jodida de sólo 10 gb de VRAM, quizás se quede corta en un par de años... pero en rendimiento parece una bestia considerable. No obstante, sigo loco, porqué pensaba comprarme un monitor 2k 144 hz y ahora creo que debería plantearme un 4k... que decís?
Nowcry escribió:XsX escribió:DaNi_0389 escribió:
No puedes comparar los Tflops de una arquitecutra a otra, y con Ampere menos, porque han doblado Cuda cores pero estos rinden menos que los de Turing, y cuanto rinde cada Cuda core no se tiene en cuenta para el calculo de los Tflops.wildchild_bcn escribió:
por que el doble de transistores y de potencia bruta no se traduce directamente al doble de potencia "practica"... depende de cambios en arquitectura, software y factores varios
yo personalmente no diria que ampere es una gama para salir del paso, han mejorado considerablemente el rendimiento... turing fue mas bajonera por que introdujeron rtx, ampere esta mejorando en mucho lo introducido en turing
todo esto creyendonos lo visto en la conferencia... cuando veamos benchmarks reales a ver que pasa
Los CUDA Cores son iguales en Ampere y en Turing, pero al haber el doble en cada SM hace que la capacidad teórica se duplique y el rendimiento no. Vamos, que se quedarán inactivos a no ser que se cambie la forma de programar.
Nvidia aumenta un 270% la capacidad FP32 y se traduce en un aumento de sólo el 70% de rendimiento real en juegos seleccionados que se ejecutan razonablemente bien en la nueva arquitectura.
Para mi hubiera sido mejor dejar el SM tal cual, alcanzar frecuencias cercanas a los 2 GHz y doblar las cachés como decían los rumores. Eso sí habría sido un monstruo.
Además de lo que comentas no es que hayan doblado los Cuda Cores, han agregado unos ALU FP64 que teóricamente hacen 2 operaciones FP32 pero tengo mis dudas de que rindan el doble completamente. Tambien como comentas han paralelizado más dentro de las SM lo cual hace más compleja la gestion interna, también han agregado una caché L0 que seguro que ayuda bastante pero no sé si hasta el punto de redoblar el rendimiento para no estrangular la SM por memoria.
El software irá mejorando para aumentar el Uso de los SM y seguramente debido al OC las caches aumenten su rendimiento y las GPU escaleno bien con clocks.
Sin embargo no hay nada como un benchmarkt.
junomap escribió:Buenos días, poseo una 1080ti con un Ryzen 2700x y visto lo nuevo me plantearé comprar la 3080. Creéis que con el 2700x tendré cuello de botella? De fuente voy con EVGA 650w plus bronze, quizás se debería aumentar.
lucer1 escribió:junomap escribió:Buenos días, poseo una 1080ti con un Ryzen 2700x y visto lo nuevo me plantearé comprar la 3080. Creéis que con el 2700x tendré cuello de botella? De fuente voy con EVGA 650w plus bronze, quizás se debería aumentar.
Yo estoy como tu estoy valorando seriamente pilar la la 3080 con un Ryzen 2600X y una fuente corsair de 650W. Yo creo que por el consumo no vamos a tener problema por ahora pero cuando cambiemos el procesador quizás si.
Saludos
Gwyn escribió:xejo22 escribió:Yo creo que voy a tirar por una 3080, estoy con la jodida de sólo 10 gb de VRAM, quizás se quede corta en un par de años... pero en rendimiento parece una bestia considerable. No obstante, sigo loco, porqué pensaba comprarme un monitor 2k 144 hz y ahora creo que debería plantearme un 4k... que decís?
Que no xD
Si quieres los 144 estables, yo no me lo plantearía.
De hecho yo estoy en esa situación, con una 27GL850, y no se me ocurre subir de 1440p@144
owenfran escribió:Una duda, ¿el precio de las founders es más alto o más bajo que el que luego sacan los ensambladores?
jiujinkai escribió:Que tal es la garantía de Nvidia con sus FE, tienen una buena atención al cliente, años que cubren, son rápidos tramitando?
junomap escribió:lucer1 escribió:junomap escribió:Buenos días, poseo una 1080ti con un Ryzen 2700x y visto lo nuevo me plantearé comprar la 3080. Creéis que con el 2700x tendré cuello de botella? De fuente voy con EVGA 650w plus bronze, quizás se debería aumentar.
Yo estoy como tu estoy valorando seriamente pilar la la 3080 con un Ryzen 2600X y una fuente corsair de 650W. Yo creo que por el consumo no vamos a tener problema por ahora pero cuando cambiemos el procesador quizás si.
Saludos
Esa es mi otra duda, haría falta cambiar la CPU para 2k o 4k?
tigerscream escribió:Yo creo sinceramente que a pesar que es muy tentador, algo no me cuadra aquí. Yo no compraría tan rápido.
No me cuadra lo de las VRAM, sinceramente creo que como ya han puesto, no van a tardar mucho en sacar las Ti o Super con más VRAM y espero que con GDDR6X, porque esa filtración de Lenovo espero sea solo para ellos (OEM) pero que al público sea GDDR6X. Lo del pcie4.0 con nmve que sirva para ampliar RAM... quiero ver como rinde antes.
spaizor6 escribió:Me ofrecen 300€ por mi RTX 2070 normal. No se si aceptarlo, creo que es buen precio viendo el panorama. Pero, me gustaría esperar a ver el rendimiento real dea RTX 3070 y las gráficas de AMD. Algún Consejo?
Tengo también un laptop con una GTX 1050 para tirar mientras este sin gráfica.
XsX escribió:Juanatan escribió:Ahora de repente la serie 20XX es una basura. Cuánta envidia.
De repente no, lo eran desde el primer día..............pero no tenían competencia y eran la mejor opción.
Bio81 escribió:yo creo que en unos meses sacaran la 3080 super con 20 Gb , y la 3070 a pesar de tener 20 Teraflops no creo que le saque mas de 10 fps a la 2080 ti en rasterizado , seria una sorpresa si le saca mas , con la 1080 ti dijeron lo mismo faster than titan x respecto a la titan x (pascal) y solo le sacaba 5 fps y por que aumentaron la frecuencia , pero por 500 pavos es un chollo , eso si , seguro que en unos meses sacan una variante super con mas vram
Raizan Snake escribió:jiujinkai escribió:david14mh escribió:3070 TI con 16 GB https://videocardz.com/newz/nvidia-gefo ... dr6-memory
Joder más vram que una 3080??
Lo jodido es que no están en venta y ya sale una 3070ti? Seguro que mañana sale la 3080ti con 20gb....
rubee3n escribió:DaNi_0389 escribió:rubee3n escribió:Hola chicos, con un ryzen 2600x 16gb ram creeis que me iría bien la 3070 con una fuente 550w plus platinum?
Recomiendan 650w... Y me joderia mucho tener que cambiarla.
La 3070 son 220W de TDP, no tendrías que tener problemas.
El 2600X es un mechero.
Donde más puede haber problemas es juntar una 3090/3080 con un Intel Cheese Lake con sus 8/10 cores a 5Ghz, ahí te puedes montar una buena barbacoa
@nomada_firefox
https://www.amazon.de/dp/B074N8YBK9/ref ... E_SCE_dp_1
Sería ésta. Tengo que estar seguro de que la soportará y bien, no quiero arriesgarme a joder todo mi equipo.
Y por otro lado, se sabe si se podrá usar en placas pci 3.0 y si al no ser 4.0 se perderá mucho rendimiento?
Especificaciones térmicas y potencia: de Founders Edition: Temperatura máxima de la GPU (en ºC) 93
Potencia de la tarjeta gráfica (W) 220
Potencia recomendada para el sistema (W) (2) 650
Conectores de alimentación suplementarios 1x PCIe 8 pines