[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

Yo tengo 2k144hz y 4k60hz, los 2 con gsync. Ayer vendí mi 1080ti por 320 y espero que el día 17 pueda enganchar una FE.

El ir a 4k 60fps ultra con el horizon y rdr me puede...
@hh1

Te comprendo hasta el punto que parece que lo haya escrito yo.
Ya contarás como acaba. [beer]
wildchild_bcn escribió:
chrispro escribió:Por lo que sin dudarlo creo que por 719 iría a por la ventus y si no hay voy a dar intentar la siguiente que se ponga a tiro.


chrispro escribió:Pero vamos la vida es así.... Siempre habrá ricos y pobres... Visionarios y acojonaos que no se lanzan a arriesgarse un poco...

Pues aquí igual.. comprar una gráfica serie 2000 ahora a esperas de un anuncio así de Nvidia era una cagada...

Tener pensado vender la gráfica serie 2000 pero esperarse a que nvidia anunciase... Otra cagada...

Y por eso siempre defenderé que me gasto 1500 euros en la nueva... Y la tendré hasta uno o dos meses antes de la serie 4000. La venderé a 1200? Y volveré a tener lo más top por unos míseros 10 euros al mes..


chrispro escribió:
Colorful35 escribió:Preparen sus Visa [sati] [sati]

Preparadita la tengo !! Calentita con ganas de pasarla dos veces jajajaja


señor, ya no se acuerda usted de lo que dio por culo llamando pobre a la gente y diciendo que iba a comprarse 2 3090?
y ahora vienes con que te vas a la ventus mas barata?

al final tanto dar por culo y el único que se mantiene en sus trece con todo lo que dijo es @kikomanco después de lo que le habéis amargado en este hilo con vuestras fantasmadas

Imagen
Valhan escribió:@hh1

Te comprendo hasta el punto que parece que lo haya escrito yo.
Ya contarás como acaba. [beer]

Pues espero que aguantando y disfrutando de lo que comentan los que la tienen mientras me genera una envidia sana.
Ya llegará el momento cuando de verdad se "necesite" [beer]
A mi me pasa igual, solo pensar en rdr2 a 4k60hz y el Horizon me pone palote jajajaja

@Dannyele

Y luego el ansia.. si salieran las dos a la vez, tendría muchas papeletas la 3090, pero el ansia seguro que a muchos que dudamos nos hace comprar la 3080... Nvidia supongo es consciente de esto!
yonnah escribió:
Wanderlei escribió:
yonnah escribió:
Pues si yo salto de la 1070 a la 3080 osea que [beer]


Somos varios que saltamos de la 1070 a la 3080 (yo incluido XD).


Más adelante nos tocara renovar el resto del ordenador [carcajad] [carcajad] [carcajad]


Yo soy uno de los que saltan de las 1070 a la 3080 pero en mi caso he ido upgradeando mi hardaware poco, he pasado de un i7 4790k a un Ryzen 3900x, 32 GB de Ram, y una Aorus Elite x570, espero que sea lo bastantemente bueno para mi futura 3080.
SashaX escribió:@chrispro

Entonces al final te vas a por la 3080? Desistes de la 3090?
Yo es que no veo claro gastarme 800€ para tener una mejora del 25% sobre la 2080Ti y menos VRAM.
La 3090 "sólo" es un 25% sobre la 3080, pero si sumas, 25+25, es un 50% más potencia que la 2080Ti y ese salto sí me merece la pena.

Claro que se paga más. Parece que para Nvidia cada 25% extra que quieras sobre la 2080Ti son 750€ XD Careros...

Ahora, si viniese de una 2080 o una 2070, sí me iba a la 3080 sin pestañear.
Pero quiero notar un cambio, leñe. [toctoc]

La 3090 me temo que para tú información nunca podrá ser mejor que un 18% mejor que la 3080 (es la diferencia de cudas cores que hay entre las 2) o un 16 menos potente la 3080 ( es la diferencia de cudas cores que hay entre las 2) además estos cudas cores serán más lentos y más calientes (menos bost) y además escalaran peor (a mayor número de cudas cores, menor rendimiento por cuda core) así a bote pronto te puedo decir que el rendimiento de una a la otra puede ser en el mejor de los casos un 12/15% y ese 25% que dices tú qué hay entre la 2080ti y la 3080 de donde te lo sacas? Ya hay bench reales?
hh1 escribió:Si el rendimiento es el que dicen,la 3080 es la que mejor relación rendimiento/precio tiene a mí parecer.
Pero claro,715€ no son pocos €.


Desde luego que por 715€ siendo supuestamente alrededor de un 24% mas rapida que la 2080ti no es mal precio si comparamos lo que costaba ésta última, pero efectivamente no son pocos euros, aquí ya entra el tema personal de cada quien lo que hace con su dinero.

Por otro lado creo que sigue habiendo un hueco de precio/rendimiento donde podría situarse una 3070ti y 3080ti, supongo que nvidia se reserva ese as bajo la manga que puede sacar en cualquier momento dependiendo de lo que haga amd con RDNA2, ya veremos si big navi o como quieran llamarla da la talla y puede influir positivamente en los precios.

Yo voy a exprimir mi grafica almenos un par de años mas, además me pica la curiosidad de ver si con mi gpu podré mover los futuros juegos next gen que vayan saliendo a 1440p 60fps alto/ultra.
noetts escribió:Yo soy uno de los que saltan de las 1070 a la 3080 pero en mi caso he ido upgradeando mi hardaware poco, he pasado de un i7 4790k a un Ryzen 3900x, 32 GB de Ram, y una Aorus Elite x570, espero que sea lo bastantemente bueno para mi futura 3080.


Ufff no sé yo ¿eh?, creo que vas algo justillo xDDDD
kikomanco escribió:
SashaX escribió:@chrispro

Entonces al final te vas a por la 3080? Desistes de la 3090?
Yo es que no veo claro gastarme 800€ para tener una mejora del 25% sobre la 2080Ti y menos VRAM.
La 3090 "sólo" es un 25% sobre la 3080, pero si sumas, 25+25, es un 50% más potencia que la 2080Ti y ese salto sí me merece la pena.

Claro que se paga más. Parece que para Nvidia cada 25% extra que quieras sobre la 2080Ti son 750€ XD Careros...

Ahora, si viniese de una 2080 o una 2070, sí me iba a la 3080 sin pestañear.
Pero quiero notar un cambio, leñe. [toctoc]

La 3090 me temo que para tú información nunca podrá ser mejor que un 18% mejor que la 3080 (es la diferencia de cudas cores que hay entre las 2) o un 16 menos potente la 3080 ( es la diferencia de cudas cores que hay entre las 2) además estos cudas cores serán más lentos y más calientes (menos bost) y además escalaran peor (a mayor número de cudas cores, menor rendimiento por cuda core) así a bote pronto te puedo decir que el rendimiento de una a la otra puede ser en el mejor de los casos un 12/15% y ese 25% que dices tú qué hay entre la 2080ti y la 3080 de donde te lo sacas? Ya hay bench reales?


La cuestión es que solo estas valorando los CUDA cores, olvidando TMU, ancho de banda de memoria, Nucleos RT por ejemplo es 82/68, núcleos Tensor mayores, para trabajar en las mismas resoluciones los tensor son muy beneficiosos ya que de ellos solos depende un proceso complejo que suele lastrar varios ms, y no solo compensar en los shaders y restar unos ms si no que también se restaran en denoising y en RT, dejando la GPU mas acorde a lo que dice el compañero sin tener en cuenta que las versiones caras suelen obtener siempre mejores tratamientos de OC. Por ejemplo EVGA ha conseguido poner la 3080 a 1933 MHz arrojando una capacidad de calculo FP32 de 33.65 Tflops- Y EVGA a conseguido poner la 3090 a 2105 Mhz arrojando una capacidad de calculo FP32 de 44.19 Tflops.

33.65/44.19 = 0.761 que es el 25% del compañero sin tener en cuenta RT ni Tensor en la ecuacion, sin embargo tienes razón con que la parelizacion pierde rendimiento, sin embargo esta es compensada por los procesos singulares que ejecutan los RT y de los Tensor en cada frame posiblemente compensada con creces.

Aun así esa no es la gran diferencia, la gran diferencia son los carriles de GDDR 24 GB, el gran problema es que las memorias de 2 GB de GDDR6X son muy caras y consumen mucha energía, esa es la razón por la que la 3080 y la 3070 tienen solo memorias de 1 Gb. También me gustaría decir que la PCB de la 3090 posiblemente sea la de la TITAN con chips de 1 GB en vez de 2 GB, eso también significa que el proceso de fabricación de la PCB es mucho mas cuidadosa sobre todo con las fases de alimentación lo que permite OCs mas altos en el Clock pero también en la Memoria, agregar que la 3090 cuenta con un controlador de memoria mas y que funciona a una frecuencia mas alta. Y por ultimo la diferencia clave es que a partir de 10 GB de GDDR la 3080 morira de freeze mientras que la 3090 continua resistiendo hasta mas del doble, es una posibilidad frente a una imposibilidad, y esa posibilidad es muy importante de aquí al futuro.

3080, 10 chips de 1 GB , 3070 8 chips de 1 GB

Cuando a la 3080 le pongan los chips de 2 GB sera la 3080 Ti con 20 GB de GDDR pero dejara de costar 799 para posiblemente pasar a costar 1199. Lo que la dejaría en el rango de precio exacto, rendimiento/precio.

Cuando a la 3090 le pongan los módulos de 2 GB tendrá 48 GB de GDDR y pasara a llamarse la titan y pasara a valer 2500.

Todo esto con algún aumento de Shaders Unit si es posible.

Lo que han hecho en Nvidia es ponerle a la 3090 la PCB de la Titan con 24 chips de 1 GB y esperar a que los modulos de 2 gb se vuelvan mas económicos enérgicamente y en dinero para poder realizar un diseño viable. El proceso y la PCB de la titan esta mucho mas cuidado con muchísimas mas fases de alimentación lo
apalizadorx escribió:
hh1 escribió:Si el rendimiento es el que dicen,la 3080 es la que mejor relación rendimiento/precio tiene a mí parecer.
Pero claro,715€ no son pocos €.


Desde luego que por 715€ siendo supuestamente alrededor de un 24% mas rapida que la 2080ti no es mal precio si comparamos lo que costaba ésta última, pero efectivamente no son pocos euros, aquí ya entra el tema personal de cada quien lo que hace con su dinero.

Por otro lado creo que sigue habiendo un hueco de precio/rendimiento donde podría situarse una 3070ti y 3080ti, supongo que nvidia se reserva ese as bajo la manga que puede sacar en cualquier momento dependiendo de lo que haga amd con RDNA2, ya veremos si big navi o como quieran llamarla da la talla y puede influir positivamente en los precios.

Yo voy a exprimir mi grafica almenos un par de años mas, además me pica la curiosidad de ver si con mi gpu podré mover los futuros juegos next gen que vayan saliendo a 1440p 60fps alto/ultra.

Ya ...pero vas viendo a algunos Youtubers decir que es impresionante y demás cosas y pica XD.
Pero sí,lo inteligente es lo que dices y es mi idea.Intento automotivarme para no hacerlo [angelito]
hh1 escribió:
apalizadorx escribió:
hh1 escribió:Si el rendimiento es el que dicen,la 3080 es la que mejor relación rendimiento/precio tiene a mí parecer.
Pero claro,715€ no son pocos €.


Desde luego que por 715€ siendo supuestamente alrededor de un 24% mas rapida que la 2080ti no es mal precio si comparamos lo que costaba ésta última, pero efectivamente no son pocos euros, aquí ya entra el tema personal de cada quien lo que hace con su dinero.

Por otro lado creo que sigue habiendo un hueco de precio/rendimiento donde podría situarse una 3070ti y 3080ti, supongo que nvidia se reserva ese as bajo la manga que puede sacar en cualquier momento dependiendo de lo que haga amd con RDNA2, ya veremos si big navi o como quieran llamarla da la talla y puede influir positivamente en los precios.

Yo voy a exprimir mi grafica almenos un par de años mas, además me pica la curiosidad de ver si con mi gpu podré mover los futuros juegos next gen que vayan saliendo a 1440p 60fps alto/ultra.

Ya ...pero vas viendo a algunos Youtubers decir que es impresionante y demás cosas y pica XD.
Pero sí,lo inteligente es lo que dices y es mi idea.Intento automotivarme para no hacerlo [angelito]

Ya, pero es que este mundo no es imparcial, esos YouTubers son unos televentas, las empresas les mandan productos para que hablen la panacea y si se salen del contexto pues se acabó colaboración. Y no creo que está gente este en posición de cerrarse puertas. Sin ir más lejos la empresa china donde trabajo hace lo mismo, da o cede productos de audio y te dejan ser medio imparciales, pero sin pasarte.
Los únicos que te van a dar su verdadera opinión es el que lo costea de su propio bolsillo.
Yo de YouTube me creo cero coma, cojo solo el dato que me interesa y contrasto.
jiujinkai escribió:
hh1 escribió:
apalizadorx escribió:
Desde luego que por 715€ siendo supuestamente alrededor de un 24% mas rapida que la 2080ti no es mal precio si comparamos lo que costaba ésta última, pero efectivamente no son pocos euros, aquí ya entra el tema personal de cada quien lo que hace con su dinero.

Por otro lado creo que sigue habiendo un hueco de precio/rendimiento donde podría situarse una 3070ti y 3080ti, supongo que nvidia se reserva ese as bajo la manga que puede sacar en cualquier momento dependiendo de lo que haga amd con RDNA2, ya veremos si big navi o como quieran llamarla da la talla y puede influir positivamente en los precios.

Yo voy a exprimir mi grafica almenos un par de años mas, además me pica la curiosidad de ver si con mi gpu podré mover los futuros juegos next gen que vayan saliendo a 1440p 60fps alto/ultra.

Ya ...pero vas viendo a algunos Youtubers decir que es impresionante y demás cosas y pica XD.
Pero sí,lo inteligente es lo que dices y es mi idea.Intento automotivarme para no hacerlo [angelito]

Ya, pero es que este mundo no es imparcial, esos YouTubers son unos televentas, las empresas les mandan productos para que hablen la panacea y si se salen del contexto pues se acabó colaboración. Y no creo que está gente este en posición de cerrarse puertas. Sin ir más lejos la empresa china donde trabajo hace lo mismo, da o cede productos de audio y te dejan ser medio imparciales, pero sin pasarte.
Los únicos que te van a dar su verdadera opinión es el que lo costea de su propio bolsillo.
Yo de YouTube me creo cero coma, cojo solo el dato que me interesa y contrasto.

Ya ...Eso también lo tengo en cuenta...
A propósito sabéis si las custom usan el PCB reducido de NVIDIA?
No logro aclararme, las custom salen a la venta el mismo día que las Founders?

Mi idea es pillar la 3080 de Zotac, ¿como lo veis? Cuesta igual q la founders y trae 3 ventiladores, aparte de que estéticamente puede q sea la q más me guste además...
noetts escribió:
yonnah escribió:
Wanderlei escribió:
Somos varios que saltamos de la 1070 a la 3080 (yo incluido XD).


Más adelante nos tocara renovar el resto del ordenador [carcajad] [carcajad] [carcajad]


Yo soy uno de los que saltan de las 1070 a la 3080 pero en mi caso he ido upgradeando mi hardaware poco, he pasado de un i7 4790k a un Ryzen 3900x, 32 GB de Ram, y una Aorus Elite x570, espero que sea lo bastantemente bueno para mi futura 3080.

Yo creo que te hacen falta otros 32 Gbs de RAM. Y la CPU tiene pocos núcleos, no creo que pueda hacer sudar a la 3080.
Yo soy de los que también iba si o si a por una 3090, pero viendo el ocultismo y que aparentemente la mala relación precio/rendimiento sobre la 3080, creo que ire a por una de estas ultimas.

Actualmente estoy con una 1080ti, que tengo para cambios de gráfica, porque vendí bien hace meses la 2080ti por lo mismo que me costo, porque ya me olía un poco la situación.

Y creo que el 17 como todos a pillar una 3080, y ya si el año que viene sale las versiones ti, pues siempre habrá margen para vender la 3080 y aumentar a ti.
goku593 escribió:
noetts escribió:
yonnah escribió:
Más adelante nos tocara renovar el resto del ordenador [carcajad] [carcajad] [carcajad]


Yo soy uno de los que saltan de las 1070 a la 3080 pero en mi caso he ido upgradeando mi hardaware poco, he pasado de un i7 4790k a un Ryzen 3900x, 32 GB de Ram, y una Aorus Elite x570, espero que sea lo bastantemente bueno para mi futura 3080.

Yo creo que te hacen falta otros 32 Gbs de RAM. Y la CPU tiene pocos núcleos, no creo que pueda hacer sudar a la 3080.


Venga vamos no me jodas, pocos núcleos? entonces mi 386sx que no tiene ni coprocesador matemático tampoco podrá? me muero por jugar al wolfenstein 3d con raytracing! [tadoramo]
Hacemos una encuestas para ver quién va a pillar alguna gráfica?
Yo, igual que muchos de vosotros, mi intención era ir a por la 3090. Porque tengo uso de monitor un lg cx y mi intención es acercarme todo lo posible a 4k 120hz. Pero la propia nvidia dice que el buque insignia es la 3080. Ni ellos mismos han sacado benchmarks de la 3090. Lo lógico sería, que si realmente quisieran vender la 3090 para gaming, hubieran sacado ya benchmarks comparando la 3090 con la 2080 ti, y ya con eso calcularíamos la diferencia. Y con eso, si la diferencia es más de un 20%, al que le interese se espere y desembolse más del doble de lo que vale la 3080.

Creo que está claro que la baza principal de la 3090 es la enorme cantidad de memoria. Pero eso donde se va a notar es en cosas como cómputo, render o desarrollo de ia.

En los años que vienen no se espera que aumente el uso de memoria en la gráfica hasta desbordar los 10 gigas, como dicen algunos. Lo que se espera es usar rtx io, de forma similar a como lo harán la nueva xbox y ps5. Con ello y con un ssd rápido, no es necesario tener tanto cargado en la memoria, porque se pueden cargar texturas y assets sobre la marcha, sin digamos molestar a penas a la cpu y el resto del sistema, y por tanto sin que se note.

No me extrañaría nada que las nuevas gráficas de amd vinieran con una función similar. Si esto es así, para los desarrolladores que porten juegos de las consolas a pc, les será más sencillo usar esta funcionalidad que no que adaptar el juego para que no la use. Puede que empecemos a ver juegos en los que si no tienes rtx io, el juego tendrá que pararse unos segundos a cargar.

De todas formas, si que es cierto que lo que realmente va a pasar no lo sabemos nadie. Pero lo que si sabemos es lo que se espera que pase, y como digo, no es que aumente de forma alocada el uso de memoria por los motivos que menciono. Un saludo.
@Jexux, como va esa 3080, ya por Spain????? [sonrisa]
Nowcry escribió:
kikomanco escribió:
SashaX escribió:@chrispro

Entonces al final te vas a por la 3080? Desistes de la 3090?
Yo es que no veo claro gastarme 800€ para tener una mejora del 25% sobre la 2080Ti y menos VRAM.
La 3090 "sólo" es un 25% sobre la 3080, pero si sumas, 25+25, es un 50% más potencia que la 2080Ti y ese salto sí me merece la pena.

Claro que se paga más. Parece que para Nvidia cada 25% extra que quieras sobre la 2080Ti son 750€ XD Careros...

Ahora, si viniese de una 2080 o una 2070, sí me iba a la 3080 sin pestañear.
Pero quiero notar un cambio, leñe. [toctoc]

La 3090 me temo que para tú información nunca podrá ser mejor que un 18% mejor que la 3080 (es la diferencia de cudas cores que hay entre las 2) o un 16 menos potente la 3080 ( es la diferencia de cudas cores que hay entre las 2) además estos cudas cores serán más lentos y más calientes (menos bost) y además escalaran peor (a mayor número de cudas cores, menor rendimiento por cuda core) así a bote pronto te puedo decir que el rendimiento de una a la otra puede ser en el mejor de los casos un 12/15% y ese 25% que dices tú qué hay entre la 2080ti y la 3080 de donde te lo sacas? Ya hay bench reales?


La cuestión es que solo estas valorando los CUDA cores, olvidando TMU, ancho de banda de memoria, Nucleos RT por ejemplo es 82/68, núcleos Tensor mayores, para trabajar en las mismas resoluciones los tensor son muy beneficiosos ya que de ellos solos depende un proceso complejo que suele lastrar varios ms, y no solo compensar en los shaders y restar unos ms si no que también se restaran en denoising y en RT, dejando la GPU mas acorde a lo que dice el compañero sin tener en cuenta que las versiones caras suelen obtener siempre mejores tratamientos de OC. Por ejemplo EVGA ha conseguido poner la 3080 a 1933 MHz arrojando una capacidad de calculo FP32 de 33.65 Tflops- Y EVGA a conseguido poner la 3090 a 2105 Mhz arrojando una capacidad de calculo FP32 de 44.19 Tflops.

33.65/44.19 = 0.761 que es el 25% del compañero sin tener en cuenta RT ni Tensor en la ecuacion, sin embargo tienes razón con que la parelizacion pierde rendimiento, sin embargo esta es compensada por los procesos singulares que ejecutan los RT y de los Tensor en cada frame posiblemente compensada con creces.

Aun así esa no es la gran diferencia, la gran diferencia son los carriles de GDDR 24 GB, el gran problema es que las memorias de 2 GB de GDDR6X son muy caras y consumen mucha energía, esa es la razón por la que la 3080 y la 3070 tienen solo memorias de 1 Gb. También me gustaría decir que la PCB de la 3090 posiblemente sea la de la TITAN con chips de 1 GB en vez de 2 GB, eso también significa que el proceso de fabricación de la PCB es mucho mas cuidadosa sobre todo con las fases de alimentación lo que permite OCs mas altos en el Clock pero también en la Memoria, agregar que la 3090 cuenta con un controlador de memoria mas y que funciona a una frecuencia mas alta. Y por ultimo la diferencia clave es que a partir de 10 GB de GDDR la 3080 morira de freeze mientras que la 3090 continua resistiendo hasta mas del doble, es una posibilidad frente a una imposibilidad, y esa posibilidad es muy importante de aquí al futuro.

3080, 10 chips de 1 GB , 3070 8 chips de 1 GB

Cuando a la 3080 le pongan los chips de 2 GB sera la 3080 Ti con 20 GB de GDDR pero dejara de costar 799 para posiblemente pasar a costar 1199. Lo que la dejaría en el rango de precio exacto, rendimiento/precio.

Cuando a la 3090 le pongan los módulos de 2 GB tendrá 48 GB de GDDR y pasara a llamarse la titan y pasara a valer 2500.

Todo esto con algún aumento de Shaders Unit si es posible.

Lo que han hecho en Nvidia es ponerle a la 3090 la PCB de la Titan con 24 chips de 1 GB y esperar a que los modulos de 2 gb se vuelvan mas económicos enérgicamente y en dinero para poder realizar un diseño viable. El proceso y la PCB de la titan esta mucho mas cuidado con muchísimas mas fases de alimentación lo

Te pongo un claro ejemplo? 2080ti vs 2080, y hay más de un 40% de cudas cores entre las 2
Y yo no veo que la 2080ti teniendo más de todo, le saque más de un 40% a la 2080, según tú entonces la 2080ti le debería de sacar un 50% a la 2080 [hallow]
@Infer
Yo tengo una b9 con hdmi 2.1 que se supone que también acepta 4k 120hz pero aun no se ha podido probar , actualmente tengo una 2080s y un cable hdmi 2.1 ya preparado aunque esta grafica solo admite 2k 120hz o 4k 60hz por el hdmi 2.0b .

Mi idea para cambiarla era aprovechar también el hdmi 2.1 y algo más de potencia pero me encuentro en el dilema que con esta gráfica y un 8086k que tengo a 5.1ghz va tan bien todo y la tele se ve tan jodidamente bien aunque juegue a 2k 120hz que tampoco me importa y luego que tiene un oc bestial en core que se planta en más de 2100mhz y las memorias suben tambien una barbaridad +1350 y no se aun las nuevas 3080 lo que subirán ya que se esta hablando de su limitado oc por lo menos en su primera hornada, así que no se si una 2080s bien apretada de oc puede llegar a situarse en torno a 40% menos de rendimiento con una 3080 "vaga" que en ese caso no se si merecía la pena el desembolso de más de 300€ suponiendo que saque 400€ o menos por la 2080s.

Como digo me tienta más el hdmi 2.1 que otra cosa y solo es por aprovechar la tv que tiene esa característica.
En serio os pensais que la 3090 solo va a ser un poco mejor que la 3080?? El autoconvencimiento es flipante en serio
bromutu escribió:@Jexux, como va esa 3080, ya por Spain????? [sonrisa]


Llegada antes de Lunes es Domingo y no reparten, tendría que poner llegada Sábado.

Única opción, que llegue al almacén de reparto y dejen recogerla, pero dudo que llegue a ese almacén hasta mañana.

De todos modos tenerla Lunes mañana significa tenerla al mismo tiempo que los reviewers sacan sus artículos/vídeos, y para nosotros estupendo que así pedimos pruebas específicas y oc. Los reviewers hacen un esbozo pero aquí en los foros vemos en profundidad cómo funciona un producto en concreto.
jacklolita escribió:En serio os pensais que la 3090 solo va a ser un poco mejor que la 3080?? El autoconvencimiento es flipante en serio



Argumentanos porque va a ser mucho mejor.
kikomanco escribió:
SashaX escribió:@chrispro

Entonces al final te vas a por la 3080? Desistes de la 3090?
Yo es que no veo claro gastarme 800€ para tener una mejora del 25% sobre la 2080Ti y menos VRAM.
La 3090 "sólo" es un 25% sobre la 3080, pero si sumas, 25+25, es un 50% más potencia que la 2080Ti y ese salto sí me merece la pena.

Claro que se paga más. Parece que para Nvidia cada 25% extra que quieras sobre la 2080Ti son 750€ XD Careros...

Ahora, si viniese de una 2080 o una 2070, sí me iba a la 3080 sin pestañear.
Pero quiero notar un cambio, leñe. [toctoc]

La 3090 me temo que para tú información nunca podrá ser mejor que un 18% mejor que la 3080 (es la diferencia de cudas cores que hay entre las 2) o un 16 menos potente la 3080 ( es la diferencia de cudas cores que hay entre las 2) además estos cudas cores serán más lentos y más calientes (menos bost) y además escalaran peor (a mayor número de cudas cores, menor rendimiento por cuda core) así a bote pronto te puedo decir que el rendimiento de una a la otra puede ser en el mejor de los casos un 12/15% y ese 25% que dices tú qué hay entre la 2080ti y la 3080 de donde te lo sacas? Ya hay bench reales?


No veo yo tan claro ese calculo que haces. Yo opino que la 3090 será entre un 25 y 30 % más potente que la 3080.

Y la más que posible 3080ti será un 10-15% más potente que la 3080 además de llevar los ansiados 16gb de ram
jacklolita escribió:En serio os pensais que la 3090 solo va a ser un poco mejor que la 3080?? El autoconvencimiento es flipante en serio

Por diferencias en las specs que se han dado (numero de cores, frecuencias, etc.etc.) esta bastante claro que va a ser poquito mejor
Algun tipo de brujería tiene que haber para que habiendo físicamente un 20-25% de mejora obtentamos un rendimiento mayor a ese 20-25%....de hecho como bien dice kikomanco, a mayor numero de cuda cores l ganancia va siendo menor
No es autoconvencimiento...aqui muchos ibamos a por la 3090 hasta que se dieron las specs...te aseguro que preferiríamos que la diferencia fuera de un 50%
vmanuelgm escribió:
bromutu escribió:@Jexux, como va esa 3080, ya por Spain????? [sonrisa]


Llegada antes de Lunes es Domingo y no reparten, tendría que poner llegada Sábado.

Única opción, que llegue al almacén de reparto y dejen recogerla, pero dudo que llegue a ese almacén hasta mañana.

De todos modos tenerla Lunes mañana significa tenerla al mismo tiempo que los reviewers sacan sus artículos/vídeos, y para nosotros estupendo que así pedimos pruebas específicas y oc. Los reviewers hacen un esbozo pero aquí en los foros vemos en profundidad cómo funciona un producto en concreto.


Bueno, depende. Aquí en madrid Amazon reparte los domingos. Muchas cosas me han llegado en domingo a mi.

Solo era curiosidad por saber si sigue su curso o la han palaralizado como ha pasado en Italia me parece [sonrisa]
@vtec16 existe algún tipo de monitor con hdmi 2.1? Curiosidad.
Yo tengo una LG 65E9 y nunca la probé con el PC, veo q me pierdo costas no...
Confirmo que Amazon Italia cancelo las órdenes de la 3090
@Tecmok
Creo que va a salir un asus pero sobrepasa las 3 cifras y es enorme .
Creo que los monitores con hdmi 2.1 a precios "asequibles" no llegarán hasta bien entrado el 2021
AlbertX escribió:Confirmo que Amazon Italia cancelo las órdenes de la 3090

Fuente o foto.
Yo estoy "giñado" con que no rindan como prometen y no estén "maduras todavía". Por el problema que está teniendo samsung.
Entre esto y el famoso consumismo agresivo "compralas antes de que le suban el precio. Ya sea por falta de stock o por mineria"
Sin contar que van a anunciar las AMD y que si esperamos lo suficiente, las Ti estan a la.vuelta de la esquina.

Pero claro, tengo 500 euros, de la.venta de ki 2080 ti... tampoco quiero dejarme otros 1000+ como antaño y qje me la.metan doblada..

Es dificil eh? Y pareciA todo facil. Llegar. Pagar. Distrutar?

Seguire el.hilo y noticias de cerca

Edito:
Y lo quenmas toca los coj*** es que otros ensambladores no den info ni presenten una calidad abrumadora, pero si te inflan de 100 a 200 el precio presentado por Nvidia en las FN. Pareciemdo estas más pesadas, se mejor construcción y redirección del aire. Ya podrían almenos subir el reloj de casa, como pasaba con la 2080 ti Aorus. Sin OC

Salu2
Me recomendáis algún monitor 2k 60hz decente?
bromutu escribió:
vmanuelgm escribió:
bromutu escribió:@Jexux, como va esa 3080, ya por Spain????? [sonrisa]


Llegada antes de Lunes es Domingo y no reparten, tendría que poner llegada Sábado.

Única opción, que llegue al almacén de reparto y dejen recogerla, pero dudo que llegue a ese almacén hasta mañana.

De todos modos tenerla Lunes mañana significa tenerla al mismo tiempo que los reviewers sacan sus artículos/vídeos, y para nosotros estupendo que así pedimos pruebas específicas y oc. Los reviewers hacen un esbozo pero aquí en los foros vemos en profundidad cómo funciona un producto en concreto.


Bueno, depende. Aquí en madrid Amazon reparte los domingos. Muchas cosas me han llegado en domingo a mi.

Solo era curiosidad por saber si sigue su curso o la han palaralizado como ha pasado en Italia me parece [sonrisa]


Seguir sigue su curso fijo, pero para hoy lo dudo. Jexux no está en Madrid además.
LandStalker escribió:Yo estoy "giñado" con que no rindan como prometen y no estén "maduras todavía". Por el problema que está teniendo samsung.
Entre esto y el famoso consumismo agresivo "compralas antes de que le suban el precio. Ya sea por falta de stock o por mineria"
Sin contar que van a anunciar las AMD y que si esperamos lo suficiente, las Ti estan a la.vuelta de la esquina.

Pero claro, tengo 500 euros, de la.venta de ki 2080 ti... tampoco quiero dejarme otros 1000+ como antaño y qje me la.metan doblada..

Es dificil eh? Y pareciA todo facil. Llegar. Pagar. Distrutar?

Seguire el.hilo y noticias de cerca

Salu2

Que problema está teniendo Samsung?

No os creáis los titulares del chapuzas o hardzone, id a ver las fuentes y os sorprenderéis de lo que cambia la historia.
Cancelada 3080 ITALIA, la de ESPAÑA la tengo viva aun :)
@LandStalker
Con las 2080 ti paso algo parecido habian dos chips uno A y otro B , el B no subia nada de oc aunque creo que habían pocas graficas con estos chips , por no hablar de los famosos space invaders de la primera hornada que dejaban la grafica para pasar por RMA.
Al final comprar una tecnología nueva sin madurar aun tienen sus riesgos, y los que primero la compran hacen los test para que se detecten y corrigan errores para las siguientes remesas.
Parece que han empezado a bajar la serie 2000 pero sigo considerando los precios actuales una miserable estafa. Aquel que compre ahora, se va a arrepentir luego de las diferencias de precio/rendimiento.

Comprar ahora para luego ver sobrepasada lo que compraste por una ridicula 3060 de 6GB que costara hasta menos.........puede ser muy deprimente.

Aunque es evidente que malos compradores sigue habiendolos.
Se ha filtrado por ahí una Big Navi con un rendimiento parecido a la 2080Ti.

Se espera que esta Navi22 sea competencia de la 3070 y que Navi21 haga sombra a 3080.

A ver si con mejor relación rendimiento/€ o al menos con más VRAM

Ha estado divertida la noche. Ha habido algo de actividad en rogame, locuza, 3dcenter...

Daicon escribió:
AlbertX escribió:Confirmo que Amazon Italia cancelo las órdenes de la 3090

Fuente o foto.


me han cancelado mi orden, eso de fuente o foto, mira creete lo que quieras, que pesadez.
Gwyn escribió:Se ha filtrado por ahí una Big Navi con un rendimiento parecido a la 2080Ti.

Se espera que esta Navi22 sea competencia de la 3070 y que Navi21 haga sombra a 3080.

A ver si con mejor relación rendimiento/€ o al menos con más VRAM

Ha estado divertida la noche. Ha habido algo de actividad en rogame, locuza, 3dcenter...


La gracia es toda la gente que va a comprar Ampere ahora que no tienen competencia. Pero cuando vengan las consolas, Big Navi y toda la gama este fuera, los precios van a cambiar.

Asi que me remito a lo que pensaba antes de Ampere. Mal momento para comprar antes, mal momento para comprar ahora.
Buenos días, alguien que pueda comentar que tal es la marca Zotac? Nunca he tenido ninguna Zotac y la verdad que me llama bastante la atención.

Saludos.
Nomada_Firefox escribió:
Gwyn escribió:Se ha filtrado por ahí una Big Navi con un rendimiento parecido a la 2080Ti.

Se espera que esta Navi22 sea competencia de la 3070 y que Navi21 haga sombra a 3080.

A ver si con mejor relación rendimiento/€ o al menos con más VRAM

Ha estado divertida la noche. Ha habido algo de actividad en rogame, locuza, 3dcenter...


La gracia es toda la gente que va a comprar Ampere ahora que no tienen competencia. Pero cuando vengan las consolas, Big Navi y toda la gama este fuera, los precios van a cambiar.

Asi que me remito a lo que pensaba antes de Ampere. Mal momento para comprar antes, mal momento para comprar ahora.

Yo sigo apostando a que AMD se va a quedar en la puerta como siempre hace, que ojala de un pollazo sobre la mesa, pero lo que si es 100% seguro, que con el marketing que ha hecho NVIDIA, y los problemas de distribucion que dice tener samsung, se van a agotar enseguida y subiran los precios.

En cualquier caso, me voy a pillar una founder (o intentarlo), esas van a desaparecer si o si XD, si no puedo, pues esperare a ver que pasa, hasta noviembre que salga el Cyberpunk tengo tiempo
...
Editado por metalgear. Razón: Falta de respeto
Y me pregunto yo, el sistema de salida de aire caliente de las FE en la parte de atrás no dañara las salidas HDMI y demás? Se van a tener que poner bien calentitos los puertos.


A propósito he visto la 3080 y 3090 de Galaxy el modelo Metallica se llama, que chulas son.
jiujinkai escribió:Y me pregunto yo, el sistema de salida de aire caliente de las FE en la parte de atrás no dañara las salidas HDMI y demás? Se van a tener que poner bien calentitos los puertos.

Igual que las founders de la 1080 y demas, no creo que salga aire a 100º de ahi XD
Nowcry escribió:La cuestión es que solo estas valorando los CUDA cores, olvidando TMU, ancho de banda de memoria, Nucleos RT por ejemplo es 82/68, núcleos Tensor mayores, para trabajar en las mismas resoluciones los tensor son muy beneficiosos ya que de ellos solos depende un proceso complejo que suele lastrar varios ms, y no solo compensar en los shaders y restar unos ms si no que también se restaran en denoising y en RT, dejando la GPU mas acorde a lo que dice el compañero sin tener en cuenta que las versiones caras suelen obtener siempre mejores tratamientos de OC. Por ejemplo EVGA ha conseguido poner la 3080 a 1933 MHz arrojando una capacidad de calculo FP32 de 33.65 Tflops- Y EVGA a conseguido poner la 3090 a 2105 Mhz arrojando una capacidad de calculo FP32 de 44.19 Tflops.

33.65/44.19 = 0.761 que es el 25% del compañero sin tener en cuenta RT ni Tensor en la ecuacion, sin embargo tienes razón con que la parelizacion pierde rendimiento, sin embargo esta es compensada por los procesos singulares que ejecutan los RT y de los Tensor en cada frame posiblemente compensada con creces.

Aun así esa no es la gran diferencia, la gran diferencia son los carriles de GDDR 24 GB, el gran problema es que las memorias de 2 GB de GDDR6X son muy caras y consumen mucha energía, esa es la razón por la que la 3080 y la 3070 tienen solo memorias de 1 Gb. También me gustaría decir que la PCB de la 3090 posiblemente sea la de la TITAN con chips de 1 GB en vez de 2 GB, eso también significa que el proceso de fabricación de la PCB es mucho mas cuidadosa sobre todo con las fases de alimentación lo que permite OCs mas altos en el Clock pero también en la Memoria, agregar que la 3090 cuenta con un controlador de memoria mas y que funciona a una frecuencia mas alta. Y por ultimo la diferencia clave es que a partir de 10 GB de GDDR la 3080 morira de freeze mientras que la 3090 continua resistiendo hasta mas del doble, es una posibilidad frente a una imposibilidad, y esa posibilidad es muy importante de aquí al futuro.

3080, 10 chips de 1 GB , 3070 8 chips de 1 GB

Cuando a la 3080 le pongan los chips de 2 GB sera la 3080 Ti con 20 GB de GDDR pero dejara de costar 799 para posiblemente pasar a costar 1199. Lo que la dejaría en el rango de precio exacto, rendimiento/precio.

Cuando a la 3090 le pongan los módulos de 2 GB tendrá 48 GB de GDDR y pasara a llamarse la titan y pasara a valer 2500.

Todo esto con algún aumento de Shaders Unit si es posible.

Lo que han hecho en Nvidia es ponerle a la 3090 la PCB de la Titan con 24 chips de 1 GB y esperar a que los modulos de 2 gb se vuelvan mas económicos enérgicamente y en dinero para poder realizar un diseño viable. El proceso y la PCB de la titan esta mucho mas cuidado con muchísimas mas fases de alimentación lo


Lo clavaste!!
CrusardGameamos escribió:
jiujinkai escribió:Y me pregunto yo, el sistema de salida de aire caliente de las FE en la parte de atrás no dañara las salidas HDMI y demás? Se van a tener que poner bien calentitos los puertos.

Igual que las founders de la 1080 y demas, no creo que salga aire a 100º de ahi XD

Básicamente lo que se pone a 75ºC es el chip principal, eso no quiere decir ni que entre aire a esa temperatura ni que salga a esa o más, además de que hacen falta más de 300ºC por aire (y muy constante y fijo) para fundir cualquier componente soldado o metálico. A unas malas puede deformar un poco el plástico de algo, y dudo que eso pase si el flujo externo a la gráfica ronda los 50ºC.
31123 respuestas