[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

@joanvicent Con texturas ultra+raytracing....con 8gb ya se están quedando cortas.
Pulet escribió:@joanvicent Con texturas ultra+raytracing....con 8gb ya se están quedando cortas.

Pues yo que me gasté mis ahorros hace meses en un Dell 32" 165hz 1440p creo que no voy a poder comprar una GPU que rellene todos esos píxeles de raytracings [angelito]
Pulet escribió:@joanvicent Con texturas ultra+raytracing....con 8gb ya se están quedando cortas.

Pues tan contentillos están ellos vendiendo el timo de la RTX 2060 de 6GB por más de 300€.

Estoy de acuerdo en que los 8GB para altas resoluciones puede empezar a ser un problema, pero Nvidia lleva años dominando el mercado y haciendo de las suyas. En cuestión de memoria, siempre un paso por detrás de AMD en toda las gamas salvo las súper caras.
Lo llevo diciendo varios días, la 3090 de 24 gigas es la Titán Ampere, la 3080 puede ser que lleve 10 o 12 gigas hasta que no esté confirmado son rumores, también hay que decir que Micron confirmó una supuesta 3090 de 12 gigas (3080ti?) Pues por ahí pueden ir los tiros, otra cosa a tener en cuenta, habláis de memoria insuficienciente, si, yo 10 gigas lo veo algo corto pero tampoco tanto, me explico, la memoria es más rápida, al ser más rápida no se llena igual que una más lenta ( no ocupa tantas gigas un mismo juego en una memoria RAM más lenta que en una más rápida) y 2 es que éstas gráficas vendrán con Direct storage al igual que PS5 y XsX así que la VRAM al igual que es muy importante ya no lo es tanto como antes pues se comunica la gráfica con el SSD sin pasar por el procesador principal, de todas maneras hasta que no hable el chino Juan todo son rumores
joanvicent escribió:
eric_14 escribió:Me preocupan esos 10gb de la 3080... aunque la 2080 tiene solo 8.

¿por qué son preocupantes? aclaro que hablo desde el desconocimiento, porque yo tengo gpus de 2GB en monitores fullhd y van bien, y cuando hablamos de estas cifras me asombro

Yo tengo 4gb y a 1080p ya se satura mucho nose como lo haces con 2gb.
joanvicent escribió:
Pulet escribió:@joanvicent Con texturas ultra+raytracing....con 8gb ya se están quedando cortas.

Pues yo que me gasté mis ahorros hace meses en un Dell 32" 165hz 1440p creo que no voy a poder comprar una GPU que rellene todos esos píxeles de raytracings [angelito]

La mia es de 32" 1440p pero de 75hrz,se que es un gustazo jugar a mas fps, pero te autolimitas más al requerir más potencia gráfica.
Hace semanas que se viene hablando de la 3080 en 2 versiones 10GB/20GB, yo confio en las AIB como ASUS,MSI,ZOTAC,EVGA,etc nos traigan el mismo dia de salida de las nuevas AMPERE FOUNDERS o con una semana/s de diferencia las versiones de 20GB, porque 10GB es claramente un handicap dificil de aceptar para muchos de nosotros a 800€ por targeta, prefiero pagar un sobrecoste de 100/150€ pero garantizarme unos años mas jugando a 4k +raytracing sin probremas de falta de VRAM
Claro, 10gb para los que jugáis a 1080 os sobra pero los que jugamos a 4k la memoria es importantísima, y 10gb está demasiado justo, tiene poco futuro (aunque sea suficiente en el presente). Pero claro, cuando te dejas 800 pavos en una gráfica pues esperas que te dure unos añitos y con 10gb dudo que dure más de dos...
logeim1924 escribió:
joanvicent escribió:
eric_14 escribió:Me preocupan esos 10gb de la 3080... aunque la 2080 tiene solo 8.

¿por qué son preocupantes? aclaro que hablo desde el desconocimiento, porque yo tengo gpus de 2GB en monitores fullhd y van bien, y cuando hablamos de estas cifras me asombro

Yo tengo 4gb y a 1080p ya se satura mucho nose como lo haces con 2gb.

Pues bajando calidades, después bajando resolución.. y así, si quieres hacemos un intercambio y te enseño [sati]
logeim1924 escribió:
joanvicent escribió:
eric_14 escribió:Me preocupan esos 10gb de la 3080... aunque la 2080 tiene solo 8.

¿por qué son preocupantes? aclaro que hablo desde el desconocimiento, porque yo tengo gpus de 2GB en monitores fullhd y van bien, y cuando hablamos de estas cifras me asombro

Yo tengo 4gb y a 1080p ya se satura mucho nose como lo haces con 2gb.

Todo depende para que lo uses. Para jugar al fortnite va bien. XD

No me da ninguna pena el que juega a 4K y se queja de que no le va a llegar el dinero. Lo siento, no tengo falta de empatia, es que no puedo simplemente.

Ademas todos los que compraron anteriores gama top de Nvidia, le fueron haciendo la cama. Quejense ahora.

Yo no tendria mucho problema en comprar una 2060 de 6GB. Para lo que yo hago, iba a tener bastante ganancia frente a mi GTX 1060.
kikomanco escribió:Lo llevo diciendo varios días, la 3090 de 24 gigas es la Titán Ampere, la 3080 puede ser que lleve 10 o 12 gigas hasta que no esté confirmado son rumores, también hay que decir que Micron confirmó una supuesta 3090 de 12 gigas (3080ti?) Pues por ahí pueden ir los tiros, otra cosa a tener en cuenta, habláis de memoria insuficienciente, si, yo 10 gigas lo veo algo corto pero tampoco tanto, me explico, la memoria es más rápida, al ser más rápida no se llena igual que una más lenta ( no ocupa tantas gigas un mismo juego en una memoria RAM más lenta que en una más rápida) y 2 es que éstas gráficas vendrán con Direct storage al igual que PS5 y XsX así que la VRAM al igual que es muy importante ya no lo es tanto como antes pues se comunica la gráfica con el SSD sin pasar por el procesador principal, de todas maneras hasta que no hable el chino Juan todo son rumores


No puedes comparar velocidades de VRAM y de SSD.
joanvicent escribió:
logeim1924 escribió:
joanvicent escribió:¿por qué son preocupantes? aclaro que hablo desde el desconocimiento, porque yo tengo gpus de 2GB en monitores fullhd y van bien, y cuando hablamos de estas cifras me asombro

Yo tengo 4gb y a 1080p ya se satura mucho nose como lo haces con 2gb.

Pues bajando calidades, después bajando resolución.. y así, si quieres hacemos un intercambio y te enseño [sati]

El Warzone bajando todo no me llega y lo tengo a 900p aunque también sera culpa de mi procesador 8gb de ram. Pero que mete picos 100% de carga a la gráfica..
Gwyn escribió:
kikomanco escribió:Lo llevo diciendo varios días, la 3090 de 24 gigas es la Titán Ampere, la 3080 puede ser que lleve 10 o 12 gigas hasta que no esté confirmado son rumores, también hay que decir que Micron confirmó una supuesta 3090 de 12 gigas (3080ti?) Pues por ahí pueden ir los tiros, otra cosa a tener en cuenta, habláis de memoria insuficienciente, si, yo 10 gigas lo veo algo corto pero tampoco tanto, me explico, la memoria es más rápida, al ser más rápida no se llena igual que una más lenta ( no ocupa tantas gigas un mismo juego en una memoria RAM más lenta que en una más rápida) y 2 es que éstas gráficas vendrán con Direct storage al igual que PS5 y XsX así que la VRAM al igual que es muy importante ya no lo es tanto como antes pues se comunica la gráfica con el SSD sin pasar por el procesador principal, de todas maneras hasta que no hable el chino Juan todo son rumores


No puedes comparar velocidades de VRAM y de SSD.

Lo sé, pero el Direct storage va a ser una revolución pues va a descargar mucho la carga de VRAM de la tarjeta gráfica y ese es uno de los puntos fuertes de PS5, que es mejor 16 gigas pues claro, pero entre la compresion de memoria que va a tener Nvidia gracias a los tensor Cores y el Direct storage, unido a una memoria ultrarrapida puede ser que haya suficiente con los 10 gigas de VRAM
Lo que creo que se intenta explicar es que la VRAM hasta ahora era el sitio donde el juego almacenaba TODO lo que tenía que mostrar por pantalla (además de lo que estaba a su alrededor). Ahora en PS5 y XSX hablan que gracias a la velocidad del SSD especial, ya no es necesario dejar todo en la VRAM porque con meter ahí lo justo y necesario para el segundo que aparecerá en pantalla es suficiente. ¿que ocurre? Que claro, eso solo es posible si la VRAM se llena directamente casi a la misma velocidad que la CPU y la GPU van demandando y esto solo se ha conseguido subiendo la velocidad de lectura del SSD y bifurcandolo con muchas pistas de comunicación que van a cada parte de esa memoria ultrarrápida. ¿esto lo van a implementar en PC? Seguro que SI, pero aún no sabemos muy bien como y mientras eso llega, hay que tener cuidado con la VRAM porque el RayTracing come mucho, así como los assets en ULTRA, etc etc... y eso no para de crecer mientras que las tecnologías como el DLSS o la compresión de texturas, ayudan a disminuir dicho crecimiento, pero no está claro si lo suficiente como para reducir las cargas actuales y futuras.
Zaguer escribió:Claro, 10gb para los que jugáis a 1080 os sobra pero los que jugamos a 4k la memoria es importantísima, y 10gb está demasiado justo, tiene poco futuro (aunque sea suficiente en el presente). Pero claro, cuando te dejas 800 pavos en una gráfica pues esperas que te dure unos añitos y con 10gb dudo que dure más de dos...

Lo he dicho varias veces y lo repito, ni la gama x80 ni la x80 ti son están pensadas para aguantarse muchos años.
Por que es absurdo, por lo que cuesta la 3080 te compras una 3070, guardas la diferencia y de aqui a dos años con eso guardado y vendiendo la 3070 te compras la 4070.
Son gamas para gente que quiere lo mejor o casi lo mejor y que va a cambiar de gráfica en cada generación.
Si, pero hay un claro estancamiento en la VRAM, había una progresión de crecimiento que puse unas páginas atrás y en los últimos años, se ha parado y ya no crece al mismo ritmo. esos 8GB llevan ya mucho tiempo (demasiado) y subir a 10 solo la 3080 me parece arriesgado (a no ser que lo tengan todo muy bien calculado y controlado) porque la 3070 lleva ya 4 años en 8 GB y tiene pinta que va a durar otros 2... T_T
@adriano_99 me describes el supuesto público de las 3080, y yo que me voy a comprar una (es decir, su público) no entro en la descripción? Gracioso cuanto menos XD
adriano_99 escribió:
Zaguer escribió:Claro, 10gb para los que jugáis a 1080 os sobra pero los que jugamos a 4k la memoria es importantísima, y 10gb está demasiado justo, tiene poco futuro (aunque sea suficiente en el presente). Pero claro, cuando te dejas 800 pavos en una gráfica pues esperas que te dure unos añitos y con 10gb dudo que dure más de dos...

Lo he dicho varias veces y lo repito, ni la gama x80 ni la x80 ti son están pensadas para aguantarse muchos años.
Por que es absurdo, por lo que cuesta la 3080 te compras una 3070, guardas la diferencia y de aqui a dos años con eso guardado y vendiendo la 3070 te compras la 4070.
Son gamas para gente que quiere lo mejor o casi lo mejor y que va a cambiar de gráfica en cada generación.

De aquí a 2: años igual te has muerto y no lo disfrutas, cada cual que haga con dinero lo que crea mejor y si quiere una 3080 pues una 3080
Zaguer escribió:@adriano_99 me describes el supuesto público de las 3080, y yo que me voy a comprar una (es decir, su público) no entro en la descripción? Gracioso cuanto menos XD

Te he descrito el para que existen esas gamas.
Que tu puedes comprartela y renovarla de aquí a 10 años?
Claro, también hay gente que con una 2080 ti que juega solo a minecraft.
Pero ambas cosas son un malgasto de dinero porque salvo que quieras jugar a 4k ultra mas de 60 fps o 1440p 1440fps para cuando empieces a necesitar toda su potencia ya esta la 4070 a la venta que la va a superar en todo.
Y si estas en una de esas dos situaciones en las que hoy vas a sacar provecho de la 3080 de aquí a dos años se ha quedado corta.

kikomanco escribió:
adriano_99 escribió:
Zaguer escribió:Claro, 10gb para los que jugáis a 1080 os sobra pero los que jugamos a 4k la memoria es importantísima, y 10gb está demasiado justo, tiene poco futuro (aunque sea suficiente en el presente). Pero claro, cuando te dejas 800 pavos en una gráfica pues esperas que te dure unos añitos y con 10gb dudo que dure más de dos...

Lo he dicho varias veces y lo repito, ni la gama x80 ni la x80 ti son están pensadas para aguantarse muchos años.
Por que es absurdo, por lo que cuesta la 3080 te compras una 3070, guardas la diferencia y de aqui a dos años con eso guardado y vendiendo la 3070 te compras la 4070.
Son gamas para gente que quiere lo mejor o casi lo mejor y que va a cambiar de gráfica en cada generación.

De aquí a 2: años igual te has muerto y no lo disfrutas, cada cual que haga con dinero lo que crea mejor y si quiere una 3080 pues una 3080


Yo a veces no se si es que no me explico o si la gente no sabe leer.

El ha dicho que la 3080 con 10 GB de aquí a dos años se habrá quedado justa de memoria.
Y yo he explicado que lleva 10GB por la misma razón por la que la 2080 salio con 8 y hoy en día ya empiezan a ser insuficientes y es porque NO están diseñadas para mantener 4 o mas años, ninguna gama x80 lo esta.
Luego obviamente que cada uno haga lo que quiera con su dinero pero si compras un producto para darle un uso diferente para el que fue diseñada no te puedes quejar luego de las consecuencias.
Válgame dos, será que no hay gente aún con su 980 o 1080 aún disfrutando sin problemas de los juegos... En fin, 2 años, claro que sí
kikomanco escribió:Válgame dos, será que no hay gente aún con su 980 o 1080 aún disfrutando sin problemas de los juegos... En fin, 2 años, claro que sí

Ni la 080 ni la 980 hoy en día aguantan a la resolución para la que fueron pensadas.
Y por la misma razón, falta de memoria.
Cualquiera que hoy día siga con una 980 es porque esta jugando a una resolución inferior a la que fue pensada la gráfica.
Y si ese es el caso o una de dos o has bajado de resolución con el tiempo o te la compraste ya para una resolución mas baja que no le sacaba todo el potencial.
Si ese es el caso empiezas con una 970 y para cuando empieces a necesitar mas potencia la vendes y te compras una 1070.
Gastas el mismo dinero y terminas con un producto mejor.
Así que si, haberse gastado en su día el dinero que vale una 980 para aguantarla tantos años fue una mala decisión, te pongas como te pongas.
Porque esa misma persona gastando el mismo dinero hoy tendría una 1070.
pues para mi, hasta ahora lo mas preocupantes es la posible salida de una unida 3080 de solo 10gb de lanzamiento....
esperemos no sea asi...
yo tambie lo veo corto.

puede q solo sea para las fe?
@adriano_99 según tu criterio, que gama es la que está pensada para aguantar más? Una supuesta 3050 que no llegara a 4k 60hrz desde el primer día?

Hombre no... de toda la vida cuanto más gastas en algo más se supone que te tendría que aguantar.

Un i7 te aguantará más que un i5. Un ryzen 7 te aguantará más que un ryzen 5 y así con todo.
Que mínimo que 10 en 3060, 16 en 3070/3080 y 20 o más para la 3090.
Zaguer escribió:@adriano_99 según tu criterio, que gama es la que está pensada para aguantar más? Una supuesta 3050 que no llegara a 4k 60hrz desde el primer día?

Hombre no... de toda la vida cuanto más gastas en algo más se supone que te tendría que aguantar.

Un i7 te aguantará más que un i5. Un ryzen 7 te aguantará más que un ryzen 5 y así con todo.

El tema de los procesadores es distinto ya que no sufren de varios tipos de cuellos de botella.
Y si, las gamas pensadas para aguantar varios años son las x60 y x70.
Esa es la razón por la que la 970 y la 980 tienen la misma cantidad de memoria.
Es la razón por la que la 2060 super y la 2080 super tienen la misma cantidad de memoria cuando no están pensadas ni de lejos para la misma resolución.
Ninguna gama x80 ha llevado suficiente memoria para aguantar mas de 2 años jugando en el pico de resolución del momento, y la 3080 con sus 10Gb no va a ser excepción.
Bueno venga, que ya queda menos para salir de dudas [beer]
@adriano_99 de verdad que no tiene ningún sentido lo que dices. Si yo quiero jugar en ultra a 4k desde el primer día, como me va a durar más una supuesta 3060 que probablemente no me de 4k@60 desde el primer día que la instalo?

Tio, que es de cajón, cuanta más potencia más te aguanta.

Que no te aguante quizás en proporción a lo que pagas? Puede que no, y si te refieres a eso pues ok. Pero eso no quita, que si me compro una 3080 espero que me dure más que una 3060, vamos, es lo lógico.

Yo me tire con una GTX 770 4 añazos tan ricamente, si me compro una 3080 me gustaría que me durase lo mismo o más, pero eso 10gb me dan mala espina y me huele a dos años Max...
Que menos que te dure 5 años jugando a la resolución ideal para ese modelo, recuerdo la 290x, desde el 2014 hasta el 2019, no baje de 1080p 60, al final es lógico que bajes ajustes, pero misma resolución .
Daicon escribió:pues para mi, hasta ahora lo mas preocupantes es la posible salida de una unida 3080 de solo 10gb de lanzamiento....
esperemos no sea asi...
yo tambie lo veo corto.

puede q solo sea para las fe?


yo estoy igual... aunque como siempre depende de los precios...
una 3080 de 10Gb ni me lo pienso, si saliera una 3080 de 20Gb mas barata que la 3090 de 24Gb seguro que iria a por esa si se pasan mucho con el precio de la 3090

espero que realmente la 3090 este en el rango de precio de las 2080ti y no se vaya mucho mas, por que quedarme con una supuesta 3080 de 10Gb no me haria especial gracia, y esperar a una de 16-20Gb tampoco [mad]
Zaguer escribió:@adriano_99 de verdad que no tiene ningún sentido lo que dices. Si yo quiero jugar en ultra a 4k desde el primer día, como me va a durar más una supuesta 3060 que probablemente no me de 4k@60 desde el primer día que la instalo?

Tio, que es de cajón, cuanta más potencia más te aguanta.

Que no te aguante quizás en proporción a lo que pagas? Puede que no, y si te refieres a eso pues ok. Pero eso no quita, que si me compro una 3080 espero que me dure más que una 3060, vamos, es lo lógico.

Yo me tire con una GTX 770 4 añazos tan ricamente, si me compro una 3080 me gustaría que me durase lo mismo o más, pero eso 10gb me dan mala espina y me huele a dos años Max...

Pero es que si quieres jugar a 4k ultra de aquí a dos años tendrás que cambiar de gráfica o bajar ajustes.
Yo te he explicado el porque la 3080 y la 2080 y todas sus predecesora si han quedado cortas de memoria a los 2 años, si prefieres pensar que nvidia no sabe diseñar graficas adelante.
adriano_99 escribió:
Zaguer escribió:@adriano_99 según tu criterio, que gama es la que está pensada para aguantar más? Una supuesta 3050 que no llegara a 4k 60hrz desde el primer día?

Hombre no... de toda la vida cuanto más gastas en algo más se supone que te tendría que aguantar.

Un i7 te aguantará más que un i5. Un ryzen 7 te aguantará más que un ryzen 5 y así con todo.

El tema de los procesadores es distinto ya que no sufren de varios tipos de cuellos de botella.
Y si, las gamas pensadas para aguantar varios años son las x60 y x70.
Esa es la razón por la que la 970 y la 980 tienen la misma cantidad de memoria.
Es la razón por la que la 2060 super y la 2080 super tienen la misma cantidad de memoria cuando no están pensadas ni de lejos para la misma resolución.
Ninguna gama x80 ha llevado suficiente memoria para aguantar mas de 2 años jugando en el pico de resolución del momento, y la 3080 con sus 10Gb no va a ser excepción.


Hay alguna excepción a la regla, como la 1080Ti con sus 11 gigazos, que por cierto aún da la talla la jodía.

Vaya compraza hicieron los que la pillaron de salida al "precio-ganga" que salió (visto en perspectiva parece barato, eh?).
10Gb de vRAM en la 3080 es una mierda os pongáis como os pongáis, ni compresión ni leches, mínimo 12 y me parecen pocos. Quedan 6 días.

@Gwyn La serie 9xx y 10xx me recuerda a los Intel Sandy Bridge, menudos bichos. A esas graficas les queda mucho aun.
Gwyn escribió:
adriano_99 escribió:
Zaguer escribió:@adriano_99 según tu criterio, que gama es la que está pensada para aguantar más? Una supuesta 3050 que no llegara a 4k 60hrz desde el primer día?

Hombre no... de toda la vida cuanto más gastas en algo más se supone que te tendría que aguantar.

Un i7 te aguantará más que un i5. Un ryzen 7 te aguantará más que un ryzen 5 y así con todo.

El tema de los procesadores es distinto ya que no sufren de varios tipos de cuellos de botella.
Y si, las gamas pensadas para aguantar varios años son las x60 y x70.
Esa es la razón por la que la 970 y la 980 tienen la misma cantidad de memoria.
Es la razón por la que la 2060 super y la 2080 super tienen la misma cantidad de memoria cuando no están pensadas ni de lejos para la misma resolución.
Ninguna gama x80 ha llevado suficiente memoria para aguantar mas de 2 años jugando en el pico de resolución del momento, y la 3080 con sus 10Gb no va a ser excepción.


Hay alguna excepción a la regla, como la 1080Ti con sus 11 gigazos, que por cierto aún da la talla la jodía.

Vaya compraza hicieron los que la pillaron de salida al "precio-ganga" que salió (visto en perspectiva parece barato, eh?).

joer yo me acuerdo que la compre al cabo de unos meses a 850€ y me parecia carisima... visto lo visto los precios que han puesto para las RTX 2000 y lo que se nos viene en las 3000 no estaba nada mal....

la vendi ayer por 400 y aun me sabe mal...vaya tarjetón...
Es que si es cierto habrá que esperar a amd... estás gráficas deberían aguantar bastante ya que supuestamente son más potentes que las consolas que serán las que pongan el límite a los desarrolladores pero te hacen la jugarreta de ponerte solo 10gb... es como intel con sus procesadores con mala pasta térmica para que tengas problemas si intentas hacer OC y que además te hace tener malas temps... (por esta razón tengo un ryzen 2700x cuando los intel todavía eran mejores)

A mi estas jugarretas me tocan mucho la moral y nvidia no es una empresa a la que la tengo mucho aprecio por este tipo de cosas... luego además te pedirán 800€...

Ya esperaba que sorprendieran para mal, ojalá sea falso y venga por lo menos con 12 o 14gb.
Gwyn escribió:
adriano_99 escribió:
Zaguer escribió:@adriano_99 según tu criterio, que gama es la que está pensada para aguantar más? Una supuesta 3050 que no llegara a 4k 60hrz desde el primer día?

Hombre no... de toda la vida cuanto más gastas en algo más se supone que te tendría que aguantar.

Un i7 te aguantará más que un i5. Un ryzen 7 te aguantará más que un ryzen 5 y así con todo.

El tema de los procesadores es distinto ya que no sufren de varios tipos de cuellos de botella.
Y si, las gamas pensadas para aguantar varios años son las x60 y x70.
Esa es la razón por la que la 970 y la 980 tienen la misma cantidad de memoria.
Es la razón por la que la 2060 super y la 2080 super tienen la misma cantidad de memoria cuando no están pensadas ni de lejos para la misma resolución.
Ninguna gama x80 ha llevado suficiente memoria para aguantar mas de 2 años jugando en el pico de resolución del momento, y la 3080 con sus 10Gb no va a ser excepción.


Hay alguna excepción a la regla, como la 1080Ti con sus 11 gigazos, que por cierto aún da la talla la jodía.

Vaya compraza hicieron los que la pillaron de salida al "precio-ganga" que salió (visto en perspectiva parece barato, eh?).

La 1080ti es como el copo de nieve de las gamas entusiasta xD
Pero si, en ese caso en concreto es una gráfica que ha valido la pena mantener.
Pues por llevar la contraria voy a decir que 10gb lo veo correcto, justo, pero correcto.

Prefiero una 3080 de 10gb a 750€ que una de 20gb a 950€.
Gwyn escribió:https://www.reddit.com/r/pcmasterrace/comments/igue6i/me_installing_the_rtx_3090_in_to_my_build

https://www.reddit.com/r/pcmasterrace/c ... e_rtx_3090

https://www.reddit.com/r/pcmasterrace/c ... ti_arrives

Humor que no falte [plas]


[qmparto]

La del coche es brutal y la otra parece que el ruso no iba mal encaminado con la RTX 2090 xD
Gwyn escribió:https://www.reddit.com/r/pcmasterrace/comments/igue6i/me_installing_the_rtx_3090_in_to_my_build

https://www.reddit.com/r/pcmasterrace/c ... e_rtx_3090

https://www.reddit.com/r/pcmasterrace/c ... ti_arrives

Humor que no falte [plas]


Me he orinado [plas] [plas] [plas] [plas]
Gwyn escribió:https://www.reddit.com/r/pcmasterrace/comments/igue6i/me_installing_the_rtx_3090_in_to_my_build

https://www.reddit.com/r/pcmasterrace/c ... e_rtx_3090

https://www.reddit.com/r/pcmasterrace/c ... ti_arrives

Humor que no falte [plas]

Muy bueno, lo mejor que le leido en este tema en muchas paginas. Puedo imaginarme gente rompiendo la torre para meter una 3090 o con problemas de temperatura al meter semejante bicho en un PC nada preparado.

Lo de jugar a la maxima resolución posible siempre ha tenido el mismo problema, lo que ahora lo permite, no lo va a permitir mañana y nunca ha sido barato. Asi que alguien en ese plan, tendra que gasta más y antes para mantener ese nivel.

Por eso yo sigo con 1080p. Y como yo otros muchos. Yo compro una 3060 mañana y me dura facilmente 4 años de buen rendimiento. Otros compran una 3090 para jugar a 4K y les dura 2 años. Es asi. Y no hay más vuelta de tuerca.

¿Y si para jugar al maximo hay que gastar 2500€ entre grafica y monitor (lo digo a voleo)? ¿por que Nvidia u otro fabricante deberia pensar en ofrecer ese rendimiento por menos dinero?

Me conformo bastante con que sacaran una gama media como las 16XX a precios de antes cuando podian simplemente haber dejado de hacerlo a secas.

Muy aburrida esta la gente......
Imagen
@adriano_99 A mi juegos como el Red Dead Redemption 2 me ponen los pies en la tierra. Con mi 2080 es imposible ponerlo a tope a 1080p y que eso dé 60 cuadros por segundo, más bien está cerca de la mitad de eso si lo pongo todo al máximo. Ahora mismo no hay más juegos como éste que yo sepa, con el resto la gráfica a 1080p coge los 60 cuadros siempre teniendo todo al máximo. Y es que uno se malacostumbra a ponerlo todo al máximo en todas partes a 1080p con tarjetas como la mía. Ya sé que esta gráfica es más para 1440p que para 1080p. Yo quería pillar la más tocha posible en aquel momento y que el precio directamente no me pareciera una tomadura de pelo. Aún así fueron 850 euros. Tampoco necesito yo tener un monitor de más resolución de la que tengo y lo que he visto del 4k no me termina de llamar como para dar el salto.

Tienes razón en lo que has dicho antes, eso de que las X80 no aguantan más de 2 años de esa manera. Las gráficas turing de todas formas han sido un tanto especiales en eso, ya que han habido juegos (pocos) que ni la 2080ti aguantaba el tirón a 4k, ni activando dlss, siempre y cuando el juego hiciera uso del raytracing. A bote pronto me acuerdo del minecraft rtx, a 4k ni la titan rtx es capaz siquiera. Hasta dudo que lo consigan las nuevas gráficas que salen ahora con ese juego en particular a 4k, por mucho que ganen en potencia los nuevos núcleos rt. También pueden considerarse una excepción a la regla.

Por lo menos en mi caso, cuando compré la 2080 ya lo estaba suponiendo todo esto, lo que iba a lastrar el raytracing a los cuadros. Y más que suponer, es que ya lo estaban diciendo estos de Nvidia de alguna manera porque aquello no fue anunciar solamente los núcleos rt, que también decían que habían unos núcleos tensor que hacían cosas mágicas con el tratamiento de las imágenes y que iban a ayudar a los primeros a conseguir una tasa de cuadros suficiente para lo que quiere la gente.

Mucho se ha criticado a las turing y los que las hemos comprado, por el tema de los early adopters y los sobreprecios. Yo sigo pensando que todavía los tensor se pueden aprovechar todavía más de lo que se aprovechan, porque nvidia sigue siendo puntera en el tema de la inteligencia artificial y aún así el software todavía no está explorado completamente. También creo que a la larga estos primeros núcleos tensor no se les sacará todo el potencial que tienen y que eso pasará a largo plazo, pero seguramente nvidia querrá que se adapte el software a las últimas versiones de núcleos tensor que haya en ese momento. Y como no creo que esto pase ni con los tensor de ahora, ni con los de ampere y probablemente tampoco ocurrirá con los de la siguiente generación, razón de más para estarme quieto con esto. Mientras los que tengo sirvan para poder probar las cosas que vayan saliendo yo estaré contento, como dije el otro día con el dlss 3, espero que no quieran hacer la guarrada con eso en particular por ahora.
Bueno, si son ciertos los rumores, no cabe duda que la 3090 es la Ampere Titán con 24 gigas, lo que deja en el cajón a la 3080 ti seguramente con 12/16 gigas, y sacarán de inicio la 3080 con 10 gigas supuestamente, que estará por ver, en éste panorama, si solo sacan esas 2 tarjetas en la gama alta, es esperar a ver qué trae AMD por qué la verdad que lo de Nvidia no pinta muy bien
Pero la supuesta 3080 de 10gb de VRAM será GDDR6X o GDDR6? O todavía no se sabe?
No hay posibilidad de que las custom de la 3080 vengan con más de 10gb.??
Ni se había filtrado algo así?

Menuda patada en los eggs....
que llegue ya el dia 1 por dios y asi salimos de dudas sobre que modelos y precios etc
kikomanco escribió:Válgame dos, será que no hay gente aún con su 980 o 1080 aún disfrutando sin problemas de los juegos... En fin, 2 años, claro que sí


Todo el hilo es igual. Gente que o no puede, o pudiendo, no se ha gastado nunca o no se quiere gastar el dinero que cuestan esas tope de gama. Como no pueden tener lo que ofrecen por lo que ellos pueden pagar o estas dispuestos a pagar, pues lo de siempre, eso que es tan castizo nuestro, a ningunear, menospreciar, faltar, y poner mil y una excusas.

Porque no se entiende muy bien, que cojones hace aqui gente quejandose de que las tope de gama de ampere van a ser caras, cuando eso es algo QUE YA SE SABE. De verdad quieren vender que lo que pasa es que esperaban que ahora envidia les diese una gráfica un x% mas potente que una ti, con el doble de vram MAS MODERNA Y RAPIDA, por la mitad de lo cuesta una ti?? No hace falta ni ponerle calificativo a quien tiene eso en la cabeza, se califica solo.

Ya hemos puesto el ejemplo, y es lapidario. Esto es como si nos vamos al foro de Ferrari a decir que jooo que mierda el nuevo modelo que caro es, pero sino mejora casi nada del anterior, pero si un mercedes de 100 000 euros menos corre casi lo mismo, pero pero pero, eh eh eh. De verdad, que no se que edad tienen algunos o en que mundo viven.

Simple frustración, ni mas ni menos. Yo he tenido gráficas de 100, de 150, de 500, de mil y mas, de 700, y siempre he sido feliz. He procurado comprarme siempre lo mejor que he podido pagar, porque este es mi hobby y me gusta, igual que el que se gasta 100 euros en unas Nike, hubiendolas de 30, o mas de mil pavos en una puñetera bici para salir los fines de semana a estorbar en la carretera. Pero aqui erre que erre, a poner excusas cutres y pateticas, a justificarse, a poner mil y una pegas, porque entienden la situación si les pones cualquier ejemplo que les venga bien (zapatillas, coches, la cuota del gimnasio, gafas de sol, un viaje a canarias, etc etc) pero no lo entienden en este concreto que hablamos aqui. ¿Curioso no? ¿De verdad no se dan cuenta de lo tonto que es? Esque no hay nada que hablar, mas que esperar que salgan , ver cuanto rinden, cuanto se calientan, que exigen para su uso, y a partir de ahi podemos discutir si es una buena mejora respecto de lo anterior, sino lo es , etc.

Pero estar de verdad dandole vueltas y vueltas y vueltas a joooo esque son mas caras, jooo esque articulos dirigidos a un publico minoritario y muy exigente son mas caros que los que van dirigidos a gran consumo, joooo, esque yo quiero 6 por 2, joooooo. Por favor, madurad hombre y dejar de dar la brasa con vuestras estrategias de economia domestica, proque si tanto os cuesta poder permitiros sin problemas algo asi, no se os debe dar demasiado bien, eh... Compraos una consola hombre, y tan contentos, bueno, hasta que dentro de 2 años, si estas gráficas les meten demasiado folle, saquen revisiones pro para acortar brecha, de nuevo, y entonces os vais a los foros de consolas a explicar, como aqui, vuestras estrategias de economia domestica y lo tonto o lo listo que es haber esperado a las pro, o haber comprado de salida las nuevas, o cambiar a las pro o no teniendo las otras... Si esque ... [facepalm]

A ver si salen ya y podemos hablar de RENDIMIENTO y POTENCIA que es lo que interesa aqui. Yo no pienso comprarme una Ampere durante su primer año de vida seguramente, porque los mejores ensambles suelen llegar pasados varios meses, y me corre cero prisa. Pero tengo la ilusion de ver para que sirven y hasta donde llegan, que me parece lo importante, y despues, con esos datos en la mano, ya incluso igual se puede hablar de si valen lo que cuestan o mas o menos. Ahora es eso, pura frustracion y ponerse tiritas antes de las heridas, o eso me parece a mi vamos, porque aqui ni dios habla de frames ni tecnologías propias, y llevamos dos dias hablando de precios. Ridiculo.

En fin.
Que raro que nVidia ayer no pusiera nada ni de la 780 ni de la 780ti ni Titan, ayer tocaba el 2013 y hoy el 2014 tocaría la RTX 970 y 980!!!. Se suponía que estaban poniendo las gráficas más significativas de este repaso a los 21 años desde la primera Geforce y se saltan de las más tochas o que mejor rendimiento ha dado por más años, de hecho la 780 ti rendía como una GTX 970 y aún hoy se pueden ver funcionando las 2 muy bien, han envejecido a buen ritmo.
Para ver las tarjetas tienes que irte a los Twitter de Gigabyte (Aorus), Msi, etc etc...
Daicon escribió:No hay posibilidad de que las custom de la 3080 vengan con más de 10gb.??
Ni se había filtrado algo así?

Menuda patada en los eggs....


Yo nunca lo he visto.

Normalmente las custom cambian diseños y refrigeración.

Pero no configuraciones de la FE.
kikomanco escribió:Bueno, si son ciertos los rumores, no cabe duda que la 3090 es la Ampere Titán con 24 gigas, lo que deja en el cajón a la 3080 ti seguramente con 12/16 gigas, y sacarán de inicio la 3080 con 10 gigas supuestamente, que estará por ver, en éste panorama, si solo sacan esas 2 tarjetas en la gama alta, es esperar a ver qué trae AMD por qué la verdad que lo de Nvidia no pinta muy bien

Yo creo que esta vez anuncian las 3, 3090/3080/3070, no creo que dejen el camino libre en gama media y alta a AMD, cuando todo apunta a que soltarán la liebre entre Septiembre y Octubre, ya que en Noviembre al menos la PS5 debería ya estar lista. y Series X mas de lo mismo.
Daicon escribió:No hay posibilidad de que las custom de la 3080 vengan con más de 10gb.??
Ni se había filtrado algo así?

Menuda patada en los eggs....

De las montones de graficas registradas por MSI, habia 4 que seguramente fueran gama alta. Es evidente que va a haber un monton de variantes.

@battman80. Te doy toda la razon. Es lo que comente antes. Falta de estrategia a la hora de comprar. Yo puedo aceptar que alguien diga "compro lo maximo porque igual mañana no estoy" pero cuando estes, no te vengas a quejar, que son unos pesados de mucho cuidado.

Yo no voy a comprar el maximo ahora y me trae sin cuidado razonamientos del tipo "mañana igual no estoy aqui", creo que mañana estare y como no me pase de rosca antes, podre comprar algo sin morir en el intento.

Ademas el PC no es solo un componente. En fin, estoy aqui por disfrutar leyendo y escribiendo algo. Pero cuando veo todas estas mierdas, la verdad, me voy a otro lado. Que se maten entre ellos si quieren. XD XD XD

@Gwyn. Eso no es cierto. Es cierto que las custom nunca han venido con diferentes configuraciones de ram en los modelos más altos de gama, pero en todos los demas si.
31123 respuestas