[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

Kagetsuya escribió:
ionesteraX escribió:
hh1 escribió:Te has dejado la 1080TI de lado ..
Con esa consideras justificable el salto?


Sí, todo salto de pascal a 3080 lo veo justificado, no solo por el aumento de rendmimiento bruto si no por los añadidos.

Repito que todo esto lo pienso para 4K, si alguien juega a una resolución inferior ya depende de otros factores como hz de monitor/tele a los que juega.


Pues yo teniendo la TI no veo justificado, comprarme una 3080 (con menos vram para colmo), no hay mas que ver el salto de 1080 a 1080TI, así que sed pacientes por que estamos en un momento algo loco en el que las presiones de AMD han influenciado mucho este lanzamiento. El que la compre por los motivos que quiera me parece de puta madre, pero hablamos de una cantidad bastante considerable y siendo un poco avispado, puedes tener una tarjeta que te aguanta varios años y que el ordenador secundario que la tenga cuando cambie va a poder mover prácticamente todo a 1080p en ultra.


Pero eso ya depende de cada uno, fijate que incluso veo justificable el pasar de una 2080 a una 3080, es debatible pero lo entendería, lo que debe preguntarse la gente es si lo que tiene ahora le da para jugar como ellos quieren a los juegos que tienen o van a salir pronto.

Para mi esta gráfica hubiera sido perfecto si hubieran bajado su consumo 50W y poniendole 6 más de vram, hablando de consumos temps:

Imagen

Imagen

Esta claro que es la mejor founders que han hecho, pero creo que las custom seran mucho más fresquitos, cosa logica al ocupar mucho más espacio la disipación, sigo recalcando el consumo, muy bruto.
Raizan Snake escribió:Ir todos como locos a por las 3080 no dudéis en comprarlas. Que de esa manera fijo que me quedan 3090 libres para elegir xDDDDDDD


No joder, deberias comprarte tu tambien la 3080 de 10 GB. Corre a por ella que se agotan [fumando] [fumando] [fumando]
Antoniopua está baneado por "saltarse el ban con un clon"
verdezito escribió:Hago uan consulta que ya hice en reddit y al final se acabó hablando de todo menos de lo que pregunté en un principio....
Cómo veis la compra de una 3080 para jugar a 1080p, 144hz y todos los efectos posibles al máximo? Ray tracing y todas las tonterías posibles siempre a tope.

Sé que para la gente como yo se suele recomendar la 3070 (que además en principio también consume menos todo cuenta), pero no veo claro mi "necesidad" específica: tener una tarjeta que me permita durante algunos años jugar a 1080p "a lo salvaje".
Tengo ahora mismo una 1060 y ya voy notando algún que otro tirón en juegos nuevos, de ahí mi duda (que sí, se que la 3070 de primeras va a arrasar con todo, pero dentro de un añito o dos miedo me da)

PD: no preveo hacer el salto a las 4k jamás, soy la persona más feliz del mundo en mis 1080p. De vez en cuando hasta juego en una tele 4k buena y no hay problema. Sólo quiero unos 1080p con todas las tontadas del mundo activas.

Yo pensaba igual hasta que probé un monitor 4K 120hz... es algo indescriptible :O
Linus dice en su último vídeo que las FE meten hasta 10 graduados de más a la CPU por el sistema de ventilación. Yo como que paso de una FE.
Daicon escribió:
Cuentaparacomentario escribió:Y encima con 10GB de VRAM, se van a quedar atascadas en cuanto lleguen a los menus de los juegos

se comenta, que algunos juegos no se pueden ejecutar a mas de 2k, se cierran y echa al escritorio.

La super nes mini clasic mueve mejor el ZSupernes y el MAME que la 3080
ARC0S4G4Z está baneado por "clon de usuario baneado"
Jexux escribió:


Compara la 3080 a más de 1900 y una 2080 ti TRIO con underclock a 1750. La 2080 TI TRIO de casa ya viene casi a 1900... de que va esto?


[360º] eso mismo pensaba yo mientras lo veía... que poco objetiva es la prueba.
Lo que me llama poderosamente la atención de ese vídeo es el death stranding con el 3700x la carga grafica le va al 75% mientras en la 2080 y 2080ti le iba a tope, es decir vemos un claro cuello provocado por la cpu.

De hecho según hardware unboxed la ganancia de media en una batería de 14 juegos a 1440p respecto a la 2080ti es del 21% mientras que a 4k ya sube al 31%. Claramente hay cpu dependencia incluso a 1440p con los micros actuales... :-|

Luego dice que a 21 grados ambiente constantes durante una hora testeando el f1 2020 alcanza 77 grados de máxima al 99% los ventiladores, siendo por otro lado bastante audible el coil a los 300fps.

Con 320W de tgp deberían haberle metido el radiador de la 3090 ya que esta tiene 350W y van le meten uno de juguete... luego la gente se quejara de que es una barbacoa... menuda cagada. Yo me espero a pillar una custom de 3 slots y 3 ventis viendo lo visto.
kikomanco escribió:
Daicon escribió:
Cuentaparacomentario escribió:Y encima con 10GB de VRAM, se van a quedar atascadas en cuanto lleguen a los menus de los juegos

se comenta, que algunos juegos no se pueden ejecutar a mas de 2k, se cierran y echa al escritorio.

La super nes mini clasic mueve mejor el ZSupernes y el MAME que la 3080


Toca esperar a la Ti el proximo mes con 20g Vram.
hh1 escribió:
Ruben1001 escribió:
hh1 escribió:Es un portento que en el RDR2 ,se queda corta de Vram en 4K con todo al máximo.
Al loro...
No te deja poner todos los presets a tope.
Y hablamos de un juego de "old" gen.Espera a los nuevos.
Graficón, sí.Pero da que pensar.


Donde han dicho que se quede corto de vram a 4k en el RDR2??
Estoy buscando y no veo nada.

https://www.youtube.com/watch?v=WizmvEOFjb4
Míratelo.



Pues acabo de mirarlo en el juego con una rtx 2080ti, y con todo al maximo a 4k, en las opciones me dice que el juego necesita 6GB de VRAM
The-Best escribió:
jopasaps escribió:
The-Best escribió:Para el flight simulator hay que esperarse a la serie 8000 por lo menos [qmparto]


Más bien esperar a que implementen directx 12 en el simulador. Su optimización es penosa.

Entonces mañana hay desgaste del F5 o al final los benchmarks no os convencen?


Que va tampoco hay mucha diferencia en la mayoría de juegos en dx11 o 12.

Lo suyo sería que hubieran hecho el juego solo en directx 12

Pues en Prepar3D se nota tela el cambio de directx 11 a 12.

Bueno, pues se confirma que son grandes gráficas esta serie 30xx.
Ahora hace falta que haya stock adecuado para que los precios no suban como diablos.
Yo esperaré a EVGA para pillar una para la custom, porque una vez probada la refrigeración líquida ya no quieres otra cosa.
Pues con lo de la VRAM poca broma. Estamos por ver el salto generacional y ahora mismo algunos juegos chupan 8GB de VRAM facil. Con los juegos de esta generacion sin problemas, pero y con los de la siguiente? A mi me da miedo
Acaba de salir con drivers porongueros jejeje, esperen se optimice un poquillo, si ya es un 30% más menos más potente que la 2080ti pues imaginaros cuando pulan un poco los drivers y los juegos nuevos.

Saludos!
yonnah escribió:
kikomanco escribió:
Daicon escribió:se comenta, que algunos juegos no se pueden ejecutar a mas de 2k, se cierran y echa al escritorio.

La super nes mini clasic mueve mejor el ZSupernes y el MAME que la 3080


Toca esperar a la Ti el proximo mes con 20g Vram.

La TI sale la semana que viene junto con la 3090
Guiño, guiño
Ya sé que soy un pesado, que me repito como el ajoblanco y que me vaya a mi casa y lo que queráis decir. Yo tengo que decirlo, he visto los vídeos de Nate Gentile, de Linus Tech Tips y el de Torotocho. Una vez más.

Está gráfica no es para mi (todavía).

Posiblemente el año que viene la 3080 sea mejor de lo que es ahora mismo, con unos drivers más pulidos, con juegos que aprovecharán mejor estas nuevas arquitecturas, dejando de lado un poco las anteriores. Ahí sí es posible que mi 2080 sufra mucho hasta a 1080p si lo quiero poner todo al máximo. De hecho ya hay algún juego con el que no es capaz (RDR2). Pero es que no siento la necesidad, los juegos de ahora mismo no me la crean y pensándolo un poco, si yo hubiera malvendido mi gráfica por 250 pavos, quisiera pillar esta mañana y de paso gastarme 500, para terminar viendo que el RDR2 sí me alcanza los 60 frames con las settings estratosféricas y el resto aunque me vaya todavía mejor, no le pueda notar yo esos frames de más que me daría la gráfica nueva porque yo a más de 100 cuadros mis ojos no lo notan de ninguna manera, al final habría gastado 500 pavos en algo que ahora mismo no necesito. Por cierto, tampoco soy yo capaz de ver la mejora gráfica del RDR2 en movimiento, porque si lo pongo en alto para alcanzar los 60 cuadros, después en ultra lo veo igual de bien, solo que a la mitad de cuadros.

A ver si pasa lo que Nate ha dicho y por fin los juegos dan ese salto gráfico que se busca con las nuevas consolas, mi gráfica sufre de verdad esta vez y me entran las ganas buenas de verdad de gastarme los dineros en una 3080 founders. A ver también si todo esto hace que los segmentos medios y bajos del mercado terminen teniendo precios realmente ajustados. Porque gastarse 300 euros en una 1660ti ahora mismo es una gilipollez como un piano de grande. Solamente por eso ya merecería muchísimo la pena que salgan estas gráficas, haciendo que las gamas medias vuelvan a tener precios en condiciones, pudiendo comprar buenas y potentes gráficas por los 200 euros o menos.
d2akl escribió:
Jexux escribió:


Compara la 3080 a más de 1900 y una 2080 ti TRIO con underclock a 1750. La 2080 TI TRIO de casa ya viene casi a 1900... de que va esto?



Yo ya avisé estos días de que Torotocho hace cosas muy raras, ya lo hizo con la serie 2000, llamándole a la 2060 gama alta/media y demás cosas.

Pero esto, es otro nivel.
Bueno esto, sin más, es intentar engañar a quien no tenga idea/no se fije.


Me he equivocado yo y creo que la TRIO es una 2080 y la 2080 ti es la. VENTUS, pero aún así me parecen unos clocks bajisimos.

Aquí un vídeo de una VENTUS de stock y oc

ayran escribió:Yo también la voy a usar para jugar a 1080p. No estoy ni a 50 centímetros del monitor y quiero jugar todo en ultra a 240 fps.
Probé un monitor de 27 pulgadas 1440p y se me hace demasiado grande. Y eso, que hay juegos a 1080p que no alcanzan los 144 fps ( y de la anterior generación y sin RT).

Edit: y tengo la tele 4k al lado para enchufar el HDMI y jugar cualquier modo historia.

240fps son muchos en según qué juegos, sobretodo competitivos, lo mismo vas a tener que pasarte a Intel o esperar a los próximos Ryzen.

En CSGO o Valorant sin problemas porque normalmente escupen infinidad de FPS, incluso con poco hardware. Pero en otros shooters tipo BFV a veces ya da problemas para pasar de los 144fps a 1440p con un 3800X. Cuando buscas FPS en vez de tope calidad gráfica, es donde la CPU empieza a hacer de las suyas. Yo que tú harías pruebas antes bajando la carga de la GPU para ver cuántos FPS consigues para llegar a esos 240 que buscas.

Porque lo mismo cambias a una RTX 30X0 y no vas a llegar a esa cifra. A mi me pasó hace un tiempo en el BF1 con un 5820K y una GTX 1080 Ti. Al final acabé devolviendo la gráfica porque solo le echaba horas a ese y no podía llegar a 1080p@144fps en el multi. Una rayada xD
El consumo de VRAM del RDR2 que me dice el juego que necesita en 4k al maximo en las opciones graficas. No llega a 6GB, asi que lo que dice en el video no tiene sentido.

Imagen
verdezito escribió:Hago uan consulta que ya hice en reddit y al final se acabó hablando de todo menos de lo que pregunté en un principio....
Cómo veis la compra de una 3080 para jugar a 1080p, 144hz y todos los efectos posibles al máximo? Ray tracing y todas las tonterías posibles siempre a tope.

Sé que para la gente como yo se suele recomendar la 3070 (que además en principio también consume menos todo cuenta), pero no veo claro mi "necesidad" específica: tener una tarjeta que me permita durante algunos años jugar a 1080p "a lo salvaje".
Tengo ahora mismo una 1060 y ya voy notando algún que otro tirón en juegos nuevos, de ahí mi duda (que sí, se que la 3070 de primeras va a arrasar con todo, pero dentro de un añito o dos miedo me da)

PD: no preveo hacer el salto a las 4k jamás, soy la persona más feliz del mundo en mis 1080p. De vez en cuando hasta juego en una tele 4k buena y no hay problema. Sólo quiero unos 1080p con todas las tontadas del mundo activas.


Yo creo que vas a ir ultra sobrado, pero ultrasobrado.

Con decirte que yo me compro la 3080 para 2k 170fps e ir con todos los efectos al maximo. La 3080 es una tarjeta de 4k, a medidas que bajas de resolucion vas a ir sobradisimo, ya no te digo a 1080p.
Unas preguntas compis:

1. Conocéis de alguna 3080 custom de 2 ventiladores? Es que creo que no me entran las versiones de 3 [+risas]

2. La longitud de la tarjeta se mide desde el anclaje o desde la esquina de la placa base?

Imagen
Juegos old gen mal optimizados , creados para cpus ( gen consolas ) de hace 8 años con graficas de next gen... nose por que le dais tanta bola a estas reviews.. Lo importante vendrá en los juegos futuros..
Antoniopua escribió:
verdezito escribió:Hago uan consulta que ya hice en reddit y al final se acabó hablando de todo menos de lo que pregunté en un principio....
Cómo veis la compra de una 3080 para jugar a 1080p, 144hz y todos los efectos posibles al máximo? Ray tracing y todas las tonterías posibles siempre a tope.

Sé que para la gente como yo se suele recomendar la 3070 (que además en principio también consume menos todo cuenta), pero no veo claro mi "necesidad" específica: tener una tarjeta que me permita durante algunos años jugar a 1080p "a lo salvaje".
Tengo ahora mismo una 1060 y ya voy notando algún que otro tirón en juegos nuevos, de ahí mi duda (que sí, se que la 3070 de primeras va a arrasar con todo, pero dentro de un añito o dos miedo me da)

PD: no preveo hacer el salto a las 4k jamás, soy la persona más feliz del mundo en mis 1080p. De vez en cuando hasta juego en una tele 4k buena y no hay problema. Sólo quiero unos 1080p con todas las tontadas del mundo activas.

Yo pensaba igual hasta que probé un monitor 4K 120hz... es algo indescriptible :O


¿Tamaño y distancia de visionado del monitor 4k? Porque es muy probable que eso indescriptible se llame placebo.


Te lo dice un tio que tiene un proyector 4k real y que proyecta a 3 metros de una pantalla de 100" cuando te pasas del limite de 4 metros por mucho que sea 4k lo ves igual que a 1080p.

Cuanto mas pequeña es una pantalla mas cerca te tienes que poner, asi que si hablamos de un monitor de por ejemplo 30" 4k y te pones a mas de 60 cm de visionado no estas viendo mas definición que 1080p

30" a 60 centimetros a mi me cuesta, juego a 90 cm aprox con una de 30" 1440p y en según que juegos me tengo que alejar unos centimetros mas para tener campo de vision completo sin tener que estar girando la cabeza a las 2x3... Sobretodo en juegos donde es vital mirar a cada rato tu barra de salud y magias, por ejemplo el dragon age inquisition.

Imagen
Antoniopua escribió:
verdezito escribió:Hago uan consulta que ya hice en reddit y al final se acabó hablando de todo menos de lo que pregunté en un principio....
Cómo veis la compra de una 3080 para jugar a 1080p, 144hz y todos los efectos posibles al máximo? Ray tracing y todas las tonterías posibles siempre a tope.

Sé que para la gente como yo se suele recomendar la 3070 (que además en principio también consume menos todo cuenta), pero no veo claro mi "necesidad" específica: tener una tarjeta que me permita durante algunos años jugar a 1080p "a lo salvaje".
Tengo ahora mismo una 1060 y ya voy notando algún que otro tirón en juegos nuevos, de ahí mi duda (que sí, se que la 3070 de primeras va a arrasar con todo, pero dentro de un añito o dos miedo me da)

PD: no preveo hacer el salto a las 4k jamás, soy la persona más feliz del mundo en mis 1080p. De vez en cuando hasta juego en una tele 4k buena y no hay problema. Sólo quiero unos 1080p con todas las tontadas del mundo activas.

Yo pensaba igual hasta que probé un monitor 4K 120hz... es algo indescriptible :O


Tal cual, estuve durante una semana jugando a 4K en un monitor adecuado y cuando volví a mi casa parecía otro juego diferente.

Deseando estoy que me llegue mi nuevo Master y el LG por parte de Amazon
PioL1n escribió:Juegos old gen mal optimizados , creados para cpus ( gen consolas ) de hace 8 años con graficas de next gen... nose por que le dais tanta bola a estas reviews.. Lo importante vendrá en los juegos futuros..


Nah, dejalos. Más 3080 para lo demás.
Metalyard escribió:1. Conocéis de alguna 3080 custom de 2 ventiladores? Es que creo que no me entran las versiones de 3 [+risas]
[/img]


Por ahora solo la founders según creo, más adelante sacaran algún modelo supongo, por ejemplo asus tiene la dual en sus 2080, aunque viendo los consumos y temps no se hasta que punto algún ensamblador se arriesgara con solo dos fans.
Antoniopua está baneado por "saltarse el ban con un clon"
elamos escribió:
Antoniopua escribió:
verdezito escribió:Hago uan consulta que ya hice en reddit y al final se acabó hablando de todo menos de lo que pregunté en un principio....
Cómo veis la compra de una 3080 para jugar a 1080p, 144hz y todos los efectos posibles al máximo? Ray tracing y todas las tonterías posibles siempre a tope.

Sé que para la gente como yo se suele recomendar la 3070 (que además en principio también consume menos todo cuenta), pero no veo claro mi "necesidad" específica: tener una tarjeta que me permita durante algunos años jugar a 1080p "a lo salvaje".
Tengo ahora mismo una 1060 y ya voy notando algún que otro tirón en juegos nuevos, de ahí mi duda (que sí, se que la 3070 de primeras va a arrasar con todo, pero dentro de un añito o dos miedo me da)

PD: no preveo hacer el salto a las 4k jamás, soy la persona más feliz del mundo en mis 1080p. De vez en cuando hasta juego en una tele 4k buena y no hay problema. Sólo quiero unos 1080p con todas las tontadas del mundo activas.

Yo pensaba igual hasta que probé un monitor 4K 120hz... es algo indescriptible :O


¿Tamaño y distancia de visionado del monitor 4k? Porque es muy probable que eso indescriptible se llame placebo.


Te lo dice un tio que tiene un proyector 4k real y que proyecta a 3 metros de una pantalla de 100" cuando te pasas del limite de 4 metros por mucho que sea 4k lo ves igual que a 1080p.

Cuanto mas pequeña es una pantalla mas cerca te tienes que poner, asi que si hablamos de un monitor de por ejemplo 30" 4k y te pones a mas de 60 cm de visionado no estas viendo mas definición que 1080p

30" a 60 centimetros a mi me cuesta, juego a 90 cm aprox con una de 30" 1440p y en según que juegos me tengo que alejar unos centimetros mas para tener campo de vision completo sin tener que estar girando la cabeza a las 2x3... Sobretodo en juegos donde es vital mirar a cada rato tu barra de salud y magias, por ejemplo el dragon age inquisition.

Imagen

34" 21:9 a unos 70 cm de distancia... Normal que a esas distancias no se distinga bien o parezca placebo... poco más y la ves desde la calle [carcajad] [+risas]


Saludos!!!
Daicon escribió:
wildchild_bcn escribió:bueno tras leer varias reviews definitivamente son humo y rinden muchisimo menos de lo prometido, casi menos que una 2080, que nadie se las compre por favor, a darle a nvidia donde mas le duele: en la cartera

que nadie se conecte mañana a las 15 a la pagina de nvidia a comprar las founders que son un horno, y que nadie compre las custom en ninguna tienda... hay que esperar a que bajen los precios o que saquen dentro de 2 semanas las super/ti

es que donde vas con 10 gigas de ram? ja, vaya tela...encima algunos juegos solo saca 20 fps a una 2080Ti con OC... donde vamos a parar

ojo, por debajo de la 1070 la he visto yo en algunas review.
inaceptable.


Y en Fitoleaksultra, expertos en reviews imparciales, ya han soltado el rumor filtración de que la PS5 lleva dos 3080 dentro, en sli exclusivo, y como la refrigeran con un derivado de ziritione liquido por gas pericomprimido, a penas pasa de los 31 grados. Estas gpus que saca Nvidia son una tomadura de pelo total [+furioso]


Y ya hablando de otras cosas, empiezo a notar en general en el hilo una GRAN CONFUSIÓN, respecto de qué significa UN 50% MÁS DE RENDIMIENTO, que muchos caen en esa trampa mental de pensar "la mitad es el doble", y no [+risas] . Lección de matemáticas:

Si 60 frames es el 100% de lo que consigue X gpu en un juego, el 50% son 30 frames. Si una GPU rinde un 50%+ respecto de la gpu que llega a 60 máximo, rinde 90, no 120. Me parecia que era ya muy importante recalcarlo, porque es una trampa que se usa mucho, y por eso hay gente que tiene esperanzas en que AMD que promete un 50% mas por W (todavía mas enrevesado...) que las actuales gpus suyas, saque algo descomunal (cuando vamos listos si iguala a una 2080Ti y habrá que ver consumo y temperaturas, porque AMD suele ir por el camino de lo bruto), o que cogen datos de este tipo soltados inteligentemente por la maquinaria de marketing de las consolas y automaticamente deducen que los juegos van a ser 10 veces mas que los actuales, 10 veces mas resolucion, mas frames, mas mapa, mas objetos, etc etc...No señores no, ojito que luego vienen las madresmias.

Respecto a toda la gente lamentandose de que ya no va a comprar una Founders, chincha rabiña! [enfado1] ,...¿De verdad? [facepalm] Pero si teneis las mismas posibilidades de pillar una que de que os caiga la primitiva mañana que es jueves... O casi... Ni queriendola la habriais pillado seguramente. Las custom, veremos para cuando, porque yo empiezo a tener la teoria que primero van a vaciar stock inicial de las mas fuleras (baratas) y despues empezar a distribuir las mejor rematadas (mas caras), porque asi se aseguran que con estos datos de temps y tal, el miedo a la eficacia de las primeras respecto de las segundas, por la diferencia de precio que hay, las eclipse.

Por lo demas, nada nuevo bajo el sol. Salen los benchs, la 3080 no saca 500 frames en el RDR2 a tope, y el hilo se llena de gente rasgandose las vestiduras por lo decepcionados que estan, etc... Y yo me juego la merienda que hacemos estudio de los perfiles a ver donde acumulan mas mensajes esas personas y las encontramos a la mayoría en los 2 - 3 hilos que yo os diga...Y no son este...

[oki] [beer]

Y ya serios, lo dije ayer me parece, que con la diferencia que se presumia iba a haber en frames, se podía aguantar perfectamente con una Ti o una 80Super, incluso una 70S, un año o dos si hace falta, hasta las revisiones de estas gpus, que todos sabemos que van a exsitir (ya veremos si mas o menos caras, porque eso depende de si conviven o si sustituyen), o al menos, el tiempo necesario para que se vea bien bien de que pie cojean las 3000, que ensamblador y modelos interesan mas, que se necesita para que rindan optimamente, etc...
No veo justificada la prisa por cambiar ya, o vender una 80Ti por 350-400 para coger una 3080S, de momento. Y lo que está claro es que es con el RTX ON donde estas tarjetas muestran su superioridad...La cosa es ver hasta donde se logra implementar el RTX REAL "de Nvidia", y no la chufla bananera que saque AMD, que la ultima vez que insinuó que algo era similar, era el fidelity FX ese, que siempre habia estado escondido en el panel de control, y vendió para los despistados como algo nuevo, y que no es mas que renderizar por debajo de la resolución objetivo, reescalar la imagen mediante la GPU sin más al estilo tradicional, y aplicarle un filtro de nitidez, tal cual se hace desde el panel de Nvidia...Me sorprendería gratamente si consiguen algo mucho mejor que eso, y no espero PARA NADA, algo que llegue ni remotamente cerca de los resultados del DLSS, por desgracia...


PD: y para algunos que estan comentando que pillar una 2080Ti ahora de segunda manos por 400 es una estupidez, que la 3070 nueva vale 500, etc... A ver, que hay gente vendiendo 80Tis con 6 meses y menos, a las que les queda año y medio de garantia, por 400 pavos...Y en las tiendas, nuevas, a dia de hoy, siguen a sus precios habituales...Y tienes una GPU que tiene un recorrido que ofrece garantias de sobra sobre qué vas a encontrar y hasta donde puedes estirar... Vamos, que en el peor de los casos se te rompe dentro de un año, sin stock para reponertela, y te endosan una 3080, o una 3070 tranquilamente, que eso ya a pasado...Asi que no se yo donde está el mal negocio tan claro. Otra cosa es comprar una Ti sin garantía, con dos años de uso, por 400, cuando por lo mismo las tienes "seminuevas" [+risas] .


Y por dios, dejemos de usar de ejemplo juegos que aqui al menos, todos deberiamos saber que estan "rotos", en settings que simplemente ya no van a reparar salvo futuras revisiones y que es necesario apagar si o si o reducir al maximo (caso "apartado bloqueado" de RED2) o que directamente están a medio terminar, han querido plasmar un realismo visual a base de tecnicas donde "poco" puede hacer el poder o no poder de una GPU, para ganar publicidad, y si eso, algun dia corregiran "a ordago", o simplemente se quedarán así hasta que a base de simpe fuerza bruta mejore su rendimiento dentro de 10 años, quien sabe, y hablo por supuesto del FS2020. [beer]
ionesteraX escribió:Bueno, vistos varios reviews pues se confirman las filtraciones y lo que comentabamos hace tiempo cuando salieron, alrededor de 30% sobre la Ti y un 60% sobre la 2080, todo esto hablando en terminos generales y a 4K, la diferencia baja conforme bajas resolución.

Entrando más en detalle e insisto todo hablando de 4K que es para lo que yo veo esta gráfica, lo primero como apunte y aunque ya lo sabiamos pci x 3 vs 4 da resultados similares:

Imagen

En cuanto a rendimiento, yo el salto lo veo de pascal a ampere, es decir que todo los que tengan una 1080 o menos deben plantearse la compra si o si, estamos hablando de triplicar en muchos casos el rendimiento e incluso añadir cosas que las pascal no tienen como puede ser el raytracing o el dlss:

Imagen

Imagen

Entonces merece la pena el salto para la serie 20? Pues salvo que tengas una 2060 o seas un ansias... objetivamente no, yo soy un ansias y por eso la pillare xD

El debate con la serie 20 debe estar con la 2080:

Imagen

Es decir, con la 2060 no hay debate ya que es un aumento muy grande y con la 2080Ti para mi no hay debate ya que es un aumento muy pequeño, merece la pena ese aumento con la 2080? pues igual sí, pero lo que veo es falta de software, es decir a que vas a jugar con ese 60% de más de potencia que salga ahora y no te valga la 2080? Solo me viene a la mente Cyberpunk, o aprovechar el fs2020 que es el unico juego que se atraganta a estas graficas.

Otro factor de compra es que esta serie 30 ya trae hdmi 2.1 y la gente podra usar sus oleds al 100% cosa que he estado haciendo yo con adaptadores y ahora podre hacerlo sin ellos.

Lo unico negativo que veo, el consumo y las temperaturas, a mi personalmente me parece que consumen una burrada, pero una burrada de verdad, se les fue la mano y mucho, ahora entiendo los 3x8pin de algunas custom, es una jodida locura xD


A que te refieres con aprovechar al 100% una oled por el 2.1 ?? Yo tengo un Tv 4k con hdr10 , e intuyo que lo dirás por el tema HDR ?? Ya que es cuando yo lo activo no noto apenas nada y supongo será por qué la gráfica es conector 2.0 ..

Si puedes explicar mejor que me interesa el tema
Por si alguien se quiere ahorra un watios a un rendimiento muy parecido:


Si esto es facil de hacer tal vez lo pruebe.
sefirot996 escribió:
ionesteraX escribió:Bueno, vistos varios reviews pues se confirman las filtraciones y lo que comentabamos hace tiempo cuando salieron, alrededor de 30% sobre la Ti y un 60% sobre la 2080, todo esto hablando en terminos generales y a 4K, la diferencia baja conforme bajas resolución.

Entrando más en detalle e insisto todo hablando de 4K que es para lo que yo veo esta gráfica, lo primero como apunte y aunque ya lo sabiamos pci x 3 vs 4 da resultados similares:

Imagen

En cuanto a rendimiento, yo el salto lo veo de pascal a ampere, es decir que todo los que tengan una 1080 o menos deben plantearse la compra si o si, estamos hablando de triplicar en muchos casos el rendimiento e incluso añadir cosas que las pascal no tienen como puede ser el raytracing o el dlss:

Imagen

Imagen

Entonces merece la pena el salto para la serie 20? Pues salvo que tengas una 2060 o seas un ansias... objetivamente no, yo soy un ansias y por eso la pillare xD

El debate con la serie 20 debe estar con la 2080:

Imagen

Es decir, con la 2060 no hay debate ya que es un aumento muy grande y con la 2080Ti para mi no hay debate ya que es un aumento muy pequeño, merece la pena ese aumento con la 2080? pues igual sí, pero lo que veo es falta de software, es decir a que vas a jugar con ese 60% de más de potencia que salga ahora y no te valga la 2080? Solo me viene a la mente Cyberpunk, o aprovechar el fs2020 que es el unico juego que se atraganta a estas graficas.

Otro factor de compra es que esta serie 30 ya trae hdmi 2.1 y la gente podra usar sus oleds al 100% cosa que he estado haciendo yo con adaptadores y ahora podre hacerlo sin ellos.

Lo unico negativo que veo, el consumo y las temperaturas, a mi personalmente me parece que consumen una burrada, pero una burrada de verdad, se les fue la mano y mucho, ahora entiendo los 3x8pin de algunas custom, es una jodida locura xD


A que te refieres con aprovechar al 100% una oled por el 2.1 ?? Yo tengo un Tv 4k con hdr10 , e intuyo que lo dirás por el tema HDR ?? Ya que es cuando yo lo activo no noto apenas nada y supongo será por qué la gráfica es conector 2.0 ..

Si puedes explicar mejor que me interesa el tema

OLED C9 HDMI 2.1 4k 120 Hz ;)
Ruben1001 escribió:El consumo de VRAM del RDR2 que me dice el juego que necesita en 4k al maximo en las opciones graficas. No llega a 6GB, asi que lo que dice en el video no tiene sentido.

Imagen



Eso es el preset de Ultra que creo que no te pone todo al maximo, mira las opciones una a una a ver si hay algunas que puedes subir mas aun, prueba a ver cuanto te pide de VRAM subiéndolo todo a mano y nos comentas.
@SPRidley Pero no decían que no se podía hacer undervolt?
@sefirot996 Las teles nuevas, bueno y no tan nuevas que la mia tendra más de un año xD, llevan ya el hdmi 2.1 mientras que las graficas hasta la serie 20 no tenian salida para hdmi 2.1, esto limitaba el ancho de banda que tenian a 18 gbps por lo que no podias por ejemplo jugar a 4K@120hz.

Esta limitación solo la podias saltar usando un adaptador a displayport para conseguir 32 gbps, ahora con la serie 30 ya traen de base hdmi 2.1 y puedes tener un ancho de banda de 48 gbps.

Resultado, porder jugar a 4K@120hz@444/RGB@10bits para conseguir HDR a esa resolución y tasa de fps, cosa que admiten los oled de lg desde la serie 9 y no podíamos tener por hdmi hasta ahora.
Buf... No quiero sonar a tocanarices ni nada, pero me he informado con contactos que trabajan en las tiendas de Sepúlveda en Barcelona (la zona donde se concentra la mayoría de tiendas de informática en la ciudad) y ya os digo que mañana será un "tonto el último" completamente, y que recibirán unidades super escasas encima... Si queréis pillar una ahí en físico, ya podéis estar a las 10 en la puerta con la billetera lista...

Y el tema web irá igual supongo, lo que fastidia es la incertidumbre de horarios...

¡Suerte a todos los compradores!

PD: Yo gracias a ese enchufe con contactos he podido hacer la reserva (con paga y señal y todo ya) de una que ya me tienen guardada para mañana. Salvadoooo [angelito]
Parece que la gente no ha trabajado en su vida con ningun software de Pc...

Pero vamos a ver, en ultra 4k en juegos actuales y antiguos Van a rendir muuucho peor que los juegos que vayan saliendo en el futuro.

Muchos piensan que los juegos que vengan van a pedir mas maquina , vram que los antiguos y no.

Los juegos sobre los que se estan haciendo las pruebas , son juegos donde la carga de la programacion y optimizacion se ha ido a asegurar calidad grafica a 1080p con configuraciones bajas y 1440p estables con reescalado a 4k con configuraciones top.

Para la base de usuarios actual de 4k , no se han pulido las opciones ultra ni las texturs ni la programacion para que el 4k vaya fino.

Muchas opciones del ultra rompen y lastran en 4k mas de lo debido porque son opciones rotas.

Ya puedes tener un video a 720 p que como le pongs una opcion rota en el software y le subas resolucion no lo mueve ni el cern.

Alguno sabe al menos como se programa en unreal ? Mira que es sencillo y la dificultad radica en que se usan cheats, para todo, a la minima que no calculas un shader , o el bake de iluminacion bien para 4k se va todo el rendimiento a la mierda.


Los juegos que salgan ya la base de programacion con las nuevas consolas y la serie 3000 si es 4k, iran mucho mas finos y consumiendo la mitad de Vram. Ya vereis.
No se vosotros pero yo veo clarísimo que si la ganancia es peor en 1440 que en 4K es debido a cuello de botella del resto del equipo. Las gráficas acaban de adelantar por la derecha a los procesadores

La prueba está en que en programas de edición la 3080 SI es el doble de rápida que la 2080...
Antoniopua está baneado por "saltarse el ban con un clon"
battman80 escribió:
Daicon escribió:
wildchild_bcn escribió:bueno tras leer varias reviews definitivamente son humo y rinden muchisimo menos de lo prometido, casi menos que una 2080, que nadie se las compre por favor, a darle a nvidia donde mas le duele: en la cartera

que nadie se conecte mañana a las 15 a la pagina de nvidia a comprar las founders que son un horno, y que nadie compre las custom en ninguna tienda... hay que esperar a que bajen los precios o que saquen dentro de 2 semanas las super/ti

es que donde vas con 10 gigas de ram? ja, vaya tela...encima algunos juegos solo saca 20 fps a una 2080Ti con OC... donde vamos a parar

ojo, por debajo de la 1070 la he visto yo en algunas review.
inaceptable.


Y en Fitoleaksultra, expertos en reviews imparciales, ya han soltado el rumor filtración de que la PS5 lleva dos 3080 dentro, en sli exclusivo, y como la refrigeran con un derivado de ziritione liquido por gas pericomprimido, a penas pasa de los 31 grados. Estas gpus que saca Nvidia son una tomadura de pelo total [+furioso]


Y ya hablando de otras cosas, empiezo a notar en general en el hilo una GRAN CONFUSIÓN, respecto de qué significa UN 50% MÁS DE RENDIMIENTO, que muchos caen en esa trampa mental de pensar "la mitad es el doble", y no [+risas] . Lección de matemáticas:

Si 60 frames es el 100% de lo que consigue X gpu en un juego, el 50% son 30 frames. Si una GPU rinde un 50%+ respecto de la gpu que llega a 60 máximo, rinde 90, no 120. Me parecia que era ya muy importante recalcarlo, porque es una trampa que se usa mucho, y por eso hay gente que tiene esperanzas en que AMD que promete un 50% mas por W (todavía mas enrevesado...) que las actuales gpus suyas, saque algo descomunal (cuando vamos listos si iguala a una 2080Ti y habrá que ver consumo y temperaturas, porque AMD suele ir por el camino de lo bruto), o que cogen datos de este tipo soltados inteligentemente por la maquinaria de marketing de las consolas y automaticamente deducen que los juegos van a ser 10 veces mas que los actuales, 10 veces mas resolucion, mas frames, mas mapa, mas objetos, etc etc...No señores no, ojito que luego vienen las madresmias.

Respecto a toda la gente lamentandose de que ya no va a comprar una Founders, chincha rabiña! [enfado1] ,...¿De verdad? [facepalm] Pero si teneis las mismas posibilidades de pillar una que de que os caiga la primitiva mañana que es jueves... O casi... Ni queriendola la habriais pillado seguramente. Las custom, veremos para cuando, porque yo empiezo a tener la teoria que primero van a vaciar stock inicial de las mas fuleras (baratas) y despues empezar a distribuir las mejor rematadas (mas caras), porque asi se aseguran que con estos datos de temps y tal, el miedo a la eficacia de las primeras respecto de las segundas, por la diferencia de precio que hay, las eclipse.

Por lo demas, nada nuevo bajo el sol. Salen los benchs, la 3080 no saca 500 frames en el RDR2 a tope, y el hilo se llena de gente rasgandose las vestiduras por lo decepcionados que estan, etc... Y yo me juego la merienda que hacemos estudio de los perfiles a ver donde acumulan mas mensajes esas personas y las encontramos a la mayoría en los 2 - 3 hilos que yo os diga...Y no son este...

[oki] [beer]

Y ya serios, lo dije ayer me parece, que con la diferencia que se presumia iba a haber en frames, se podía aguantar perfectamente con una Ti o una 80Super, incluso una 70S, un año o dos si hace falta, hasta las revisiones de estas gpus, que todos sabemos que van a exsitir (ya veremos si mas o menos caras, porque eso depende de si conviven o si sustituyen), o al menos, el tiempo necesario para que se vea bien bien de que pie cojean las 3000, que ensamblador y modelos interesan mas, que se necesita para que rindan optimamente, etc...
No veo justificada la prisa por cambiar ya, o vender una 80Ti por 350-400 para coger una 3080S, de momento. Y lo que está claro es que es con el RTX ON donde estas tarjetas muestran su superioridad...La cosa es ver hasta donde se logra implementar el RTX REAL "de Nvidia", y no la chufla bananera que saque AMD, que la ultima vez que insinuó que algo era similar, era el fidelity FX ese, que siempre habia estado escondido en el panel de control, y vendió para los despistados como algo nuevo, y que no es mas que renderizar por debajo de la resolución objetivo, reescalar la imagen mediante la GPU sin más al estilo tradicional, y aplicarle un filtro de nitidez, tal cual se hace desde el panel de Nvidia...Me sorprendería gratamente si consiguen algo mucho mejor que eso, y no espero PARA NADA, algo que llegue ni remotamente cerca de los resultados del DLSS, por desgracia...


PD: y para algunos que estan comentando que pillar una 2080Ti ahora de segunda manos por 400 es una estupidez, que la 3070 nueva vale 500, etc... A ver, que hay gente vendiendo 80Tis con 6 meses y menos, a las que les queda año y medio de garantia, por 400 pavos...Y en las tiendas, nuevas, a dia de hoy, siguen a sus precios habituales...Y tienes una GPU que tiene un recorrido que ofrece garantias de sobra sobre qué vas a encontrar y hasta donde puedes estirar... Vamos, que en el peor de los casos se te rompe dentro de un año, sin stock para reponertela, y te endosan una 3080, o una 3070 tranquilamente, que eso ya a pasado...Asi que no se yo donde está el mal negocio tan claro. Otra cosa es comprar una Ti sin garantía, con dos años de uso, por 400, cuando por lo mismo las tienes "seminuevas" [+risas] .


Y por dios, dejemos de usar de ejemplo juegos que aqui al menos, todos deberiamos saber que estan "rotos", en settings que simplemente ya no van a reparar salvo futuras revisiones y que es necesario apagar si o si o reducir al maximo (caso "apartado bloqueado" de RED2) o que directamente están a medio terminar, han querido plasmar un realismo visual a base de tecnicas donde "poco" puede hacer el poder o no poder de una GPU, para ganar publicidad, y si eso, algun dia corregiran "a ordago", o simplemente se quedarán así hasta que a base de simpe fuerza bruta mejore su rendimiento dentro de 10 años, quien sabe, y hablo por supuesto del FS2020. [beer]

Pues hombre... sin ánimo de crear polémicas -a quien quiero engañar [carcajad] - eso explicaría muchas cosas...
shoty escribió:No se vosotros pero yo veo clarísimo que si la ganancia es peor en 1440 que en 4K es debido a cuello de botella del resto del equipo. Las gráficas acaban de adelantar por la derecha a los procesadores

La prueba está en que en programas de edición la 3080 SI es el doble de rápida que la 2080...


Y ese cuello de botella va a ser aun mayor en AMD que en intel. Y hasta ahora casi todas las reviews las he visto con un 10700k o 10900k
oye la marca pny para la 3080 como lo veis? parece una buena opcion?

Es que apenas nadie dice nada de esta marca y tiene precios bastante comedidos...
ionesteraX escribió:@sefirot996 Las teles nuevas, bueno y no tan nuevas que la mia tendra más de un año xD, llevan ya el hdmi 2.1 mientras que las graficas hasta la serie 20 no tenian salida para hdmi 2.1, esto limitaba el ancho de banda que tenian a 18 gbps por lo que no podias por ejemplo jugar a 4K@120hz.

Esta limitación solo la podias saltar usando un adaptador a displayport para conseguir 32 gbps, ahora con la serie 30 ya traen de base hdmi 2.1 y puedes tener un ancho de banda de 48 gbps.

Resultado, porder jugar a 4K@120hz@444/RGB@10bits para conseguir HDR a esa resolución y tasa de fps, cosa que admiten los oled de lg desde la serie 9 y no podíamos tener por hdmi hasta ahora.


Tienes o has mirado ya cables hdmi 2.1? Es que veo muchos en Amazon, pero al no estar certificados, no sé cuál pillar. Alguna recomendación?

Es para jugar en una C9.
Strait escribió:
shoty escribió:No se vosotros pero yo veo clarísimo que si la ganancia es peor en 1440 que en 4K es debido a cuello de botella del resto del equipo. Las gráficas acaban de adelantar por la derecha a los procesadores

La prueba está en que en programas de edición la 3080 SI es el doble de rápida que la 2080...


Y ese cuello de botella va a ser aun mayor en AMD que en intel. Y hasta ahora casi todas las reviews las he visto con un 10700k o 10900k


¿Podríais explicar, si no es molestia, el por qué de este cuello de botella?

Yo por ejemplo tengo un Ryzen 9 3900X, 32GB 3200MHz y placa ROG Strix con PCIe4, si sirve para explicarlo.

Gracias.
alvaro200 escribió:
Ruben1001 escribió:El consumo de VRAM del RDR2 que me dice el juego que necesita en 4k al maximo en las opciones graficas. No llega a 6GB, asi que lo que dice en el video no tiene sentido.

Imagen



Eso es el preset de Ultra que creo que no te pone todo al maximo, mira las opciones una a una a ver si hay algunas que puedes subir mas aun, prueba a ver cuanto te pide de VRAM subiéndolo todo a mano y nos comentas.


Es cierto tenia algún parámetro de los avanzados que no se había puesto al máximo, con todo al máximo llega a 6,5 GB de Vram. Pero lo tengo con el TAA de antiliasing, si le pongo el MSAA x 8 sube a 11 GB de Vram, pero vamos que para 4k no necesitas tanto antiliasing.
Pues me jodería bastante que el 3700x que me acabo de comprar le hiciera cuello de botella a la 3080...
Ruben1001 escribió:
alvaro200 escribió:
Ruben1001 escribió:El consumo de VRAM del RDR2 que me dice el juego que necesita en 4k al maximo en las opciones graficas. No llega a 6GB, asi que lo que dice en el video no tiene sentido.

Imagen



Eso es el preset de Ultra que creo que no te pone todo al maximo, mira las opciones una a una a ver si hay algunas que puedes subir mas aun, prueba a ver cuanto te pide de VRAM subiéndolo todo a mano y nos comentas.


Es cierto tenia algún parámetro de los avanzados que no se había puesto al máximo, con todo al máximo llega a 6,5 GB de Vram. Pero lo tengo con el TAA de antiliasing, si le pongo el MSAA x 8 sube a 11 GB de Vram, pero vamos que para 4k no necesitas tanto antiliasing.


Vamos que no llega a los 11gb ni de coña, todo bien entonces.
Creéis que esta noche se pondrá en algún sitio a la venta a las 00:00?
No se sabe nada aún de esas Asus 3080 de Amazon Francia verdad? A mi aún no me han cancelado pero tengo miedo de confiarme mañana y quedarme sin ninguna ...
The-Best escribió:Para el flight simulator hay que esperarse a la serie 8000 por lo menos [qmparto]

Imagen

Es que Flight Simulator parece que está programado hace 20 años.
Si veis las reviews, escala cores de CPU de puta pena.
El cuello de botella es la CPU, no la GPU.
Bendito dilema, alguien podría decirme que modelo que se venda custom a 719 points debería comprarme? me asusta ya las FE y además cuento con que no pillo una de primeras fijo...
sabemos si esta noche a las 00:00 se podran pillar las fe o las custom en algun sitio?
alvaro200 escribió:
Ruben1001 escribió:
alvaro200 escribió:

Eso es el preset de Ultra que creo que no te pone todo al maximo, mira las opciones una a una a ver si hay algunas que puedes subir mas aun, prueba a ver cuanto te pide de VRAM subiéndolo todo a mano y nos comentas.


Es cierto tenia algún parámetro de los avanzados que no se había puesto al máximo, con todo al máximo llega a 6,5 GB de Vram. Pero lo tengo con el TAA de antiliasing, si le pongo el MSAA x 8 sube a 11 GB de Vram, pero vamos que para 4k no necesitas tanto antiliasing.


Vamos que no llega a los 11gb ni de coña, todo bien entonces.

Esto es mentira, esa imagen esta manipulada por un hacker de photoshop, hacen falta por lo menos 16 gigas para activar todo, la 3080 no vale para nada, hay que ir a la 3090 o quedarse en las 2080ti
Que nadie se compre una 3080 hasta que Nvidia no baje los precios o ponga un parche para descargae mas VRam a las graficas
Pues sin duda Ampere es un gran salto generacional y creo que van a ser capaces de mantener un grandisimo rendimiento durante los proximos 4-5 años.

Entiendo que la gente que juega en pantallas grandes a 4k si que esten preocupadas por el tema de la vram y por si les dara para jugar con un rendimiento aceptable durante unos cuatos años.
Yo tal como juego que es con un monitor 27" 1440p 144hz , me parece que tanto la 3070 como la 3080 van a ir sobradas durante mucho mucho tiempo y el salto al 4k me parece totalmente innecesario en mi caso por que:

1.En un monitor de tamaño estandar es casi imperceptible el cambio.
2.El coste de rendimiento es muy alto.
3.Los monitores 4k 144hz son escasos y tienen un sobreprecio brutal.
axis100 escribió:
ionesteraX escribió:@sefirot996 Las teles nuevas, bueno y no tan nuevas que la mia tendra más de un año xD, llevan ya el hdmi 2.1 mientras que las graficas hasta la serie 20 no tenian salida para hdmi 2.1, esto limitaba el ancho de banda que tenian a 18 gbps por lo que no podias por ejemplo jugar a 4K@120hz.

Esta limitación solo la podias saltar usando un adaptador a displayport para conseguir 32 gbps, ahora con la serie 30 ya traen de base hdmi 2.1 y puedes tener un ancho de banda de 48 gbps.

Resultado, porder jugar a 4K@120hz@444/RGB@10bits para conseguir HDR a esa resolución y tasa de fps, cosa que admiten los oled de lg desde la serie 9 y no podíamos tener por hdmi hasta ahora.


Tienes o has mirado ya cables hdmi 2.1? Es que veo muchos en Amazon, pero al no estar certificados, no sé cuál pillar. Alguna recomendación?

Es para jugar en una C9.


Compre dos hará unos meses para jugar a 4K@120hz, uno en amazon y otro en orbita digital, tampoco son nada especial, uno me costo 6€ creo recordar, ambos dan cero problemas para pillar esos 32 gbps, no te puedo hablar de los 48 gbps ya que no tengo la 3080... aun xD
31123 respuestas