[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

VanSouls escribió:@Gwyn Aún hay mucha gente que se piensa que los ryzen son los FX y que las 5700 son estufas de 400W :p :p :p
y mucha mas de "intel+nvidia" mucho mejor, amd caca culo pedo pis [hallow]


Sin duda.

A AMD le ha costado varias generaciones de un producto excelente (Ryzen) para desbancar a Intel en el mercado de sobremesa.

Aunque Intel sigue con un dominio imparable en portátil y (creo) que en el mundo empresarial.


-----------------------------------------------------------------------------------------------------------------

En fin, dejando el offtopic a un lado, ya queda un día menos para la presentación de Ampere [360º]

A ver si los globo-sonda estos que están mandando filtrando cifras al final sirven para que nos llevemos una sopresa agradable con los precios.
VanSouls escribió:@Gwyn Aún hay mucha gente que se piensa que los ryzen son los FX y que las 5700 son estufas de 400W :p :p :p
y mucha mas de "intel+nvidia" mucho mejor, amd caca culo pedo pis [hallow]


pero es que todos los años que amd ha ido por detrás, sumados a los problemas que tuvieron los primeros ryzen y los problemas que tienen las 5700, hacen que todavía no se acabe de confiar

ahora con los ryzen 2000 y 3000 creo que en general si que podemos decir que se ha aceptado a nivel general que son mejor opcion que los intel, pero con las graficas todavia queda mucho por recorrer
Yo recientemente compré la seasonic gx750 plus gold así que voy más que sobrado con fuente.

Dejo vídeo de Iker analizando las nuevas gráficas (o lo que se sabe/intuye de ellas).

Bueno, no excusemos el mal trabajo que se ha hecho con las 5700, hoy día no se, pero en su momento eran una lotería.

Nada de fuentes malas y cajas con pésima ventilación, no por nada en los datos que alguien colgó de una tienda alemana tenía una tasa de devolución que cualquier otra gpu ni se le acerca.
VanSouls escribió: ¿cuantas devoluciones han sido por tener una fuente chinorra? ¿cuantas devoluciones han sido por temperaturas altisimas por tener una caja horno sin disipación?

Seguramente muchisimas. Si miras la gente con problemas en el PC, salvo casos de configuración, te daras cuenta que es por montar cosas desiguales, por ahorrar en algun componente. El que no puso un disipador malo, puso una torre horno, el que no una fuente chinorra y asi la lista es enorme. Gente con graficas serie 80 en PCs asi hay un monton.

El mayor problema de las 5700, seguramente fueron los problemas de firmware. Y llamenme fanboy pero mucha gente que compra AMD, acaba cansada de los problemas de controladores, sobretodo del abandono de gamas anteriores.
Demasiada frustración es lo que veo yo aqui [+risas] , con perdon.

Respecto a lo de las AMD, ansiosos estamos todos de verlas, pero una cosa hay que tener clara sin fantasias. Van a estar tan por debajo de las Ampere (o mas) que las actuales tope de AMD lo estan respecto de las Nvidia, y ademas, supongamos que AMD, sobre rendimiento real mas allá de los tipicos esquemas vende humo (que usan ambas, ojo) de aumento el rendimiento un 50% respecto de la pasada vez porque yo lo valgo y algunos (en su inopia) da por echo que a mismo precio doble de frames en mismas condiciones, tiene una tope de Gama que en le mejor de los casos iguala a una 2080Ti a la hora de mover juegos digamos a 4k y con RTX.

Que os creeis, que la van a vender en 600 euros? Ya se os ha olvidado que AMD tambien ha tenído gráficas tochas caras?

Estamos como con las consuelas nuevas y los niños fanboy, que parece que las van a regalar a la puerta de los centros comerciales. Venga que si, a todo el que pase, una pley, una Sbox y una Radeon de 800 pavos , todo gratis, sin consumos ni temperaturas (porque AMD todos sabemos que es famosa por consumos moderados y bajar tamperaturas), y todos contentos a casa a viciar como nunca...

Y yo, como muchos aqui, salto indistintamente de AMD a Nvidia. Sin ir mas lejos, en los últimos 3 años he tenido una rx580, una 2070S y ahora la Ti. Nunca diria que AMD es suerior a Nvidia, ni Nvidia a AMD. Cada una tiene sus cosas mejores y peores, pero desde luego es innegable que a dia de hoy y salvo sorpresa brutal (que mucho dudo porque ya llevarian meses filtrandolo a bombo y platillo), Nvidia está, en general, un escalón por encima de AMD, que claramente se ha centrado y especializado en la gama media. Pero la Gama media es esa que con una gran relación "precio/rendimiento", te da 20 frames menos (o aun menos) cuando quieres poner "ese" juego a 4k, que vaya a 60 frames o lo mas cerca posible, y no renunciar a configuraciones Ultra.

Como todo en esta vida, lo bueno, o lo que es mejor, se paga. En otros foros o otras secciones de la propia EOL, encontraremos a gente escandalizada por los panolis que gastan 300 y 400 euros en gráficas hubiendo de 150 y 200.
¿Me explico?
Y lo digo yo, que no me sobra el dinero para nada, y me cuesta esfuerzo y sacrificio darme cualquier capricho. Eso de "pues sino la puedo pagar caca futi porque gasta mucha luz y se va a calentar y es fea y grande", me parece una actitud infantil.
La cosa no es si han tenido que ponerle ese pedazo de disipador para mantener temperaturas habituales, sino si resulta efectivo, y esa o las soluciones custom, pueden sin problema mantener las temps que deben. Y si hay que comprar una caja mas grande para meterlas, porque se ganan merecer la pena, pues se compra. Asi es la vida.

Lo que tenemos que ver, y hasta que no se sepa todos estos debates me parecen totalmente inutiles, es DE QUE SON CAPACES. Porque, y exagero a lo absurdo, si fuesen del tamaño de un tomo de atlas y el grosor de 2, costasen 2000 pavos, pero pudiese ofrecer gráficos totalmente fidedignos a los videos que Nvidia suele usar para las promos de RTX (los falsos, no los de juegos reales), poquita gente habría aqui atreviendose a criticar tamaño, consumo o precio, y si ofreciendo sus cuerpos si hace falta para poder juntar el dinero. Pienso yo.

¿Me he explicado no? Lo buenas o malas, grotescas o alucinantes, que sean, lo vamos a ver cuando las veamos en acción. Mientras, es especular por especular. Y lo mismo para AMD, que va a subir por la parra tan alto como pueda en funcion de los precios de Nvidia, no os equivoqueis.

Y a los que el RTX os da igual, y el 2k os parece mas que suficiente, no se que haceis que no pillais ya una 2000 sino la teneis, porque los precios van a subir si es cierto que las Ampere salen tan altas de precio, que dado la competencia que tienen y los problemas actuales para producir stock, yo apostaría que sí.
Y por cierto, ya se confirmó hace unos cuantos dias que al mercado llegaran a la vez las Founder y las Custom, no habrá que esperar demasiado para ver las soluciones fuera de la propia Nvidia. Ya veremos, y sobre todo, lamentablemente, tendremos que esperar a ver que tanto se pueden aprovechar las Ampere (o unas posibles super RDNA2), porque el lastre de las consolas va a seguir siendo eso, un lastre, que aunque ahora se acerquen a lo mas top de PC en la actualidad, de ahí no pasan, y estas Ampere solo se justifican para ir mucho mas allá.

Un saludo [beer]


PD: respecto de las locuras que estais diciendo sobre las fuentes. Mi equipo, que monta ademas de la firma 2 hdd, 1ssd, y 5 ventiladores en la caja, amen de un NH15, tiene una fuente de 650W 80plusB, ademas de 5 slots usb siempre funcionando (bluetooth, wifi del los cascos, receptor de teclado inalambrico y por supuesto raton y teclado por cable) y cero problemas, en una rutina de altas cargas de trabajo durante periodos bastante largos de tiempo. Puedes tocar la zona de la fuente que no notas mas que un ligero calentorcito. Para lo que es UTIL y RECOMENDABLE una fuente de gran potencia, es precisamente para que siempre vaya MUY SOBRADA, nunca se acerque al 100% de desempeño, y con ello tener bajas temperaturas en la fuente, y por extensión, una vida mucho mas larga. Que algunos estais muy perdidos con los calculos de consumo y con como funciona una fuente de alimentación.
Laurita86 está baneado por "Troll"
La gama baja actual a precio de la gama alta de hace tres años.
Laurita86 escribió:La gama baja actual a precio de la gama alta de hace tres años.


como es la catalogación a día de hoy?

Yo me pierdo...

futuras:

3050 gama baja
3060 gama baja-media
3070 gama media-alta
3080 gama alta
3090 gama dios

Si a día de hoy con una 1650Ti se puede jugar a casi todo en 1080 alto/ultra, y eso es gama baja es que vamos muy sobrados de hardware a día de hoy, a ver cómo portean los futuros juegos, ya me veo en mínimo una 2060 super y recomendado una 3070
spaizor6 escribió:Vaya monstruo de gráficas...Me da pena por los usuarios que tengan fuentes Mars Gaming y Cajas Nox Hummer que pretendan comprarlas. Más de uno va a tener problemas.


Hummer MC + 3 ventiladores + agujerear frontal. La 2060 ventus no sube de 65° y la temperatura máxima registrada del sistema hasta día de hoy han sido 72°.

Realmente con 2 ventiladores en el frontal (previamente agujereado) 1 detrás y otro arriba llegaría, pero tenía un noctua pequeñajo de la caja itx que usaba antes y se lo encasquete entre la fuente y la gráfica para sacar el aire caliente que desprende ésta última y la verdad es que me sorprendió el buen resultado que tenía así que lo dejé.

Total que si la caja grande es un horno, es por falta de entradas y salidas de aire. Taladras, metes ventiladores y arreando.
@mante que 3 ventiladores le pusiste a esa caja? y precio? no se que te habrá costado la nox, pero veo que está por unos 60€, a la que pongas 3 ventiladores normales artic 120mm ya suman 87€
con eso tienes cajas mucho mejores en calidad y muchísimo mas frescas, sin necesidad de romper la caja, si hay que romper la caja para tener buena ventilación, la caja NO es buena.
Cooler Master MasterBox MB511
Aerocool Sentinel RGB
Cooler Master Masterbox TD500 RGB
Corsair 275R Airflow
Laurita86 está baneado por "Troll"
kaiserphantom escribió:
Laurita86 escribió:La gama baja actual a precio de la gama alta de hace tres años.


como es la catalogación a día de hoy?

Yo me pierdo...

futuras:

3050 gama baja
3060 gama baja-media
3070 gama media-alta
3080 gama alta
3090 gama dios

Si a día de hoy con una 1650Ti se puede jugar a casi todo en 1080 alto/ultra, y eso es gama baja es que vamos muy sobrados de hardware a día de hoy, a ver cómo portean los futuros juegos, ya me veo en mínimo una 2060 super y recomendado una 3070


Con una 1650ti juegas a trompicones en ultra a juegos como exodus o rdr2 a 1080p.

... la gamas van en relación a lo que cuestan. Una futura 3050/3060 serán gama baja independientemente de la potencia que tengan, porque serán las más baratas de la gama.

El tema de las fuentes de alimentación es largo, ..... Pero básicamente una fuente de alimentación está recomendada para un determinado rango de demanda energética, es decir, una fuente de 700 w no es adecuada para equipos que vayan desde los 100w de consumo hasta los 600w, sino para equipos que vayan desde los 300 hasta los 400w por ejemplo.

Más a o menos potencia convertida que se salga de ese intervalo significará una perdida de eficiencia que se traducirá en mayor gasto energético e inestabilidad de onda. Para que os hagáis una idea, las certificaciones de vuestras fuentes, 80+ bronce, golf, platinum... Están certificadas solo para ese rango de potencia adecuada para ese modelo de fuente. Se puede dar el caso de que entregando 350w una fuente consiga una eficiencia de un 93%, y que sin embargo entregando 130w o 530w la eficiencia caiga al 83%.

Por lo que cada equipo demanda una potencia de fuente concreta. No existe la fuente todoterreno que sirva para todo tipo de configuraciones, una fuente de 1000w lo pasará mal para alimentar equipos poco demandantes, y una fuente de 600w lo pasará mal para alimentar equipos exigentes.
Editado por metalgear. Razón: mejor así
Laurita86 escribió:Y si te pierdes sácate la ESO, la gamas van en relación a lo que cuestan.

...sobretodo si parece que no tenéis ni idea por las perogrulladas que soltáis.


este comentario sobra totalmente... por favor, controlemos el tono y las sobradas
wildchild_bcn escribió:
Laurita86 escribió:Y si te pierdes sácate la ESO, la gamas van en relación a lo que cuestan.

...sobretodo si parece que no tenéis ni idea por las perogrulladas que soltáis.


este comentario sobra totalmente... por favor, controlemos el tono y las sobradas


+1

Ante todo, buen rollo.

A todos nos une un hobby aquí.

Nos nos despellejemos por empresas que no nos dan de comer [oki]
VanSouls escribió:Calculadora online, dejo el off-topic, voy a seguir leyendo [fiu]


No es un offtopic (mucha gente va a tener que calcular para saber que fuente necesita) y si, una calculadora online es algo puramente orientativo, pero fácil y accesible. Me parece estupendo que lo dejes aquí, yo voy a seguir porque considero que es mejor que la gente esté informada, pero si cambias de idea y te animas a seguir no creo que te vaya a seguir la corriente si vas a seguir con esas aportaciones, cuando me muestres algo que me haga cambiar de idea, seré el primero en admitir mi error y darte la razón. Podría, pero no voy a empezar a repasar hilos de 2080ti custom con TDP de 320-380W y a ver que les ha pasado a sus fuentes de 750W, pero si informo que he leído varios casos en el pasado, el que quiera puede dedicar algo de su tiempo a buscarlo si no me cree. Tampoco he dicho en ningún momento que se necesite una de 1000, de hecho dije que con una de 800 debería ser suficiente (entre 800 y 900 incluye 800), pero como metas accesorios, refrigeración líquida y demás, te puedes quedar corto y lo peor aún, te puede pasar como muchos aquí, que compraron calculando lo justo en un momento dado y ahora se han quedado cortos.

Yo por ejemplo tengo una de 750W porque necesitaba 650 y preferí ir por lo alto y hace 6 años que la tengo ¿quién asegura que no va a ser la tendencia que empiecen a subir de potencia las gpu's por estancamiento de nm y la próxima gen sean de 500W como lo fue en su momento la R9 295 x2? Yo tengo claro que en ningún momento montaré una 3090 en mi PC, aunque bajaran de precio en el futuro a 500, me parece una gráfica igual de mala que lo fue en su momento la R9 295 x2, y con todos mis respetos, mala porque quema energía a lo bestia, puede ser todo lo potente que quieras, no lo digo por el rendimiento/precio o similares. Para mí, una tarjeta de más de 200W ya es una burrada, la 1080ti o 2080ti tenían 250/260W respectivamente y ya lo veía como algo exagerado... como empecemos a ver normal tener tarjetas de 300W o 350W de referencia acabaremos peor que con los precios de la gama alta porque un gran avance había sido olvidar las GPU que superaban los 300W (sin entrar a doble núcleo). Las custom hay algunas que también abusan, pero eso ya depende de cada uno, no creo que saquen customs de la 3090 muy por debajo de los 350W de la de referencia... eso sí ¿qué TDP le ponemos a una 3090 custom con la bios subida para OC? ¿Quien asegura que nadie que se compre una 3090 va a hacer OC a su GPU con bios modificada por el propio fabricante que haga que incluso supere esos 350W?

Yo creo que veremos muchos foros llenos de gente con placas base, fuentes y demás con RMA's de toda clase tras comprarse su maravillosa GPU más potente y molona del mercado. Lo siento pero yo no aconsejaría a nadie montar una fuente de 650 con una 3090, a no ser que tuviera 100% claro que:

A.- CPU de max 75W
B.- No refrigeración líquida (que creo va a ser lo único que consiga calmar los monstruos estos)
C.- 2 discos duros como tope + 1 SSD
D.- Nada de tener un HUB de USB con mandos y chorrocientas cosas ahí conectadas
E.- Nada de lucecitas ni tonterías

Y lo he puesto por orden de prioridades.

Espero que la gente que tenga en mente montar una 3090 lea bien y se informe bien, porque casos de Tacens & Company va a haber seguro, pero al menos la gente que lea en los foros, que no lo haga y si es posible que no meta una 3090 en una fuente de 650W. Que lo puede hacer, SI. Con una 650W 80 plus bronze o silver puede probar y si la fuente empieza a protegerse, ya tenéis la respuesta, pero si me dejan escoger a mi, yo no lo haría, porque ya se han dado casos de gente con fuente de 750W y 350W de GPU con problemas, por tanto con una 650W es muy probable que si no se cumplen los requisitos mostrados arriba se queden cortos. Con 750W mientras no haya OC extremo, ni chorradas, también debería ser suficiente.
Lo de sacarse la ESO como dicen los compañeros es un comentario fuera de tono y sin sentido, le haré caso omiso.

Lo que quería decir y repito es que con una 1650ti que es casi lo más básico se juega a 1080p en alto a 60 fps a prácticamente todo, para un usuario normal es suficiente a día de hoy.
Con la nueva generación veremos a donde nos llevan los requisitos, yo no soy muy exigente pero sí necesito 1080@60 y a poder ser 1440@60
Quizá tenga que recurrir a segunda mano para una rtx 2070super, mi límite está en 400 euros.
kaiserphantom escribió:Lo de sacarse la ESO como dicen los compañeros es un comentario fuera de tono y sin sentido, le haré caso omiso.

Lo que quería decir y repito es que con una 1650ti que es casi lo más básico se juega a 1080p en alto a 60 fps a prácticamente todo, para un usuario normal es suficiente a día de hoy.
Con la nueva generación veremos a donde nos llevan los requisitos, yo no soy muy exigente pero sí necesito 1080@60 y a poder ser 1440@60
Quizá tenga que recurrir a segunda mano para una rtx 2070super, mi límite está en 400 euros.


es que lo que decías en el comentario anterior tiene todo el sentido... hay que plantearse un poco lo que llamamos "gama baja" cuando podemos jugar perfectamente con esas gráficas a la mayoría de juegos a 1080p60 (resolución que sigue siendo mayoritaria a dia de hoy)

hay que valorar un poco las necesidades de cada uno y saber calmar la ultritis... y que no nos de cosa irnos a una gama media o gama baja si con eso cubrimos totalmente nuestras necesidades


yo personalmente sigo apuntando a la gama alta, que desde hace 4 años que tengo un monitor 3440x1440@100 y aun hay muchísimos juegos que no los puedo mover a esos 100fps [tomaaa]
espero que la 3080 me de para ello y no tener que ir a los precios que se estan planteando par alas 3080ti/3090 [facepalm]
VanSouls escribió:@mante que 3 ventiladores le pusiste a esa caja? y precio?


No me complique mucho, le metí los H-Fan PWM de NOX que son cómo los que ya vienen con la caja.

-Van 2 en el frontal, previamente agujereado (el frontal se desmonta muy fácil, le quitas las laminas que hacen la forma del rayo, agujereas por dentro todo y despues pones las laminas y les haces unos agujeros con una forma un poco molona para que quede más cool XD)

-Otro detrás (el que viene con la caja)

- Otro arriba

-Y el cuarto le quité 2 de las pletinas donde irían tarjetas de red, de audio y esas movidas que yo no uso y le puse el noctua chiquitin. Este último pienso que es prescindible, baja entorno a 2-4° la temperatura de la gráfica que tampoco es ninguna locura.

Y bueno el disipador de la CPU que también es NOX H-312 que también viene con otro H-Fan incorporado [+risas]

Sí, son muchos ventiladores, pero mantiene buenas temperaturas con poco ruido a bajas RPM. Si le metes caña con la opción máxima velocidad de la caja hace un ruido que te cagas, pero puedes usarla de nevera [qmparto]

PD: La caja fueron 38€ y los ventiladores 12€ cada uno. Así que 62€ en total ;)

La caja rota no está, de hecho esteticamente le da 10.000 vueltas a la de serie XD

Edit: las 4 que has puesto, para mi gusto son horribles visualmente, que aunque no sea algo primordial, si lo tengo en cuenta.

Lo que mola de la que tengo es que al ser una caja tan sencilla, si eres un poco manitas, te permite hacerle un montón de chapucillas para dejarla a tu gusto.
@wildchild_bcn Yo estoy como tu, si una 3070 me asegura 1440p 100hz "ultra sin complicaciones, para mi sería perfecta, eso si, sin pasarse de precio :p
Para 1080 sin rt vas a ir sobrado con cualquier cosa que salga de aqui en adelante. Las consolas se supone que han venido para estandarizar de una vez el 4k (me entra la risa con los prometidos 1080 de la actual generación), y eso se va a comer toda la potencia extra, por eso en mi anterior comentario decía que la gente se vaya olvidando de un salto "generacional" en gráficos.

Aqui lo que interesa es el rt, porque es lo que puede darle el extra a los gráficos, pero está por ver en que queda la cosa hasta que esté totalmente estandarizado, porque de momento, es un trabajo extra para los desarrolladores que no les renta más allá de ser un tema puramente publicitario/subvencionado. Mientras la gama media se arrastre con el rt, es lo que va haber.
VanSouls escribió:@Gwyn Aún hay mucha gente que se piensa que los ryzen son los FX y que las 5700 son estufas de 400W :p :p :p
y mucha mas de "intel+nvidia" mucho mejor, amd caca culo pedo pis [hallow]


Teniendo en cuenta que la fama se gana... yo creo que amd se ha ganado la fama de sobra de caca culo pedo pis y añado mierda! xD

Empezando por ahi! Aqui en su mayoria todos y digo todos parece que la quieren para jugar, segun se pueden leer comentarios de frames... resoluciones.. Hz.. Etc

Y a día de hoy la opción que mas rendimiento da es intel junto a nvidia.

Eso es así le pese a quien le pese... Que cueste mas o menos .. cada uno hace con su dinero lo que ve conveniente, pero como en automocion por ejemplo. un coche con mas CV vale mas caro, puedes hacer lo mismo pero la potencia para lo que lo quieres hay que pagarla.

Ademas me parece vergonzoso y lo digo bien claro, vergonzoso que a dia de hoy haya que seguir mirando si esta ram es compatible con mi ryzen.. si esta no...

INtel, busco la mas potente de frecuencias junto a la clase mas baja posible que mi bolsillo se pueda permitir y a darle caña al bicho... AMD tiene bien ganadas toooooodos esos calificativos maravillosos que les has regalado, y muchos mas!

Hasta aqui el post pero añado algo mas, aun recuerdo la de cuelgues y actualizaciones de bios que tuve que hacerle a la placa de mi primo con su ryzen porque daba pena... AMD FUCK? Claramente si
Mendrolo escribió:Para 1080 sin rt vas a ir sobrado con cualquier cosa que salga de aqui en adelante. Las consolas se supone que han venido para estandarizar de una vez el 4k (me entra la risa con los prometidos 1080 de la actual generación), y eso se va a comer toda la potencia extra, por eso en mi anterior comentario decía que la gente se vaya olvidando de un salto "generacional" en gráficos.

Aqui lo que interesa es el rt, porque es lo que puede darle el extra a los gráficos, pero está por ver en que queda la cosa hasta que esté totalmente estandarizado, porque de momento, es un trabajo extra para los desarrolladores que no les renta más allá de ser un tema puramente publicitario/subvencionado. Mientras la gama media se arrastre con el rt, es lo que va haber.


No son capaces de estandarizar los 1080p60 y van a estandarizar el 4K xDDDD. Las consolas viven en el pasado, es una absoluta vergüenza. Yo esta generación la veo para estandarizar los 1060p60 y en algunos juegos los 4k30.

EDIT: Sobre los otros mensajes, que estoy leyendo en dirección contraria... decir que va a ser necesario una fuente de 1000W... estáis loquísimos xD. Lo del tamaño me sorprende, por suerte tengo una caja muy espaciosa y no me importaría demasiado pero no sé, me parece tanta la diferencia con la 2080 que parece fake. Y lo de los precios... yo he cambiado de gráfica pocas veces (770 a unos 400€ y 1060 a 250), así que veo un cambio grande, más aún porque con el PC que tengo no tiene sentido ir a una cosa que no sea la 3080 o la 90 y mi cartera tiembla.

Como dije el otro día, mientras los rumores de altas temperaturas sean falsos me conformo
El problema es que si nvidia ha conseguido lo que se rumorea del dlss 3.0 y este se puede aplicar a cualquier titulo con taa hasta la 3060 se pasaría por el forro a cualquier gráfica que exista hoy en dia ya que el dlss 2.0 ya duplica el rendimiento dándote incluso mejor calidad.
Si , la 3060 por 400 sería una locura pero si se confirma eso ni la 5700xt ni la 2080 se le acercarían en rendimiento, y eso es muy mala noticia porque da pie a nvidia a hacer lo que quiera.
Si el dlss 3.0 es tan maravilloso, y la 3060 en potencia bruta iguala a una 2080, comprarse cualquier cosa superior solo tendría sentido para el 4k 144hz ;p

Tiene que tener truco por huevos...
Laurita86 escribió:una fuente de 1000w lo pasará mal para alimentar equipos poco demandantes


Lo que hay que ver por tener ojos [facepalm] [facepalm]
@chrispro

A que precio, temperaturas y por cuantos fps contados vs la competencia. En mi opinión no vale la pena gastar esa pasta de mas por Intel hoy dia, por nada le esta dando un repaso en ventas porque la gente tonta no es y te lo dice uno que estuvo mas de 15 años sin comprar un CPU de AMD. Hoy dia tengo no uno dos Ryzen un 3700X y en una PC ITX un 3500X y son puras bestias a muy buenos precios. En precio/calidad AMD hoy dia no tiene competencia en CPUs nadie en su mayoría por unos contados fps se va a gastar esa burrada hoy dia por fps contados de mas y menos a las temperaturas que esos CPUs de Intel trabajan que si lo combinas con estas nuevas RTX y resulta que manejan esas temperaturas de verdad te quedas con un bonito horno para pizzas.
adriano_99 escribió:El problema es que si nvidia ha conseguido lo que se rumorea del dlss 3.0 y este se puede aplicar a cualquier titulo con taa hasta la 3060 se pasaría por el forro a cualquier gráfica que exista hoy en dia ya que el dlss 2.0 ya duplica el rendimiento dándote incluso mejor calidad.
Si , la 3060 por 400 sería una locura pero si se confirma eso ni la 5700xt ni la 2080 se le acercarían en rendimiento, y eso es muy mala noticia porque da pie a nvidia a hacer lo que quiera.


Yo entiendo que los tensor cores de las 20XX se aprovecharán del mismo algoritmo que las 30XX, éstas ultimas quizá tengan mas tensor cores si ello aumenta el rendimiento, pero no quiere decir que las actuales no sean compatibles con las futuras versiones de DLSS
mante escribió:
adriano_99 escribió:El problema es que si nvidia ha conseguido lo que se rumorea del dlss 3.0 y este se puede aplicar a cualquier titulo con taa hasta la 3060 se pasaría por el forro a cualquier gráfica que exista hoy en dia ya que el dlss 2.0 ya duplica el rendimiento dándote incluso mejor calidad.
Si , la 3060 por 400 sería una locura pero si se confirma eso ni la 5700xt ni la 2080 se le acercarían en rendimiento, y eso es muy mala noticia porque da pie a nvidia a hacer lo que quiera.


Yo entiendo que los tensor cores de las 20XX se aprovecharán del mismo algoritmo que las 30XX, éstas ultimas quizá tengan mas tensor cores si ello aumenta el rendimiento, pero no quiere decir que las actuales no sean compatibles con las futuras versiones de DLSS

Ya claro pero quien decide si es compatible o no es nvidia, y si hace que el dlss 3.0 sea compatible con la serie 20 se come la 30 con patatas.
bromutu escribió:
Laurita86 escribió:una fuente de 1000w lo pasará mal para alimentar equipos poco demandantes


Lo que hay que ver por tener ojos [facepalm] [facepalm]

[carcajad] tela con la ingeniera de caminos.
Senegio escribió:
Mendrolo escribió:Para 1080 sin rt vas a ir sobrado con cualquier cosa que salga de aqui en adelante. Las consolas se supone que han venido para estandarizar de una vez el 4k (me entra la risa con los prometidos 1080 de la actual generación), y eso se va a comer toda la potencia extra, por eso en mi anterior comentario decía que la gente se vaya olvidando de un salto "generacional" en gráficos.

Aqui lo que interesa es el rt, porque es lo que puede darle el extra a los gráficos, pero está por ver en que queda la cosa hasta que esté totalmente estandarizado, porque de momento, es un trabajo extra para los desarrolladores que no les renta más allá de ser un tema puramente publicitario/subvencionado. Mientras la gama media se arrastre con el rt, es lo que va haber.


No son capaces de estandarizar los 1080p60 y van a estandarizar el 4K xDDDD. Las consolas viven en el pasado, es una absoluta vergüenza. Yo esta generación la veo para estandarizar los 1060p60 y en algunos juegos los 4k30.

EDIT: Sobre los otros mensajes, que estoy leyendo en dirección contraria... decir que va a ser necesario una fuente de 1000W... estáis loquísimos xD. Lo del tamaño me sorprende, por suerte tengo una caja muy espaciosa y no me importaría demasiado pero no sé, me parece tanta la diferencia con la 2080 que parece fake. Y lo de los precios... yo he cambiado de gráfica pocas veces (770 a unos 400€ y 1060 a 250), así que veo un cambio grande, más aún porque con el PC que tengo no tiene sentido ir a una cosa que no sea la 3080 o la 90 y mi cartera tiembla.

Como dije el otro día, mientras los rumores de altas temperaturas sean falsos me conformo


Yo (por si acaso, espero que estéis haciendo referencia a otros usuarios) quiero aclarar que NO HE RECOMENDADO una fuente de 1000W para una 3090, en mi post pone a partir de 800W es la recomendada para una 3090, he explicado que una 750W valdrá también siempre y cuando no vaya a ser un PC destinado a OC extremo y que incluso una de 650W podría valer, pero solo en casos donde se tiene muy claro el uso que se le va a dar el PC, porque si empezáis a decir que las de 650W valen para 3090 (sin dejar claro que no es así en todos los casos), vamos a juntar a todos los kamikaze Tacens de siempre con los nuevos:

"mi pc se apaga solo y eso que tiene lo mejor de lo mejor instalado para OC, placa base Z490, le metí la líquida para refrigerar bien la 3090 que me dijeron que se calentaba mucho, le metí 4 ventiladores más para que la torre ventilara bien y la placa estuviera fresca, le metí muy poco overclock a mi 10900K, apenas lo estabilicé en 5.0 Ghz gracias a la liquida, la 3090 la puse suave, porque con 2,3 Ghz apenas se calentaba, así estuve jugando con Half Life Alyx varios días muy bien hasta que de repente, no sé porque mi PC se apaga solo... ¡¡¡¡Ayuda por favor!!!!"

Porque si es buena la fuente y tiene un 80 plus bronze de verdad, al menos cortará para que no se dañe nada (para eso se paga por una buena fuente 80 plus y no una Tacens & Company), pero más de uno se encontrará con que no entiende porque su PC ha dejado de funcionar... y repito, yo para nada recomiendo una de 1.000, de hecho he dicho que NI de broma me voy a pillar una 3090 porque no quiero meter 350W de gráfica en mi PC (que perfectamente pueden ser más si se le hace OC, que parece que olvidéis que las 2080ti Oceadas llegan hasta los 380W, 120W más que el TDP de referencia). Eso si, mejor ir siempre un poco holgados con las fuentes que no autoengañarse, cada cual que haga lo que quiera y como quiera. Yo ya he quemado varias fuentes por ser de insuficiente potencia y no me apetece volver a pasar por lo mismo, mi fuente de 750W no va a probar ninguna gráfica de 350W y si dentro de un tiempo me toca cambiar de fuente por culpa de los TDP altísimos en todas las gamas, no me voy a pillar una de 1000W, pero que quede claro que el mercado está empujando en esa dirección y que como sigan así algunos (a parte de los Overclockers, entusiastas o youtubers) empezarán a ver normal montar fuentes de 1.000W y eso es una aberración total. Es un ordenador! 750W debería ser el tope para cualquier persona normal... aunque también deberían ser unos 500 euros en una GPU y más de uno se gasta más de 1.000 ¡y parece normal y todo! Vosotros que podéis y queréis pasar por ahí, os deseo lo mejor, pero yo no paso por ahí.

Mi hype ya ha bajado bastante, esperemos que pronto muestren todo de la 3070 para salir de dudas, pero en mi caso ojalá la 3070 no tenga nada que ver con la 3090. Lo dudo, estoy convencido que tendrá más TDP que la 2070 super, estoy convencido que será más cara que la esta también y que será más caliente también... ¿que rendirá como una 2080ti o más? Me alegraré, pero ni pagaré 600 ni aceptaré 300W ni 80º de serie en las founder por mucha potencia y Raytracing que tengan.
Faxtron escribió:@chrispro

A que precio, temperaturas y por cuantos fps contados vs la competencia. En mi opinión no vale la pena gastar esa pasta de mas por Intel hoy dia, por nada le esta dando un repaso en ventas porque la gente tonta no es y te lo dice uno que estuvo mas de 15 años sin comprar un CPU de AMD. Hoy dia tengo no uno dos Ryzen un 3700X y en una PC ITX un 3500X y son puras bestias a muy buenos precios. En precio/calidad AMD hoy dia no tiene competencia en CPUs nadie en su mayoría por unos contados fps se va a gastar esa burrada hoy dia por fps contados de mas y menos a las temperaturas que esos CPUs de Intel trabajan que si lo combinas con estas nuevas RTX y resulta que manejan esas temperaturas de verdad te quedas con un bonito horno para pizzas.


yo por ejemplo he pillado un 10700K por 310 euros y la verdad que mas contento no puedo estar. Temperaturas del estilo de las generaciones anteriores. Buenas!

Comprarlo del paquete seguramente no sea lo mas logico... pero si buscas por internet hay ofertas como estas muy buenas!
adriano_99 escribió:
mante escribió:
adriano_99 escribió:El problema es que si nvidia ha conseguido lo que se rumorea del dlss 3.0 y este se puede aplicar a cualquier titulo con taa hasta la 3060 se pasaría por el forro a cualquier gráfica que exista hoy en dia ya que el dlss 2.0 ya duplica el rendimiento dándote incluso mejor calidad.
Si , la 3060 por 400 sería una locura pero si se confirma eso ni la 5700xt ni la 2080 se le acercarían en rendimiento, y eso es muy mala noticia porque da pie a nvidia a hacer lo que quiera.


Yo entiendo que los tensor cores de las 20XX se aprovecharán del mismo algoritmo que las 30XX, éstas ultimas quizá tengan mas tensor cores si ello aumenta el rendimiento, pero no quiere decir que las actuales no sean compatibles con las futuras versiones de DLSS

Ya claro pero quien decide si es compatible o no es nvidia, y si hace que el dlss 3.0 sea compatible con la serie 20 se come la 30 con patatas.


Yo espero que no sean tan cerdos, pero claro €€€€ [+risas]
* Y nadie comenta de esa sobredimensionada imagen de la 3090 que, solo sea un modelo impreso con una impresora 3D por una persona random (sin PCB ni la circuitería)? Basándose en las fotos que se hizo mucho antes previamente y alguien creó unos modelos 3D por software cogiendo esas fotos como referencia. Metieron la pata al tomar la escala y les salio algo mas grande.

* Un modelo de ingenería para uso interno (ejemplo de una PS5 solo para desarrolladores y totalmente diferente modelo para el público).

* Una doble GPU. La última así fue Titan Z en 2014 triple slot. Ya que Jensen está muy convencido de tanta potencia.

Saludos.
Respecto al video,yo si creo que Nvidia va ha poner mucha potencia a las ampere,ya que viene un cambio generacional de consolas y tiene que estar a la altura con lo que todo conlleva.
pdriko31 escribió:Respecto al video,yo si creo que Nvidia va ha poner mucha potencia a las ampere,ya que viene un cambio generacional de consolas y tiene que estar a la altura con lo que todo conlleva.


Es un chiste, no?

A veces el sarcasmo no se pilla bien en un foro escrito.


Yo lo que sigo viendo en el hilo claramente, y ya soy muy viejo, son los dos típicos perfiles de persona :

-el que, partiendo del punto que sea a más o menos distancia de la cumbre, sueña, lucha y se esfuerza, siempre con la ilusión de alcanzarla o llegar lo más cerca posible, celebrando su existencia.

-los comunis%#%€=€ DIGO! El que partiendo del punto que sea a más o menos distancia de la cumbre, si les parece que se van a tener que esforzar demasiado para alcanzarla o piensan que nunca van a poder llegar, desprecian su existencia y a todo aquel que la alabe y la ansie. De hecho, si por el fuera, que dinamiten la cumbre y la rebajen hasta donde dicha persona está. Qué es eso de que hayan cosas por encima de él y tenga que estirar tooodo el brazo para alcanzarlas?!!!

Y como soy muy viejo ya, hablo sabiendo perfectamente lo que digo. Quien pueda que me siga y quien no pues nada. Siempre sucede lo mismo en todos los ámbitos de esta vida. Lo mismito.

Perdón por el por poquito de offtopic, esque estoy sensible con el tema por ciertas cosas.
A ver si pronto se aclara ya todo, pero con la que se está liando con estas imágenes por la red, si el tamaño fuese falso, es de suponer que alguien en las redes sociales de Nvidia ya lo habría desmentido.
A mi me da igual lo que consuman, midan, pesen y cuesten dentro de una cantidad aceptable (digamos lo que cuesta un portátil gaming de calidad, o teléfono móvil de moda para fardar con la peña, que muchos pagan durante años cuando luego se escandalizan por cualquier otra cosa cara que alguien pague financiando por gusto). Lo que quiero es ver hasta qué punto se refleja en pantalla lo que tenga que aportar la gama top de las ampere.

Aunque muchos no os educasteis así (eso que os perdisteis, lamentablemente), muchos crecimos en salones recreativos, soñando con poder en casa esos muebles árcade y esas placas en vez de la Atari o la nes o la super nes de turno. Y desde luego, consumían mucho más y eran mucho más grandes. Pero el sueño no desaparecía por eso. Pena que no se pudo hacer realidad entonces. Ahora por suerte, somos adultos y hacemos con nuestro dinero y trabajo lo que los sale de las gónadas (o casi, a veces hay que convencer a ciertos seres superiores [+risas]).

Si merecen la pena genial. Sino se las comerá Nvidia con patatas, eso no hace falta decirlo.
Como que Nvidia no nos han vendido humo con el rtx y dlss y también fallaban que lo comentasteis en este mismo hilo.

Sabemos poco de ampere porque solo hay que rumores, pero de rdna2 todavía sabemos menos.
battman80 escribió:
pdriko31 escribió:Respecto al video,yo si creo que Nvidia va ha poner mucha potencia a las ampere,ya que viene un cambio generacional de consolas y tiene que estar a la altura con lo que todo conlleva.


Es un chiste, no?

A veces el sarcasmo no se pilla bien en un foro escrito.


Yo lo que sigo viendo en el hilo claramente, y ya soy muy viejo, son los dos típicos perfiles de persona :

-el que, partiendo del punto que sea a más o menos distancia de la cumbre, sueña, lucha y se esfuerza, siempre con la ilusión de alcanzarla o llegar lo más cerca posible, celebrando su existencia.

-los comunis%#%€=€ DIGO! El que partiendo del punto que sea a más o menos distancia de la cumbre, si les parece que se van a tener que esforzar demasiado para alcanzarla o piensan que nunca van a poder llegar, desprecian su existencia y a todo aquel que la alabe y la ansie. De hecho, si por el fuera, que dinamiten la cumbre y la rebajen hasta donde dicha persona está. Qué es eso de que hayan cosas por encima de él y tenga que estirar tooodo el brazo para alcanzarlas?!!!

Y como soy muy viejo ya, hablo sabiendo perfectamente lo que digo. Quien pueda que me siga y quien no pues nada. Siempre sucede lo mismo en todos los ámbitos de esta vida. Lo mismito.

Perdón por el por poquito de offtopic, esque estoy sensible con el tema por ciertas cosas.
A ver si pronto se aclara ya todo, pero con la que se está liando con estas imágenes por la red, si el tamaño fuese falso, es de suponer que alguien en las redes sociales de Nvidia ya lo habría desmentido.
A mi me da igual lo que consuman, midan, pesen y cuesten dentro de una cantidad aceptable (digamos lo que cuesta un portátil gaming de calidad, o teléfono móvil de moda para fardar con la peña, que muchos pagan durante años cuando luego se escandalizan por cualquier otra cosa cara que alguien pague financiando por gusto). Lo que quiero es ver hasta qué punto se refleja en pantalla lo que tenga que aportar la gama top de las ampere.

Aunque muchos no os educasteis así (eso que os perdisteis, lamentablemente), muchos crecimos en salones recreativos, soñando con poder en casa esos muebles árcade y esas placas en vez de la Atari o la nes o la super nes de turno. Y desde luego, consumían mucho más y eran mucho más grandes. Pero el sueño no desaparecía por eso. Pena que no se pudo hacer realidad entonces. Ahora por suerte, somos adultos y hacemos con nuestro dinero y trabajo lo que los sale de las gónadas (o casi, a veces hay que convencer a ciertos seres superiores [+risas]).

Si merecen la pena genial. Sino se las comerá Nvidia con patatas, eso no hace falta decirlo.

Si, estás viejo y mucho diría yo.
@battman80 Nvidia no se va a meter a desmentir nada, sea verdad o no.

Lo que se filtra es problema de los leakers, no de ellos.

Y menos a tan poco tiempo de la presentación.
adriano_99 escribió:El problema es que si nvidia ha conseguido lo que se rumorea del dlss 3.0 y este se puede aplicar a cualquier titulo con taa hasta la 3060 se pasaría por el forro a cualquier gráfica que exista hoy en dia ya que el dlss 2.0 ya duplica el rendimiento dándote incluso mejor calidad.
Si , la 3060 por 400 sería una locura pero si se confirma eso ni la 5700xt ni la 2080 se le acercarían en rendimiento, y eso es muy mala noticia porque da pie a nvidia a hacer lo que quiera.

El problema es el mismo del DLSS 2.0. Juegos con TAA, la misma cantidad. Puse una lista de un enlace hace unas paginas. Basicamente eran los juegos triple A y alguno más del top 20. Pero no más. De hecho hay muchos juegos nuevos que no vienen ni vinieron con TAA.

La 2060 se acerco a la 1080 en algunos juegos. Con la 3060 no espero nada menos. Si lo hace ya en fuerza bruta, seria muy bueno. Pero lo dudo porque eso supondria que la 3080 seria mejor del rumorearo 40%.

pdriko31 escribió:Respecto al video,yo si creo que Nvidia va ha poner mucha potencia a las ampere,ya que viene un cambio generacional de consolas y tiene que estar a la altura con lo que todo conlleva.

Se rumorea un 40% más en la 3080. Eso no la rebomba. Lo normal en generaciones lanzadas cada año es 20%. El 40% para no haber sacado una gama nueva en dos años, no es impresionante.

Claramente Nvidia viene a vender humo con el DLSS 3.0 o el Raytracing.

Si esos son los precios de lanzamiento en eeuu cuanto creéis que costarían en España?

Nomada_Firefox escribió:
adriano_99 escribió:El problema es que si nvidia ha conseguido lo que se rumorea del dlss 3.0 y este se puede aplicar a cualquier titulo con taa hasta la 3060 se pasaría por el forro a cualquier gráfica que exista hoy en dia ya que el dlss 2.0 ya duplica el rendimiento dándote incluso mejor calidad.
Si , la 3060 por 400 sería una locura pero si se confirma eso ni la 5700xt ni la 2080 se le acercarían en rendimiento, y eso es muy mala noticia porque da pie a nvidia a hacer lo que quiera.

El problema es el mismo del DLSS 2.0. Juegos con TAA, la misma cantidad. Puse una lista de un enlace hace unas paginas. Basicamente eran los juegos triple A y alguno más del top 20. Pero no más. De hecho hay muchos juegos nuevos que no vienen ni vinieron con TAA.

La 2060 se acerco a la 1080 en algunos juegos. Con la 3060 no espero nada menos. Si lo hace ya en fuerza bruta, seria muy bueno. Pero lo dudo porque eso supondria que la 3080 seria mejor del rumorearo 40%.

pdriko31 escribió:Respecto al video,yo si creo que Nvidia va ha poner mucha potencia a las ampere,ya que viene un cambio generacional de consolas y tiene que estar a la altura con lo que todo conlleva.

Se rumorea un 40% más en la 3080. Eso no la rebomba. Lo normal en generaciones lanzadas cada año es 20%. El 40% para no haber sacado una gama nueva en dos años, no es impresionante.

Claramente Nvidia viene a vender humo con el DLSS 3.0 o el Raytracing.

Si los desarrolladores saben que metiendo taa nvidia les regala rendimiento lo van a empezar a llevar bastantes mas juegos.
battman80 escribió:
pdriko31 escribió:Respecto al video,yo si creo que Nvidia va ha poner mucha potencia a las ampere,ya que viene un cambio generacional de consolas y tiene que estar a la altura con lo que todo conlleva.


Es un chiste, no?

A veces el sarcasmo no se pilla bien en un foro escrito.


Yo lo que sigo viendo en el hilo claramente, y ya soy muy viejo, son los dos típicos perfiles de persona :

-el que, partiendo del punto que sea a más o menos distancia de la cumbre, sueña, lucha y se esfuerza, siempre con la ilusión de alcanzarla o llegar lo más cerca posible, celebrando su existencia.

-los comunis%#%€=€ DIGO! El que partiendo del punto que sea a más o menos distancia de la cumbre, si les parece que se van a tener que esforzar demasiado para alcanzarla o piensan que nunca van a poder llegar, desprecian su existencia y a todo aquel que la alabe y la ansie. De hecho, si por el fuera, que dinamiten la cumbre y la rebajen hasta donde dicha persona está. Qué es eso de que hayan cosas por encima de él y tenga que estirar tooodo el brazo para alcanzarlas?!!!

Y como soy muy viejo ya, hablo sabiendo perfectamente lo que digo. Quien pueda que me siga y quien no pues nada. Siempre sucede lo mismo en todos los ámbitos de esta vida. Lo mismito.

Perdón por el por poquito de offtopic, esque estoy sensible con el tema por ciertas cosas.
A ver si pronto se aclara ya todo, pero con la que se está liando con estas imágenes por la red, si el tamaño fuese falso, es de suponer que alguien en las redes sociales de Nvidia ya lo habría desmentido.
A mi me da igual lo que consuman, midan, pesen y cuesten dentro de una cantidad aceptable (digamos lo que cuesta un portátil gaming de calidad, o teléfono móvil de moda para fardar con la peña, que muchos pagan durante años cuando luego se escandalizan por cualquier otra cosa cara que alguien pague financiando por gusto). Lo que quiero es ver hasta qué punto se refleja en pantalla lo que tenga que aportar la gama top de las ampere.

Aunque muchos no os educasteis así (eso que os perdisteis, lamentablemente), muchos crecimos en salones recreativos, soñando con poder en casa esos muebles árcade y esas placas en vez de la Atari o la nes o la super nes de turno. Y desde luego, consumían mucho más y eran mucho más grandes. Pero el sueño no desaparecía por eso. Pena que no se pudo hacer realidad entonces. Ahora por suerte, somos adultos y hacemos con nuestro dinero y trabajo lo que los sale de las gónadas (o casi, a veces hay que convencer a ciertos seres superiores [+risas]).

Si merecen la pena genial. Sino se las comerá Nvidia con patatas, eso no hace falta decirlo.


Estas mayor y un poquito clasista... Me recuerdas a ciertos politicos(de noble cuna) que dicen que el que es un trabajador pobre es por que quiere y por que no se esfuerza mas

Hablar desde posiciones privilegiadas es muy facil

Y cuando tienes dinero y te da igual 8 que 80 es cuando se pierde la perspectiva...

Las gráficas a 1700 pavos son una desfasada y la gente está en su derecho de quejarse...
Para eso son los foros, para dar opiniones y poder discutirlas, no para tildar a la gente de nada por dar su opinión
Antoniopua está baneado por "saltarse el ban con un clon"
No es para tanto lo que dijo el compañero. Yo personalmente no me sentí ofendido por lo que dijo ni nada. Pasando al tema de los precios, ya tengo clarísimo que costarán igual que la serie 2000. Si esos precios son "reales", las Customs rondarán lo que ahora + o -.
Antoniopua escribió:No es para tanto lo que dijo el compañero. Yo personalmente no me sentí ofendido por lo que dijo ni nada. Pasando al tema de los precios, ya tengo clarísimo que costarán igual que la serie 2000. Si esos precios son "reales", las Customs rondarán lo que ahora + o -.

Ver veremos los precios. Pero los primeros rumores hablaban de precios similares a la serie 2000. Yo creo que la "sobrada" sera la 3090 si finalmente viene con casi el doble de memoria. No veo ningun sentido a que suban el precio del resto aún más. Por los tiempos que son y porque seguramente adolecezcan de imperfecciones como las temperaturas acompañadas de consumos altos.

Y hablando de algo nuevo ¿os imaginais que no sean semi-pasivas? que tengan los ventiladores siempre rulando. Menuda pifia seria déspues de acostumbrarnos a graficas donde solo se activan con carga.
Antoniopua escribió:No es para tanto lo que dijo el compañero. Yo personalmente no me sentí ofendido por lo que dijo ni nada. Pasando al tema de los precios, ya tengo clarísimo que costarán igual que la serie 2000. Si esos precios son "reales", las Customs rondarán lo que ahora + o -.


Así es, lo dije esta mañana, para mí la información que circula hoy es la real que se confirmará en 1 semana (y 2 días para ser más exactos). Ahora ya no me quedan dudas porque todo encaja, con los videos de HW360 de Iker que ha puesto el compañero queda más claro aún, por lo de TSMC 7nm y Samsung con los falsos 8nm y por muchas cosas más. Se llamará 3090 y tendrá 24GB. La 3080 tendrá 2 versiones de 10 y 20 GB. Saldrán en Septiembre las Custom y las founder a la vez. Las custom con un precio algo inferior. Con una placa ligeramente diferente (y más barata) que sea algo más clásica que el engendro ese que ha hecho nVidia (que les ha obligado a hacer un monstruo en tamaño y veremos si el ventilador a doble cara realmente mejora los 3 ventiladores clásicos). Y puede ser que las custom permita separar mejor las memorias y así no calentarse tanto, pero el TDP será a la par que las founder y las versiones OC se subirán más aún. Es una locura, para mi gusto no hay por donde cogerlo, yo igualmente no iba a pillarme la 3090 ni la 3080 sobretodo por el precio, pero ahora menos aún porque ya son demasiados cosas que no me cuadran o gustan.

Veremos is dicen algo de las 3070 y me equivoco, pero huele a que irán de la mano de las hermanas mayores en casi todo, quizás no tanto en tamaño, pero si en calor y TDP, el precio parece que puede rondar los 500-700, así que quizás el precio no acabe siendo el mayor de los problemas si realmente sacan algún modelo cercano a los 500. Primero porque las founder suelen ser 100 euros más caras. Después porque el cambio del € respecto al dolar está mucho mejor que en 2019 o 2018 o 2017. Y si, siempre redondean para arriba, pero si la founder sale a 500$ es posible que en Europa encontremos alguna sobre los 520 o similar. Si eso fuera así, el TDP no superara los 250W, el rendimiento fuera similar a la 2080ti y el tamaño normal con custom de 3 ventiladores como las de toda la vida, sería el más feliz, pero no quiero engañarme, no creo que todo eso ocurra y en caso afirmativo, faltaría por ver la VRAM, que puede que sea como en la 3080 y saquen una de 8 y otra de 16, ojalá, pero en ese caso la de 16 seguro son 100 pavos más y se irá a más de 600. Quizás ahora solo sacan las de poca VRAM y luego sacan las SUPER con más RAM. A saber.

Yo ayer estaba super hypeado y hoy he abierto un poco los ojos al ver el monstruo ese, tenía dudas sobre las temperaturas y el TDP, pero ya no me queda ninguna en ese sentido. Ojalá me equivoque, pero dudo que el 1 de Septiembre me decante por una 3070 y en cualquier caso esperaré a ver que sale con RDNA2 y si no hay nada que me convenza en Noviembre o Diciembre me compraré algo que me deje satisfecho, que seguramente acabe siendo una RTX 2070 super si puede ser nueva por debajo de 400 y si no de segunda mano por unos 300 espero poder encontrar. Y como se ponga tonta la cosa, me vuelvo a la 1080ti que a mi me funcionó super bien y me gustaba por los 11GB y por casi todo.
tigerscream escribió:... Saldrán en Septiembre las Custom y las founder a la vez. Las custom con un precio algo inferior ...


Como novato en el mundo Nvidia, pregunto: ¿esto es lo habitual?

Yo daba por hecho que el precio "base" era el de las FE y de ahí para arriba.
Por mi bien y de muchos,quitando precios,espero que no se demoren mucho la 3070 y que salgan como mucho octubre o noviembre.
Gwyn escribió:
tigerscream escribió:... Saldrán en Septiembre las Custom y las founder a la vez. Las custom con un precio algo inferior ...


Como novato en el mundo Nvidia, pregunto: ¿esto es lo habitual?

Yo daba por hecho que el precio "base" era el de las FE y de ahí para arriba.


bueno.... las FE suelen ser de precio "intermedio", mas caras que las custom base; después empiezan a salir las custom con OC, con sistemas de refrigeración liquida, etc. etc. y se pueden ir a bastante mas que el precio de las FE.

por ejemplo las 2080Ti FE salieron a 1199$, mientras que las base estaban en 999$... pero hemos tenido customs de cerca de 2000$ e incluso mas (te pongo precios en dolares por que no encuentro los precios oficiales de lanzamiento en euros)
Yo sigo dando vueltas a vender la mía, creo que incluso la 3060 merece la pena pero me da miedo que salgan super super caras.
Me dan 450 por mi 2070 super.
adriano_99 escribió:Yo sigo dando vueltas a vender la mía, creo que incluso la 3060 merece la pena pero me da miedo que salgan super super caras.
Me dan 450 por mi 2070 super.

Vende ahora que estás a tiempo, todo lo que sea esperar va a ser palmar pasta, entre las consolas de nueva generación, las RTX 3000 y las AMD RDNA2, van a haber una bajada wapa de la serie 2000 en el mercado de segunda mano
31123 respuestas