[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

Eilex_D escribió:(Desde la ignorancia) Hoy en día, realmente es necesario mas 16gb de VRAM para jugar?

No, es una burrada sin sentido, con 12 gigas de VRAM van bien servidas
miliko_one escribió:Yo supongo que la serie 3090 va enfocada a jugar a 4k, muy poca gente juega a 4k en monitores y los tv 4k no pasan de 60hz, yo ahora tengo una 1080ti y juego a 2k practicamente a casi todo en utra y por encima de los 60fps en el 90% de los juegos, la 2080ti no era un desembolso justificado por tener rt y practicamente el mismo rendimiento, en 4k seria otra cosa.

Una 2080ti tiene un 35% más rendimiento que una 1080ti en rasterizado tradicional además del DLSS y el raytracing, y eso de que las TV no van más allá de 4k 60 hz te lo has intentado tú, la C9 Y Qled Q90R dicen lo contrario, sin contar que toda la gama alta de Samsung desde el 2018 llevan 2k 120 hz, cómo puedes ver estas muy perdido en tema de TVs


Nvidia seguramente reculo y vio que es mejor meter 24 Gb para que no se quede corta de vram a futuro en juegos de nueva generación , la cantidad de vram de las 2080 Ti es valida hoy para jugar pero puede no serlo dentro de 2 años a 4k + ray tracing , texturas en 4k etc... y si Nvidia a tomado esa decisión es por que es necesario , además si te fijas en ese twit del 19 de junio y teniendo en cuenta de que sea veridico la Titan Ampere tiene mas shaders y los shaders de la 3090 coinciden con los de la ultima filtración.. es decir las Titan excepto la primera siempre han tenido el chip completo y la 3090 por lo que se ve viene recortada
Bio81 escribió:


Nvidia seguramente reculo y vio que es mejor meter 24 Gb para que no se quede corta de vram a futuro en juegos de nueva generación , la cantidad de vram de las 2080 Ti es valida hoy para jugar pero puede no serlo dentro de 2 años a 4k + ray tracing , texturas en 4k etc... y si Nvidia a tomado esa decisión es por que es necesario , además si te fijas en ese twit del 19 de junio y teniendo en cuenta de que sea veridico la Titan Ampere tiene mas shaders y los shaders de la 3090 coinciden con los de la ultima filtración.. es decir las Titan excepto la primera siempre han tenido el chip completo y la 3090 por lo que se ve viene recortada

Error otra vez, la Titán Pascal salió también recortado el chip, de hecho cuando lanzaron la 1080ti rendía más que la Titán Pascal y por eso mismo Nvidia volvió a lanzar la Titán Pascal X con el chip completo [hallow]
Si dices que nvidia se ha dado cuenta que 12 gigas es insuficiente por qué sacan la 3080 con 10 gigas? Vamos no tiene sentido ninguno nada de lo que dices
kikomanco escribió:
Bio81 escribió:


Nvidia seguramente reculo y vio que es mejor meter 24 Gb para que no se quede corta de vram a futuro en juegos de nueva generación , la cantidad de vram de las 2080 Ti es valida hoy para jugar pero puede no serlo dentro de 2 años a 4k + ray tracing , texturas en 4k etc... y si Nvidia a tomado esa decisión es por que es necesario , además si te fijas en ese twit del 19 de junio y teniendo en cuenta de que sea veridico la Titan Ampere tiene mas shaders y los shaders de la 3090 coinciden con los de la ultima filtración.. es decir las Titan excepto la primera siempre han tenido el chip completo y la 3090 por lo que se ve viene recortada

Error otra ves, la Titán Pascal salió también recortado el chip, de hecho cuando lanzaron la 1080ti rendía más que la Titán Pascal y por eso mismo Nvidia volvió a lanzar la Titán Pascal X con el chip completo [hallow]
Si dices que nvidia se ha dado cuenta que 12 gigas es insuficiente por qué sacan la 3080 con 10 gigas? Vamos no tiene sentido ninguno nada de lo que dices


bueno si cierto ahí me cole la primera Titan y la Titan pascal que luego sacaron la Titan Xp que esta si venia con el chip completo , por que tambien habran modelos de 20 GB de la 3080 , es decir la 2080 super por ejemplo tiene 8 GB y a veces se queda corta de vram pero tiene potencia para dar mas rendimiento si tuviera mas vram. tiene todo el sentido el que quiera que la vram no le limite , paga mas , por eso habrá un modelo de 3080 con 20 GB , por lo que se sabe hasta ahora por que no hay dos modelos confirmados de 3090 uno con 24 Gb y otro con 16 GB seguramente por que Nvidia crea conveniente que la tope de gama para gaming debe tener 24 GB , primero por es un 50% mas rapida que la 2080 Ti donde se va a hacer uso intensivo de la vram a 4k con ray tracing en juegos que salgan dentro de un año y medio o dos años , así se aseguran que no se quede corta nunca de vram
Bio81 escribió:
kikomanco escribió:
Bio81 escribió:
Nvidia seguramente reculo y vio que es mejor meter 24 Gb para que no se quede corta de vram a futuro en juegos de nueva generación , la cantidad de vram de las 2080 Ti es valida hoy para jugar pero puede no serlo dentro de 2 años a 4k + ray tracing , texturas en 4k etc... y si Nvidia a tomado esa decisión es por que es necesario , además si te fijas en ese twit del 19 de junio y teniendo en cuenta de que sea veridico la Titan Ampere tiene mas shaders y los shaders de la 3090 coinciden con los de la ultima filtración.. es decir las Titan excepto la primera siempre han tenido el chip completo y la 3090 por lo que se ve viene recortada

Error otra ves, la Titán Pascal salió también recortado el chip, de hecho cuando lanzaron la 1080ti rendía más que la Titán Pascal y por eso mismo Nvidia volvió a lanzar la Titán Pascal X con el chip completo [hallow]
Si dices que nvidia se ha dado cuenta que 12 gigas es insuficiente por qué sacan la 3080 con 10 gigas? Vamos no tiene sentido ninguno nada de lo que dices






Nvidia seguramente reculo y vio que es mejor meter 24 Gb para que no se quede corta de vram a futuro en juegos de nueva generación , la cantidad de vram de las 2080 Ti es valida hoy para jugar pero puede no serlo dentro de 2 años a 4k + ray tracing , texturas en 4k etc... y si Nvidia a tomado esa decisión es por que es necesario , además si te fijas en ese twit del 19 de junio y teniendo en cuenta de que sea veridico la Titan Ampere tiene mas shaders y los shaders de la 3090 coinciden con los de la ultima filtración.. es decir las Titan excepto la primera siempre han tenido el chip completo y la 3090 por lo que se ve viene recortada


Error otra ves, la Titán Pascal salió también recortado el chip, de hecho cuando lanzaron la 1080ti rendía más que la Titán Pascal y por eso mismo Nvidia volvió a lanzar la Titán Pascal X con el chip completo [hallow]
Si dices que nvidia se ha dado cuenta que 12 gigas es insuficiente por qué sacan la 3080 con 10 gigas? Vamos no tiene sentido ninguno nada de lo que dices



bueno si cierto ahí me cole la primera Titan y la Titan pascal que luego sacaron la Titan Xp que esta si venia con el chip completo , por que tambien habran modelos de 20 GB de la 3080 , es decir la 2080 super por ejemplo tiene 8 GB y a veces se queda corta de vram pero tiene potencia para dar mas rendimiento si tuviera mas vram. tiene todo el sentido el que quiera que la vram no le limite , paga mas , por eso habrá un modelo de 3080 con 20 GB , por lo que se sabe hasta ahora por que no hay dos modelos confirmados de 3090 uno con 24 Gb y otro con 16 GB seguramente por que Nvidia crea conveniente que la tope de gama para gaming debe tener 24 GB , primero por es un 50% mas rapida que la 2080 Ti donde se va a hacer uso intensivo de la vram a 4k con ray tracing en juegos que salgan dentro de un año y medio o dos años , así se aseguran que no se quede corta nunca de vram

Se dice que habrá modelos de 20 gigas, pero es que no sabemos si será verdad, lo único que sabemos es la 3090 de 24, la 3080 de 10 y la 3070 de 8, yo pienso que es que se han guardado la 3080ti con 12 para dentro de unos 10 meses, de todas maneras el martes saldremos de dudas
Edito, dentro de 1 año y medio o 2 ya no harán falta los 24 gigas de VRAM de la 3090 por qué estará en la calle la 4090
kikomanco escribió:
Bio81 escribió:
kikomanco escribió:Error otra ves, la Titán Pascal salió también recortado el chip, de hecho cuando lanzaron la 1080ti rendía más que la Titán Pascal y por eso mismo Nvidia volvió a lanzar la Titán Pascal X con el chip completo [hallow]
Si dices que nvidia se ha dado cuenta que 12 gigas es insuficiente por qué sacan la 3080 con 10 gigas? Vamos no tiene sentido ninguno nada de lo que dices






Nvidia seguramente reculo y vio que es mejor meter 24 Gb para que no se quede corta de vram a futuro en juegos de nueva generación , la cantidad de vram de las 2080 Ti es valida hoy para jugar pero puede no serlo dentro de 2 años a 4k + ray tracing , texturas en 4k etc... y si Nvidia a tomado esa decisión es por que es necesario , además si te fijas en ese twit del 19 de junio y teniendo en cuenta de que sea veridico la Titan Ampere tiene mas shaders y los shaders de la 3090 coinciden con los de la ultima filtración.. es decir las Titan excepto la primera siempre han tenido el chip completo y la 3090 por lo que se ve viene recortada


Error otra ves, la Titán Pascal salió también recortado el chip, de hecho cuando lanzaron la 1080ti rendía más que la Titán Pascal y por eso mismo Nvidia volvió a lanzar la Titán Pascal X con el chip completo [hallow]
Si dices que nvidia se ha dado cuenta que 12 gigas es insuficiente por qué sacan la 3080 con 10 gigas? Vamos no tiene sentido ninguno nada de lo que dices



bueno si cierto ahí me cole la primera Titan y la Titan pascal que luego sacaron la Titan Xp que esta si venia con el chip completo , por que tambien habran modelos de 20 GB de la 3080 , es decir la 2080 super por ejemplo tiene 8 GB y a veces se queda corta de vram pero tiene potencia para dar mas rendimiento si tuviera mas vram. tiene todo el sentido el que quiera que la vram no le limite , paga mas , por eso habrá un modelo de 3080 con 20 GB , por lo que se sabe hasta ahora por que no hay dos modelos confirmados de 3090 uno con 24 Gb y otro con 16 GB seguramente por que Nvidia crea conveniente que la tope de gama para gaming debe tener 24 GB , primero por es un 50% mas rapida que la 2080 Ti donde se va a hacer uso intensivo de la vram a 4k con ray tracing en juegos que salgan dentro de un año y medio o dos años , así se aseguran que no se quede corta nunca de vram

Se dice que habrá modelos de 20 gigas, pero es que no sabemos si será verdad, lo único que sabemos es la 3090 de 24, la 3080 de 10 y la 3070 de 8, yo pienso que es que se han guardado la 3080ti con 12 para dentro de unos 10 meses, de todas maneras el martes saldremos de dudas
Edito, dentro de 1 año y medio o 2 ya no harán falta los 24 gigas de VRAM de la 3090 por qué estará en la calle la 4090


ahora mismo todo son rumores , pero si la 3090 tiene el precio de una Titan no va a vender nada y eso es lo ultimo que quiere Nvidia , Nvidia normalmente con cada generación a sacado una GPU tope de gama de duplicaba el rendimiento de la anterior generación a un precio similar o muy poco mas alto , en turing la cagaron por que fueron muy caras y no rendian lo suficiente , fijate entre la 780 ti y 980 ti rendia mas del doble y costaba lo mismo de lanzamiento de hecho 50 dolares menos la 980 Ti , así paso lo mismo con la 980 Ti y la 1080 Ti rindiendo el doble y costando solo 150 dolares mas , lo que quiero decir es que la tecnologia evoluciona y pierde valor con el tiempo , nvidia si quiere vender bien la 3090 tiene que ponerla a un precio acorde al rendimiento y a la tecnologia que ofrece teniendo en cuenta el tiempo que a pasado desde la anterior generación y el poco salto de rendimiento que hubo, cuando salga la 4090 la 3090 no habrá muerto y los 24 Gb le seguirán sirviendo , mira lo que les a pasado a las gpus con 2 o 4 Gb hoy es practicamente imposible jugar a 1080p algunos juegos con esa vram sin bajar settings o la 780 3Gb vs 780 6 Gb , la 780 6 Gb se desenvuelve mucho mejor hoy que la de 3gb
Bio81 escribió:
kikomanco escribió:
Bio81 escribió:




Nvidia seguramente reculo y vio que es mejor meter 24 Gb para que no se quede corta de vram a futuro en juegos de nueva generación , la cantidad de vram de las 2080 Ti es valida hoy para jugar pero puede no serlo dentro de 2 años a 4k + ray tracing , texturas en 4k etc... y si Nvidia a tomado esa decisión es por que es necesario , además si te fijas en ese twit del 19 de junio y teniendo en cuenta de que sea veridico la Titan Ampere tiene mas shaders y los shaders de la 3090 coinciden con los de la ultima filtración.. es decir las Titan excepto la primera siempre han tenido el chip completo y la 3090 por lo que se ve viene recortada


Error otra ves, la Titán Pascal salió también recortado el chip, de hecho cuando lanzaron la 1080ti rendía más que la Titán Pascal y por eso mismo Nvidia volvió a lanzar la Titán Pascal X con el chip completo [hallow]
Si dices que nvidia se ha dado cuenta que 12 gigas es insuficiente por qué sacan la 3080 con 10 gigas? Vamos no tiene sentido ninguno nada de lo que dices



bueno si cierto ahí me cole la primera Titan y la Titan pascal que luego sacaron la Titan Xp que esta si venia con el chip completo , por que tambien habran modelos de 20 GB de la 3080 , es decir la 2080 super por ejemplo tiene 8 GB y a veces se queda corta de vram pero tiene potencia para dar mas rendimiento si tuviera mas vram. tiene todo el sentido el que quiera que la vram no le limite , paga mas , por eso habrá un modelo de 3080 con 20 GB , por lo que se sabe hasta ahora por que no hay dos modelos confirmados de 3090 uno con 24 Gb y otro con 16 GB seguramente por que Nvidia crea conveniente que la tope de gama para gaming debe tener 24 GB , primero por es un 50% mas rapida que la 2080 Ti donde se va a hacer uso intensivo de la vram a 4k con ray tracing en juegos que salgan dentro de un año y medio o dos años , así se aseguran que no se quede corta nunca de vram

Se dice que habrá modelos de 20 gigas, pero es que no sabemos si será verdad, lo único que sabemos es la 3090 de 24, la 3080 de 10 y la 3070 de 8, yo pienso que es que se han guardado la 3080ti con 12 para dentro de unos 10 meses, de todas maneras el martes saldremos de dudas
Edito, dentro de 1 año y medio o 2 ya no harán falta los 24 gigas de VRAM de la 3090 por qué estará en la calle la 4090


ahora mismo todo son rumores , pero si la 3090 tiene el precio de una Titan no va a vender nada y eso es lo ultimo que quiere Nvidia , Nvidia normalmente con cada generación a sacado una GPU tope de gama de duplicaba el rendimiento de la anterior generación a un precio similar o muy poco mas alto , en turing la cagaron por que fueron muy caras y no rendian lo suficiente , fijate entre la 780 ti y 980 ti rendia mas del doble y costaba lo mismo de lanzamiento de hecho 50 dolares menos la 980 Ti , así paso lo mismo con la 980 Ti y la 1080 Ti rindiendo el doble y costando solo 150 dolares mas , lo que quiero decir es que la tecnologia evoluciona y pierde valor con el tiempo , nvidia si quiere vender bien la 3090 tiene que ponerla a un precio acorde al rendimiento y a la tecnologia que ofrece teniendo en cuenta el tiempo que a pasado desde la anterior generación y el poco salto de rendimiento que hubo, cuando salga la 4090 la 3090 no habrá muerto y los 24 Gb le seguirán sirviendo , mira lo que les a pasado a las gpus con 2 o 4 Gb hoy es practicamente imposible jugar a 1080p algunos juegos con esa vram sin bajar settings o la 780 3Gb vs 780 6 Gb , la 780 6 Gb se desenvuelve mucho mejor hoy que la de 3gb

Nos has jodido ostras claro que sí, eso mismo lo llevo yo defendiendo en éste hilo 3 meses (mira la página 15 y me cuentas) pero una cosa es lo que yo pensaba y otra es la que piensa Nvidia y todo apunta a que se han guardado la 3080ti y la Titán la han renombrado a 3090, fin, no hay más y por desgracia es lo que yo no deseaba, pero todo apunta a ello
https://www.elotrolado.net/hilo_nvidia-ampere-nueva-generacion-de-gtx-rtx-a-7nm_2327318_s700#p1749613562
Esto lo puse yo aquí hace casi 3 meses leelo
kikomanco escribió:
Bio81 escribió:
kikomanco escribió:Se dice que habrá modelos de 20 gigas, pero es que no sabemos si será verdad, lo único que sabemos es la 3090 de 24, la 3080 de 10 y la 3070 de 8, yo pienso que es que se han guardado la 3080ti con 12 para dentro de unos 10 meses, de todas maneras el martes saldremos de dudas
Edito, dentro de 1 año y medio o 2 ya no harán falta los 24 gigas de VRAM de la 3090 por qué estará en la calle la 4090


ahora mismo todo son rumores , pero si la 3090 tiene el precio de una Titan no va a vender nada y eso es lo ultimo que quiere Nvidia , Nvidia normalmente con cada generación a sacado una GPU tope de gama de duplicaba el rendimiento de la anterior generación a un precio similar o muy poco mas alto , en turing la cagaron por que fueron muy caras y no rendian lo suficiente , fijate entre la 780 ti y 980 ti rendia mas del doble y costaba lo mismo de lanzamiento de hecho 50 dolares menos la 980 Ti , así paso lo mismo con la 980 Ti y la 1080 Ti rindiendo el doble y costando solo 150 dolares mas , lo que quiero decir es que la tecnologia evoluciona y pierde valor con el tiempo , nvidia si quiere vender bien la 3090 tiene que ponerla a un precio acorde al rendimiento y a la tecnologia que ofrece teniendo en cuenta el tiempo que a pasado desde la anterior generación y el poco salto de rendimiento que hubo, cuando salga la 4090 la 3090 no habrá muerto y los 24 Gb le seguirán sirviendo , mira lo que les a pasado a las gpus con 2 o 4 Gb hoy es practicamente imposible jugar a 1080p algunos juegos con esa vram sin bajar settings o la 780 3Gb vs 780 6 Gb , la 780 6 Gb se desenvuelve mucho mejor hoy que la de 3gb

Nos has jodido ostras claro que sí, eso mismo lo llevo yo defendiendo en éste hilo 3 meses (mira la página 15 y me cuentas) pero una cosa es lo que yo pensaba y otra es la que piensa Nvidia y todo apunta a que se han guardado la 3080ti y la Titán la han renombrado a 3090, fin, no hay más y por desgracia es lo que yo no deseaba, pero todo apunta a ello
https://www.elotrolado.net/hilo_nvidia-ampere-nueva-generacion-de-gtx-rtx-a-7nm_2327318_s700#p1749613562
Esto lo puse yo aquí hace casi 3 meses leelo


pues nada si se cumple lo del precio me parecera una cagada enorme , todavia no se saben las especificaciones completas del chip que lleva la 3090 , si sale recortado no solo en shaders , tambien RT cores y tensor cores es imposible que sea la Titan ampere , ya que la Titan RTX donde de verdad se ve diferencia de rendimiento vs RTX 2080 Ti es en IA y deep learning gracias a esos tensor cores adicionales y es por lo que muchos pagan 2.700 euros y no los 1.200 de la 2080 Ti
En principio, conociendo a nvidia, si sale la 3090 al precio que ronda la 2080 ti actualmente o algo superior no tiene pinta que sea la Titan, cuando nvidia a rebajado el precio en 1k € de una generación a otra en la misma gama? Seria épico y precisamente nvidia no son hermanitas de la caridad.

Es que incluso este movimiento no quiere decir que no venga en un futuro una 3080ti, 3090 super o incluso una titan, si no segmentar aun mas la gama high end que ahí si que no tienen competencia.
nikocrazy escribió:En principio, conociendo a nvidia, si sale la 3090 al precio que ronda la 2080 ti actualmente o algo superior no tiene pinta que sea la Titan, cuando nvidia a rebajado el precio en 1k € de una generación a otra en la misma gama? Seria épico y precisamente nvidia no son hermanitas de la caridad.

Es que incluso este movimiento no quiere decir que no venga en un futuro una 3080ti, 3090 super o incluso una titan, si no segmentar aun mas la gama high end que ahí si que no tienen competencia.

Igual que subieron 1k € la Titán y no vendieron una mierda lo pueden rebajar, así que aún es todo posible, que ganas de que llegue el martes xD
Eilex_D escribió:(Desde la ignorancia) Hoy en día, realmente es necesario mas 16gb de VRAM para jugar?


Yo ni tengo tarjeta gráfica... uso Geforce Now [poraki]
kikomanco escribió:
nikocrazy escribió:En principio, conociendo a nvidia, si sale la 3090 al precio que ronda la 2080 ti actualmente o algo superior no tiene pinta que sea la Titan, cuando nvidia a rebajado el precio en 1k € de una generación a otra en la misma gama? Seria épico y precisamente nvidia no son hermanitas de la caridad.

Es que incluso este movimiento no quiere decir que no venga en un futuro una 3080ti, 3090 super o incluso una titan, si no segmentar aun mas la gama high end que ahí si que no tienen competencia.

Igual que subieron 1k € la Titán y no vendieron una mierda lo pueden rebajar, así que aún es todo posible, que ganas de que llegue el martes xD


Tampoco es que el target de esta gama este destinado a ser top venta, ni ahora que cuesta 2500 € ni antes en generaciones pasada cuando rondaba los 1000. El buque insignia de nvidia siempre a sido para ver quien la tiene mas grande en el mercado de gpu.
Igual que tu, deseando que llegue ya la presentación por que realmente la única que sabe como actuar ahora y en unos meses es la compañía, que tiene el mercado inundado de tarjetas en todas las gamas para que el cliente tenga donde elegir y con una cuota de mercado muy superior sobre su competencia.
Bio81 escribió:si una 3090 cuesta lo mismo que la Titan RTX Turing , la compraran solo los que compraban la RTX Titan.. es decir si el precio sigue siendo el mismo de una Titan una 3090 ahí el marketing de poco sirve, el maketing sirve cuando cambias 3080 Ti por 3090 y mantienes un precio similar a la de 2080 Ti rindiendo un 50% mas , ahí es cuando se ganan muchas ventas


Hombre, pero la Titan Turing no costaba 1400-1500€
Gwyn escribió:
Bio81 escribió:si una 3090 cuesta lo mismo que la Titan RTX Turing , la compraran solo los que compraban la RTX Titan.. es decir si el precio sigue siendo el mismo de una Titan una 3090 ahí el marketing de poco sirve, el maketing sirve cuando cambias 3080 Ti por 3090 y mantienes un precio similar a la de 2080 Ti rindiendo un 50% mas , ahí es cuando se ganan muchas ventas


Hombre, pero la Titan Turing no costaba 1400-1500€


ya yo no he dicho que costara eso , lo que digo es que si cambian el nombre de 3080 Ti por 3090 siendo esta la sucesora de la 2080 Ti rindiendo un 50% mas y vale lo mismo o practicamente lo mismo que la 2080 Ti se convierte en super ventas , la Titan RTX tiene un precio elevado por que no solo sirve para gaming , pero eso no quiere decir que la 3090 por 1.000 o 1.500 no destroce en rendimiento gaming a la RTX Titan turing que cuesta 2.700 , es decir cada producto tiene su precio y su lugar en el tiempo y el mercado , la tecnologia avanza y se devalua muy rapido , a dia de hoy en la tope gama deberian ofrecer mucho mas rendimiento que una 2080 Ti por un precio similar como el 50% de mas filtrado , si no en mi opinión , no es un buen producto y no lo compro , así a sido siempre menos en turing , 680 vs 980 , 780 Ti vs 980 Ti , 980 Ti vs 1080 Ti
Bio81 escribió:
Gwyn escribió:
Bio81 escribió:si una 3090 cuesta lo mismo que la Titan RTX Turing , la compraran solo los que compraban la RTX Titan.. es decir si el precio sigue siendo el mismo de una Titan una 3090 ahí el marketing de poco sirve, el maketing sirve cuando cambias 3080 Ti por 3090 y mantienes un precio similar a la de 2080 Ti rindiendo un 50% mas , ahí es cuando se ganan muchas ventas


Hombre, pero la Titan Turing no costaba 1400-1500€


ya yo no he dicho que costara eso , lo que digo es que si cambian el nombre de 3080 Ti por 3090 siendo esta la sucesora de la 2080 Ti rindiendo un 50% mas y vale lo mismo o practicamente lo mismo que la 2080 Ti se convierte en super ventas , la Titan RTX tiene un precio elevado por que no solo sirve para gaming , pero eso no quiere decir que la 3090 por 1.000 o 1.500 destroce en rendimiento gaming a la RTX Titan turing que cuesta 2.700 , es decir cada producto tiene su precio y su lugar en el tiempo y el mercado , la tecnologia avanza y se devalua muy rapido , a dia de hoy en la tope gama deberian ofrecer mucho mas rendimiento que una 2080 Ti por un precio similar como el 50% de mas filtrado , si no en mi opinión , no es un buen producto y no lo compro , así a sido siempre menos en turing , 680 vs 980 , 780 Ti vs 980 Ti , 980 Ti vs 1080 Ti

Con la serie 2000 Nvidia perdió toda lógica, y con la serie 3000 y todos los movimientos raros que se están dando, menos lógica aún le veo, puede pasar de todo, a que la 3090 sea la Titán Ampere de 24 gigas por 1600/1700€ o a que sea la 3080ti de 24 gigas por 1100€ (que lo dudo) por qué cómo Nvidia hace tiempo perdió el rumbo con sus gamas y precios de aquí al martes que digan lo que de verdad hay, pueden caber muchas teorías y ser a la vez todas verdaderas o todas falsas, el único que sabe lo que hay ahora mismo es el chino Juan que está jugando con nuestros nervios, paciencia y sentimientos [mad]
Raurkand escribió:
Eilex_D escribió:(Desde la ignorancia) Hoy en día, realmente es necesario mas 16gb de VRAM para jugar?


Yo ni tengo tarjeta gráfica... uso Geforce Now [poraki]

Puede ser la mejor inversión. Decian que meterian Ampere. Pero que yo recuerde solo vale para 1080p.
@kikomanco pocas risas se estará pegando el chino a costa de internet [qmparto]
Las risas se las va a pegar cuando venda como pan caliente gpus de más de 1000€ [qmparto]
Jo menuda de coco teneis con el precio de las graficas.....os va a explotar de golpe. XD XD
Alguien va ha estar así el 2 de Septiembre :p :p :p :p

Imagen

Que nadie se lo tome mal, solo quería poner algo de humor con tanta discusión rendimiento y precio, venga que el día 1 ya lo sabremos [beer]
VanSouls escribió:Alguien va ha estar así el 2 de Septiembre :p :p :p :p

Imagen

Que nadie se lo tome mal, solo quería poner algo de humor con tanta discusión rendimiento y precio, venga que el día 1 ya lo sabremos [beer]

Era mejor aquel meme que ponia un tipo viviendo en una casa ruinosa habiendolo gastado todo en el PC y pensando eso de que nadie me vea. XD XD XD

No veo ningun sentido a perder el tiempo rucandose el coco con el precio de estas cosas. Ningun responsable de Nvidia va a leerlo. Y luego la discusión de la Titan, mirad, Nvidia va a hacer lo que le da la gana. Ahora la llama 3090 y luego si por un casual sale AMD con algo igual, van y sacan una Titan todavia más cara. Y se van a quedar tan felices.
En teoría son mas baratas de fabricar que las AMD no? lo digo porque son 8nm Samsung y las RNDA 2.0 son 7nm TSMC a no ser que tengan preciazo porque habrán pedido una burrada de obleas con la XSX y la PS5
Chifrinillo escribió:En teoría son mas baratas de fabricar que las AMD no? lo digo porque son 8nm Samsung y las RNDA 2.0 son 7nm TSMC a no ser que tengan preciazo porque habrán pedido una burrada de obleas con la XSX y la PS5

Al contrario.
Si, los 8 nm de samsung son mas baratos ( aunque no están confirmados) pero el tener hardware dedicado las hace mucho mas caras que olas navi de amd.
Chifrinillo escribió:En teoría son mas baratas de fabricar que las AMD no? lo digo porque son 8nm Samsung y las RNDA 2.0 son 7nm TSMC a no ser que tengan preciazo porque habrán pedido una burrada de obleas con la XSX y la PS5

No es comparable a las CPU. Aqui hay un ensamblaje, es como si pagaras placa base, disipador, ram y gpu. Todo de golpe. Aunque es evidente que se sobran. No creo que una 3090 cueste más de 350€ tirando por lo alto.

Y desde luego no se han rucado mucho el coco haciendolas pequeñas.......

Entiendo que haya gente que les guste y lo respeto. Pero la 3090 si tiene ese tamaño me parece un trasto muy gordo.

Y me estaria riendo un mes si veo algun bus PCIe roto porque pesa mucho.....o alguien con problemas de temperatura tras ponerla.

Lo bueno es que no va a entrar en todas las torres, asi que no me imagino a nadie con eso metido en una Nox Hummer. Aunque alguien habra, siempre hay gente asi, que gastan más en un componente que en todo lo demas y luego surgen los problemas.
parece ser que le han quitado el rgb a los ventiladores en la aous xtreme, vaya lastima....
era mi favorita de lejos:

Imagen
VanSouls escribió:¿Son grandes la serie 3000? [+risas]

Imagen

Imagen
https://www.hd-tecnologia.com/el-mercad ... dice-tsmc/


Gracias por el aviso, así en lugar de comprar ahora me espero a 2023... total no vendrá de un tiempo más cawento :Ð
@Nomada_Firefox

es eso Nvidia no tiene competencia en la gama alta y puede hacer lo que le de la gana... pero si pone precios abusivos la gente tonta no es , si venden una 3080 por mas de 1.000 euros o una 3090 por unos 2.000 o mas es hacerse el Harakiri , van a vender muy poco , yo creo que es mejor vender a menos precio pero muchas mas unidades que vender a mas precio pero pocas unidades , por ejemplo la 3080 1 millón de unidades a 800 euros son 800.000.000 millones de euros y medio millón a 1.200 euros son 600.000.000 millones de euros
adriano_99 escribió:
Chifrinillo escribió:En teoría son mas baratas de fabricar que las AMD no? lo digo porque son 8nm Samsung y las RNDA 2.0 son 7nm TSMC a no ser que tengan preciazo porque habrán pedido una burrada de obleas con la XSX y la PS5

Al contrario.
Si, los 8 nm de samsung son mas baratos ( aunque no están confirmados) pero el tener hardware dedicado las hace mucho mas caras que olas navi de amd.


Puede que sea más caro el I+D para diseñalas. Pero el precio de la oblea es el mismo hagas lo que hagas tengo entendido. Otra cosa es que los chips sean mas grandes (menos cantidad por oblea) o que salgan mas defectuosos por su complejidad y haya más descartes.
Chifrinillo escribió:
adriano_99 escribió:
Chifrinillo escribió:En teoría son mas baratas de fabricar que las AMD no? lo digo porque son 8nm Samsung y las RNDA 2.0 son 7nm TSMC a no ser que tengan preciazo porque habrán pedido una burrada de obleas con la XSX y la PS5

Al contrario.
Si, los 8 nm de samsung son mas baratos ( aunque no están confirmados) pero el tener hardware dedicado las hace mucho mas caras que olas navi de amd.


Puede que sea más caro el I+D para diseñalas. Pero el precio de la oblea es el mismo hagas lo que hagas tengo entendido. Otra cosa es que los chips sean mas grandes (menos cantidad por oblea) o que salgan mas defectuosos por su complejidad y haya más descartes.

A eso es lo que me refiero.
El hardware extra hace que los chips turing sean gigantes, ampere si no me equivoco llevará 2 chips osea que doble gasto.
Bio81 escribió:@Nomada_Firefox

es eso Nvidia no tiene competencia en la gama alta y puede hacer lo que le de la gana... pero si pone precios abusivos la gente tonta no es , si venden una 3080 por mas de 1.000 euros o una 3090 por unos 2.000 o mas es hacerse el Harakiri , van a vender muy poco , yo creo que es mejor vender a menos precio pero muchas mas unidades que vender a mas precio pero pocas unidades , por ejemplo la 3080 1 millón de unidades a 800 euros son 800.000.000 millones de euros y medio millón a 1.200 euros son 600.000.000 millones de euros


Nvidia (GTC 2018) escribió:The more you buy, the more you save.


[rtfm]
adriano_99 escribió:
Chifrinillo escribió:
adriano_99 escribió:Al contrario.
Si, los 8 nm de samsung son mas baratos ( aunque no están confirmados) pero el tener hardware dedicado las hace mucho mas caras que olas navi de amd.


Puede que sea más caro el I+D para diseñalas. Pero el precio de la oblea es el mismo hagas lo que hagas tengo entendido. Otra cosa es que los chips sean mas grandes (menos cantidad por oblea) o que salgan mas defectuosos por su complejidad y haya más descartes.

A eso es lo que me refiero.
El hardware extra hace que los chips turing sean gigantes, ampere si no me equivoco llevará 2 chips osea que doble gasto.

Ehhhh nope, han hecho 2 chips para abaratar el precio final, han separado los RT cores del chip principal para que le salga más barato que meterlo todo en la misma oblea, pero claro eso a nadie le interesa, por qué las páginas webs les van en amarillismo, click bait ya saben.... [hallow]
@Bio81 Por desgracia para el consumidor, en esa ecuación también entra que, aun vendiendo medio millón, han reducido a la mitad la producción, con lo que se ahorran mucho dinero en salarios, logistica, tiempo de producción (almacenes, cadenas de montaje), la mitad de productos con garantias que tienes que atender en caso de problemas, etc... y probablemente acaben teniendo incluso más beneficio aun vendiendo mucho menos.
kikomanco escribió:
adriano_99 escribió:
Chifrinillo escribió:
Puede que sea más caro el I+D para diseñalas. Pero el precio de la oblea es el mismo hagas lo que hagas tengo entendido. Otra cosa es que los chips sean mas grandes (menos cantidad por oblea) o que salgan mas defectuosos por su complejidad y haya más descartes.

A eso es lo que me refiero.
El hardware extra hace que los chips turing sean gigantes, ampere si no me equivoco llevará 2 chips osea que doble gasto.

Ehhhh nope, han hecho 2 chips para abaratar el precio final, han separado los RT cores del chip principal para que le salga más barato que meterlo todo en la misma oblea, pero claro eso a nadie le interesa, por qué las páginas webs les van en amarillismo, click bait ya saben.... [hallow]


Eso donde lo han confirmado porque sería la chorrada mas grande jamás hecha. Sería básicamente destruir el rendimiento el tener el RT en un chip fuera de los SM's.
kikomanco escribió:Ehhhh nope, han hecho 2 chips para abaratar el precio final, han separado los RT cores del chip principal para que le salga más barato que meterlo todo en la misma oblea, pero claro eso a nadie le interesa, por qué las páginas webs les van en amarillismo, click bait ya saben.... [hallow]

Dos chips pequeños siguen siendo mas caros de producir que uno pequeño.
El martes después de la presentación creéis que habrá vía libre para que podamos ver pruebas de rendimiento en diferentes canales?
ayran escribió:El martes después de la presentación creéis que habrá vía libre para que podamos ver pruebas de rendimiento en diferentes canales?

Lo dudo.
Yo creo que los youtubers que las lleven probado unos días podrán empezar a publicar cosas justo después de la presentación
adriano_99 escribió:
ayran escribió:El martes después de la presentación creéis que habrá vía libre para que podamos ver pruebas de rendimiento en diferentes canales?

Lo dudo.

Lastima. Yo hasta que no vea el rendimiento real que dan las tarjetas no compro nada.
¿Cuando habláis de chip completo y chip parcial a qué os referís exactamente?

Saludos.
ayran escribió:
adriano_99 escribió:
ayran escribió:El martes después de la presentación creéis que habrá vía libre para que podamos ver pruebas de rendimiento en diferentes canales?

Lo dudo.

Lastima. Yo hasta que no vea el rendimiento real que dan las tarjetas no compro nada.

+1
PilaDePetaca escribió:
kikomanco escribió:
adriano_99 escribió:A eso es lo que me refiero.
El hardware extra hace que los chips turing sean gigantes, ampere si no me equivoco llevará 2 chips osea que doble gasto.

Ehhhh nope, han hecho 2 chips para abaratar el precio final, han separado los RT cores del chip principal para que le salga más barato que meterlo todo en la misma oblea, pero claro eso a nadie le interesa, por qué las páginas webs les van en amarillismo, click bait ya saben.... [hallow]


Eso donde lo han confirmado porque sería la chorrada mas grande jamás hecha. Sería básicamente destruir el rendimiento el tener el RT en un chip fuera de los SM's.

Aquí una fuente de la noticia, se ve que eso no interesa, por qué claro, si es para abaratar costes ya se deja pasar por alto, interesa más los click bait de que Nvidia será más cara y bla, bla, bla...
https://wccftech.com/nvidia-traversual-coprocessor-rtx-3090-gpu/
https://www.profesionalreview.com/2020/06/15/nvidia-rtx-3090-co-procesador-ray-tracing/
Esta configuración también tiene sentido desde el punto de vista económico. “El enfoque original de reservar un área de RTX en el troquel de la GPU central era difícil de desechar y muy derrochador porque había que desechar también las piezas de RTX y desperdiciar un precioso espacio del troquel en segmentos de clientes de gama baja que no se beneficiarían de ninguna mejora en el Ray Tracing”, explica Wccftech. “Mover los núcleos de Ray Tracing a un nuevo troquel manteniendo puro el núcleo original de la GPU permite a NVIDIA recolocar libre y económicamente los chips sin casi ningún desperdicio”.



Publicado en: https://www.profesionalreview.com/2020/ ... y-tracing/
kikomanco escribió:
PilaDePetaca escribió:
kikomanco escribió:Ehhhh nope, han hecho 2 chips para abaratar el precio final, han separado los RT cores del chip principal para que le salga más barato que meterlo todo en la misma oblea, pero claro eso a nadie le interesa, por qué las páginas webs les van en amarillismo, click bait ya saben.... [hallow]


Eso donde lo han confirmado porque sería la chorrada mas grande jamás hecha. Sería básicamente destruir el rendimiento el tener el RT en un chip fuera de los SM's.

Aquí una fuente de la noticia, se ve que eso no interesa, por qué claro, si es para abaratar costes ya se deja pasar por alto, interesa más los click bait de que Nvidia será más cara y bla, bla, bla...
https://wccftech.com/nvidia-traversual-coprocessor-rtx-3090-gpu/
https://www.profesionalreview.com/2020/06/15/nvidia-rtx-3090-co-procesador-ray-tracing/
Esta configuración también tiene sentido desde el punto de vista económico. “El enfoque original de reservar un área de RTX en el troquel de la GPU central era difícil de desechar y muy derrochador porque había que desechar también las piezas de RTX y desperdiciar un precioso espacio del troquel en segmentos de clientes de gama baja que no se beneficiarían de ninguna mejora en el Ray Tracing”, explica Wccftech. “Mover los núcleos de Ray Tracing a un nuevo troquel manteniendo puro el núcleo original de la GPU permite a NVIDIA recolocar libre y económicamente los chips sin casi ningún desperdicio”.



Publicado en: https://www.profesionalreview.com/2020/ ... y-tracing/


Estoooo, por un casual, aparte del articulo click-bait y del artículo original (el cual el mismo autor no tiene ni idea de si lo que cree que está escribiendo es cierto o no, que lo dice el mismo), no te has parado a leer la patente en la cual está basado dicha especulación? (recalco especulación porque el artículo original dice que es todo especulación despues de ver la patente, que traduciendo es "vi coprocesador en el título de la patente y ya no hacia falta leer mas")

Porque dicha patente no habla de un chip dedicado ni leches, básicamente habla de algo como un "tensor core" o un "rt core", ni mas ni menos. Está describiendo el funcionamiento de un "rt core" muy parecido a los que se montan en turing, no de un chip dedicado ni nada de eso, habla de unidades de procesamiento (en este caso coprocesadores) que están emparejados a los SM's, nada de un chip dedicado fuera del chip principal [facepalm] [facepalm] .
PilaDePetaca escribió:
kikomanco escribió:
PilaDePetaca escribió:
Eso donde lo han confirmado porque sería la chorrada mas grande jamás hecha. Sería básicamente destruir el rendimiento el tener el RT en un chip fuera de los SM's.

Aquí una fuente de la noticia, se ve que eso no interesa, por qué claro, si es para abaratar costes ya se deja pasar por alto, interesa más los click bait de que Nvidia será más cara y bla, bla, bla...
https://wccftech.com/nvidia-traversual-coprocessor-rtx-3090-gpu/
https://www.profesionalreview.com/2020/06/15/nvidia-rtx-3090-co-procesador-ray-tracing/
Esta configuración también tiene sentido desde el punto de vista económico. “El enfoque original de reservar un área de RTX en el troquel de la GPU central era difícil de desechar y muy derrochador porque había que desechar también las piezas de RTX y desperdiciar un precioso espacio del troquel en segmentos de clientes de gama baja que no se beneficiarían de ninguna mejora en el Ray Tracing”, explica Wccftech. “Mover los núcleos de Ray Tracing a un nuevo troquel manteniendo puro el núcleo original de la GPU permite a NVIDIA recolocar libre y económicamente los chips sin casi ningún desperdicio”.



Publicado en: https://www.profesionalreview.com/2020/ ... y-tracing/


Estoooo, por un casual, aparte del articulo click-bait y del artículo original (el cual el mismo autor no tiene ni idea de si lo que cree que está escribiendo es cierto o no, que lo dice el mismo), no te has parado a leer la patente en la cual está basado dicha especulación? (recalco especulación porque el artículo original dice que es todo especulación despues de ver la patente, que traduciendo es "vi coprocesador en el título de la patente y ya no hacia falta leer mas")

Porque dicha patente no habla de un chip dedicado ni leches, básicamente habla de algo como un "tensor core" o un "rt core", ni mas ni menos. Está describiendo el funcionamiento de un "rt core" muy parecido a los que se montan en turing, no de un chip dedicado ni nada de eso, habla de unidades de procesamiento (en este caso coprocesadores) que están emparejados a los SM's, nada de un chip dedicado fuera del chip principal [facepalm] [facepalm] .

Venga te pongo otro enlace más, a ver si lo entiendes mejor
https://elchapuzasinformatico.com/2020/06/coprocesador-transversal-nvidia-geforce-rtx-3090-y-rtx-3080/?sa=X&ved=2ahUKEwiSmcS008HrAhXqAWMBHTWOBzkQ9QF6BAgKEAI
kikomanco escribió:
PilaDePetaca escribió:
kikomanco escribió:Aquí una fuente de la noticia, se ve que eso no interesa, por qué claro, si es para abaratar costes ya se deja pasar por alto, interesa más los click bait de que Nvidia será más cara y bla, bla, bla...
https://wccftech.com/nvidia-traversual-coprocessor-rtx-3090-gpu/
https://www.profesionalreview.com/2020/06/15/nvidia-rtx-3090-co-procesador-ray-tracing/


Estoooo, por un casual, aparte del articulo click-bait y del artículo original (el cual el mismo autor no tiene ni idea de si lo que cree que está escribiendo es cierto o no, que lo dice el mismo), no te has parado a leer la patente en la cual está basado dicha especulación? (recalco especulación porque el artículo original dice que es todo especulación despues de ver la patente, que traduciendo es "vi coprocesador en el título de la patente y ya no hacia falta leer mas")

Porque dicha patente no habla de un chip dedicado ni leches, básicamente habla de algo como un "tensor core" o un "rt core", ni mas ni menos. Está describiendo el funcionamiento de un "rt core" muy parecido a los que se montan en turing, no de un chip dedicado ni nada de eso, habla de unidades de procesamiento (en este caso coprocesadores) que están emparejados a los SM's, nada de un chip dedicado fuera del chip principal [facepalm] [facepalm] .

Venga te pongo otro enlace más, a ver si lo entiendes mejor
https://elchapuzasinformatico.com/2020/06/coprocesador-transversal-nvidia-geforce-rtx-3090-y-rtx-3080/?sa=X&ved=2ahUKEwiSmcS008HrAhXqAWMBHTWOBzkQ9QF6BAgKEAI


A ver, que parece que no entiendes lo que he dicho. Leete la patente, no tiene nada que ver con lo que están diciendo esos artículos (poner al chapuzas que tiene la credibilidad de una piedra [facepalm] ).
En serio, leete la patente, que no es un chip fuera del chip principal de la GPU, que es como si dijésemos un "tensor core" pero avanzado.

Aqui tienes el white paper de turing: https://www.nvidia.com/content/dam/en-z ... epaper.pdf
Ve a la página 37 del PDF y compara lo que dice la patente y eso.

Que no es un chip separado, va acompañando a cada 1-2 SM's, como los "RT cores" de turing. Y no lo dice un artículo genérico que es clickbait puro, que lo dice la patente cawento
Stealwilliam escribió:¿Cuando habláis de chip completo y chip parcial a qué os referís exactamente?

Saludos.


Me interesa la pregunta.
bromutu escribió:
Stealwilliam escribió:¿Cuando habláis de chip completo y chip parcial a qué os referís exactamente?

Saludos.


Me interesa la pregunta.


Imagina que haces un molde de casa prefabricada y de 10000 casas que haces, una tiene una habitación defectuosa y otra tiene la habitación más uno de los baños mal. Pues decides venderla como una casa de 3 habitaciones en vez de 4 aunque te llegue la misma casa pero pagas menos dinero. La otra la vendes aún por menos dinero. De esa forma, el fabricante no pierde el 100% del dinero de la fabricación de la casa y el usuario consigue un menor costo.

Los silicios no salen perfectos en cada oblea durante el proceso de manufactura a la hora de imprimir el circuitaje, transistores... y en el testeo puede detectarse fallos en las unidades de cómputo, dando menos potencia de cálculo. Lo que la industria hace es renombrar esos chips bajándole sus propiedades finales a un valor determinado.
Puede que ese valor sea un 10% menos de su capacidad máxima y que la unidad que te ha tocado, sólo tenga un 3% menos de unidades defectuosas, pero se capa por software ( BIOS ) y de esa forma pueden meter los chips con un 1% mal, un 2% mal... Hasta el 10% renombrando la unidad.

Se hace también en CPUs.

Los usuarios pueden puntualmente desbloquear la BIOS y meterle la de una gama superior en ciertos procesadores, consiguiendo un extra de potencia, siempre que se pueda flashear y sabiendo que pueden echar a perder el hardware con un brikeo o inestabilidad en el funcionamiento.
A veces es la memoria la que no alcanza la velocidad final para la que se fabricó y también se renombra el chip entero si es memoria encapsulada cerca del DIE como la HBM y las famosas vega 56 con capado de voltaje respecto a las vega 64 ( algunas admitían el flasheo y permitían subir el voltaje dando un extra de ancho de banda al subir los mhz ).
Antoniopua está baneado por "saltarse el ban con un clon"
Y las memorias soldadas, sin posibilidad de ampliación [facepalm]
Antoniopua escribió:Y las memorias soldadas, sin posibilidad de ampliación [facepalm]


Que ves de raro o malo en eso? Siempre ha sido así. Creo yo, vamos, me puedes corregir.
Antoniopua escribió:Y las memorias soldadas, sin posibilidad de ampliación [facepalm]


Ya te digo, encima seguro que vienen muchas sin el chip gordo, que bueno, alguna vez ha pasado, pero según para quien los que pan perifoconde no les importará tanto.

Por cierto, al fin ya queda menos para dejar de marear tanto. Como digan algo que más adelante presentarán una Titan a @Kikomanco le da algo xD.

Son varias páginas que hablan del rumor de una próxima Titan con 48GB:



Aunque todos los rumores de esa nueva Titan vienen de la misma filtración Koreana que pusieron por aquí hace poco.
Todo parece indicar que se guardan muchos modelos para más adelante, pero a mi el que a mi me interesaría saber más detalles es la 3070 Super:

https://www.techpowerup.com/gpu-specs/geforce-rtx-3070-super.c3675

Según los rumores hay variaciones, aquí pone 16GB pero GDDR6 (sin X), pero lo principal será saber fecha de entrega prevista y precio previsto para cuando aparezcan estas, que me supongo serán intercaladas en lo que presenten el día 1.
31123 respuestas