Eilex_D escribió:(Desde la ignorancia) Hoy en día, realmente es necesario mas 16gb de VRAM para jugar?
miliko_one escribió:Yo supongo que la serie 3090 va enfocada a jugar a 4k, muy poca gente juega a 4k en monitores y los tv 4k no pasan de 60hz, yo ahora tengo una 1080ti y juego a 2k practicamente a casi todo en utra y por encima de los 60fps en el 90% de los juegos, la 2080ti no era un desembolso justificado por tener rt y practicamente el mismo rendimiento, en 4k seria otra cosa.
Bio81 escribió:
Nvidia seguramente reculo y vio que es mejor meter 24 Gb para que no se quede corta de vram a futuro en juegos de nueva generación , la cantidad de vram de las 2080 Ti es valida hoy para jugar pero puede no serlo dentro de 2 años a 4k + ray tracing , texturas en 4k etc... y si Nvidia a tomado esa decisión es por que es necesario , además si te fijas en ese twit del 19 de junio y teniendo en cuenta de que sea veridico la Titan Ampere tiene mas shaders y los shaders de la 3090 coinciden con los de la ultima filtración.. es decir las Titan excepto la primera siempre han tenido el chip completo y la 3090 por lo que se ve viene recortada
kikomanco escribió:Bio81 escribió:
Nvidia seguramente reculo y vio que es mejor meter 24 Gb para que no se quede corta de vram a futuro en juegos de nueva generación , la cantidad de vram de las 2080 Ti es valida hoy para jugar pero puede no serlo dentro de 2 años a 4k + ray tracing , texturas en 4k etc... y si Nvidia a tomado esa decisión es por que es necesario , además si te fijas en ese twit del 19 de junio y teniendo en cuenta de que sea veridico la Titan Ampere tiene mas shaders y los shaders de la 3090 coinciden con los de la ultima filtración.. es decir las Titan excepto la primera siempre han tenido el chip completo y la 3090 por lo que se ve viene recortada
Error otra ves, la Titán Pascal salió también recortado el chip, de hecho cuando lanzaron la 1080ti rendía más que la Titán Pascal y por eso mismo Nvidia volvió a lanzar la Titán Pascal X con el chip completo
Si dices que nvidia se ha dado cuenta que 12 gigas es insuficiente por qué sacan la 3080 con 10 gigas? Vamos no tiene sentido ninguno nada de lo que dices
Bio81 escribió:kikomanco escribió:Bio81 escribió:
Nvidia seguramente reculo y vio que es mejor meter 24 Gb para que no se quede corta de vram a futuro en juegos de nueva generación , la cantidad de vram de las 2080 Ti es valida hoy para jugar pero puede no serlo dentro de 2 años a 4k + ray tracing , texturas en 4k etc... y si Nvidia a tomado esa decisión es por que es necesario , además si te fijas en ese twit del 19 de junio y teniendo en cuenta de que sea veridico la Titan Ampere tiene mas shaders y los shaders de la 3090 coinciden con los de la ultima filtración.. es decir las Titan excepto la primera siempre han tenido el chip completo y la 3090 por lo que se ve viene recortada
Error otra ves, la Titán Pascal salió también recortado el chip, de hecho cuando lanzaron la 1080ti rendía más que la Titán Pascal y por eso mismo Nvidia volvió a lanzar la Titán Pascal X con el chip completo
Si dices que nvidia se ha dado cuenta que 12 gigas es insuficiente por qué sacan la 3080 con 10 gigas? Vamos no tiene sentido ninguno nada de lo que dices
Nvidia seguramente reculo y vio que es mejor meter 24 Gb para que no se quede corta de vram a futuro en juegos de nueva generación , la cantidad de vram de las 2080 Ti es valida hoy para jugar pero puede no serlo dentro de 2 años a 4k + ray tracing , texturas en 4k etc... y si Nvidia a tomado esa decisión es por que es necesario , además si te fijas en ese twit del 19 de junio y teniendo en cuenta de que sea veridico la Titan Ampere tiene mas shaders y los shaders de la 3090 coinciden con los de la ultima filtración.. es decir las Titan excepto la primera siempre han tenido el chip completo y la 3090 por lo que se ve viene recortada
Error otra ves, la Titán Pascal salió también recortado el chip, de hecho cuando lanzaron la 1080ti rendía más que la Titán Pascal y por eso mismo Nvidia volvió a lanzar la Titán Pascal X con el chip completo
Si dices que nvidia se ha dado cuenta que 12 gigas es insuficiente por qué sacan la 3080 con 10 gigas? Vamos no tiene sentido ninguno nada de lo que dices
bueno si cierto ahí me cole la primera Titan y la Titan pascal que luego sacaron la Titan Xp que esta si venia con el chip completo , por que tambien habran modelos de 20 GB de la 3080 , es decir la 2080 super por ejemplo tiene 8 GB y a veces se queda corta de vram pero tiene potencia para dar mas rendimiento si tuviera mas vram. tiene todo el sentido el que quiera que la vram no le limite , paga mas , por eso habrá un modelo de 3080 con 20 GB , por lo que se sabe hasta ahora por que no hay dos modelos confirmados de 3090 uno con 24 Gb y otro con 16 GB seguramente por que Nvidia crea conveniente que la tope de gama para gaming debe tener 24 GB , primero por es un 50% mas rapida que la 2080 Ti donde se va a hacer uso intensivo de la vram a 4k con ray tracing en juegos que salgan dentro de un año y medio o dos años , así se aseguran que no se quede corta nunca de vram
kikomanco escribió:Bio81 escribió:kikomanco escribió:Error otra ves, la Titán Pascal salió también recortado el chip, de hecho cuando lanzaron la 1080ti rendía más que la Titán Pascal y por eso mismo Nvidia volvió a lanzar la Titán Pascal X con el chip completo
Si dices que nvidia se ha dado cuenta que 12 gigas es insuficiente por qué sacan la 3080 con 10 gigas? Vamos no tiene sentido ninguno nada de lo que dices
Nvidia seguramente reculo y vio que es mejor meter 24 Gb para que no se quede corta de vram a futuro en juegos de nueva generación , la cantidad de vram de las 2080 Ti es valida hoy para jugar pero puede no serlo dentro de 2 años a 4k + ray tracing , texturas en 4k etc... y si Nvidia a tomado esa decisión es por que es necesario , además si te fijas en ese twit del 19 de junio y teniendo en cuenta de que sea veridico la Titan Ampere tiene mas shaders y los shaders de la 3090 coinciden con los de la ultima filtración.. es decir las Titan excepto la primera siempre han tenido el chip completo y la 3090 por lo que se ve viene recortada
Error otra ves, la Titán Pascal salió también recortado el chip, de hecho cuando lanzaron la 1080ti rendía más que la Titán Pascal y por eso mismo Nvidia volvió a lanzar la Titán Pascal X con el chip completo
Si dices que nvidia se ha dado cuenta que 12 gigas es insuficiente por qué sacan la 3080 con 10 gigas? Vamos no tiene sentido ninguno nada de lo que dices
bueno si cierto ahí me cole la primera Titan y la Titan pascal que luego sacaron la Titan Xp que esta si venia con el chip completo , por que tambien habran modelos de 20 GB de la 3080 , es decir la 2080 super por ejemplo tiene 8 GB y a veces se queda corta de vram pero tiene potencia para dar mas rendimiento si tuviera mas vram. tiene todo el sentido el que quiera que la vram no le limite , paga mas , por eso habrá un modelo de 3080 con 20 GB , por lo que se sabe hasta ahora por que no hay dos modelos confirmados de 3090 uno con 24 Gb y otro con 16 GB seguramente por que Nvidia crea conveniente que la tope de gama para gaming debe tener 24 GB , primero por es un 50% mas rapida que la 2080 Ti donde se va a hacer uso intensivo de la vram a 4k con ray tracing en juegos que salgan dentro de un año y medio o dos años , así se aseguran que no se quede corta nunca de vram
Se dice que habrá modelos de 20 gigas, pero es que no sabemos si será verdad, lo único que sabemos es la 3090 de 24, la 3080 de 10 y la 3070 de 8, yo pienso que es que se han guardado la 3080ti con 12 para dentro de unos 10 meses, de todas maneras el martes saldremos de dudas
Edito, dentro de 1 año y medio o 2 ya no harán falta los 24 gigas de VRAM de la 3090 por qué estará en la calle la 4090
Bio81 escribió:kikomanco escribió:Bio81 escribió:
Nvidia seguramente reculo y vio que es mejor meter 24 Gb para que no se quede corta de vram a futuro en juegos de nueva generación , la cantidad de vram de las 2080 Ti es valida hoy para jugar pero puede no serlo dentro de 2 años a 4k + ray tracing , texturas en 4k etc... y si Nvidia a tomado esa decisión es por que es necesario , además si te fijas en ese twit del 19 de junio y teniendo en cuenta de que sea veridico la Titan Ampere tiene mas shaders y los shaders de la 3090 coinciden con los de la ultima filtración.. es decir las Titan excepto la primera siempre han tenido el chip completo y la 3090 por lo que se ve viene recortada
Error otra ves, la Titán Pascal salió también recortado el chip, de hecho cuando lanzaron la 1080ti rendía más que la Titán Pascal y por eso mismo Nvidia volvió a lanzar la Titán Pascal X con el chip completo
Si dices que nvidia se ha dado cuenta que 12 gigas es insuficiente por qué sacan la 3080 con 10 gigas? Vamos no tiene sentido ninguno nada de lo que dices
bueno si cierto ahí me cole la primera Titan y la Titan pascal que luego sacaron la Titan Xp que esta si venia con el chip completo , por que tambien habran modelos de 20 GB de la 3080 , es decir la 2080 super por ejemplo tiene 8 GB y a veces se queda corta de vram pero tiene potencia para dar mas rendimiento si tuviera mas vram. tiene todo el sentido el que quiera que la vram no le limite , paga mas , por eso habrá un modelo de 3080 con 20 GB , por lo que se sabe hasta ahora por que no hay dos modelos confirmados de 3090 uno con 24 Gb y otro con 16 GB seguramente por que Nvidia crea conveniente que la tope de gama para gaming debe tener 24 GB , primero por es un 50% mas rapida que la 2080 Ti donde se va a hacer uso intensivo de la vram a 4k con ray tracing en juegos que salgan dentro de un año y medio o dos años , así se aseguran que no se quede corta nunca de vram
Se dice que habrá modelos de 20 gigas, pero es que no sabemos si será verdad, lo único que sabemos es la 3090 de 24, la 3080 de 10 y la 3070 de 8, yo pienso que es que se han guardado la 3080ti con 12 para dentro de unos 10 meses, de todas maneras el martes saldremos de dudas
Edito, dentro de 1 año y medio o 2 ya no harán falta los 24 gigas de VRAM de la 3090 por qué estará en la calle la 4090
ahora mismo todo son rumores , pero si la 3090 tiene el precio de una Titan no va a vender nada y eso es lo ultimo que quiere Nvidia , Nvidia normalmente con cada generación a sacado una GPU tope de gama de duplicaba el rendimiento de la anterior generación a un precio similar o muy poco mas alto , en turing la cagaron por que fueron muy caras y no rendian lo suficiente , fijate entre la 780 ti y 980 ti rendia mas del doble y costaba lo mismo de lanzamiento de hecho 50 dolares menos la 980 Ti , así paso lo mismo con la 980 Ti y la 1080 Ti rindiendo el doble y costando solo 150 dolares mas , lo que quiero decir es que la tecnologia evoluciona y pierde valor con el tiempo , nvidia si quiere vender bien la 3090 tiene que ponerla a un precio acorde al rendimiento y a la tecnologia que ofrece teniendo en cuenta el tiempo que a pasado desde la anterior generación y el poco salto de rendimiento que hubo, cuando salga la 4090 la 3090 no habrá muerto y los 24 Gb le seguirán sirviendo , mira lo que les a pasado a las gpus con 2 o 4 Gb hoy es practicamente imposible jugar a 1080p algunos juegos con esa vram sin bajar settings o la 780 3Gb vs 780 6 Gb , la 780 6 Gb se desenvuelve mucho mejor hoy que la de 3gb
kikomanco escribió:Bio81 escribió:kikomanco escribió:Se dice que habrá modelos de 20 gigas, pero es que no sabemos si será verdad, lo único que sabemos es la 3090 de 24, la 3080 de 10 y la 3070 de 8, yo pienso que es que se han guardado la 3080ti con 12 para dentro de unos 10 meses, de todas maneras el martes saldremos de dudas
Edito, dentro de 1 año y medio o 2 ya no harán falta los 24 gigas de VRAM de la 3090 por qué estará en la calle la 4090
ahora mismo todo son rumores , pero si la 3090 tiene el precio de una Titan no va a vender nada y eso es lo ultimo que quiere Nvidia , Nvidia normalmente con cada generación a sacado una GPU tope de gama de duplicaba el rendimiento de la anterior generación a un precio similar o muy poco mas alto , en turing la cagaron por que fueron muy caras y no rendian lo suficiente , fijate entre la 780 ti y 980 ti rendia mas del doble y costaba lo mismo de lanzamiento de hecho 50 dolares menos la 980 Ti , así paso lo mismo con la 980 Ti y la 1080 Ti rindiendo el doble y costando solo 150 dolares mas , lo que quiero decir es que la tecnologia evoluciona y pierde valor con el tiempo , nvidia si quiere vender bien la 3090 tiene que ponerla a un precio acorde al rendimiento y a la tecnologia que ofrece teniendo en cuenta el tiempo que a pasado desde la anterior generación y el poco salto de rendimiento que hubo, cuando salga la 4090 la 3090 no habrá muerto y los 24 Gb le seguirán sirviendo , mira lo que les a pasado a las gpus con 2 o 4 Gb hoy es practicamente imposible jugar a 1080p algunos juegos con esa vram sin bajar settings o la 780 3Gb vs 780 6 Gb , la 780 6 Gb se desenvuelve mucho mejor hoy que la de 3gb
Nos has jodido ostras claro que sí, eso mismo lo llevo yo defendiendo en éste hilo 3 meses (mira la página 15 y me cuentas) pero una cosa es lo que yo pensaba y otra es la que piensa Nvidia y todo apunta a que se han guardado la 3080ti y la Titán la han renombrado a 3090, fin, no hay más y por desgracia es lo que yo no deseaba, pero todo apunta a ello
https://www.elotrolado.net/hilo_nvidia-ampere-nueva-generacion-de-gtx-rtx-a-7nm_2327318_s700#p1749613562
Esto lo puse yo aquí hace casi 3 meses leelo
nikocrazy escribió:En principio, conociendo a nvidia, si sale la 3090 al precio que ronda la 2080 ti actualmente o algo superior no tiene pinta que sea la Titan, cuando nvidia a rebajado el precio en 1k € de una generación a otra en la misma gama? Seria épico y precisamente nvidia no son hermanitas de la caridad.
Es que incluso este movimiento no quiere decir que no venga en un futuro una 3080ti, 3090 super o incluso una titan, si no segmentar aun mas la gama high end que ahí si que no tienen competencia.
Eilex_D escribió:(Desde la ignorancia) Hoy en día, realmente es necesario mas 16gb de VRAM para jugar?
kikomanco escribió:nikocrazy escribió:En principio, conociendo a nvidia, si sale la 3090 al precio que ronda la 2080 ti actualmente o algo superior no tiene pinta que sea la Titan, cuando nvidia a rebajado el precio en 1k € de una generación a otra en la misma gama? Seria épico y precisamente nvidia no son hermanitas de la caridad.
Es que incluso este movimiento no quiere decir que no venga en un futuro una 3080ti, 3090 super o incluso una titan, si no segmentar aun mas la gama high end que ahí si que no tienen competencia.
Igual que subieron 1k € la Titán y no vendieron una mierda lo pueden rebajar, así que aún es todo posible, que ganas de que llegue el martes xD
Bio81 escribió:si una 3090 cuesta lo mismo que la Titan RTX Turing , la compraran solo los que compraban la RTX Titan.. es decir si el precio sigue siendo el mismo de una Titan una 3090 ahí el marketing de poco sirve, el maketing sirve cuando cambias 3080 Ti por 3090 y mantienes un precio similar a la de 2080 Ti rindiendo un 50% mas , ahí es cuando se ganan muchas ventas
Gwyn escribió:Bio81 escribió:si una 3090 cuesta lo mismo que la Titan RTX Turing , la compraran solo los que compraban la RTX Titan.. es decir si el precio sigue siendo el mismo de una Titan una 3090 ahí el marketing de poco sirve, el maketing sirve cuando cambias 3080 Ti por 3090 y mantienes un precio similar a la de 2080 Ti rindiendo un 50% mas , ahí es cuando se ganan muchas ventas
Hombre, pero la Titan Turing no costaba 1400-1500€
Bio81 escribió:Gwyn escribió:Bio81 escribió:si una 3090 cuesta lo mismo que la Titan RTX Turing , la compraran solo los que compraban la RTX Titan.. es decir si el precio sigue siendo el mismo de una Titan una 3090 ahí el marketing de poco sirve, el maketing sirve cuando cambias 3080 Ti por 3090 y mantienes un precio similar a la de 2080 Ti rindiendo un 50% mas , ahí es cuando se ganan muchas ventas
Hombre, pero la Titan Turing no costaba 1400-1500€
ya yo no he dicho que costara eso , lo que digo es que si cambian el nombre de 3080 Ti por 3090 siendo esta la sucesora de la 2080 Ti rindiendo un 50% mas y vale lo mismo o practicamente lo mismo que la 2080 Ti se convierte en super ventas , la Titan RTX tiene un precio elevado por que no solo sirve para gaming , pero eso no quiere decir que la 3090 por 1.000 o 1.500 destroce en rendimiento gaming a la RTX Titan turing que cuesta 2.700 , es decir cada producto tiene su precio y su lugar en el tiempo y el mercado , la tecnologia avanza y se devalua muy rapido , a dia de hoy en la tope gama deberian ofrecer mucho mas rendimiento que una 2080 Ti por un precio similar como el 50% de mas filtrado , si no en mi opinión , no es un buen producto y no lo compro , así a sido siempre menos en turing , 680 vs 980 , 780 Ti vs 980 Ti , 980 Ti vs 1080 Ti
Raurkand escribió:Eilex_D escribió:(Desde la ignorancia) Hoy en día, realmente es necesario mas 16gb de VRAM para jugar?
Yo ni tengo tarjeta gráfica... uso Geforce Now
VanSouls escribió:Alguien va ha estar así el 2 de Septiembre
Que nadie se lo tome mal, solo quería poner algo de humor con tanta discusión rendimiento y precio, venga que el día 1 ya lo sabremos
Chifrinillo escribió:En teoría son mas baratas de fabricar que las AMD no? lo digo porque son 8nm Samsung y las RNDA 2.0 son 7nm TSMC a no ser que tengan preciazo porque habrán pedido una burrada de obleas con la XSX y la PS5
Chifrinillo escribió:En teoría son mas baratas de fabricar que las AMD no? lo digo porque son 8nm Samsung y las RNDA 2.0 son 7nm TSMC a no ser que tengan preciazo porque habrán pedido una burrada de obleas con la XSX y la PS5
VanSouls escribió:¿Son grandes la serie 3000?
https://www.hd-tecnologia.com/el-mercad ... dice-tsmc/
adriano_99 escribió:Chifrinillo escribió:En teoría son mas baratas de fabricar que las AMD no? lo digo porque son 8nm Samsung y las RNDA 2.0 son 7nm TSMC a no ser que tengan preciazo porque habrán pedido una burrada de obleas con la XSX y la PS5
Al contrario.
Si, los 8 nm de samsung son mas baratos ( aunque no están confirmados) pero el tener hardware dedicado las hace mucho mas caras que olas navi de amd.
Chifrinillo escribió:adriano_99 escribió:Chifrinillo escribió:En teoría son mas baratas de fabricar que las AMD no? lo digo porque son 8nm Samsung y las RNDA 2.0 son 7nm TSMC a no ser que tengan preciazo porque habrán pedido una burrada de obleas con la XSX y la PS5
Al contrario.
Si, los 8 nm de samsung son mas baratos ( aunque no están confirmados) pero el tener hardware dedicado las hace mucho mas caras que olas navi de amd.
Puede que sea más caro el I+D para diseñalas. Pero el precio de la oblea es el mismo hagas lo que hagas tengo entendido. Otra cosa es que los chips sean mas grandes (menos cantidad por oblea) o que salgan mas defectuosos por su complejidad y haya más descartes.
Bio81 escribió:@Nomada_Firefox
es eso Nvidia no tiene competencia en la gama alta y puede hacer lo que le de la gana... pero si pone precios abusivos la gente tonta no es , si venden una 3080 por mas de 1.000 euros o una 3090 por unos 2.000 o mas es hacerse el Harakiri , van a vender muy poco , yo creo que es mejor vender a menos precio pero muchas mas unidades que vender a mas precio pero pocas unidades , por ejemplo la 3080 1 millón de unidades a 800 euros son 800.000.000 millones de euros y medio millón a 1.200 euros son 600.000.000 millones de euros
Nvidia (GTC 2018) escribió:The more you buy, the more you save.
adriano_99 escribió:Chifrinillo escribió:adriano_99 escribió:Al contrario.
Si, los 8 nm de samsung son mas baratos ( aunque no están confirmados) pero el tener hardware dedicado las hace mucho mas caras que olas navi de amd.
Puede que sea más caro el I+D para diseñalas. Pero el precio de la oblea es el mismo hagas lo que hagas tengo entendido. Otra cosa es que los chips sean mas grandes (menos cantidad por oblea) o que salgan mas defectuosos por su complejidad y haya más descartes.
A eso es lo que me refiero.
El hardware extra hace que los chips turing sean gigantes, ampere si no me equivoco llevará 2 chips osea que doble gasto.
kikomanco escribió:adriano_99 escribió:Chifrinillo escribió:
Puede que sea más caro el I+D para diseñalas. Pero el precio de la oblea es el mismo hagas lo que hagas tengo entendido. Otra cosa es que los chips sean mas grandes (menos cantidad por oblea) o que salgan mas defectuosos por su complejidad y haya más descartes.
A eso es lo que me refiero.
El hardware extra hace que los chips turing sean gigantes, ampere si no me equivoco llevará 2 chips osea que doble gasto.
Ehhhh nope, han hecho 2 chips para abaratar el precio final, han separado los RT cores del chip principal para que le salga más barato que meterlo todo en la misma oblea, pero claro eso a nadie le interesa, por qué las páginas webs les van en amarillismo, click bait ya saben....
kikomanco escribió:Ehhhh nope, han hecho 2 chips para abaratar el precio final, han separado los RT cores del chip principal para que le salga más barato que meterlo todo en la misma oblea, pero claro eso a nadie le interesa, por qué las páginas webs les van en amarillismo, click bait ya saben....
ayran escribió:El martes después de la presentación creéis que habrá vía libre para que podamos ver pruebas de rendimiento en diferentes canales?
adriano_99 escribió:ayran escribió:El martes después de la presentación creéis que habrá vía libre para que podamos ver pruebas de rendimiento en diferentes canales?
Lo dudo.
ayran escribió:adriano_99 escribió:ayran escribió:El martes después de la presentación creéis que habrá vía libre para que podamos ver pruebas de rendimiento en diferentes canales?
Lo dudo.
Lastima. Yo hasta que no vea el rendimiento real que dan las tarjetas no compro nada.
PilaDePetaca escribió:kikomanco escribió:adriano_99 escribió:A eso es lo que me refiero.
El hardware extra hace que los chips turing sean gigantes, ampere si no me equivoco llevará 2 chips osea que doble gasto.
Ehhhh nope, han hecho 2 chips para abaratar el precio final, han separado los RT cores del chip principal para que le salga más barato que meterlo todo en la misma oblea, pero claro eso a nadie le interesa, por qué las páginas webs les van en amarillismo, click bait ya saben....
Eso donde lo han confirmado porque sería la chorrada mas grande jamás hecha. Sería básicamente destruir el rendimiento el tener el RT en un chip fuera de los SM's.
Esta configuración también tiene sentido desde el punto de vista económico. “El enfoque original de reservar un área de RTX en el troquel de la GPU central era difícil de desechar y muy derrochador porque había que desechar también las piezas de RTX y desperdiciar un precioso espacio del troquel en segmentos de clientes de gama baja que no se beneficiarían de ninguna mejora en el Ray Tracing”, explica Wccftech. “Mover los núcleos de Ray Tracing a un nuevo troquel manteniendo puro el núcleo original de la GPU permite a NVIDIA recolocar libre y económicamente los chips sin casi ningún desperdicio”.
Publicado en: https://www.profesionalreview.com/2020/ ... y-tracing/
kikomanco escribió:PilaDePetaca escribió:kikomanco escribió:Ehhhh nope, han hecho 2 chips para abaratar el precio final, han separado los RT cores del chip principal para que le salga más barato que meterlo todo en la misma oblea, pero claro eso a nadie le interesa, por qué las páginas webs les van en amarillismo, click bait ya saben....
Eso donde lo han confirmado porque sería la chorrada mas grande jamás hecha. Sería básicamente destruir el rendimiento el tener el RT en un chip fuera de los SM's.
Aquí una fuente de la noticia, se ve que eso no interesa, por qué claro, si es para abaratar costes ya se deja pasar por alto, interesa más los click bait de que Nvidia será más cara y bla, bla, bla...
https://wccftech.com/nvidia-traversual-coprocessor-rtx-3090-gpu/
https://www.profesionalreview.com/2020/06/15/nvidia-rtx-3090-co-procesador-ray-tracing/Esta configuración también tiene sentido desde el punto de vista económico. “El enfoque original de reservar un área de RTX en el troquel de la GPU central era difícil de desechar y muy derrochador porque había que desechar también las piezas de RTX y desperdiciar un precioso espacio del troquel en segmentos de clientes de gama baja que no se beneficiarían de ninguna mejora en el Ray Tracing”, explica Wccftech. “Mover los núcleos de Ray Tracing a un nuevo troquel manteniendo puro el núcleo original de la GPU permite a NVIDIA recolocar libre y económicamente los chips sin casi ningún desperdicio”.
Publicado en: https://www.profesionalreview.com/2020/ ... y-tracing/
PilaDePetaca escribió:kikomanco escribió:PilaDePetaca escribió:
Eso donde lo han confirmado porque sería la chorrada mas grande jamás hecha. Sería básicamente destruir el rendimiento el tener el RT en un chip fuera de los SM's.
Aquí una fuente de la noticia, se ve que eso no interesa, por qué claro, si es para abaratar costes ya se deja pasar por alto, interesa más los click bait de que Nvidia será más cara y bla, bla, bla...
https://wccftech.com/nvidia-traversual-coprocessor-rtx-3090-gpu/
https://www.profesionalreview.com/2020/06/15/nvidia-rtx-3090-co-procesador-ray-tracing/Esta configuración también tiene sentido desde el punto de vista económico. “El enfoque original de reservar un área de RTX en el troquel de la GPU central era difícil de desechar y muy derrochador porque había que desechar también las piezas de RTX y desperdiciar un precioso espacio del troquel en segmentos de clientes de gama baja que no se beneficiarían de ninguna mejora en el Ray Tracing”, explica Wccftech. “Mover los núcleos de Ray Tracing a un nuevo troquel manteniendo puro el núcleo original de la GPU permite a NVIDIA recolocar libre y económicamente los chips sin casi ningún desperdicio”.
Publicado en: https://www.profesionalreview.com/2020/ ... y-tracing/
Estoooo, por un casual, aparte del articulo click-bait y del artículo original (el cual el mismo autor no tiene ni idea de si lo que cree que está escribiendo es cierto o no, que lo dice el mismo), no te has parado a leer la patente en la cual está basado dicha especulación? (recalco especulación porque el artículo original dice que es todo especulación despues de ver la patente, que traduciendo es "vi coprocesador en el título de la patente y ya no hacia falta leer mas")
Porque dicha patente no habla de un chip dedicado ni leches, básicamente habla de algo como un "tensor core" o un "rt core", ni mas ni menos. Está describiendo el funcionamiento de un "rt core" muy parecido a los que se montan en turing, no de un chip dedicado ni nada de eso, habla de unidades de procesamiento (en este caso coprocesadores) que están emparejados a los SM's, nada de un chip dedicado fuera del chip principal .
kikomanco escribió:PilaDePetaca escribió:kikomanco escribió:Aquí una fuente de la noticia, se ve que eso no interesa, por qué claro, si es para abaratar costes ya se deja pasar por alto, interesa más los click bait de que Nvidia será más cara y bla, bla, bla...
https://wccftech.com/nvidia-traversual-coprocessor-rtx-3090-gpu/
https://www.profesionalreview.com/2020/06/15/nvidia-rtx-3090-co-procesador-ray-tracing/
Estoooo, por un casual, aparte del articulo click-bait y del artículo original (el cual el mismo autor no tiene ni idea de si lo que cree que está escribiendo es cierto o no, que lo dice el mismo), no te has parado a leer la patente en la cual está basado dicha especulación? (recalco especulación porque el artículo original dice que es todo especulación despues de ver la patente, que traduciendo es "vi coprocesador en el título de la patente y ya no hacia falta leer mas")
Porque dicha patente no habla de un chip dedicado ni leches, básicamente habla de algo como un "tensor core" o un "rt core", ni mas ni menos. Está describiendo el funcionamiento de un "rt core" muy parecido a los que se montan en turing, no de un chip dedicado ni nada de eso, habla de unidades de procesamiento (en este caso coprocesadores) que están emparejados a los SM's, nada de un chip dedicado fuera del chip principal .
Venga te pongo otro enlace más, a ver si lo entiendes mejor
https://elchapuzasinformatico.com/2020/06/coprocesador-transversal-nvidia-geforce-rtx-3090-y-rtx-3080/?sa=X&ved=2ahUKEwiSmcS008HrAhXqAWMBHTWOBzkQ9QF6BAgKEAI
Stealwilliam escribió:¿Cuando habláis de chip completo y chip parcial a qué os referís exactamente?
Saludos.
bromutu escribió:Stealwilliam escribió:¿Cuando habláis de chip completo y chip parcial a qué os referís exactamente?
Saludos.
Me interesa la pregunta.
Antoniopua escribió:Y las memorias soldadas, sin posibilidad de ampliación
Antoniopua escribió:Y las memorias soldadas, sin posibilidad de ampliación