NVIDIA "Turing" Nueva Generacion GTX 16x0/Ti -|- RTX 20x0/Ti -|- SUPER

Sinceramente a mi esto me recuerda al poder de la nube,al directx12 y al poder del cell y todo esto fue humo.
Esto de los drivers capados,doble de potencia con el dsll etc etc.....sinceramente,suena al poder de la nube de microsoft,los que ya lo hemos vivido pues sinceramente,no espero nada de nada pk alfinal pones esperanza en que eso pueda suceder y alfinal no sucede nada de nada y la mejora que prometen que no se cumple la meteran en la serie 3000,vamos puro marketing es lo que nos estan vendiendo(HUMO).
Yo cada ves veo más claro lo del humo con el Ray tracing y sobretodo el dsll.
Que si, que el dsll funcionar funcionaara, pero habrá que ver hasta que nivel.
Yo estoy por saltar de una 1070 a una 1080ti que trngo de segunda mano a 550 y el la serie 3000 ya volveré a cambiar.
yosu888 escribió:Sinceramente a mi esto me recuerda al poder de la nube,al directx12 y al poder del cell y todo esto fue humo.
Esto de los drivers capados,doble de potencia con el dsll etc etc.....sinceramente,suena al poder de la nube de microsoft,los que ya lo hemos vivido pues sinceramente,no espero nada de nada pk alfinal pones esperanza en que eso pueda suceder y alfinal no sucede nada de nada y la mejora que prometen que no se cumple la meteran en la serie 3000,vamos puro marketing es lo que nos estan vendiendo(HUMO).

Lo del poder de la nube era relativo, y nunca se demostró nada, aquí hay hardware dedicado y 2 demos con DLSS activado, tiene Ray tracing cores, hay tensor cores, está ahora mismo medio chip desactivado, entonces para que narices van a meter un hard dedicado, para no utilizarlo? Piensas bien lo que escribes? O ahora aquí puede entrar el que quiera y decir la primera falacia que se le ocurra? En fin esto ya cansa, parece el día de la marmota, siempre viene alguno a soltar la misma parida todos los días [facepalm]

@Daicon pues si lo tienes tan claro adelante, ya estás tardando, que lo disfrutes
kikomanco escribió:
yosu888 escribió:Sinceramente a mi esto me recuerda al poder de la nube,al directx12 y al poder del cell y todo esto fue humo.
Esto de los drivers capados,doble de potencia con el dsll etc etc.....sinceramente,suena al poder de la nube de microsoft,los que ya lo hemos vivido pues sinceramente,no espero nada de nada pk alfinal pones esperanza en que eso pueda suceder y alfinal no sucede nada de nada y la mejora que prometen que no se cumple la meteran en la serie 3000,vamos puro marketing es lo que nos estan vendiendo(HUMO).

Lo del poder de la nube era relativo, y nunca se demostró nada, aquí hay hardware dedicado y 2 demos con DLSS activado, tiene Ray tracing cores, hay tensor cores, está ahora mismo medio chip desactivado, entonces para que narices van a meter un hard dedicado, para no utilizarlo? Piensas bien lo que escribes? O ahora aquí puede entrar el que quiera y decir la primera falacia que se le ocurra? En fin esto ya cansa, parece el día de la marmota, siempre viene alguno a soltar la misma parida todos los días [facepalm]

Yo te entiendo...
Pero las demos siempre siempre han sido eso.... Demos... Deje de fiarme hace mucho años de las demos.

Cuando se este viendo en varios juegos ess gran ganancia de rendimiento ya hablaremos.

A ver si va a ser esto como la mejora que nos comimos de dirrctx 12 y AMD con el juego este de estrategia, que ya nadie se acuerda de él.

@kikomanco no no lo trngo claro aún, pero cada vez si que lo trngo mas
evilkainn_ escribió:NVIDIA GeForce RTX 2070 3DMark Timespy Benchmark Leaks Out – Slightly Faster Than GTX 1080 Custom Models

The benchmark results posted by the source aren’t very clear since it only displays the overall score and not the individual graphics score. The system was configured with a Core i7-8700K and ZOTAC GeForce RTX 2070 graphics card with a reported clock speed of 1950 MHz (Boost clocks). The score was 8151 points for the entire system and as I mentioned, there are no individual scores provided since the benchmark is hidden.

https://wccftech.com/nvidia-ge...3dmark ... mark-leak/

2070 rindiendo poco más q una 1080



Imagen
@karlostek

Si que se pueden, yo la mia la he visto a 2100mhz y te lo puedo demostrar con capturas del Msi Afterburner, lo que pasa es que tengo la bios actualizada con mas power limit y como la refrigeración es de origen enseguida hace throttling y baja frecuencias por temperaturas.
De hecho fijate que hay en el bench superposition que yo llego a 9700 y pico de puntos hay gente con mas de 10.000 y si le das a detalles las frecuencias están por encima de los 2100mhz fijas, en este caso estarán refrigeradas por agua eso esta claro.
vtec16 escribió:@karlostek

Si que se pueden, yo la mia la he visto a 2100mhz y te lo puedo demostrar con capturas del Msi Afterburner, lo que pasa es que tengo la bios actualizada con mas power limit y como la refrigeración es de origen enseguida hace throttling y baja frecuencias por temperaturas.
De hecho fijate que hay en el bench superposition que yo llego a 9700 y pico de puntos hay gente con mas de 10.000 y si le das a detalles las frecuencias están por encima de los 2100mhz fijas, en este caso estarán refrigeradas por agua eso esta claro.

de todas formas no lo veo necesario para estas tarjetas subirlas tanto
vtec16 escribió:@karlostek

Si que se pueden, yo la mia la he visto a 2100mhz y te lo puedo demostrar con capturas del Msi Afterburner, lo que pasa es que tengo la bios actualizada con mas power limit y como la refrigeración es de origen enseguida hace throttling y baja frecuencias por temperaturas.
De hecho fijate que hay en el bench superposition que yo llego a 9700 y pico de puntos hay gente con mas de 10.000 y si le das a detalles las frecuencias están por encima de los 2100mhz fijas, en este caso estarán refrigeradas por agua eso esta claro.

Yo le haré una curva agresiva, además que mi habitacion está bien climatizada en verano y mi caja es espaciosa y con buena ventilación
Aquí me he encontrado algo curioso relacionado con el DLSS y esta vez es por parte de Microsoft no de NVIDIA https://www.profesionalreview.com/2018/10/05/directml-directx-12-2019/
Está claro que el DLSS es el futuro y es el siguiente paso a seguir en el mundo de los videojuegos
@karlostek

Si, de hecho al final yo me he dejado dos perfiles y utilizo de normal uno con frecuencias fijas a 1950mhz@0.918v y memorias en +550mhz con tdp 85% y con una curva de ventilación relajada para que no se oiga mucho y no me pasa de 76º/77º nunca jugando en 4k y como mucho me las baja a 1920mhz las frecuencias (y eso que la ventilación de la PNY es regulera) lo que si que creo que he tenido mas suerte es con el silicio, por lo menos me aguanta frecuencias altas con voltajes altos aunque no he tenido otra para comparar.

Al final hablamos que de tenerla de 1950 a 2100mhz te va a subir 3 o 4 fps que es mas para benchs que para otra cosa.

@kikomanco
Mi caja también es espaciosa y bien ventilada pero estas gráficas se calientan.
Para sacarle las maximas frecuencas a estas gráficas ahora mismo hay que pasarlas por agua o esperar a un custom cañon o bien meter a tope la ventilación pero aun asi con el power limit al 122% y las frecuencias al maximo te va a hacer throttling seguro.
vtec16 escribió:@karlostek

Si, de hecho al final yo me he dejado dos perfiles y utilizo de normal uno con frecuencias fijas a 1950mhz@0.918v y memorias en +550mhz con tdp 85% y con una curva de ventilación relajada para que no se oiga mucho y no me pasa de 76º/77º nunca jugando en 4k y como mucho me las baja a 1920mhz las frecuencias (y eso que la ventilación de la PNY es regulera) lo que si que creo que he tenido mas suerte es con el silicio, por lo menos me aguanta frecuencias altas con voltajes altos aunque no he tenido otra para comparar.

Al final hablamos que de tenerla de 1950 a 2100mhz te va a subir 3 o 4 fps que es mas para benchs que para otra cosa.

@kikomanco
Mi caja también es espaciosa y bien ventilada pero estas gráficas se calientan.
Para sacarle las maximas frecuencas a estas gráficas ahora mismo hay que pasarlas por agua o esperar a un custom cañon o bien meter a tope la ventilación pero aun asi con el power limit al 122% y las frecuencias al maximo te va a hacer throttling seguro.

Que harán termal trottling es fijo, en la 1080ti a partir de 56 grados hace termal trottling, y cada 8 grados baja unos 15 MHz las frecuencias, por eso la importancia de tener bien ventilada la gráfica, yo a la mía le hice undervolt a 0.980v con una frecuencia de 1960 MHz y curva custom de ventilación y no me pasaba de 62 grados
@kikomanco
Mi idea es meterle una AIO Kraken NZXT, he oido solo cosas buenas, pero será mas adelante. De todas formas como tu dices currandote una buena curva y con paciencia puedes conseguir cosas interesantes.
Yo tengo mi RTX 2080 a 2040 Mhz, y con una curva bastante estándar, es decir, parado el ventilador hasta 55 grados, y a partir de 65 grados al 70 por ciento no me pasa de eso, de 65 grados. La verdad que en refrigeración, al menos la Gigabyte, funciona la mar de bien.
goku593 escribió:Yo tengo mi RTX 2080 a 2040 Mhz, y con una curva bastante estándar, es decir, parado el ventilador hasta 55 grados, y a partir de 65 grados al 70 por ciento no me pasa de eso, de 65 grados. La verdad que en refrigeración, al menos la Gigabyte, funciona la mar de bien.

Tiene buen disipador, eso no hay duda, por lo menos la gaming oc, por qué la windforce es muy delgado parai gusto
goku593 escribió:Yo tengo mi RTX 2080 a 2040 Mhz, y con una curva bastante estándar, es decir, parado el ventilador hasta 55 grados, y a partir de 65 grados al 70 por ciento no me pasa de eso, de 65 grados. La verdad que en refrigeración, al menos la Gigabyte, funciona la mar de bien.

imagino jugando a 1080 o 2k no?
kikomanco escribió:
goku593 escribió:Yo tengo mi RTX 2080 a 2040 Mhz, y con una curva bastante estándar, es decir, parado el ventilador hasta 55 grados, y a partir de 65 grados al 70 por ciento no me pasa de eso, de 65 grados. La verdad que en refrigeración, al menos la Gigabyte, funciona la mar de bien.

Tiene buen disipador, eso no hay duda, por lo menos la gaming oc, por qué la windforce es muy delgado parai gusto

La mía es la Windforce, y disipa de lujo, la verdad. Pero no dudo que haya mejores.


Por cierto, los nuevos drivers son crema, al menos en Odyssey van finísimos.
kikomanco escribió:
vtec16 escribió:@karlostek

Si que se pueden, yo la mia la he visto a 2100mhz y te lo puedo demostrar con capturas del Msi Afterburner, lo que pasa es que tengo la bios actualizada con mas power limit y como la refrigeración es de origen enseguida hace throttling y baja frecuencias por temperaturas.
De hecho fijate que hay en el bench superposition que yo llego a 9700 y pico de puntos hay gente con mas de 10.000 y si le das a detalles las frecuencias están por encima de los 2100mhz fijas, en este caso estarán refrigeradas por agua eso esta claro.

Yo le haré una curva agresiva, además que mi habitacion está bien climatizada en verano y mi caja es espaciosa y con buena ventilación
Aquí me he encontrado algo curioso relacionado con el DLSS y esta vez es por parte de Microsoft no de NVIDIA https://www.profesionalreview.com/2018/10/05/directml-directx-12-2019/
Está claro que el DLSS es el futuro y es el siguiente paso a seguir en el mundo de los videojuegos

El próximo paso a seguir es un reescalado a 4k en vez de 4k nativo. ¿Pero tú te estás leyendo?
Madre mía que pique os traeis jajaja
De estos modelos de la ti cual cogeriais son modelos que van con los bloques de agua ....

De estas graficas a por cual iriais ?

ASUS Dual GeForce RTX 2080 8GB (DUAL-RTX2080-8G)
ASUS Dual GeForce RTX 2080 Advanced edition 8GB (DUAL-RTX2080-A8G)
ASUS Dual GeForce RTX 2080 OC edition 8GB (DUAL-RTX2080-O8G)
ASUS Turbo GeForce RTX 2080 8GB (TURBO-RTX2080-8G)
ASUS Dual GeForce RTX 2080 Ti OC edition 11GB (DUAL-RTX2080TI-O11G)
ASUS Turbo GeForce RTX 2080 Ti 11GB (TURBO-RTX2080TI-11G)
EVGA GeForce RTX 2080 XC Gaming, 8GB GDDR6 (08G-P4-2182-KR)
EVGA GeForce RTX 2080 XC Ultra Gaming, 8GB GDDR6 (08G-P4-2183-KR)
EVGA GeForce RTX 2080 Ti XC (11G-P4-2382-KR)
EVGA GeForce RTX 2080 Ti XC ULTRA GAMING (11G-P4-2383-KR)
GALAX GeForce RTX 2080Ti 11GB GDDR6
GIGABYTE GeForce RTX 2080 Windforce OC 8G, 8GB GDDR6 (GV-N2080WF30C-8GC)
GIGABYTE GeForce RTX 2080 Ti Windforce OC 11G (GV-N2080TWF30C-11GC)
MSI GeForce RTX 2080 DUKE 8G OC
MSI GeForce RTX 2080 DUKE 8G
MSI GeForce RTX 2080 VENTUS 8G OC
MSI GeForce RTX 2080 VENTUS 8G
MSI GeForce RTX 2080 AERO 8G
MSI GeForce RTX 2080 Ti Duke 11G OC, GDDR6 (V371-011R)
MSI GeForce RTX 2080 Ti Duke 11G, GDDR6
MSI GeForce RTX 2080 Ti VENTUS 11G OC
MSI GeForce RTX 2080 Ti VENTUS 11G
NVIDIA GeForce RTX 2080 Founders Edition, 8GB GDDR6
NVIDIA GeForce RTX 2080 Ti Founders Edition, 11GB GDDR6
PALIT GeForce RTX 2080 GamingPro OC, 8GB GDDR6 (NE62080S20P2-180A)
PALIT GeForce RTX 2080 GamingPro, 8GB GDDR6 (NE62080T20P2-180A)
PALIT GeForce RTX 2080 Ti GamingPro OC, 11GB GDDR6 (NE6208TS20LC-150A)
PALIT GeForce RTX 2080 Ti GamingPro, 11GB GDDR6 (NE6208TT20LC150A)
ZOTAC Gaming GeForce RTX 2080 Blower (ZT-T20800A-10P)
ZOTAC Gaming GeForce RTX 2080 AMP (ZT-T20800D-10P)
ZOTAC Gaming GeForce RTX 2080 Ti AMP (ZT-T20810D-10P)
ZOTAC Gaming GeForce RTX 2080 Ti Triple Fan (ZT-T20810F-10P)
Nephalem89 escribió:De estos modelos de la ti cual cogeriais son modelos que van con los bloques de agua ....

De estas graficas a por cual iriais ?

ASUS Dual GeForce RTX 2080 8GB (DUAL-RTX2080-8G)
ASUS Dual GeForce RTX 2080 Advanced edition 8GB (DUAL-RTX2080-A8G)
ASUS Dual GeForce RTX 2080 OC edition 8GB (DUAL-RTX2080-O8G)
ASUS Turbo GeForce RTX 2080 8GB (TURBO-RTX2080-8G)
ASUS Dual GeForce RTX 2080 Ti OC edition 11GB (DUAL-RTX2080TI-O11G)
ASUS Turbo GeForce RTX 2080 Ti 11GB (TURBO-RTX2080TI-11G)
EVGA GeForce RTX 2080 XC Gaming, 8GB GDDR6 (08G-P4-2182-KR)
EVGA GeForce RTX 2080 XC Ultra Gaming, 8GB GDDR6 (08G-P4-2183-KR)
EVGA GeForce RTX 2080 Ti XC (11G-P4-2382-KR)
EVGA GeForce RTX 2080 Ti XC ULTRA GAMING (11G-P4-2383-KR)
GALAX GeForce RTX 2080Ti 11GB GDDR6
GIGABYTE GeForce RTX 2080 Windforce OC 8G, 8GB GDDR6 (GV-N2080WF30C-8GC)
GIGABYTE GeForce RTX 2080 Ti Windforce OC 11G (GV-N2080TWF30C-11GC)
MSI GeForce RTX 2080 DUKE 8G OC
MSI GeForce RTX 2080 DUKE 8G
MSI GeForce RTX 2080 VENTUS 8G OC
MSI GeForce RTX 2080 VENTUS 8G
MSI GeForce RTX 2080 AERO 8G
MSI GeForce RTX 2080 Ti Duke 11G OC, GDDR6 (V371-011R)
MSI GeForce RTX 2080 Ti Duke 11G, GDDR6
MSI GeForce RTX 2080 Ti VENTUS 11G OC
MSI GeForce RTX 2080 Ti VENTUS 11G
NVIDIA GeForce RTX 2080 Founders Edition, 8GB GDDR6
NVIDIA GeForce RTX 2080 Ti Founders Edition, 11GB GDDR6
PALIT GeForce RTX 2080 GamingPro OC, 8GB GDDR6 (NE62080S20P2-180A)
PALIT GeForce RTX 2080 GamingPro, 8GB GDDR6 (NE62080T20P2-180A)
PALIT GeForce RTX 2080 Ti GamingPro OC, 11GB GDDR6 (NE6208TS20LC-150A)
PALIT GeForce RTX 2080 Ti GamingPro, 11GB GDDR6 (NE6208TT20LC150A)
ZOTAC Gaming GeForce RTX 2080 Blower (ZT-T20800A-10P)
ZOTAC Gaming GeForce RTX 2080 AMP (ZT-T20800D-10P)
ZOTAC Gaming GeForce RTX 2080 Ti AMP (ZT-T20810D-10P)
ZOTAC Gaming GeForce RTX 2080 Ti Triple Fan (ZT-T20810F-10P)


Desde la mas pura ignorancia te pregunto.. si es para ponerle una RL ¿que mas te da una que otra?
Lo normal, lo que hace la mayor par de la gente es comprar una founders.
Luego tienes las EVGA que no te ponen problemas de garantia si las desmontas.
ASUS, Gigabyte, etc te ponen problemas.
goku593 escribió:
kikomanco escribió:
goku593 escribió:Yo tengo mi RTX 2080 a 2040 Mhz, y con una curva bastante estándar, es decir, parado el ventilador hasta 55 grados, y a partir de 65 grados al 70 por ciento no me pasa de eso, de 65 grados. La verdad que en refrigeración, al menos la Gigabyte, funciona la mar de bien.

Tiene buen disipador, eso no hay duda, por lo menos la gaming oc, por qué la windforce es muy delgado parai gusto

La mía es la Windforce, y disipa de lujo, la verdad. Pero no dudo que haya mejores.


Por cierto, los nuevos drivers son crema, al menos en Odyssey van finísimos.

La tuya va bien de temperaturas por qué es la 2080 pero para la 2080ti es muy poco disipador, son 1400 cudas cores más y más tensor cores y más RT cores

Madre mía que pique os traeis jajaja

Na... Déjalo, no entiende que una imagen tratada desde 1440p con DLSS se vea igual o con una perdida inapreciable en 4k, no entiende que lo más importante en el mundo gaming es el rendimiento a costa de perder la mínima calidad de imagen, lleva así ya más de 1 mes, y cada día o 2 días no deja de repetir lo mismo, si a mí con DLSS me aseguran un rendimiento espectacular y con una calidad inapreciable de con la nativa a costa de ganar más de un 50% de rendimiento, donde debo de firmar?
kikomanco escribió:Na... Déjalo, no entiende que una imagen tratada desde 1440p con DLSS se vea igual o con una perdida inapreciable en 4k, no entiende que lo más importante en el mundo gaming es el rendimiento a costa de perder la mínima calidad de imagen, lleva así ya más de 1 mes, y cada día o 2 días no deja de repetir lo mismo, si a mí con DLSS me aseguran un rendimiento espectacular y con una calidad inapreciable de con la nativa a costa de ganar más de un 50% de rendimiento, donde debo de firmar?


ese es el problema.... "A TI te aseguran"....
que eso hoy dia en el mundo de la informatica es HUMO....
claro que todos firmariamos si la calidad perdida es inapreciable, pero es que hasta hoy no ha habido tecnologia o mierda que nos hayan sacado y vendido, que no haya diferido una barbaridad de lo que vendieron a lo que llego al mercado, pero nada oye.... ojala tengas razon.


Bueno, cambiando del monotema a otra cosa...
Cual creéis o estáis viendo que está saliendo mejor en cuanto a ensamblador?
Daicon escribió:
kikomanco escribió:Na... Déjalo, no entiende que una imagen tratada desde 1440p con DLSS se vea igual o con una perdida inapreciable en 4k, no entiende que lo más importante en el mundo gaming es el rendimiento a costa de perder la mínima calidad de imagen, lleva así ya más de 1 mes, y cada día o 2 días no deja de repetir lo mismo, si a mí con DLSS me aseguran un rendimiento espectacular y con una calidad inapreciable de con la nativa a costa de ganar más de un 50% de rendimiento, donde debo de firmar?


ese es el problema.... "A TI te aseguran"....
que eso hoy dia en el mundo de la informatica es HUMO....
claro que todos firmariamos si la calidad perdida es inapreciable, pero es que hasta hoy no ha habido tecnologia o mierda que nos hayan sacado y vendido, que no haya diferido una barbaridad de lo que vendieron a lo que llego al mercado, pero nada oye.... ojala tengas razon.

Pero vamos a ver, vamos a darle algo de tiempo, hay 25 juegos confirmados que van a llevar DLSS y los que estén por salir los llevara incorporado, pero nada, como dije antes, esto se está volviendo cíclico, ya aburre
@kikomanco sigues igual madre mía, una imagen tratada no es una imagen nativa quieres pagar por artificios para no dar potencia, pues ala perfecto, pero por favor no digas cosas que no son o ve a las consolas que hacen lo que tanto te gusta DLSS. Un saludo.
seya18 escribió:@kikomanco sigues igual madre mía, una imagen tratada no es una imagen nativa quieres pagar por artificios para no dar potencia, pues ala perfecto, pero por favor no digas cosas que no son o ve a las consolas que hacen lo que tanto te gusta DLSS. Un saludo.

Sigo igual no, aquí lo únicos que seguís igual sois vosotros, yo solo estoy explicando la arquitectura turing, es lo que hay, RT y DLSS, si no os gusta y no vais a comprar una 2080/TI los que deberías iros a otro lado sois vosotros, CANSINOS, QUE NO APORTÁIS NADA sólo flames y mal ambiente
Edito: que yo sepa, las consolas ni tienen RT cores ni mucho menos tensor cores para tratar la imagen con redes neuronales, a no ser que haya por ahí alguna consola especial que solo tengas tú en el mundo [sati]
kikomanco escribió:
seya18 escribió:@kikomanco sigues igual madre mía, una imagen tratada no es una imagen nativa quieres pagar por artificios para no dar potencia, pues ala perfecto, pero por favor no digas cosas que no son o ve a las consolas que hacen lo que tanto te gusta DLSS. Un saludo.

Sigo igual no, aquí lo únicos que seguís igual sois vosotros, yo solo estoy explicando la arquitectura turing, es lo que hay, RT y DLSS, si no os gusta y no vais a comprar una 2080/TI los que deberías iros a otro lado sois vosotros, CANSINOS, QUE NO APORTÁIS NADA sólo flames y mal ambiente


Ah que estás explicando una arquitectura que en la práctica aún no se ha visto, porque el DLSS aún no se ha visto (un juego y demo técnica no es representativo de nada), muéstranos entonces a los demás el camino, ya que todo lo ves y lo sabes, ah y por cierto poco te han baneado porque lo que se ve, llamando, perdón, gritando diciéndonos a los que disentimos que somos cansinos y que generamos nosotros mal ambiente, nosotros dice, increíble lo tuyo, sigue, sigue explicando la tecnología estoy muy interesado en leer todo lo que nos puedes enseñar.

Tengo la misma consola que gráfica puedas tener tú con DLSS activado en todos los juegos en los que aprecias, perdón, no aprecias cambio con el 4k, pero es lo que hay, tenemos que soportarte, es un foro de opinión.
@seya18 dudo mucho que tú y otros como tú estén muy interesados en esta tecnología (DLSS y RT cores) y muchísimo menos en comprar estás gráficas, eso es lo que más toca los eggs, por qué aquí lo único que venís es a lo mismo, si nos os interesa la serie 2000 para que entráis? Si a mí no me interesa un micro una consola o una gráfica, no me molesto en entrar a discutir, debatir o flamear como estáis haciendo vosotros, simplemente paso, Increíble lo que puede hacer el aburrimiento [facepalm]
kikomanco escribió:Na... Déjalo, no entiende que una imagen tratada desde 1440p con DLSS se vea igual o con una perdida inapreciable en 4k, no entiende que lo más importante en el mundo gaming es el rendimiento a costa de perder la mínima calidad de imagen, lleva así ya más de 1 mes, y cada día o 2 días no deja de repetir lo mismo, si a mí con DLSS me aseguran un rendimiento espectacular y con una calidad inapreciable de con la nativa a costa de ganar más de un 50% de rendimiento, donde debo de firmar?


Creo que el tema no es ese.
Creo que el tema que se esta discutiendo es que, de momento, eso que comentas es HUMO.
No sabemos si una "imagen" 1440p con DLSS se va a ver en 4K como si fuese una imagen 4K, o con una perdida inapreciable de calidad.
No sabemos si gracias a lo anterior vamos a poder poner resolucion 1440p y ganar un 50% de rendimiento.

Ojala sea como dices, y no sea todo HUMO. Ojala.
Yo, hasta que no lo vea no me lo creo.
Pero a mi me solucionaria la vida para poder jugar en mi monitor 1440p gsync a 144fps solidos como una roca. Cosa que hasta ahora, para poder conseguirlo, siempre he necesitado SLI de la grafica mas potente en el mercado, y ni aun con esas.

Permitenos mantenernos totalmente excepticos hasta que no lo veamos funcionando en todos los juegos, o la inmensa mayoria.
Ya, partiendo de la base de que no va a funcionar en muchisimos juegos (ejemplo, world of warcraft), a mi me empieza a dar por el orto el asunto de que las compañias les tengan que enviar sus juegos a nvidia para que esta los "trate", y asi pueda "funcionar" el invento.
El que dice world of warcraft dice el 101% de juegos estilo mmo, donde, debido al estilo de juego, es inviable utilizar esta tecnica.
kikomanco escribió:@seya18 dudo mucho que tú y otros como tú estén muy interesados en esta tecnología (DLSS y RT cores) y muchísimo menos en comprar estás gráficas, eso es lo que más toca los eggs, por qué aquí lo único que venís es a lo mismo, si nos os interesa la serie 2000 para que entráis? Increíble lo que puede hacer el aburrimiento [facepalm]

.
Editado por Scylla. Razón: Alusiones personales, no
@karlostek Ahora tú hablando de mi economía, pero de donde sales tú, tú me conoces de algo, pues cállate y no digas tonterías, yo puedo comprarla perfectamente pero no vengo aquí a decir a los demás que como no les gusta son gente que no puede, entiendo que si tus argumentos son esos la ESO ha hecho mucho daño. Por cierto de medio español nada, español entero y muy orgulloso.

@kikomanco yo sólo entro para ver las novedades ya que me gustaría que todo fuera a mejor, para hacerme con una 2080ti pero veo que no está siendo así y entonces leo lo que dices hablando de cosas que no has visto porque ni nvidia ha mostrado y claro tengo que contestar porque cuando no se ha podido ver o eres un adivino o mientes, aburrido estoy pero de leer tus invenciones, así que por favor deja de decir que el DLSS el cambio con 4k es inapreciable porque no se ha visto y el RT tampoco así que sí, entro para enterarme de como evoluciona no de como desinformas.
karlostek escribió:
kikomanco escribió:@seya18 dudo mucho que tú y otros como tú estén muy interesados en esta tecnología (DLSS y RT cores) y muchísimo menos en comprar estás gráficas, eso es lo que más toca los eggs, por qué aquí lo único que venís es a lo mismo, si nos os interesa la serie 2000 para que entráis? Increíble lo que puede hacer el aburrimiento [facepalm]

es tipico del cuñado medio español,como no puede permitirse algo se dedica a criticar


No, lo que es tipico del cuñao medio español es opinar de algo sin tener ni idea de como es ese algo, hablando de oidas.
karlostek escribió:
kikomanco escribió:@seya18 dudo mucho que tú y otros como tú estén muy interesados en esta tecnología (DLSS y RT cores) y muchísimo menos en comprar estás gráficas, eso es lo que más toca los eggs, por qué aquí lo único que venís es a lo mismo, si nos os interesa la serie 2000 para que entráis? Increíble lo que puede hacer el aburrimiento [facepalm]

es tipico del cuñado medio español,como no puede permitirse algo se dedica a criticar

Si se ve kms, pero nada, con suerte por culpa de ellos volveré a ser baneado, es lo que tiene esto, el mundo al revés
seya18 escribió:@karlostek detrás de un ordenador, siempre te irá mejor chavalín, lloros los vuestros, ojalá os baneen de por vida, sinceramente la gente que dice cosas como vosotros da muchísima pena.

tengo 36 bolos,hablaba en general sobre lo de criticar algo sin tenerlo,tu te has dado por aludido es tu problema socio,y detras de un ordenador como cara a cara hermano
seya18 escribió:@karlostek me la sudan tus bolos, ni soy tu socio ni tu hermano. Cara a cara dice no me hagas reír. Olvídame.

cuando quieras charlamos cara a cara soy de mataro barcelona,veras que no soy mala gente hermano,saludos
m0wly escribió:
kikomanco escribió:Na... Déjalo, no entiende que una imagen tratada desde 1440p con DLSS se vea igual o con una perdida inapreciable en 4k, no entiende que lo más importante en el mundo gaming es el rendimiento a costa de perder la mínima calidad de imagen, lleva así ya más de 1 mes, y cada día o 2 días no deja de repetir lo mismo, si a mí con DLSS me aseguran un rendimiento espectacular y con una calidad inapreciable de con la nativa a costa de ganar más de un 50% de rendimiento, donde debo de firmar?


Creo que el tema no es ese.
Creo que el tema que se esta discutiendo es que, de momento, eso que comentas es HUMO.
No sabemos si una "imagen" 1440p con DLSS se va a ver en 4K como si fuese una imagen 4K, o con una perdida inapreciable de calidad.
No sabemos si gracias a lo anterior vamos a poder poner resolucion 1440p y ganar un 50% de rendimiento.

Ojala sea como dices, y no sea todo HUMO. Ojala.
Yo, hasta que no lo vea no me lo creo.
Pero a mi me solucionaria la vida para poder jugar en mi monitor 1440p gsync a 144fps solidos como una roca. Cosa que hasta ahora, para poder conseguirlo, siempre he necesitado SLI de la grafica mas potente en el mercado, y ni aun con esas.

Permitenos mantenernos totalmente excepticos hasta que no lo veamos funcionando en todos los juegos, o la inmensa mayoria.
Ya, partiendo de la base de que no va a funcionar en muchisimos juegos (ejemplo, world of warcraft), a mi me empieza a dar por el orto el asunto de que las compañias les tengan que enviar sus juegos a nvidia para que esta los "trate", y asi pueda "funcionar" el invento.
El que dice world of warcraft dice el 101% de juegos estilo mmo, donde, debido al estilo de juego, es inviable utilizar esta tecnica.

Pues nada chico, si eres un escéptico a toda la información que se ha colgado y enseñado por internet con las demos funcionando con el DLSS que apenas se ve una perdida de calidad de imagen del 4k nativo, y de los 25 juegos confirmados que hay por parte de NVIDIA, además de tener hardware dedicado para ello y necesitas más pruebas, pues entonces esperate , lee y mira, pero por favor no dígas gratuitamente que es humo sin tener ni idea y te lo digo desde el respeto, pero a mí lo que más rabia me da es que encima me llamen por esto mentiroso y desinformador, por qué lo único que explico es lo mismo que se está viendo por toda la Red, ni más ni menos, aún es pronto, ya mismo se verá los primeros juegos corriendo con DLSS y ahí se podrá hablar a favor o en contra con más argumento, pero de eso a decir gratuitamente que es humo, es pasarse tres pueblos
@seya18 me estás llamando mentiroso y desinformador, bien bien [oki] me puedes decir exactamente dónde miento y dónde desinformo? [facepalm]
seya18 escribió:@karlostek te agradezco la invitación pero no me va tu rollo y reitero no soy tu hermano.

vaya vaya parece que el que habla detras de un ordenador eres tu,en fin,lo dejo aqui,que vaya bien hermano
@kikomanco no es por meter baza, pero tampoco te puedes creer todo lo que te cuenta una compañia que lo que intenta es venderte un producto.

Ahi tienes la nube de MS, los 4k de ps4 pro, los i9 de intel con dudosas pruebas de rendimiento...

Estais hablando de una tecnologia que de momento solo esta en una Demo...
@kikomanco solo intenta defender su compra autocoplaciendose de sus nuevas y novedosas funciones.
Los demais le estáis desanimado

Un saludo a los dos bandos.
Jajajajaja
Yo soy de los incrédulos!!!!
evilkainn_ escribió:@kikomanco no es por meter baza, pero tampoco te puedes creer todo lo que te cuenta una compañia que lo que intenta es venderte un producto.

Ahi tienes la nube de MS, los 4k de ps4 pro, los i9 de intel con dudosas pruebas de rendimiento...

Estais hablando de una tecnologia que de momento solo esta en una Demo...

Si luego no se llega a producir exactamente lo que dice Nvidia, entonces yo seré el primero en decirlo, pero de ahí a llamarme mentiroso y desinformador hay un trecho muy grande y una falta de respeto, lo de la nube de Microsoft obviamente no se lo creía nadie por qué físicamente es imposible sin tener una conexión a Internet, tendría que estar todo el rato conectada la consola y con un buen ancho de banda, los 4k de Ps4 pro nunca dijeron que fueran nativos, siempre se dijo dinámicos, y ahí que decir que en muchos juegos la perdida es muy marginal frente al nativo, y no es siquiera como promete el DLSS y lo del Intel i9 pues ni idea, de momento no estoy interesado en varios años en cambiar de micro, por eso no me molesto en informarme
@kikomanco vamos a ver digo que mientes o desinformas porque no lo sabe nadie, no se puede asegurar con esa certeza lo que dices, sin embargo sigues con ello contra viento y marea y dices que nosotros somos los cansinos, demuestra que el DLSS es la ostia y que pagar por reescalar es mejor que por nativo y te pediré millones de disculpas.
Lo que tiene que tener muy clarito NVIDIA es que como la caguen con un lanzamiento como este, es decir que el Ray Tracing y el DLSS no funcione como se espera (Hasta cambiaron las siglas de sus tarjetas por estas implementaciones), la ostia que se van a dar va a ser epica y que pondrá en entredicho las siguientes generaciones.
Entiendo que por la reputación de la compañia y lo mas importante, su venidero económico se habrán asegurado de que esto funcionará.

Edito: El DLSS tiene todo el sentido del mundo si lo combinas con el Ray Tracing, no mermar el rendimiento con el ray tracing trabajando a una resolución inferior, pero del dicho al hecho ..
seya18 escribió:@karlostek solo dos apuntes no has entendido lo del ordenador, obviamente, no me equivoco la ESO ha hecho daño, me refería a que si todos tus argumentos eran decirle a alguien que deje de llorar, por defender una opinión, en sociedad poco puedes hacer, ya que respetar no sabes, debí ampliarlo más.
Dos si lo que estabas haciendo es amenazarme dímelo claro para optar por la vía que sea adecuada. Y te reitero que por favor dejes de llamarme hermano.


claro claro te entendi mal sera eso,ahora me llamas tonto?creo que tambien tomare las medidas oportunas
vtec16 escribió:Lo que tiene que tener muy clarito NVIDIA es que como la caguen con un lanzamiento como este, es decir que el Ray Tracing y el DLSS no funcione como se espera (Hasta cambiaron las siglas de sus tarjetas por estas implementaciones), la ostia que se van a dar va a ser epica y que pondrá en entredicho las siguientes generaciones.
Entiendo que por la reputación de la compañia y lo mas importante, su venidero económico se habrán asegurado de que esto funcionará.

Exacto, o si no que se lo digan a Microsoft con su marca Xbox one como ha acabado de tocada con todas sus meteduras de pata, (kinect inseparable, 1080p @60fps, check online permanente, cloud computing) en gráficas Nvidia siempre ha dado la cara y son una empresa seria, no tienen por qué vender humo, no lo necesitan, están solos y a años luz de AMD en la gama alta
@karlostek no le sigas el rollo no merece la pena
@kikomanco no se en que momento te habran llamado mentiroso, suelo leer el hilo habitualmente. Se me habra pasado entre tanta discusion.
Edito: que ya he visto un comentario mas arriba xD

Cada uno puede defender sus posturas, esta claro que para gustos colores.

Sobre el DLSS, solo se han visto pruebas\demos. Es una tecnologia que nadie sabe exactamente como funciona o el resultado que puede dar. Hasta ahora todo se media en FPS por potencia bruta. Por eso hay tanto esceptico pienso yo(me incluyo)

Sobre los ejemplos que he puesto, MS ya se sabia como dices, Ps4 Pro tiene un gran resultado en sus juegos, con tecnicas especificas para su consola. El DLSS iria para juegos multis en su mayoria, dudo que la implementacion sea tan buena. Tambien te digo que segun los ojos que lo miren, porque antes 1080pSony vs 900pMS se notaba una burrada segun muchos, y ahora 4krealMS vs 4kdinamico\2kSony no se nota tanto. Bueno esto mejor dejarlo a los consoleros jaja

Igual estoy diciendo una burrada, pero el DLSS, no seria algo como el valor de la "escala" que aplicas en Tekken 7?
kikomanco escribió: Nvidia siempre ha dado la cara y son una empresa seria, no tienen por qué vender humo, no lo necesitan, están solos y a años luz de AMD en la gama alta


Claro que tiene motivos para vender humo.
Necesitan vender un hardware a un precio estratosferico para paliar la cagada de proporciones biblicas que ha sido producir chips de la serie 10 como si no hubiese un mañana durante el ultimos trimestre del 2017 y primer trimestre del 2018 para satisfacer la demanda de graficas para la mineria super infladas de precio y tener que comerselas con patatas al bajar las ventas a 0 en cuestion de 1 mes.
Al tener que dar cuentas de beneficios trimestralmente a sus inversores del nasdaq100, inversores que no les permiten una cagada semejante y les puede traer consecuencias economicas "catastroficas" (en cuanto a cotizacion en bolsa se refiere) no es que no tienen porque vender humo. Es que TIENEN que vender humo para paliar esa perdida de beneficios historica. Tienen que vender humo para sacar dinero de debajo de las piedras. En este caso un frecio ultra-requete-inflado vendiendo que estas "tecnologias" son la octava maravilla del mundo, INCLUSO llegando a cambiar la denominacion de sus tarjetas graficas (GTX->RTX) para "embaucar" aun mas a su clientela con que esto es la octava maravilla del mundo.

Permiteme que ante esta serie de acontecimientos me mantenga mas esceptico que nunca.
Nvidia tiene motivos de MUCHO PESO para hacer la campaña de marketing mas agresiva de su historia.
Justo lo contrario a lo que tu argumentas de que no tienen motivos para "vender humo" porque son la compañia dominante.
Mas que con microsoft en su momento (que no tenia motivo alguno para vender humo porque su division xbox es una minucia del monto total de sus ingresos), mas que con PS4 y su "4k", porque no tenian motivo para vender "humo" dado que tienen la generacion ganada a años luz, con un parque de consolas infinitamente superior a xbox. Mas que, en este caso, cualquier otro caso de "vendida de humo".
evilkainn_ escribió:@kikomanco no se en que momento te habran llamado mentiroso, suelo leer el hilo habitualmente. Se me habra pasado entre tanta discusion.
Edito: que ya he visto un comentario mas arriba xD

Cada uno puede defender sus posturas, esta claro que para gustos colores.

Sobre el DLSS, solo se han visto pruebas\demos. Es una tecnologia que nadie sabe exactamente como funciona o el resultado que puede dar. Hasta ahora todo se media en FPS por potencia bruta. Por eso hay tanto esceptico pienso yo(me incluyo)

Sobre los ejemplos que he puesto, MS ya se sabia como dices, Ps4 Pro tiene un gran resultado en sus juegos, con tecnicas especificas para su consola. El DLSS iria para juegos multis en su mayoria, dudo que la implementacion sea tan buena. Tambien te digo que segun los ojos que lo miren, porque antes 1080pSony vs 900pMS se notaba una burrada segun muchos, y ahora 4krealMS vs 4kdinamico\2kSony no se nota tanto. Bueno esto mejor dejarlo a los consoleros jaja

Igual estoy diciendo una burrada, pero el DLSS, no seria algo como el valor de la "escala" que aplicas en Tekken 7?

No, no es lo mismo, por qué la escala de resolución en Tekken 7 lo que hace es renderizar a una resolución menor y luego estirar la imagen para que quede en 3840*2160 y al estirar la imagen quedan huecos vacíos entre medias y hay que rellenarlos inventándose píxeles y de ahí la perdida de calidad de imagen, con el DLSS eso ocurre también, salvo que esos píxeles que hacen falta, ya están tratadas la imágenes del juego con la red neuronal y los tensor cores se encargan de rellenar esos huecos libres con una información fidedigna de los píxeles que faltan ahí, de ahí que la calidad de la imagen, del DLSS al 4k nativo sea prácticamente indetectable, y mucho menos en movimiento

@m0wly tú tienes esa opinión y yo justamente la contraria por varios motivos, uno de ellos es por qué si muestran el verdadero potencial, entonces es cuando se van a comer las Pascales con papas si o si, de ahí su nulo stock de 2080ti y su retraso en implementar el DLSS, si Nvidia vendiera humo, sería pan para hoy y hambre para mañana, por qué podría presentar buenos números financieros, pero en el siguiente trimestre la ostia iba a ser de proporciones bíblicas, la gente no se lo perdonaría y eso sería peor el remedio que la enfermedad, no crees?
11796 respuestas