yosu888 escribió:Sinceramente a mi esto me recuerda al poder de la nube,al directx12 y al poder del cell y todo esto fue humo.
Esto de los drivers capados,doble de potencia con el dsll etc etc.....sinceramente,suena al poder de la nube de microsoft,los que ya lo hemos vivido pues sinceramente,no espero nada de nada pk alfinal pones esperanza en que eso pueda suceder y alfinal no sucede nada de nada y la mejora que prometen que no se cumple la meteran en la serie 3000,vamos puro marketing es lo que nos estan vendiendo(HUMO).
kikomanco escribió:yosu888 escribió:Sinceramente a mi esto me recuerda al poder de la nube,al directx12 y al poder del cell y todo esto fue humo.
Esto de los drivers capados,doble de potencia con el dsll etc etc.....sinceramente,suena al poder de la nube de microsoft,los que ya lo hemos vivido pues sinceramente,no espero nada de nada pk alfinal pones esperanza en que eso pueda suceder y alfinal no sucede nada de nada y la mejora que prometen que no se cumple la meteran en la serie 3000,vamos puro marketing es lo que nos estan vendiendo(HUMO).
Lo del poder de la nube era relativo, y nunca se demostró nada, aquí hay hardware dedicado y 2 demos con DLSS activado, tiene Ray tracing cores, hay tensor cores, está ahora mismo medio chip desactivado, entonces para que narices van a meter un hard dedicado, para no utilizarlo? Piensas bien lo que escribes? O ahora aquí puede entrar el que quiera y decir la primera falacia que se le ocurra? En fin esto ya cansa, parece el día de la marmota, siempre viene alguno a soltar la misma parida todos los días
evilkainn_ escribió:NVIDIA GeForce RTX 2070 3DMark Timespy Benchmark Leaks Out – Slightly Faster Than GTX 1080 Custom Models
The benchmark results posted by the source aren’t very clear since it only displays the overall score and not the individual graphics score. The system was configured with a Core i7-8700K and ZOTAC GeForce RTX 2070 graphics card with a reported clock speed of 1950 MHz (Boost clocks). The score was 8151 points for the entire system and as I mentioned, there are no individual scores provided since the benchmark is hidden.
https://wccftech.com/nvidia-ge...3dmark ... mark-leak/
2070 rindiendo poco más q una 1080
vtec16 escribió:@karlostek
Si que se pueden, yo la mia la he visto a 2100mhz y te lo puedo demostrar con capturas del Msi Afterburner, lo que pasa es que tengo la bios actualizada con mas power limit y como la refrigeración es de origen enseguida hace throttling y baja frecuencias por temperaturas.
De hecho fijate que hay en el bench superposition que yo llego a 9700 y pico de puntos hay gente con mas de 10.000 y si le das a detalles las frecuencias están por encima de los 2100mhz fijas, en este caso estarán refrigeradas por agua eso esta claro.
vtec16 escribió:@karlostek
Si que se pueden, yo la mia la he visto a 2100mhz y te lo puedo demostrar con capturas del Msi Afterburner, lo que pasa es que tengo la bios actualizada con mas power limit y como la refrigeración es de origen enseguida hace throttling y baja frecuencias por temperaturas.
De hecho fijate que hay en el bench superposition que yo llego a 9700 y pico de puntos hay gente con mas de 10.000 y si le das a detalles las frecuencias están por encima de los 2100mhz fijas, en este caso estarán refrigeradas por agua eso esta claro.
vtec16 escribió:@karlostek
Si, de hecho al final yo me he dejado dos perfiles y utilizo de normal uno con frecuencias fijas a 1950mhz@0.918v y memorias en +550mhz con tdp 85% y con una curva de ventilación relajada para que no se oiga mucho y no me pasa de 76º/77º nunca jugando en 4k y como mucho me las baja a 1920mhz las frecuencias (y eso que la ventilación de la PNY es regulera) lo que si que creo que he tenido mas suerte es con el silicio, por lo menos me aguanta frecuencias altas con voltajes altos aunque no he tenido otra para comparar.
Al final hablamos que de tenerla de 1950 a 2100mhz te va a subir 3 o 4 fps que es mas para benchs que para otra cosa.
@kikomanco
Mi caja también es espaciosa y bien ventilada pero estas gráficas se calientan.
Para sacarle las maximas frecuencas a estas gráficas ahora mismo hay que pasarlas por agua o esperar a un custom cañon o bien meter a tope la ventilación pero aun asi con el power limit al 122% y las frecuencias al maximo te va a hacer throttling seguro.
goku593 escribió:Yo tengo mi RTX 2080 a 2040 Mhz, y con una curva bastante estándar, es decir, parado el ventilador hasta 55 grados, y a partir de 65 grados al 70 por ciento no me pasa de eso, de 65 grados. La verdad que en refrigeración, al menos la Gigabyte, funciona la mar de bien.
goku593 escribió:Yo tengo mi RTX 2080 a 2040 Mhz, y con una curva bastante estándar, es decir, parado el ventilador hasta 55 grados, y a partir de 65 grados al 70 por ciento no me pasa de eso, de 65 grados. La verdad que en refrigeración, al menos la Gigabyte, funciona la mar de bien.
kikomanco escribió:goku593 escribió:Yo tengo mi RTX 2080 a 2040 Mhz, y con una curva bastante estándar, es decir, parado el ventilador hasta 55 grados, y a partir de 65 grados al 70 por ciento no me pasa de eso, de 65 grados. La verdad que en refrigeración, al menos la Gigabyte, funciona la mar de bien.
Tiene buen disipador, eso no hay duda, por lo menos la gaming oc, por qué la windforce es muy delgado parai gusto
kikomanco escribió:vtec16 escribió:@karlostek
Si que se pueden, yo la mia la he visto a 2100mhz y te lo puedo demostrar con capturas del Msi Afterburner, lo que pasa es que tengo la bios actualizada con mas power limit y como la refrigeración es de origen enseguida hace throttling y baja frecuencias por temperaturas.
De hecho fijate que hay en el bench superposition que yo llego a 9700 y pico de puntos hay gente con mas de 10.000 y si le das a detalles las frecuencias están por encima de los 2100mhz fijas, en este caso estarán refrigeradas por agua eso esta claro.
Yo le haré una curva agresiva, además que mi habitacion está bien climatizada en verano y mi caja es espaciosa y con buena ventilación
Aquí me he encontrado algo curioso relacionado con el DLSS y esta vez es por parte de Microsoft no de NVIDIA https://www.profesionalreview.com/2018/10/05/directml-directx-12-2019/
Está claro que el DLSS es el futuro y es el siguiente paso a seguir en el mundo de los videojuegos
Nephalem89 escribió:De estos modelos de la ti cual cogeriais son modelos que van con los bloques de agua ....
De estas graficas a por cual iriais ?
ASUS Dual GeForce RTX 2080 8GB (DUAL-RTX2080-8G)
ASUS Dual GeForce RTX 2080 Advanced edition 8GB (DUAL-RTX2080-A8G)
ASUS Dual GeForce RTX 2080 OC edition 8GB (DUAL-RTX2080-O8G)
ASUS Turbo GeForce RTX 2080 8GB (TURBO-RTX2080-8G)
ASUS Dual GeForce RTX 2080 Ti OC edition 11GB (DUAL-RTX2080TI-O11G)
ASUS Turbo GeForce RTX 2080 Ti 11GB (TURBO-RTX2080TI-11G)
EVGA GeForce RTX 2080 XC Gaming, 8GB GDDR6 (08G-P4-2182-KR)
EVGA GeForce RTX 2080 XC Ultra Gaming, 8GB GDDR6 (08G-P4-2183-KR)
EVGA GeForce RTX 2080 Ti XC (11G-P4-2382-KR)
EVGA GeForce RTX 2080 Ti XC ULTRA GAMING (11G-P4-2383-KR)
GALAX GeForce RTX 2080Ti 11GB GDDR6
GIGABYTE GeForce RTX 2080 Windforce OC 8G, 8GB GDDR6 (GV-N2080WF30C-8GC)
GIGABYTE GeForce RTX 2080 Ti Windforce OC 11G (GV-N2080TWF30C-11GC)
MSI GeForce RTX 2080 DUKE 8G OC
MSI GeForce RTX 2080 DUKE 8G
MSI GeForce RTX 2080 VENTUS 8G OC
MSI GeForce RTX 2080 VENTUS 8G
MSI GeForce RTX 2080 AERO 8G
MSI GeForce RTX 2080 Ti Duke 11G OC, GDDR6 (V371-011R)
MSI GeForce RTX 2080 Ti Duke 11G, GDDR6
MSI GeForce RTX 2080 Ti VENTUS 11G OC
MSI GeForce RTX 2080 Ti VENTUS 11G
NVIDIA GeForce RTX 2080 Founders Edition, 8GB GDDR6
NVIDIA GeForce RTX 2080 Ti Founders Edition, 11GB GDDR6
PALIT GeForce RTX 2080 GamingPro OC, 8GB GDDR6 (NE62080S20P2-180A)
PALIT GeForce RTX 2080 GamingPro, 8GB GDDR6 (NE62080T20P2-180A)
PALIT GeForce RTX 2080 Ti GamingPro OC, 11GB GDDR6 (NE6208TS20LC-150A)
PALIT GeForce RTX 2080 Ti GamingPro, 11GB GDDR6 (NE6208TT20LC150A)
ZOTAC Gaming GeForce RTX 2080 Blower (ZT-T20800A-10P)
ZOTAC Gaming GeForce RTX 2080 AMP (ZT-T20800D-10P)
ZOTAC Gaming GeForce RTX 2080 Ti AMP (ZT-T20810D-10P)
ZOTAC Gaming GeForce RTX 2080 Ti Triple Fan (ZT-T20810F-10P)
goku593 escribió:kikomanco escribió:goku593 escribió:Yo tengo mi RTX 2080 a 2040 Mhz, y con una curva bastante estándar, es decir, parado el ventilador hasta 55 grados, y a partir de 65 grados al 70 por ciento no me pasa de eso, de 65 grados. La verdad que en refrigeración, al menos la Gigabyte, funciona la mar de bien.
Tiene buen disipador, eso no hay duda, por lo menos la gaming oc, por qué la windforce es muy delgado parai gusto
La mía es la Windforce, y disipa de lujo, la verdad. Pero no dudo que haya mejores.
Por cierto, los nuevos drivers son crema, al menos en Odyssey van finísimos.
Madre mía que pique os traeis jajaja
kikomanco escribió:Na... Déjalo, no entiende que una imagen tratada desde 1440p con DLSS se vea igual o con una perdida inapreciable en 4k, no entiende que lo más importante en el mundo gaming es el rendimiento a costa de perder la mínima calidad de imagen, lleva así ya más de 1 mes, y cada día o 2 días no deja de repetir lo mismo, si a mí con DLSS me aseguran un rendimiento espectacular y con una calidad inapreciable de con la nativa a costa de ganar más de un 50% de rendimiento, donde debo de firmar?
Daicon escribió:kikomanco escribió:Na... Déjalo, no entiende que una imagen tratada desde 1440p con DLSS se vea igual o con una perdida inapreciable en 4k, no entiende que lo más importante en el mundo gaming es el rendimiento a costa de perder la mínima calidad de imagen, lleva así ya más de 1 mes, y cada día o 2 días no deja de repetir lo mismo, si a mí con DLSS me aseguran un rendimiento espectacular y con una calidad inapreciable de con la nativa a costa de ganar más de un 50% de rendimiento, donde debo de firmar?
ese es el problema.... "A TI te aseguran"....
que eso hoy dia en el mundo de la informatica es HUMO....
claro que todos firmariamos si la calidad perdida es inapreciable, pero es que hasta hoy no ha habido tecnologia o mierda que nos hayan sacado y vendido, que no haya diferido una barbaridad de lo que vendieron a lo que llego al mercado, pero nada oye.... ojala tengas razon.
seya18 escribió:@kikomanco sigues igual madre mía, una imagen tratada no es una imagen nativa quieres pagar por artificios para no dar potencia, pues ala perfecto, pero por favor no digas cosas que no son o ve a las consolas que hacen lo que tanto te gusta DLSS. Un saludo.
kikomanco escribió:seya18 escribió:@kikomanco sigues igual madre mía, una imagen tratada no es una imagen nativa quieres pagar por artificios para no dar potencia, pues ala perfecto, pero por favor no digas cosas que no son o ve a las consolas que hacen lo que tanto te gusta DLSS. Un saludo.
Sigo igual no, aquí lo únicos que seguís igual sois vosotros, yo solo estoy explicando la arquitectura turing, es lo que hay, RT y DLSS, si no os gusta y no vais a comprar una 2080/TI los que deberías iros a otro lado sois vosotros, CANSINOS, QUE NO APORTÁIS NADA sólo flames y mal ambiente
kikomanco escribió:Na... Déjalo, no entiende que una imagen tratada desde 1440p con DLSS se vea igual o con una perdida inapreciable en 4k, no entiende que lo más importante en el mundo gaming es el rendimiento a costa de perder la mínima calidad de imagen, lleva así ya más de 1 mes, y cada día o 2 días no deja de repetir lo mismo, si a mí con DLSS me aseguran un rendimiento espectacular y con una calidad inapreciable de con la nativa a costa de ganar más de un 50% de rendimiento, donde debo de firmar?
kikomanco escribió:@seya18 dudo mucho que tú y otros como tú estén muy interesados en esta tecnología (DLSS y RT cores) y muchísimo menos en comprar estás gráficas, eso es lo que más toca los eggs, por qué aquí lo único que venís es a lo mismo, si nos os interesa la serie 2000 para que entráis? Increíble lo que puede hacer el aburrimiento
karlostek escribió:kikomanco escribió:@seya18 dudo mucho que tú y otros como tú estén muy interesados en esta tecnología (DLSS y RT cores) y muchísimo menos en comprar estás gráficas, eso es lo que más toca los eggs, por qué aquí lo único que venís es a lo mismo, si nos os interesa la serie 2000 para que entráis? Increíble lo que puede hacer el aburrimiento
es tipico del cuñado medio español,como no puede permitirse algo se dedica a criticar
karlostek escribió:kikomanco escribió:@seya18 dudo mucho que tú y otros como tú estén muy interesados en esta tecnología (DLSS y RT cores) y muchísimo menos en comprar estás gráficas, eso es lo que más toca los eggs, por qué aquí lo único que venís es a lo mismo, si nos os interesa la serie 2000 para que entráis? Increíble lo que puede hacer el aburrimiento
es tipico del cuñado medio español,como no puede permitirse algo se dedica a criticar
seya18 escribió:@karlostek detrás de un ordenador, siempre te irá mejor chavalín, lloros los vuestros, ojalá os baneen de por vida, sinceramente la gente que dice cosas como vosotros da muchísima pena.
seya18 escribió:@karlostek me la sudan tus bolos, ni soy tu socio ni tu hermano. Cara a cara dice no me hagas reír. Olvídame.
m0wly escribió:kikomanco escribió:Na... Déjalo, no entiende que una imagen tratada desde 1440p con DLSS se vea igual o con una perdida inapreciable en 4k, no entiende que lo más importante en el mundo gaming es el rendimiento a costa de perder la mínima calidad de imagen, lleva así ya más de 1 mes, y cada día o 2 días no deja de repetir lo mismo, si a mí con DLSS me aseguran un rendimiento espectacular y con una calidad inapreciable de con la nativa a costa de ganar más de un 50% de rendimiento, donde debo de firmar?
Creo que el tema no es ese.
Creo que el tema que se esta discutiendo es que, de momento, eso que comentas es HUMO.
No sabemos si una "imagen" 1440p con DLSS se va a ver en 4K como si fuese una imagen 4K, o con una perdida inapreciable de calidad.
No sabemos si gracias a lo anterior vamos a poder poner resolucion 1440p y ganar un 50% de rendimiento.
Ojala sea como dices, y no sea todo HUMO. Ojala.
Yo, hasta que no lo vea no me lo creo.
Pero a mi me solucionaria la vida para poder jugar en mi monitor 1440p gsync a 144fps solidos como una roca. Cosa que hasta ahora, para poder conseguirlo, siempre he necesitado SLI de la grafica mas potente en el mercado, y ni aun con esas.
Permitenos mantenernos totalmente excepticos hasta que no lo veamos funcionando en todos los juegos, o la inmensa mayoria.
Ya, partiendo de la base de que no va a funcionar en muchisimos juegos (ejemplo, world of warcraft), a mi me empieza a dar por el orto el asunto de que las compañias les tengan que enviar sus juegos a nvidia para que esta los "trate", y asi pueda "funcionar" el invento.
El que dice world of warcraft dice el 101% de juegos estilo mmo, donde, debido al estilo de juego, es inviable utilizar esta tecnica.
seya18 escribió:@karlostek te agradezco la invitación pero no me va tu rollo y reitero no soy tu hermano.
evilkainn_ escribió:@kikomanco no es por meter baza, pero tampoco te puedes creer todo lo que te cuenta una compañia que lo que intenta es venderte un producto.
Ahi tienes la nube de MS, los 4k de ps4 pro, los i9 de intel con dudosas pruebas de rendimiento...
Estais hablando de una tecnologia que de momento solo esta en una Demo...
seya18 escribió:@karlostek solo dos apuntes no has entendido lo del ordenador, obviamente, no me equivoco la ESO ha hecho daño, me refería a que si todos tus argumentos eran decirle a alguien que deje de llorar, por defender una opinión, en sociedad poco puedes hacer, ya que respetar no sabes, debí ampliarlo más.
Dos si lo que estabas haciendo es amenazarme dímelo claro para optar por la vía que sea adecuada. Y te reitero que por favor dejes de llamarme hermano.
vtec16 escribió:Lo que tiene que tener muy clarito NVIDIA es que como la caguen con un lanzamiento como este, es decir que el Ray Tracing y el DLSS no funcione como se espera (Hasta cambiaron las siglas de sus tarjetas por estas implementaciones), la ostia que se van a dar va a ser epica y que pondrá en entredicho las siguientes generaciones.
Entiendo que por la reputación de la compañia y lo mas importante, su venidero económico se habrán asegurado de que esto funcionará.
kikomanco escribió: Nvidia siempre ha dado la cara y son una empresa seria, no tienen por qué vender humo, no lo necesitan, están solos y a años luz de AMD en la gama alta
evilkainn_ escribió:@kikomanco no se en que momento te habran llamado mentiroso, suelo leer el hilo habitualmente. Se me habra pasado entre tanta discusion.
Edito: que ya he visto un comentario mas arriba xD
Cada uno puede defender sus posturas, esta claro que para gustos colores.
Sobre el DLSS, solo se han visto pruebas\demos. Es una tecnologia que nadie sabe exactamente como funciona o el resultado que puede dar. Hasta ahora todo se media en FPS por potencia bruta. Por eso hay tanto esceptico pienso yo(me incluyo)
Sobre los ejemplos que he puesto, MS ya se sabia como dices, Ps4 Pro tiene un gran resultado en sus juegos, con tecnicas especificas para su consola. El DLSS iria para juegos multis en su mayoria, dudo que la implementacion sea tan buena. Tambien te digo que segun los ojos que lo miren, porque antes 1080pSony vs 900pMS se notaba una burrada segun muchos, y ahora 4krealMS vs 4kdinamico\2kSony no se nota tanto. Bueno esto mejor dejarlo a los consoleros jaja
Igual estoy diciendo una burrada, pero el DLSS, no seria algo como el valor de la "escala" que aplicas en Tekken 7?