supermuto escribió:Cullen escribió:Bueno. Cada dia mas encantado con la compra de mi founders.
¿Qué tal tira?. ¿Mejora de rendimiento con respecto a la 1080Ti?.
Saoren escribió:Segun he leido mas atras en el post de otro compañero, el DLSS es una tecnica de Nvidia que analiza en sus servidores los juegos y luego 'traslada' al usuario los ajustes para que las graficas funcionen 'tan bien'.
Lo que no entiendo es por qué las 2080ti founders supuestamente salen con más O.C de casa que las personalizadas de otros fabricantes, y NVidia no hace más que alardear de ello, cuando siempre han sido las personalizadas las que más O.C sacaban respecto a las de NVidia.... es algo que no entiendo....
mocelet escribió:Saoren escribió:Segun he leido mas atras en el post de otro compañero, el DLSS es una tecnica de Nvidia que analiza en sus servidores los juegos y luego 'traslada' al usuario los ajustes para que las graficas funcionen 'tan bien'.
Sí, he leído eso esta mañana y me ha dejado algo frío. Parece que la inteligencia artificial de las RTX no es tan inteligente si hay que precalcular datos por cada juego en un superordenador y actualizar el controlador para cada juego.
Eso para consolas está bien que el catálogo está controlado y los AAA de turno lo llevarán. Pero la gracia en PC sería poder mejorar todos los juegos existentes. Aunque siempre es mejor que nos puedan vender la remasterización con soporte de RTX
Athor escribió:@Titán_Salvaje_ La diferencia entre una generación y otra es el DLSS, usando los tensor cores duplica el rendimiento, es lo que te enseñan en esa demostración, el potencial de la 2080Ti está en su hardware dedicado.
franc86 escribió:hola buenas estoy pensando comprarme la rtx 2080 antes de navidades,tengo un i74790 sin la k y no se si se quedaria corta la cpu,no me apeteceria cambiar la cpu+placa+ram entonces se me iria el presupuesto,vosotros que pensais?
Cullen escribió:javielviciao escribió:Cullen escribió:
yo es que vengo de una GTX 570... así que la variación para mi si que va a ser gorda. El que tenga una 1080ti entiendo que no quiera cambiar, yo tampoco lo haria.
Joder, sí que estiras tú las gráficas y las arquitecturas jajaja......
Si. Esta vez he tardado en actualizar la verdad.
ChrisRedfield escribió:La 1080 de salida en españa fueron 799 eur, (consultado en internet) lo mismo que la 2080....el problema es la 2080ti que sale al mismo monento, y no un año despues ...
wildchild_bcn escribió:cambiariais de una 1080ti a una 2080 (no TI)?
adriano_99 escribió:@mocelet
@kikomanco
Por que no os informáis un poquito de como funciona el deep learning antes de soltar mierda gratuitamente?
...
Lo que nvidia ha metido es la parte necesaria para hacer la segunda parte del proceso que es aplicar lo aprendido.
mocelet escribió:adriano_99 escribió:@mocelet
@kikomanco
Por que no os informáis un poquito de como funciona el deep learning antes de soltar mierda gratuitamente?
...
Lo que nvidia ha metido es la parte necesaria para hacer la segunda parte del proceso que es aplicar lo aprendido.
Todo viene porque Nvidia miente en su blog oficial, me alegra que me des la razón: https://blogs.nvidia.com/blog/2018/08/2 ... hdr-games/
En concreto donde pone que gracias a los Tensor Cores las GPU RTX permiten construir una red neuronal y aprender ellos mismos para mejorar la imagen. Y es mentira, todo lo que haya habido que aprender lo ha aprendido el superordenador renderizando el juego una y otra vez hasta dar con los parámetros ideales de renderizado.
Informar no es echar mierda, es un hecho que este supersampling inteligente solo se verá en un conjunto de juegos seleccionados porque la tarjeta sola no es capaz de hacerlo (aunque lo vendan así).
mocelet escribió:adriano_99 escribió:@mocelet
@kikomanco
Por que no os informáis un poquito de como funciona el deep learning antes de soltar mierda gratuitamente?
...
Lo que nvidia ha metido es la parte necesaria para hacer la segunda parte del proceso que es aplicar lo aprendido.
Todo viene porque Nvidia miente en su blog oficial, me alegra que me des la razón: https://blogs.nvidia.com/blog/2018/08/2 ... hdr-games/
En concreto donde pone que gracias a los Tensor Cores las GPU RTX permiten construir una red neuronal y aprender ellos mismos para mejorar la imagen. Y es mentira, todo lo que haya habido que aprender lo ha aprendido el superordenador renderizando el juego una y otra vez hasta dar con los parámetros ideales de renderizado.
Informar no es echar mierda, es un hecho que este supersampling inteligente solo se verá en un conjunto de juegos seleccionados porque la tarjeta sola no es capaz de hacerlo (aunque lo vendan así).
mocelet escribió:adriano_99 escribió:@mocelet
@kikomanco
Por que no os informáis un poquito de como funciona el deep learning antes de soltar mierda gratuitamente?
...
Lo que nvidia ha metido es la parte necesaria para hacer la segunda parte del proceso que es aplicar lo aprendido.
Todo viene porque Nvidia miente en su blog oficial, me alegra que me des la razón: https://blogs.nvidia.com/blog/2018/08/2 ... hdr-games/
En concreto donde pone que gracias a los Tensor Cores las GPU RTX permiten construir una red neuronal y aprender ellos mismos para mejorar la imagen. Y es mentira, todo lo que haya habido que aprender lo ha aprendido el superordenador renderizando el juego una y otra vez hasta dar con los parámetros ideales de renderizado.
Informar no es echar mierda, es un hecho que este supersampling inteligente solo se verá en un conjunto de juegos seleccionados porque la tarjeta sola no es capaz de hacerlo (aunque lo vendan así).
Fleishmann escribió:Dejemos que esta arquitectura ruede un poco y en el Black Friday si tal, hablamos.
supermuto escribió:
Tú pontelas, y luego nos cuentas
adriano_99 escribió:Igual no diria mentir pero desde luego no lo han explicado como se debería.
Saoren escribió:supermuto escribió:
Tú pontelas, y luego nos cuentas
Yo las tengo y son un pasote, dependiendo del juego que sea eh? Y lo estoy diciendo en serio. En los NFS son una flipada, en los Shooters son incomodas (por lo de apuntar a distancia, porque no es un 'ojo humano real'), y en el WoW es un PASOTE pero marean que te cagas xD Y no lo he probado en mas juegos hasta ahora.....
Athor escribió:@Titán_Salvaje_ DLSS Seguramente irá implementado mediante parche o de forma nativa en casi todos los títulos, es una mejora demasiado importante para los desarrolladores, para comparar tienes el cuadro que está más atrás del hilo que según NVidia la mejora ronda entre 40-50% en su homóloga 1080 vs 2080, la 2080TI no va a rendir menos que la 1080ti cuando la 2080 le saca ya a la 1080 sin DLSS de por si según NVidia ese porcentaje del 40-50%.
Salu2!!
comance escribió:Cullen escribió:Si. Esta vez he tardado en actualizar la verdad.
Manda huevos que el otro dia le dijeras a un usuario de edte hilo que su 1080ti era tecnologia del pasado xD
Athor escribió:@Titán_Salvaje Es que si se sabe, rondará un 40-50% según NVidia, si no te fias de NVidia es otra cosa. Yo pienso que es así ya que ellos mismos en la tabla publicada ayer ya marcan con DLSS el doble de rendimiento y viendo el vídeo de una GTX vs RTX DLSS que saca el doble con DLSS como dicen en su tabla ...pues por qué van a mentir?. Yo por mi parte creo es así, ya sé que una 3080 será mejor que una 2080...ese no es el debate. Ahí está la tabla de NVidia. Por cierto la 1080Ti rinde unos 1,2 Gigarays..
1080Ti Vs 2080Ti datos.
Salu2!!!
Athor escribió:@albertoooooooooo Pues como han dicho en su tabla no han mentido según la demo de infiltrator, el doble con DLSS, si mienten después y no es un 40-50% sin DLSS pues ellos mismos..
Yo tengo mucha idea de lo que hablo no te quepa duda, si fastidia que la 2080 sea cara no la compreis, si queréis rendimiento compraros la 1080ti que está muy guay.. Yo apuesto por tecnología nueva y como yo hay muchos.
He pasado del zx81 hasta esto y se que se miente mucho en la industria. Pero lo que es del César es del César, está tecnología es como fue en su día el T&L una diferencia tan importante que luego todas las tarjetas la incorporaban por hardware.
Lo de Microsoft no viene al caso, no hablo de Microsoft., también han hecho cosas buenas, y malas, como Sony..como muchas.
Si no siempre podréis jugar al Manic Miner a 200fps.
Igual no lo conocéis..
Por mi parte abandonó el hilo.
No sé para que sirve aportar nada al hilo si el final es echar mierda sobre tecnología, compañías, juegos.., muchos habéis nacido con los Call of Dutty y no valorais ni lo más mínimo un avance de está magnitud que acercará la realidad a los videojuegos, Hala!! A jugar a 700fps!! A ver quien la tiene más grande!!. Eso sí que "mola"!!!.
Sin acritud..!!!
Lo dicho, bye, me bajo del carro.
adriano_99 escribió:@mocelet
@kikomanco
Por que no os informáis un poquito de como funciona el deep learning antes de soltar mierda gratuitamente?
El hardware necesario para realizar la parte del aprendizaje es mucho pero mucho mas caro que cualquier gráfica en el mercado y necesita de alguien realizando el proceso que le suministre constantemente imágenes de prueba y le diga a la ia su el resultado es correcto o no.
Lo que nvidia ha metido es la parte necesaria para hacer la segunda parte del proceso que es aplicar lo aprendido.
Faltan muchos años para que te puedan meter en un hardware de consumo algo que haga todo el proceso completo.
kikomanco escribió:adriano_99 escribió:@mocelet
@kikomanco
Por que no os informáis un poquito de como funciona el deep learning antes de soltar mierda gratuitamente?
El hardware necesario para realizar la parte del aprendizaje es mucho pero mucho mas caro que cualquier gráfica en el mercado y necesita de alguien realizando el proceso que le suministre constantemente imágenes de prueba y le diga a la ia su el resultado es correcto o no.
Lo que nvidia ha metido es la parte necesaria para hacer la segunda parte del proceso que es aplicar lo aprendido.
Faltan muchos años para que te puedan meter en un hardware de consumo algo que haga todo el proceso completo.
esto ya me lo conozco, no hace falta que me convenzas a mi ni a nadie, lo mismo se decia con la nube de microsoft y que los 1.3 Tflops de xbox one con la nuve y el chip gordo que llevaba dentro la iban a hacer rendir como una grafica de 5 Tflops, y como les dijeras que no a los fanboys se te tiraban al cuello y te reportaban y todo por troll y flamer, 5 años despues aun estamos esperando a ver la computacion en la nube con los servidores dedicados de Azure
adriano_99 escribió:kikomanco escribió:adriano_99 escribió:@mocelet
@kikomanco
Por que no os informáis un poquito de como funciona el deep learning antes de soltar mierda gratuitamente?
El hardware necesario para realizar la parte del aprendizaje es mucho pero mucho mas caro que cualquier gráfica en el mercado y necesita de alguien realizando el proceso que le suministre constantemente imágenes de prueba y le diga a la ia su el resultado es correcto o no.
Lo que nvidia ha metido es la parte necesaria para hacer la segunda parte del proceso que es aplicar lo aprendido.
Faltan muchos años para que te puedan meter en un hardware de consumo algo que haga todo el proceso completo.
esto ya me lo conozco, no hace falta que me convenzas a mi ni a nadie, lo mismo se decia con la nube de microsoft y que los 1.3 Tflops de xbox one con la nuve y el chip gordo que llevaba dentro la iban a hacer rendir como una grafica de 5 Tflops, y como les dijeras que no a los fanboys se te tiraban al cuello y te reportaban y todo por troll y flamer, 5 años despues aun estamos esperando a ver la computacion en la nube con los servidores dedicados de Azure
No te preocupes se feliz despotricando desde la ignorancia.
Apa, a ignorados
jitarrista escribió:No merece la pena discutir con fanboys.
Hay gente que te defenderá a capa y espada la nueva tecnología de NVIDIA sin haber visto análisis de terceros, pero bueno. La ignorancia es atrevida.
Se ve que el señor Adriano, él mismo decía que las gráficas de minado se usan a máxima potencia 24/7, se cree que por leer algunas notas de prensa de NVIDIA es un entendido el de tema.
kikomanco escribió:[facepalm]adriano_99 escribió:kikomanco escribió:esto ya me lo conozco, no hace falta que me convenzas a mi ni a nadie, lo mismo se decia con la nube de microsoft y que los 1.3 Tflops de xbox one con la nuve y el chip gordo que llevaba dentro la iban a hacer rendir como una grafica de 5 Tflops, y como les dijeras que no a los fanboys se te tiraban al cuello y te reportaban y todo por troll y flamer, 5 años despues aun estamos esperando a ver la computacion en la nube con los servidores dedicados de Azure
No te preocupes se feliz despotricando desde la ignorancia.
Apa, a ignorados
venga se feliz, como tu he visto en el hilo de xbox muchos fanboys tragarse sus palabras y su firma de "1080/60fps only xbox one"
adriano_99 escribió:jitarrista escribió:No merece la pena discutir con fanboys.
Hay gente que te defenderá a capa y espada la nueva tecnología de NVIDIA sin haber visto análisis de terceros, pero bueno. La ignorancia es atrevida.
Se ve que el señor Adriano, él mismo decía que las gráficas de minado se usan a máxima potencia 24/7, se cree que por leer algunas notas de prensa de NVIDIA es un entendido el de tema.
No, si hablo como si supise del tema es porque he trabajado y he usado tanto el ray tracing como otros métodos de iluminación y he usado maquinas de deep learning y sé como funcionan y que son capaces de hacer ambas.
He tratado varias veces de explicarme y he tratado varias veces de que se entiendan segun que cosas, pero ya paso.
Preferís seguir quejándoos desde la ignorancia y poner nombrecitos ridículos a tecnologías potentisimas para sentiros mas felices con vosotros mismos? ADELANTE
Por mi parte vais todos a ignorados y fin del problema.
Tengo mejores cosas que hacer que explicar a quien no quiere entender y solo sabe llamar fanboy.
adriano_99 escribió:jitarrista escribió:No merece la pena discutir con fanboys.
Hay gente que te defenderá a capa y espada la nueva tecnología de NVIDIA sin haber visto análisis de terceros, pero bueno. La ignorancia es atrevida.
Se ve que el señor Adriano, él mismo decía que las gráficas de minado se usan a máxima potencia 24/7, se cree que por leer algunas notas de prensa de NVIDIA es un entendido el de tema.
No, si hablo como si supise del tema es porque he trabajado y he usado tanto el ray tracing como otros métodos de iluminación y he usado maquinas de deep learning y sé como funcionan y que son capaces de hacer ambas.
He tratado varias veces de explicarme y he tratado varias veces de que se entiendan segun que cosas, pero ya paso.
Preferís seguir quejándoos desde la ignorancia y poner nombrecitos ridículos a tecnologías potentisimas para sentiros mas felices con vosotros mismos? ADELANTE
Por mi parte vais todos a ignorados y fin del problema.
Tengo mejores cosas que hacer que explicar a quien no quiere entender y solo sabe llamar fanboy.
albertoooooooooo escribió:El poder de la nube pero bueno, no se trata de ser fanboy, hasta que no haya pruebas, cada uno que se convenza de lo que quiera...adriano_99 escribió:No, si hablo como si supise del tema es porque he trabajado y he usado tanto el ray tracing como otros métodos de iluminación y he usado maquinas de deep learning y sé como funcionan y que son capaces de hacer ambas.
He tratado varias veces de explicarme y he tratado varias veces de que se entiendan segun que cosas, pero ya paso.
Preferís seguir quejándoos desde la ignorancia y poner nombrecitos ridículos a tecnologías potentisimas para sentiros mas felices con vosotros mismos? ADELANTE
Por mi parte vais todos a ignorados y fin del problema.
Tengo mejores cosas que hacer que explicar a quien no quiere entender y solo sabe llamar fanboy.
Yo tengo un Master en inteligencia artificial, reconocimiento de formas e imagen digital y también lo llamo rayitos. He trabajado en el sector, y se que es una tecnología potentísima, pero no por ello defiendo a capa y espada a una compañia que intenta venderte una tecnología (que no tiene nada de nueva, solo que se empieza a aplicar ahora a videojuegos) a precio de oro. Igual que ya mismo se podría tener fotorrealismo en los videojuegos, pero no habría gráfica en el mundo capaz de mover eso a un rendmiento mínimamente aceptable, que es lo que sucede con el RayTracing ahora mismo. Es bonito para fotos? Si. Se puede usar para jugar? Por lo que se a visto de momento,no. Porque no me veo a alguien usando RTX en BattlefieldV online a 40 fps. O eso o te pones a 720p, total puestos a jugar a resoluciones del paleolítico...