NVIDIA "Turing" Nueva Generacion GTX 16x0/Ti -|- RTX 20x0/Ti -|- SUPER

@Kamikaze 11 ya , las tarjetas nuevas de AMD se esperan para el 2019, con nueva arquitectura y nodo a 7 nm
Kamikaze 11 está baneado por "Troll"
Octavia_RS escribió:@Kamikaze 11 ya , las tarjetas nuevas de AMD se esperan para el 2019, con nueva arquitectura y nodo a 7 nm

Las Navi no? A ver que tal, yo no creo que me cambie aún de gráfica pero me interesa seguir el tema para más adelante
alxinako escribió:Claro porque si la gente no tiene una 2080ti no puede disfrutar de su hobby

@KamiKaze 11 Ahora mismo si quieres te hago un pc por 1000 e que te aguante 2 generaciones, pero eso si no esperes estar a la ultimísima.

Ese es el fallo de este hilo, o el que sea, en el momento que se dan datos falsos o se omiten otros por conveniencia para justificar vuestro cabreo por que las últimas graficas son muy caras.

Las 1080ti cuando salieron valian sobre los 1000e, no entiendo porque decis que las 2080ti son caras valiendo 300 pavos más llevando lo que llevan demás y siendo una arquitectura nueva, con memorias nuevas y nuevas tecnologías.

Que no os parece suficiente rendimiento o no os interesan las nuevas tecnologías que conllevan, pues muy bien, pero dejar de aconsejar con mentiras o patalear porque el incremento de rendimiento no ha sido el esperado, cuando esto no es cíclico tampoco como algunos se empeñan en repetir.

Estas ultimas páginas han pasado de ser un hilo interesante con datos e información para el que quiera consultar sobre las turing, a un hilo de 3djuegos sobre "pleyvsxbos"


La 1080ti de salida costaba 700€
699€ me costó la gigabyte gaming oc de salida
Kamikaze 11 escribió:
Octavia_RS escribió:@Kamikaze 11 ya , las tarjetas nuevas de AMD se esperan para el 2019, con nueva arquitectura y nodo a 7 nm

Las Navi no? A ver que tal, yo no creo que me cambie aún de gráfica pero me interesa seguir el tema para más adelante


Si las Navi, y ojala AMD haga buenas graficas sera bueno para todos los usuarios, yo con mi Ryzen estoy muy contento en rendimiento, pensaba que no iba a comprar mas procesadores AMD desde los FX y mira
exter escribió:
goku593 escribió:Tío, con todo el respeto, ¿tú qué coño sabes si va a ser funcional o no la IA? Quizás sea el comienzo de una tecnología prometedora, o quizás no. Pero ahí está tanto a nivel de Hard dedicado, como a nivel de inversión empresarial (SATURN V).

De verdad, a veces parece que eres la voz de la sabiduría. XD


Simplemente que no me trago toda la charlatanería de marketing por haberme dejado 900€ en una gráfica.

Es lo mismo que la IA o la computación en la nube que vendía microsoft con la Xbox One, que todo iba a ser la polla, que granjas de 35.000 servidores, y nadie usa eso.

Humo para la presentación, todo el mundo ohhh vamos a flipar, y al final queda en nada.

Si pensaras un poco en lo que te venden, en lugar de darlo por sentado, no te parecería que mis palabras son de listillo de bar, que parece es lo que sugieres.

Si realmente hay un servidor Saturn V o Skynet, que hace de IA para ayudarte en ciertos cálculos, lo primero que tienes que pensar es que eso tiene que ser real time mientras juegas.

Como es en tiempo real, necesitas unas latencias extremadamente bajas, para que ello no te haga un "cuello de botella" en lo que sea que hace el juego. Por eso, a mi no me cuadran estas cosas.

Además ya sabes que soy programador, y estoy bastante cansado de leer propaganda de marketing en otros àmbitos, que me chirria por todos lados, pero lo lee mi jefe y te viene alucinando pepinillos.


1.- No, no tiene nada que ver. Estás mezclando churras con merinas.

2.- Mejor te diría que releas en qué consisten los IA cores y cuál es su trabajo. Real.

3.- ¿?, El servidor Saturn V NO se usa para NADA que tenga que ver con tiempo real, ni para ayudarte, ni para comunicarse en absoluto con tu sistema y hacer cálculos. Pero estás errando muy de lejos, vamos.

4.- Saturn V entrena redes neuronales, de ahí salen unos kernels específicos para juegos para reconstruir imágenes, kernels que van en los drivers y los usan las turing al habilitar DLSS para hacer un escalado inteligente con antialiasing integrado.

5 .- Ten cuidado de hacerle leer esto a tu jefe, no vaya a ser que te despida por... no tener nada claros los conceptos manejados. [+risas]

Es que NO tiene nada que ver con la idea que tienes montada en la cabeza, no es un sistema en la nube, ese servidor se usa para algo que evidentemente no has entendido (es para entrenar las redes usadas, NO para hacer nada con tu sistema mientras juegas), y en general los IA cores están ahí para hacer funciones similares al DLSS pero en otras facetas, como el denoising realizado en varias etapas del procesado con RT de "reflejos" para así poder obtener imágenes base a reflejar de mayor resolución a las calculadas realmente a través de los RT cores (que en realidad deberían hacer sólo la etapa de testado de rayos y tal, pero por simplificar todo este lío).

Te estás confundiendo mucho con el para qué y cómo funciona todo el tema basado en los Tensor cores. De la misma forma, en los SoCs actuales se incluyen ASICs para funciones de IA (redes de neuronas artificiales), entre otras para hacer reconocimiento de caras y otro patrones MUY usados hoy en día en móviles (reconocimiento de artículos usando la cámara y búsqueda de éstos, etc), porque es una forma tanto de mejorar el reconocimiento pero sobre todo de hacer esta tarea con muy bajo consumo.

Pero estas tareas son muchísimo más livianas que las realizadas por los IA core, ya que trabajan no con imágenes sueltas donde reconocer un patrón, si no con un streaming en tiempo real y muy variable donde además tienen que realizar inferencias más costosas (no es lo mismo reconocer una cara en una foto, buscando ciertos parámetros limitados, que reconstruir una imagen a mayor resolución "inventando" la información de la forma más plausible, eliminando dientes de sierra, evitando artefactos, etc, y en decenas de imágenes, si no cientos, por segundo, computacionalmente no tiene nada que ver).
Kamikaze 11 está baneado por "Troll"
Octavia_RS escribió:
Kamikaze 11 escribió:
Octavia_RS escribió:@Kamikaze 11 ya , las tarjetas nuevas de AMD se esperan para el 2019, con nueva arquitectura y nodo a 7 nm

Las Navi no? A ver que tal, yo no creo que me cambie aún de gráfica pero me interesa seguir el tema para más adelante


Si las Navi, y ojala AMD haga buenas graficas sera bueno para todos los usuarios, yo con mi Ryzen estoy muy contento en rendimiento, pensaba que no iba a comprar mas procesadores AMD desde los FX y mira

Pues así debería de ser, yo espero que todos hagan buenas cosas para beneficiarnos a todos, pero algunos parece ser que quieren que fracasen ciertas marcas, no sé por qué. En cuanto a los Ryzen algún día te preguntaré más adelante, porque me planteo en el futuro tener todo de AMD (por el precio), pero ya por privado para no desvirtuar más el tema jajaja
Octavia_RS escribió:@Kamikaze 11 ya , las tarjetas nuevas de AMD se esperan para el 2019, con nueva arquitectura y nodo a 7 nm

En 2019 amd sólo sacará productos totalmente nuevos para profesionales y para IA.
La única gráfica para consumo que se espera antes de 2020 son refritos de polaris.
wwwendigo escribió:
1.- No, no tiene nada que ver. Estás mezclando churras con merinas.

2.- Mejor te diría que releas en qué consisten los IA cores y cuál es su trabajo. Real.

3.- ¿?, El servidor Saturn V NO se usa para NADA que tenga que ver con tiempo real, ni para ayudarte, ni para comunicarse en absoluto con tu sistema y hacer cálculos. Pero estás errando muy de lejos, vamos.

4.- Saturn V entrena redes neuronales, de ahí salen unos kernels específicos para juegos para reconstruir imágenes, kernels que van en los drivers y los usan las turing al habilitar DLSS para hacer un escalado inteligente con antialiasing integrado.

5 .- Ten cuidado de hacerle leer esto a tu jefe, no vaya a ser que te despida por... no tener nada claros los conceptos manejados. [+risas]

Es que NO tiene nada que ver con la idea que tienes montada en la cabeza, no es un sistema en la nube, ese servidor se usa para algo que evidentemente no has entendido (es para entrenar las redes usadas, NO para hacer nada con tu sistema mientras juegas), y en general los IA cores están ahí para hacer funciones similares al DLSS pero en otras facetas, como el denoising realizado en varias etapas del procesado con RT de "reflejos" para así poder obtener imágenes base a reflejar de mayor resolución a las calculadas realmente a través de los RT cores (que en realidad deberían hacer sólo la etapa de testado de rayos y tal, pero por simplificar todo este lío).

Te estás confundiendo mucho con el para qué y cómo funciona todo el tema basado en los Tensor cores.


Lo del sistema mientras juegas me refería a lo que sacó microsoft con la computacion en la nube y los ejemplos en videos con Crackdown. Comparandolo si nvidia planeaba hacer lo mismo con tanto servidor y tanta IA.

Que tengas un servidor que te haga unas dll para luego aplicar el DLSS, vamos no se para que tanta historia. Marketing. Pero oye, que tu lo vendes de puta madre, se nota que tienes el whitepaper estudiado.

Yo no hablaba del DLSS, mi comentario con lo del Saturn y la IA venía por lo que decía goku, por lo que pueden hacer en el futuro:

¿tú qué coño sabes si va a ser funcional o no la IA? Quizás sea el comienzo de una tecnología prometedora, o quizás no. Pero ahí está tanto a nivel de Hard dedicado, como a nivel de inversión empresarial (SATURN V).


Para hacer una DLL de mierda que pones en los drivers, no hace falta vender que vas a usar no se que super servidor neuronal etc etc. Por eso, Marketing.

Está claro que tu lo sabes todo y que se trata de dejar al resto de gente como que son gilipollas. Pues oye, disfruta tu sabiduría.
Kamikaze 11 está baneado por "Troll"
adriano_99 escribió:
Octavia_RS escribió:@Kamikaze 11 ya , las tarjetas nuevas de AMD se esperan para el 2019, con nueva arquitectura y nodo a 7 nm

En 2019 amd sólo sacará productos totalmente nuevos para profesionales y para IA.
La única gráfica para consumo que se espera antes de 2020 son refritos de polaris.

Seguro?
https://hardzone.es/2018/09/07/amd-navi ... s-rumores/
https://www.geeknetic.es/Noticia/13800/ ... vi-10.html
Yo lo que nunca a entenderé, es porque se espera que la competencia venda a mejor precio/rendimiento que el actor principal cuando a este le compran como si no hubiese un mañana.

Y porque resulta extraño, que cuando no calas en el mercado gaming ofreciendo un producto competente, te vuelques en el del minado.
Mendrolo escribió:Yo lo que nunca a entenderé, es porque se espera que la competencia venda a mejor precio/rendimiento que el actor principal cuando a este le compran como si no hubiese un mañana.

Y porque resulta extraño, que cuando no calas en el mercado gaming ofreciendo un producto competente, te vuelques en el del minado.



Pues lo mismo cuando AMD te saca un chip completo, y por lo tanto con mayor consumo y calor, mientras Nvidia te vendía chips capados y la gente presumía de temperaturas y consumo de las Nvidia. Cosas incomprensibles de la vida, eso sí, que los que vayamos a pillar la 2080Ti y le hagamos OC en PCBs tops vayamos a ver 400W de consumo o más es poco relevante. Vamos, que no interesa a nadie, mejor hablamos del precio durante 8 meses más.

Vamos, otro ejemplo más de que la gente no sabe ni de lo que habla en su inmensa mayoría, eso sí, se les olvidan muchas cosas por el camino. Por suerte otros estáis aquí para recordarlas puntualmente. [beer]
Kamikaze 11 está baneado por "Troll"
KailKatarn escribió:Vamos, otro ejemplo más de que la gente no sabe ni de lo que habla en su inmensa mayoría, eso sí, se les olvidan muchas cosas por el camino.

Peor para eso está muy bien estos debates e hilos, porque se aprende, al menos a mí me sirve para eso.
Kamikaze 11 escribió:
KailKatarn escribió:Vamos, otro ejemplo más de que la gente no sabe ni de lo que habla en su inmensa mayoría, eso sí, se les olvidan muchas cosas por el camino.

Peor para eso está muy bien estos debates e hilos, porque se aprende, al menos a mí me sirve para eso.


A malas también se aprende a como poder meter gente en ignorados para no consumir el ancho de banda en parrafadas vende humos. XD
Kamikaze 11 está baneado por "Troll"
exter escribió:
Kamikaze 11 escribió:
KailKatarn escribió:Vamos, otro ejemplo más de que la gente no sabe ni de lo que habla en su inmensa mayoría, eso sí, se les olvidan muchas cosas por el camino.

Peor para eso está muy bien estos debates e hilos, porque se aprende, al menos a mí me sirve para eso.


A malas también se aprende a como poder meter gente en ignorados para no consumir el ancho de banda en parrafadas vende humos. XD

Jajaja bueno, a mí mientras no se falte al respeto como alguno diciendo que por decir que no estamos de acuerdo estamos mintiendo y llorando pues intento leer a todo el mundo para ver los distintos puntos de vista
Mendrolo escribió:Yo lo que nunca a entenderé, es porque se espera que la competencia venda a mejor precio/rendimiento que el actor principal cuando a este le compran como si no hubiese un mañana.

Y porque resulta extraño, que cuando no calas en el mercado gaming ofreciendo un producto competente, te vuelques en el del minado.


Hombre, sobre el punto 1, es evidente, si tú no eres el actor principal ni tienes su prestigio, no te queda otra que intentar resultar más atractivo ofreciendo algo más por menos, o aunque sea una de las dos direcciones de lo sentenciado (más por lo mismo, o lo mismo por menos, pero un EXTRA).

Si no lo haces, seguirás sin ser no ya el actor principal, es que el actor principal te va a comer los márgenes tuyos al expandir aún más su popularidad (y con razón en ese caso).

Sobre el 2, no, no resulta extraño. Pero lo cierto es que es pan para hoy y hambre para mañana, como se ha demostrado en los tiempos recientes, la minería por gpu está más que estancada, como ya ha pasado anteriormente, la burbuja explota una y otra vez, estancando ventas, y eso hablando sólo de la burbuja especulativa, ni qué decir que hay un ciclo "natural" donde toda criptomoneda de moda acaba aumentando de dificultad lo suficiente como para no hacerla ya rentable con gpus (más cara la electricidad consumida para el minado que el rendimiento con éste), y que de ahí se pasen ya a ASICs y FPGAs.

En ese sentido, el mercado "gaming" es muchísimo más estable, fiable, y suficientemente buen pagador. Despreciarlo si diseñas gpus es lo mismo que pegarte un tiro en el cielo de la boca, AMD sabrá lo que hace, pero a este ritmo sólo quedará la división de cpus (a la cual le doy un auténtico aplauso por su gesta y de la que me declaro fan de sus últimos productos, que cuando pueda, salto a Ryzen).


exter escribió:
wwwendigo escribió:
1.- No, no tiene nada que ver. Estás mezclando churras con merinas.

2.- Mejor te diría que releas en qué consisten los IA cores y cuál es su trabajo. Real.

3.- ¿?, El servidor Saturn V NO se usa para NADA que tenga que ver con tiempo real, ni para ayudarte, ni para comunicarse en absoluto con tu sistema y hacer cálculos. Pero estás errando muy de lejos, vamos.

4.- Saturn V entrena redes neuronales, de ahí salen unos kernels específicos para juegos para reconstruir imágenes, kernels que van en los drivers y los usan las turing al habilitar DLSS para hacer un escalado inteligente con antialiasing integrado.

5 .- Ten cuidado de hacerle leer esto a tu jefe, no vaya a ser que te despida por... no tener nada claros los conceptos manejados. [+risas]

Es que NO tiene nada que ver con la idea que tienes montada en la cabeza, no es un sistema en la nube, ese servidor se usa para algo que evidentemente no has entendido (es para entrenar las redes usadas, NO para hacer nada con tu sistema mientras juegas), y en general los IA cores están ahí para hacer funciones similares al DLSS pero en otras facetas, como el denoising realizado en varias etapas del procesado con RT de "reflejos" para así poder obtener imágenes base a reflejar de mayor resolución a las calculadas realmente a través de los RT cores (que en realidad deberían hacer sólo la etapa de testado de rayos y tal, pero por simplificar todo este lío).

Te estás confundiendo mucho con el para qué y cómo funciona todo el tema basado en los Tensor cores.


Lo del sistema mientras juegas me refería a lo que sacó microsoft con la computacion en la nube y los ejemplos en videos con Crackdown. Comparandolo si nvidia planeaba hacer lo mismo con tanto servidor y tanta IA.

Que tengas un servidor que te haga unas dll para luego aplicar el DLSS, vamos no se para que tanta historia. Marketing. Pero oye, que tu lo vendes de puta madre, se nota que tienes el whitepaper estudiado.

Está claro que tu lo sabes todo y que se trata de dejar al resto de gente como que son gilipollas. Pues oye, disfruta tu sabiduría.



Lo siento si te sienta mal, pero es que tú has argumentado el principio de autoridad con el compañero (que eres programador, que si tu jefe se reiría, etc) cuando estabas equivocado de cabo a rabo. Y eso tampoco es dando la razón al otro compañero, porque ambos no teníais razón en entender en qué consiste exactamente el tema.

Yo no tengo "estudiado el whitepaper", yo lo que pasa es que además de ser también programador, sí sé cómo funciona el tema de ML porque entre otras cosas lo tengo mamado y he diseñado y entrenado algún kernel de reconocimiento de imágenes, en su momento. Ser programador no garantiza en absoluto que se conozcan estos temas de ML, porque hay muchas áreas de la programación que nada tienen que ver con esto, y si te veo tan despistado con el tema, pues lo aclaro antes de evitar más confusiones.

Sobre lo recalcado, es que nada tiene que ver con la computación en la nube y mucho menos con ese servicio de streaming de microsoft (donde granjas de ordenadores harían el papel de tu sistema, o enviarían un stream parcial de lo que sale en pantalla acelerando "cálculos" que no se hicieran en tu consola, pues por ejemplo un streaming con el render de todo lo que no sean los personajes controlados, o cualquier cosa similar).

Lo que hace ese servidor no es generar unas DLLs, es un kernel, básicamente se podría ver como un gigantesca matriz de convolución o un filtro a aplicar sobre la imagen para mejorarla. Es que es algo muy distinto.

Te aseguro que si se pudiera aplicar sin ningún problema el mismo kernel en todo juego activando DLSS, la primera en hacerlo sería nvidia, se ahorra el tedioso proceso caro de entrenamiento de kernels para cada título específico, caro porque implica muchísima capacidad computacional y porque implica un largo proceso en tiempo y recursos de entrenamiento (el desarrollador sube varios miles de imágenes a distintas resoluciones para entrenar la red/kernel y que tenga tanto entradas como salidas adecuadas a buscar por dicho kernel, etc).

De hecho el primero en tener dudas sobre si sería funcional un kernel genérico para DLSS en cualquier juego, en el sentido de que "creo que sí funcionaría", soy yo mismo. Pero un asunto es que yo crea que sí funcionaría, y otra que asegure que es una solución suficientemente buena o libre de artefactos como los kernels entrenados juego a juego.

Pareciera que debería funcionar igual el genérico, pero en distintos juegos hay diferencias sutiles de gráficos que pueden hacer fallar kernels genéricos (diferencias cromáticas generales por uso de paletas de colores concretas, un diseño poligonal más complejo o lleno de mayores ángulos rectos en un caso y otro no, etc).

Pero vamos, los IA core sirven para, por lo menos ahora, de todo menos lo que la gente piensa, IA, que es el error que algunos arrastráis. De momento no hay ni traza de que se vayan a usar para acelerar nada de IAs en juegos (aunque se podría, de todas formas es un reto a nivel técnico por su naturaleza mixta con la cpu y el código normal del juego), sirven para mejorar imágenes con "filtros" avanzados sacados de trabajo con machine learning.

Es lo que hay, y no es por ofender, es por aclarar puntos muy confusos, entre otras por la propia nvidia que no ha dado demasiada información sobre el tema (inicialmente pensaba que DLSS servía para, tras trabajar con una imagen con supersampling real, hacer una detección y eliminado de aliasind de tipo superb, cuando no es así, y es un resultado peor del que me pensaba).
@KamiKaze 11 cualquier pc que configures ahora mismo con una 1060, que salga sobre unos 1000 pavos, mueve todo lo que este medianamente bien hecho a 1080p/60fps. No cuentan earlys y juegos con optimizaciones penosas.

Como he dicho no esperes estar a la última, cosa que consideraría jugar a 4k o 2k 144fps.

Y cuando digo mentir u omitir datos me refiero a comparaciones tipo, "es que la 1080ti es igual o mejor que la 2080 rtx" cuando eso no es verdad, y no se si será tú caso, pero el hilo esta plagado de afirmaciones como esa o parecidas.
O agarrarse al dato de que las 1080 ti cuando salieron no valían sobre los 1000, porque las founders o un modelo en concreto valían 800, más cuando cualquier evga, strix o gama alta de estas, incluso a dia de hoy esta cerca e incluso sobrepasa los 1000.
Mendrolo escribió:Yo lo que nunca a entenderé, es porque se espera que la competencia venda a mejor precio/rendimiento que el actor principal cuando a este le compran como si no hubiese un mañana.

Y porque resulta extraño, que cuando no calas en el mercado gaming ofreciendo un producto competente, te vuelques en el del minado.


Porque si quieres competir con alguien que domina el mercado tienes que hacerlo a menor precio y con mayores prestaciones. No hay otra forma (bueno sí, a muuucho menor precio con prestaciones parecidas). Así que lo que se espera es competencia real u ostracismo. No que llegue AMD con un producto peor y más caro. AMD después de los disparates que ha hecho INTEL tiene un mercado con Ryzen y puede liderar cuando lleguen los Zen2 a 7nm (todo apunta a que puede ser un momento relevante) pero en las gráficas de consumo está a años luz de Nvidia. Desde Hawaii y Maxwell Nvidia ha dado 2 pasos de gigante y AMD refritos y errores. No creo que en GPU sea tan relevante el salto de litografía y más cuando Nvidia en posición abasalladora ha elegido el camino del raytracing (aunque yo sigo pensando que la decisión se tomó para que los mineros se quedaran con pascal por precio/rendimiento en minado)
Krain escribió:
Mendrolo escribió:Yo lo que nunca a entenderé, es porque se espera que la competencia venda a mejor precio/rendimiento que el actor principal cuando a este le compran como si no hubiese un mañana.

Y porque resulta extraño, que cuando no calas en el mercado gaming ofreciendo un producto competente, te vuelques en el del minado.


Porque si quieres competir con alguien que domina el mercado tienes que hacerlo a menor precio y con mayores prestaciones. No hay otra forma (bueno sí, a muuucho menor precio con prestaciones parecidas). Así que lo que se espera es competencia real u ostracismo. No que llegue AMD con un producto peor y más caro. AMD después de los disparates que ha hecho INTEL tiene un mercado con Ryzen y puede liderar cuando lleguen los Zen2 a 7nm (todo apunta a que puede ser un momento relevante) pero en las gráficas de consumo está a años luz de Nvidia. Desde Hawaii y Maxwell Nvidia ha dado 2 pasos de gigante y AMD refritos y errores. No creo que en GPU sea tan relevante el salto de litografía y más cuando Nvidia en posición abasalladora ha elegido el camino del raytracing (aunque yo sigo pensando que la decisión se tomó para que los mineros se quedaran con pascal por precio/rendimiento en minado)


AMD con que saque una Vega renovada, que mejore algo frecuencias o rendimiento y se quedase cerca de una 1080Ti, yo la cambiaba con los ojos cerrados.

Por lo que se ve en juegos DX12 y últimos lanzamientos, Vega 64 se está acercando mucho en rendimiento. Con los 7nm y algunos ajustes aquí y allá yo creo que se quedaría a mismo rendimiento incluso un poco por encima.

Pero claro, a ver a que precio, de 700€ dudo que baje.

Principalmente quiero poder aprovechar el Freesync de mi monitor, ya que me niego a pagar ese plus por uno que lleve gSync.
@wwwendigo Lo que me he reido con el tio y su argumentacion sobre el tema de el DLSS y la saturno V y luego te saca que para hacer esas DLL no necesitas redes neuronales y no se que.

La madre del amor hermoso, siempre he dicho el problema no es criticar algo o no gustarte, el problema es hacerlo desde la total y completa ignorancia.

Obvio que no ha se ha tomado 5 minutos para leer la funcion que cumple ese Super Computador ni que es lo termina haciendo.

En serio, si de verdad lo lee el jefe es para que le diga que es bastante mediocre en terminos de tecnologia sino ha entendido el concepto simple y el porque esta alli.
AlbertX escribió:@wwwendigo Lo que me he reido con el tio y su argumentacion sobre el tema de el DLSS y la saturno V y luego te saca que para hacer esas DLL no necesitas redes neuronales y no se que.

La madre del amor hermoso, siempre he dicho el problema no es criticar algo o no gustarte, el problema es hacerlo desde la total y completa ignorancia.

Obvio que no ha se ha tomado 5 minutos para leer la funcion que cumple ese Super Computador ni que es lo termina haciendo.

En serio, si de verdad lo lee el jefe es para que le diga que es bastante mediocre en terminos de tecnologia sino ha entendido el concepto simple y el porque esta alli.


Simplemente no lo he leído. He sacado mis conclusiones y está claro que eran erróneas, porque lo que he leído por encima en diversas webs, me suena a panfleto de marketing la verdad.

Si me dejas un link que lo explique bien me lo leeré, para no quedar como un gilipollas la próxima vez.

De todos modos, sigo creyendo que se montan un tinglado de marketing para vender la moto y que no haría falta tanta historia.

@wwwendigo Tu explicación me parece excelente, pero no se hay cosas que me siguen sin cuadrar.
No entiendo que como se aplica que un desarrollador mande unas imágenes estáticas, y que procesando eso haga que en tiempo real mi equipo al ejecutar el juego a menor resolución para mejorar el rendimiento, haga un supersampling aplicando un AA con el DLSS que mejore la imagen.

No se, debo ser idiota pero no lo entiendo.

Como dices, hay ámbitos y ámbitos de programación, pero no se por sentido común hay cosas que me cuestiono, quizá por desconocimiento o por cautela, y hasta que no las vea aplicadas no me lo creo.

También puedo decirte que culpa de esto lo tiene nVidia, porque no te enseña las cosas claras.

Edit: Precisamente una de las cosas que critíqué es que dudaba de la aceptación del DLSS si el desarrollador tenía que enviar X información a nVidia para que pueda generar esa DLL. Y me dijeron que no, que estaba equivocado que eso era automático. Ahora tu me confirmas que es como yo decía (había leído anteriormente).
Krain escribió:Porque si quieres competir con alguien que domina el mercado tienes que hacerlo a menor precio y con mayores prestaciones. No hay otra forma (bueno sí, a muuucho menor precio con prestaciones parecidas). Así que lo que se espera es competencia real u ostracismo. No que llegue AMD con un producto peor y más caro. AMD después de los disparates que ha hecho INTEL tiene un mercado con Ryzen y puede liderar cuando lleguen los Zen2 a 7nm (todo apunta a que puede ser un momento relevante) pero en las gráficas de consumo está a años luz de Nvidia. Desde Hawaii y Maxwell Nvidia ha dado 2 pasos de gigante y AMD refritos y errores. No creo que en GPU sea tan relevante el salto de litografía y más cuando Nvidia en posición abasalladora ha elegido el camino del raytracing (aunque yo sigo pensando que la decisión se tomó para que los mineros se quedaran con pascal por precio/rendimiento en minado)



Entiendo lo que dices, pero para poder competir de tú a tú hace falta cash, algo que precisamente AMD no tenía cuando lanzó VEGA pues Ryzen estaba despegando, no como ahora, que está vendiendo realmente bien. Lo que ha querido decir el compañero es que si no se compra a la competencia esta directamente se arruina, y ni mucho menos va a poder competir y sacar cosas que hagan sombra a quien no para de vender saque lo que saque.

De hecho el tema de la minería le ha venido muy bien a AMD a nivel de cuentas en su sector de GPU, si no llega a ser por eso no sé como estaría ya esa sección sin la aparición de Ryzen. De hecho este mismo ejemplo vale para ver que cuando venden anda que no estaban caras las RX480/580, ahí han sacado todos los cuartos que han podido, vamos como hacen todas las compañías tecnológicas últimamente.
Para el que le interese, Zotac Gaming GeForce RTX 2080Ti AMP! Edition 11GB GDDR6 en stock en PCComponentes, por "sólo" 1349 euros. Link:

https://www.pccomponentes.com/zotac-gam ... 1b64d40168

Saludos
67/68 grados de temperatura con la gigabyte 2080ti oc gaming jugando a 4k ultra y von OC
karlostek escribió:67/68 grados de temperatura con la gigabyte 2080ti oc gaming jugando a 4k ultra y von OC


Me parece muy buena temperatura. La gráfica va al 100% de carga todo el rato? Que tal de ruido?
Bueno pues me han mandado ya la Zotac RTX 2080 Ti AMP! desde Coolmod con tan buena suerte de que hay un temporal de la muerte en la Comunidad Valenciana y a saber cuando coño me llega.

Genial.
razieljas escribió:Bueno pues me han mandado ya la Zotac RTX 2080 Ti AMP! desde Coolmod con tan buena suerte de que hay un temporal de la muerte en la Comunidad Valenciana y a saber cuando coño me llega.

Genial.


Mientras no se lleve el camión de reparto una riada... creo que escuché que iban a caer unos 200L/m2 por esa zona.
KailKatarn escribió:
De hecho el tema de la minería le ha venido muy bien a AMD a nivel de cuentas en su sector de GPU, si no llega a ser por eso no sé como estaría ya esa sección sin la aparición de Ryzen. De hecho este mismo ejemplo vale para ver que cuando venden anda que no estaban caras las RX480/580, ahí han sacado todos los cuartos que han podido, vamos como hacen todas las compañías tecnológicas últimamente.


En cuanto a GPUs, ya no sólo AMD ha "distrutado" del momentum de la minería. No se ha visto nunca en la industria más de 2 años una gpu en el mercado sin devaluarse o incluso incrementándose en precio como las Pascal, si bien es cierto que ha sido más beneficio de ensambladores que de Nvidia y que a AMD le ha venido mucho mejor también porque su generación 4XX/5XX se la iba a comer con patatas.
wwwendigo escribió:
Mendrolo escribió:Yo lo que nunca a entenderé, es porque se espera que la competencia venda a mejor precio/rendimiento que el actor principal cuando a este le compran como si no hubiese un mañana.

Y porque resulta extraño, que cuando no calas en el mercado gaming ofreciendo un producto competente, te vuelques en el del minado.


Hombre, sobre el punto 1, es evidente, si tú no eres el actor principal ni tienes su prestigio, no te queda otra que intentar resultar más atractivo ofreciendo algo más por menos, o aunque sea una de las dos direcciones de lo sentenciado (más por lo mismo, o lo mismo por menos, pero un EXTRA).

Si no lo haces, seguirás sin ser no ya el actor principal, es que el actor principal te va a comer los márgenes tuyos al expandir aún más su popularidad (y con razón en ese caso).

Sobre el 2, no, no resulta extraño. Pero lo cierto es que es pan para hoy y hambre para mañana, como se ha demostrado en los tiempos recientes, la minería por gpu está más que estancada, como ya ha pasado anteriormente, la burbuja explota una y otra vez, estancando ventas, y eso hablando sólo de la burbuja especulativa, ni qué decir que hay un ciclo "natural" donde toda criptomoneda de moda acaba aumentando de dificultad lo suficiente como para no hacerla ya rentable con gpus (más cara la electricidad consumida para el minado que el rendimiento con éste), y que de ahí se pasen ya a ASICs y FPGAs.

En ese sentido, el mercado "gaming" es muchísimo más estable, fiable, y suficientemente buen pagador. Despreciarlo si diseñas gpus es lo mismo que pegarte un tiro en el cielo de la boca, AMD sabrá lo que hace, pero a este ritmo sólo quedará la división de cpus (a la cual le doy un auténtico aplauso por su gesta y de la que me declaro fan de sus últimos productos, que cuando pueda, salto a Ryzen).


exter escribió:
wwwendigo escribió:
1.- No, no tiene nada que ver. Estás mezclando churras con merinas.

2.- Mejor te diría que releas en qué consisten los IA cores y cuál es su trabajo. Real.

3.- ¿?, El servidor Saturn V NO se usa para NADA que tenga que ver con tiempo real, ni para ayudarte, ni para comunicarse en absoluto con tu sistema y hacer cálculos. Pero estás errando muy de lejos, vamos.

4.- Saturn V entrena redes neuronales, de ahí salen unos kernels específicos para juegos para reconstruir imágenes, kernels que van en los drivers y los usan las turing al habilitar DLSS para hacer un escalado inteligente con antialiasing integrado.

5 .- Ten cuidado de hacerle leer esto a tu jefe, no vaya a ser que te despida por... no tener nada claros los conceptos manejados. [+risas]

Es que NO tiene nada que ver con la idea que tienes montada en la cabeza, no es un sistema en la nube, ese servidor se usa para algo que evidentemente no has entendido (es para entrenar las redes usadas, NO para hacer nada con tu sistema mientras juegas), y en general los IA cores están ahí para hacer funciones similares al DLSS pero en otras facetas, como el denoising realizado en varias etapas del procesado con RT de "reflejos" para así poder obtener imágenes base a reflejar de mayor resolución a las calculadas realmente a través de los RT cores (que en realidad deberían hacer sólo la etapa de testado de rayos y tal, pero por simplificar todo este lío).

Te estás confundiendo mucho con el para qué y cómo funciona todo el tema basado en los Tensor cores.


Lo del sistema mientras juegas me refería a lo que sacó microsoft con la computacion en la nube y los ejemplos en videos con Crackdown. Comparandolo si nvidia planeaba hacer lo mismo con tanto servidor y tanta IA.

Que tengas un servidor que te haga unas dll para luego aplicar el DLSS, vamos no se para que tanta historia. Marketing. Pero oye, que tu lo vendes de puta madre, se nota que tienes el whitepaper estudiado.

Está claro que tu lo sabes todo y que se trata de dejar al resto de gente como que son gilipollas. Pues oye, disfruta tu sabiduría.



Lo siento si te sienta mal, pero es que tú has argumentado el principio de autoridad con el compañero (que eres programador, que si tu jefe se reiría, etc) cuando estabas equivocado de cabo a rabo. Y eso tampoco es dando la razón al otro compañero, porque ambos no teníais razón en entender en qué consiste exactamente el tema.

Yo no tengo "estudiado el whitepaper", yo lo que pasa es que además de ser también programador, sí sé cómo funciona el tema de ML porque entre otras cosas lo tengo mamado y he diseñado y entrenado algún kernel de reconocimiento de imágenes, en su momento. Ser programador no garantiza en absoluto que se conozcan estos temas de ML, porque hay muchas áreas de la programación que nada tienen que ver con esto, y si te veo tan despistado con el tema, pues lo aclaro antes de evitar más confusiones.

Sobre lo recalcado, es que nada tiene que ver con la computación en la nube y mucho menos con ese servicio de streaming de microsoft (donde granjas de ordenadores harían el papel de tu sistema, o enviarían un stream parcial de lo que sale en pantalla acelerando "cálculos" que no se hicieran en tu consola, pues por ejemplo un streaming con el render de todo lo que no sean los personajes controlados, o cualquier cosa similar).

Lo que hace ese servidor no es generar unas DLLs, es un kernel, básicamente se podría ver como un gigantesca matriz de convolución o un filtro a aplicar sobre la imagen para mejorarla. Es que es algo muy distinto.

Te aseguro que si se pudiera aplicar sin ningún problema el mismo kernel en todo juego activando DLSS, la primera en hacerlo sería nvidia, se ahorra el tedioso proceso caro de entrenamiento de kernels para cada título específico, caro porque implica muchísima capacidad computacional y porque implica un largo proceso en tiempo y recursos de entrenamiento (el desarrollador sube varios miles de imágenes a distintas resoluciones para entrenar la red/kernel y que tenga tanto entradas como salidas adecuadas a buscar por dicho kernel, etc).

De hecho el primero en tener dudas sobre si sería funcional un kernel genérico para DLSS en cualquier juego, en el sentido de que "creo que sí funcionaría", soy yo mismo. Pero un asunto es que yo crea que sí funcionaría, y otra que asegure que es una solución suficientemente buena o libre de artefactos como los kernels entrenados juego a juego.

Pareciera que debería funcionar igual el genérico, pero en distintos juegos hay diferencias sutiles de gráficos que pueden hacer fallar kernels genéricos (diferencias cromáticas generales por uso de paletas de colores concretas, un diseño poligonal más complejo o lleno de mayores ángulos rectos en un caso y otro no, etc).

Pero vamos, los IA core sirven para, por lo menos ahora, de todo menos lo que la gente piensa, IA, que es el error que algunos arrastráis. De momento no hay ni traza de que se vayan a usar para acelerar nada de IAs en juegos (aunque se podría, de todas formas es un reto a nivel técnico por su naturaleza mixta con la cpu y el código normal del juego), sirven para mejorar imágenes con "filtros" avanzados sacados de trabajo con machine learning.

Es lo que hay, y no es por ofender, es por aclarar puntos muy confusos, entre otras por la propia nvidia que no ha dado demasiada información sobre el tema (inicialmente pensaba que DLSS servía para, tras trabajar con una imagen con supersampling real, hacer una detección y eliminado de aliasind de tipo superb, cuando no es así, y es un resultado peor del que me pensaba).


Yo si escribo desde el móvil, así que me tienes que perdonar... ;p

- Amd no es nuevo en el mercado (de hecho es la única alternativa) y tiene un trozo del pastel más pequeño. Si los costes se ponen en la balanza para justificar parte del precio de las NVidia, con mas razón se tienen que poner en la del más débil. Esto no es como los móviles que hay varios actores, vuelcan toda la producción en China a terceros y estos al cabo del tiempo con lo aprendido saltan al mercado rompiendo precios. Es mucho más complicado.

- Los productos lanzados en la gama media, han sido igual de buenos cuando no mejores a los de nvidia en su lanzamiento. Las 470 y 480 de 4gb y 8 Gb salieron ligeramente más baratas que las 1060 de 3gb y 6 Gb (de hecho, las 470 cubrian un sector en el que nvidia tardó en responder, y mal, con la 1050ti) Con todo esto, las cuotas siguieron más o menos igual. Se prefería las 1060 cuando no se lanzaban a por una 1070 que tuvo una subida de precio de aúpa respecto a la 970.

- Salta el boom de la mineria... que hago? Sigo comiéndome una mierda en el mercado gaming, o saco tajada del nuevo? Cuando la fiesta se acabe, como en el gaming todo va a seguir igual, vuelvo a sacar una gama media resultona, con la cuota de siempre y que me quiten lo bailao.
John_Doe escribió:Estoy pensando en coger la FE ahora que esta de nuevo en Stock pero me echa para atras el ruido en reposo.
Alguno de los que la tengáis, como de ruidoso es el nuevo sistema de refrigeración? molesta en reposo?

Un saludo


Nadie aqui con la 2080ti FE?
exter escribió:
wwwendigo escribió:
1.- No, no tiene nada que ver. Estás mezclando churras con merinas.

2.- Mejor te diría que releas en qué consisten los IA cores y cuál es su trabajo. Real.

3.- ¿?, El servidor Saturn V NO se usa para NADA que tenga que ver con tiempo real, ni para ayudarte, ni para comunicarse en absoluto con tu sistema y hacer cálculos. Pero estás errando muy de lejos, vamos.

4.- Saturn V entrena redes neuronales, de ahí salen unos kernels específicos para juegos para reconstruir imágenes, kernels que van en los drivers y los usan las turing al habilitar DLSS para hacer un escalado inteligente con antialiasing integrado.

5 .- Ten cuidado de hacerle leer esto a tu jefe, no vaya a ser que te despida por... no tener nada claros los conceptos manejados. [+risas]

Es que NO tiene nada que ver con la idea que tienes montada en la cabeza, no es un sistema en la nube, ese servidor se usa para algo que evidentemente no has entendido (es para entrenar las redes usadas, NO para hacer nada con tu sistema mientras juegas), y en general los IA cores están ahí para hacer funciones similares al DLSS pero en otras facetas, como el denoising realizado en varias etapas del procesado con RT de "reflejos" para así poder obtener imágenes base a reflejar de mayor resolución a las calculadas realmente a través de los RT cores (que en realidad deberían hacer sólo la etapa de testado de rayos y tal, pero por simplificar todo este lío).

Te estás confundiendo mucho con el para qué y cómo funciona todo el tema basado en los Tensor cores.


Lo del sistema mientras juegas me refería a lo que sacó microsoft con la computacion en la nube y los ejemplos en videos con Crackdown. Comparandolo si nvidia planeaba hacer lo mismo con tanto servidor y tanta IA.

Que tengas un servidor que te haga unas dll para luego aplicar el DLSS, vamos no se para que tanta historia. Marketing. Pero oye, que tu lo vendes de puta madre, se nota que tienes el whitepaper estudiado.

Yo no hablaba del DLSS, mi comentario con lo del Saturn y la IA venía por lo que decía goku, por lo que pueden hacer en el futuro:

¿tú qué coño sabes si va a ser funcional o no la IA? Quizás sea el comienzo de una tecnología prometedora, o quizás no. Pero ahí está tanto a nivel de Hard dedicado, como a nivel de inversión empresarial (SATURN V).


Para hacer una DLL de mierda que pones en los drivers, no hace falta vender que vas a usar no se que super servidor neuronal etc etc. Por eso, Marketing.

Está claro que tu lo sabes todo y que se trata de dejar al resto de gente como que son gilipollas. Pues oye, disfruta tu sabiduría.

¿Pero que hablas tío? Lo que no puedes venir aquí es disfrazado de Sandro Rey, que te falta la bola, vaticinando y augurando que X tecnología, que lleva un mes en el mercado, es marketing empresarial. Esto si lo dices en 2019 vale, pero a un mes de la salida...
goku593 escribió:¿Pero que hablas tío? Lo que no puedes venir aquí es disfrazado de Sandro Rey, que te falta la bola, vaticinando y augurando que X tecnología, que lleva un mes en el mercado, es marketing empresarial. Esto si lo dices en 2019 vale, pero a un mes de la salida...


La misma bola que usas tu vaticinando que va a ser la hostia. Estamos empatados bro. [buuuaaaa]

La realidad es que hasta hora es Marketing prácticamente todo lo visto porque no hay nada real que tu puedas probar con tu tarjeta.

Veo que has escarmentado pocas veces con cosas parecidas a esta.

Exactamente lo mismo que decía antes, que pasó con AMD y su famoso Mantle. Todo era humo hasta 3 meses más tarde que se pudo probar en BF4.

O coño, lo mismo que Ryzen y mira que soy propietario de uno. En la presentación de la serie 1000 todo era Handbrake, cinebench, x tiempo menos que el intel equivalente pero nada de juegos.

Porque no son tontos, sabían que pinchaban en juegos, no iban a quemar posibles preventas por explicar la realidad.

Que tio, me parece perfecto que estés contento con tu 2080, y el incremento respecto a la 1080 que tenías no es poco, hablando ya solo de potencia bruta sin todo lo añadido de serie 2000.

Pero yo que tengo una 1080Ti, el % de incremento bruto respecto a 2080 (poco) o 2080Ti, de momento no es atractivo suficiente, porque no lo aprovecharía. Y el otro aliciente que es el RT y DLSS, NO HAY NADA, ni siquiera en reviews, y por tanto me tengo que fiar de las promesas de nVidia (Marketing).

No me parece tan difícil de entender mi postura, y no me parece correcto que salgas con ciertos comentarios que son un poco falta de respeto, y yo creo que a ti no te he faltado en ningún momento.
Mendrolo escribió:
Yo si escribo desde el móvil, así que me tienes que perdonar... ;p

- Amd no es nuevo en el mercado (de hecho es la única alternativa) y tiene un trozo del pastel más pequeño. Si los costes se ponen en la balanza para justificar parte del precio de las NVidia, con mas razón se tienen que poner en la del más débil. Esto no es como los móviles que hay varios actores, vuelcan toda la producción en China a terceros y estos al cabo del tiempo con lo aprendido saltan al mercado rompiendo precios. Es mucho más complicado.

- Los productos lanzados en la gama media, han sido igual de buenos cuando no mejores a los de nvidia en su lanzamiento. Las 470 y 480 de 4gb y 8 Gb salieron ligeramente más baratas que las 1060 de 3gb y 6 Gb (de hecho, las 470 cubrian un sector en el que nvidia tardó en responder, y mal, con la 1050ti) Con todo esto, las cuotas siguieron más o menos igual. Se prefería las 1060 cuando no se lanzaban a por una 1070 que tuvo una subida de precio de aúpa respecto a la 970.

- Salta el boom de la mineria... que hago? Sigo comiéndome una mierda en el mercado gaming, o saco tajada del nuevo? Cuando la fiesta se acabe, como en el gaming todo va a seguir igual, vuelvo a sacar una gama media resultona, con la cuota de siempre y que me quiten lo bailao.


En el fondo estamos más de acuerdo de lo que pueda parecer en lo fundamental.

Los costes están en la balanza, por supuesto, pero también creo que ya he dicho que los costes, aún siendo mayores, no justifican los precios actuales ya que hay un margen de aúpa tanto en todos los productos de nvidia como de AMD. Y AMD si quiere recuperar el mercado gaming no le queda otra que ser más atractiva que nvidia.

Con las Vega por encima de 500€ no lo consigue, eso está claro. Si estuvieran a 400€, que podrían estar (eso sí, reconozco que posiblemente con una merma importante de márgenes), seguramente le iría mejor ahora mismo con las gpus (la minería ahora mismo no le da gran cosa).

La gama media es importante, pero ahí aunque sí ofrece algo en realidad tampoco es una bicoca, hace tiempo que no se veía tan "cómodos" a nvidia y AMD asumiendo cada uno el papel de mínima diferenciación en su posicionamiento para resultar atractivos a cada grupo de clientes targets.

Es que vamos a ver, si la GTX 580 8 GB fuera un poco más barata que la 1060 de 6 GB, AMD podría recuperar mercado de gama media, peroooo... nope. Prefiere atraer a algunos clientes con este modelo, pagando un poquito más que las 1060, apenas diferenciada en precio pero algo al alza, y ofrecer ese plus de rendimiento (ya sabemos que nvidia tiene otros puntos a favor que no se deben despreciar aunque el rendimiento sea lo más importante).

El problema del mercado de minería es que no sabes cuándo va a implosionar, produces como un loco para vender en él, y cuando se acaba te pasas de frenada (teóricamente es lo que le ha pasado a nvidia con pascal, supongo que también a AMD con las suyas), y lo que es peor, una vez implosiona el mercado de segunda se llena de tarjetas con poca antigüedad y por tanto buen rendimiento por cuatro duros, compitiendo contra tus gráficas producidas en la actualidad (y para más inri, como tienen tanta tralla, con una fiabilidad pésima, lo que de paso daña también a la imagen tanto de marca como al precio de reventa de los usuarios normales con sus gráficas gaming, algo que vemos muy fácil en el foro de C/V cuando en una venta se recalca que X gráfica no viene del mercado de minado).

La minería es una puta lacra, no ya por lo que le ha hecho al mercado de gráficas, si no porque es un mercado especulativo de los peores, lleno de oportunistas y grandes "mineros" con sistemas ultracaros trabajando en algo que, realmente, no aporta una mierda a la humanidad. Porque hasta los ideales libertarios (de los que además siempre he cuestionado sus mismos principios) detrás de la criptomoneda se van por el retrete bajo el peso de la pura avaricia.... un truco para intentar forrarse con moneda real, y sostenido en la nada. Demencial.

Qué pérdida de tiempo de computación y energía, y de recursos. Por lo menos el gaming nos da una experiencia personal positiva, la minería... nada.

exter escribió:
AlbertX escribió:@wwwendigo Lo que me he reido con el tio y su argumentacion sobre el tema de el DLSS y la saturno V y luego te saca que para hacer esas DLL no necesitas redes neuronales y no se que.

La madre del amor hermoso, siempre he dicho el problema no es criticar algo o no gustarte, el problema es hacerlo desde la total y completa ignorancia.

Obvio que no ha se ha tomado 5 minutos para leer la funcion que cumple ese Super Computador ni que es lo termina haciendo.

En serio, si de verdad lo lee el jefe es para que le diga que es bastante mediocre en terminos de tecnologia sino ha entendido el concepto simple y el porque esta alli.


Simplemente no lo he leído. He sacado mis conclusiones y está claro que eran erróneas, porque lo que he leído por encima en diversas webs, me suena a panfleto de marketing la verdad.

Si me dejas un link que lo explique bien me lo leeré, para no quedar como un gilipollas la próxima vez.

De todos modos, sigo creyendo que se montan un tinglado de marketing para vender la moto y que no haría falta tanta historia.

@wwwendigo Tu explicación me parece excelente, pero no se hay cosas que me siguen sin cuadrar.
No entiendo que como se aplica que un desarrollador mande unas imágenes estáticas, y que procesando eso haga que en tiempo real mi equipo al ejecutar el juego a menor resolución para mejorar el rendimiento, haga un supersampling aplicando un AA con el DLSS que mejore la imagen.

No se, debo ser idiota pero no lo entiendo.

Como dices, hay ámbitos y ámbitos de programación, pero no se por sentido común hay cosas que me cuestiono, quizá por desconocimiento o por cautela, y hasta que no las vea aplicadas no me lo creo.

También puedo decirte que culpa de esto lo tiene nVidia, porque no te enseña las cosas claras.

Edit: Precisamente una de las cosas que critíqué es que dudaba de la aceptación del DLSS si el desarrollador tenía que enviar X información a nVidia para que pueda generar esa DLL. Y me dijeron que no, que estaba equivocado que eso era automático. Ahora tu me confirmas que es como yo decía (había leído anteriormente).


@AlbertX

Considero que es mejor no hacer sangre, porque nadie nace aprendido, y es un tema bastante especializado y complejo y donde es fácil caer en confusión, aún teniendo experiencia no ya con la informática, si no con la programación. Es un área muy nebulosa y de distinto funcionamiento al "tradicional", incluida la programación.

@exter

Sí, es difícil entender un poco cómo funciona el tema, ya que se basa en algo que en realidad no controlamos cómo se desarrolla.

A ver, lo primero que se hace es parametrizar un problema (definir las variables relevantes que se van a tener en cuenta), una vez logrado esto se usan matrices de convolución con distintos pesos para estas variables para intentar hacer un proceso que consiste en:

Imagen entrada->procesado por kernel ML->imagen salida (o cualquier otro tipo de datos).

Lo que se desea es que las imágenes de entrada, con un kernel ya entrenado y lo más perfecto posible, se obtenga la imagen de salida, tú tienes que trabajar con colecciones de datos tanto de entradas como de salidas "correctas" para poder entrenar a la máquina y que se obtenga un kernel adecuado.

En este caso (no recuerdo la resolución exacta, es un ejemplo) digamos que el estudio desarrollador tiene que enviar a nvidia las "imágenes de entrada", que son digamos que a 2560x1440p (por decir), y también las imágenes de salida a 4K y con MSAA aplicado para eliminar el aliasing (porque el objetivo es ése, conseguir una resolución 4K y libre de aristas).

Así tienes dos juegos de datos, las entradas con las que trabajas (que serán en realidad a la resolución a la que renderizas el juego internamente), y las salidas que deseas obtener (imágenes 4K y con antialiasing de buena calidad aplicado). Miles de ellas.

El servidor lo que hace es, una vez parametrizado el problema, empezar a aplicar "filtros" con el kernel (operaciones matriciales) tomando como datos de entadas las imágenes de 1400p y comprueba hasta qué punto se parecen los resultados a las imágenes de 4K de salida.

Los pesos iniciales de la matriz serán malos, dará errores monumentales, pero eso no importa, el algoritmo de funcionamiento espera eso, se basa en cambiar los pesos de dicha matriz una y otra y otra vez, millones de veces si es necesario, testando esos nuevos pesos con la colección completa de entradas y sus salidas correspondientes, ajustando los pesos ya no tanto por azar, si no reforzando y afinando aquellos pesos cambiados que parezcan ir en la dirección correcta dando un resultado más positivo.

Es un proceso tedioso, muy muy largo, que en la fase de entrenamiento exige además mayor precisión de tipo de datos que lo que pueden hacer los Tensor cores (que son buenos con redes ya entrenadas, pero no tienen la precisión suficiente para ser usados, por lo menos de forma general, para entrenar nuevas redes a aplicar), y totalmente controlado sólo por la máquina, estocástico pero dirigido. De ahí la necesidad no sólo de servidores, si no de que dichos servidores corren usando gpus Volta (que tienen tensor cores de mayor precisión, fp16/fp32).

En realidad tú al final tendrás un kernel con unos pesos afinados para obtener unas salidas lo más parecidas posibles a esas imágenes 4K con MSAA (o SSAA si no fuera compatible el MSAA con el juego) a través del reescalado de las imágenes de partida a 1440p, como se habrá entrenado con miles de imágenes de referencia del juego, en teoría el kernel obtenido estará ajustado a las características específicas del juego obteniendo el mejor resultado posible haciendo un reescalado inteligente desde 1440p.

Al final, realmente nadie tiene ni idea de porqué tal o cual peso aplicado a X variable de la matriz tiene porqué ser así y no de otra forma, ni siquiera el propio servidor que ha obtenido ese resultado tiene una "idea" de esto, es un algoritmo de fuerza bruta pura para obtener algo que al final funciona pero no sabemos porqué funciona. Se podría estudiar el kernel a posteriori para explicar cada peso en cada variable, pero eso no es lo que se pretende con ML, precisamente es para evitar tener que "razonar" este tipo de cálculos, sino automatizarlos.

¿Es posible correr esto en shaders normales?, sí, no dejan de ser cálculos matriciales, pero un tensor core hace una operación matricial de 4x4 de tipo FMA en un ciclo (obteniendo un único resultado final), eso equivale a el trabajo de muchos shaders en paralelo, por eso aunque posible, seguramente el trabajo de los tensor cores, aunque emulable, sí pueda degradar el rendimiento de una gpu que use shaders para hacerlo (aunque creo que sí habría cierto margen de posibilidad de que funcionara suficientemente bien), otro asunto es el de simular los RT cores que ya parece algo mucho más complejo. Lo importante es que teóricamente tanto los tensor como los RT cores trabajan en paralelo al hard de shaders, sin "interaccionar ni molestar" (lo cual no creo que sea del todo cierto, pues tienen que suponer cierta carga extra sobre registros y cachés de la gpu). Y que trabajan mejor cada uno en su área especializada que los shaders genéricos. Uno aplicando kernels obtenidos con ML, y el otro haciendo algo tan específico como el testado de rayos del RT.

Da un tanto de "miedito" el tema porque no sólo es que sea "una máquina diseñando a otra máquina (soft)", si no que no es un proceso racional en nuestro sentido de pensamiento, si no más bien un proceso estocástico y evolutivo, vamos, que en el futuro cuando sea normal la integración de muchas redes neuronales en el soft para muy distintas áreas de funcionamiento, no sabremos qué coño y porqué están haciendo X las máquinas que operen con ese soft. Porque ahora lo más normal es que haya sólo alguna "caja negra" para funciones muy específicas de reconocimiento vía IA de patrones en el soft, siendo la mayoría del soft escrito de forma tradicional y conociendo bien el área de competencia de esas redes neuronales. Pero en el futuro será normal integrar muchos módulos basados en ML/redes neuronales hasta el punto que existan varias capas de redes funcionando una por encima de otra, y controlando cada vez más aspectos del funcionamiento de softs cada vez más automatizados.

Ahí es donde es tan adecuado tu avatar, por cierto.... (y se acaba la vida laboral del programador) [qmparto]
exter escribió:
karlostek escribió:67/68 grados de temperatura con la gigabyte 2080ti oc gaming jugando a 4k ultra y von OC


Me parece muy buena temperatura. La gráfica va al 100% de carga todo el rato? Que tal de ruido?


81% de carga,ruido muy bien la verdad
@wwwendigo
Si ponemos como ejemplo un juego como Battlefield V, en modo single player para simplificar y pongamos que su campaña dura 10h de juego.

Para cada punto del escenario, el desarrollador tendría que mandar una imagen de 360º, para que posteriormente el servidor de nVidia procese todo esto?

O solo tienen que mandar imágenes estáticas de los distintos objetos del escenario, sin tener en cuenta la perspectiva desde que la verá el jugador?

Es lo que me hace dudar, porque cuando estás en el juego, la cantidad distinta de cosas que puedes hacer, o dónde mirar, etc, como lo ha tenido en cuenta el desarrollador al pasar los "masters" de imágenes a nvidia?

Tienen a un chino haciendo capturas de pantalla como un loco? XD

karlostek escribió:
exter escribió:
karlostek escribió:67/68 grados de temperatura con la gigabyte 2080ti oc gaming jugando a 4k ultra y von OC


Me parece muy buena temperatura. La gráfica va al 100% de carga todo el rato? Que tal de ruido?


81% de carga,ruido muy bien la verdad


Al 100% de carga seguramente suba algunos grados más, pero vamos que siempre puedes hacer una curva de ventilador más agresiva.
exter escribió:@wwwendigo
Si ponemos como ejemplo un juego como Battlefield V, en modo single player para simplificar y pongamos que su campaña dura 10h de juego.

Para cada punto del escenario, el desarrollador tendría que mandar una imagen de 360º, para que posteriormente el servidor de nVidia procese todo esto?

O solo tienen que mandar imágenes estáticas de los distintos objetos del escenario, sin tener en cuenta la perspectiva desde que la verá el jugador?

Es lo que me hace dudar, porque cuando estás en el juego, la cantidad distinta de cosas que puedes hacer, o dónde mirar, etc, como lo ha tenido en cuenta el desarrollador al pasar los "masters" de imágenes a nvidia?

Tienen a un chino haciendo capturas de pantalla como un loco? XD

karlostek escribió:
exter escribió:
Me parece muy buena temperatura. La gráfica va al 100% de carga todo el rato? Que tal de ruido?


81% de carga,ruido muy bien la verdad


Al 100% de carga seguramente suba algunos grados más, pero vamos que siempre puedes hacer una curva de ventilador más agresiva.



No, por lo que yo entiendo de cómo va el tema y lo que pretende nvidia, no hace falta esa bestialidad porque además sería una forma muy limitada de AA-escalado (demasiado atada al desarrollo del juego, no es algo tan tannn específico, o entiendo que no debería serlo).

Más bien sería enviar unos cuantos miles de capturas estáticas, eso sí, cada entrada con una salida deseada, supongo que asegurando que se envían imágenes representativas de cada mapeado y demás para que se tengan en cuenta al calcular el kernel final estas pequeñas diferencias entre mapeados, diseños, etc, en una solución "de consenso" lo más precisa para todas las situaciones.

Yo tengo serias dudas de que ni siquiera haga falta enviar de cada mapa, cada tipo de objeto relevante, etc, capturas, aunque todo suma para depurar el kernel final.

Ya te digo que yo pienso que se podría poner un kernel genérico para juegos y dar buenos resultados, incluso que se pudieran usar kernels de algunos juegos con otros sin soporte oficial ofreciendo resultados si no igual de "buenos" (aún hay que verlo en realidad y movimiento) muy cercanos (juegos que tengan características cromáticas, de texturizado e iluminación similares). Pero no sé hasta qué punto esto puede provocar artefactos.

Yo creo que con semejante entrenamiento que les hacen a estos kernels y demás, debe estar libre de artefactos sí o sí el DLSS, seguramente el entrenamiento es así de intensivo para asegurar que la sensación de usar 4K y antialiasing sea lo más cercano al real, sin usar realmente 4K, claro. Es que si hubiera muchos problemas te quedas con un algoritmo de checkerboard y te quedas más tranquilo, sin tanta historia.

El resultado con FFXV (test) es bastante bueno, aparentemente, pero además de que no me sirve de mucho la comparación contra TAA que nos ponen en las reviews (prefiero capturas crudas de 4K, y ya ni te digo con un algoritmo fiable de AA que no baje detalle), pues no veo si existe algún problema de artefactos (que si existen, deberían ser relativamente irrelevantes, no algo muy cantoso, sino más bien como duplicidades de píxeles, no aplicaación de AA en alguna geometría, etc, deberían ser detalles pequeños).


PD: Yo desde luego, aunque me parezca interesante la técnica y el tema del RT, lo que sí no haría es pagar más por esas nuevas características en sí, despiertan curiosidad en mí, es posible que funcionen y tal, pero ahora mismo la potencia que hay es lo que usaría para valorar estas gráficas.

De ahí que diga que la 2070, por tibia que sea como refresco, algo ofrece (precio de 1080 con algo de mejora), que la 2080 Ti, al estar en el mercado top algo ofrece a los que siempre quieren más (aunque a un precio disparatado, "no en mi máquina"), y la 2080 se queda en tierra de nadie, al no ser capaz de mejorar en precio ni siquiera a la 1080 Ti (sí, es un pelín más rápida, pero su precio crece por encima de la proporción de esta mejora, y la 1080 ti sigue ofreciendo 3 GB extra de RAM, que no es un gran valor, pero PESA algo).
wwwendigo escribió:
Mendrolo escribió:
Yo si escribo desde el móvil, así que me tienes que perdonar... ;p

- Amd no es nuevo en el mercado (de hecho es la única alternativa) y tiene un trozo del pastel más pequeño. Si los costes se ponen en la balanza para justificar parte del precio de las NVidia, con mas razón se tienen que poner en la del más débil. Esto no es como los móviles que hay varios actores, vuelcan toda la producción en China a terceros y estos al cabo del tiempo con lo aprendido saltan al mercado rompiendo precios. Es mucho más complicado.

- Los productos lanzados en la gama media, han sido igual de buenos cuando no mejores a los de nvidia en su lanzamiento. Las 470 y 480 de 4gb y 8 Gb salieron ligeramente más baratas que las 1060 de 3gb y 6 Gb (de hecho, las 470 cubrian un sector en el que nvidia tardó en responder, y mal, con la 1050ti) Con todo esto, las cuotas siguieron más o menos igual. Se prefería las 1060 cuando no se lanzaban a por una 1070 que tuvo una subida de precio de aúpa respecto a la 970.

- Salta el boom de la mineria... que hago? Sigo comiéndome una mierda en el mercado gaming, o saco tajada del nuevo? Cuando la fiesta se acabe, como en el gaming todo va a seguir igual, vuelvo a sacar una gama media resultona, con la cuota de siempre y que me quiten lo bailao.


En el fondo estamos más de acuerdo de lo que pueda parecer en lo fundamental.

Los costes están en la balanza, por supuesto, pero también creo que ya he dicho que los costes, aún siendo mayores, no justifican los precios actuales ya que hay un margen de aúpa tanto en todos los productos de nvidia como de AMD. Y AMD si quiere recuperar el mercado gaming no le queda otra que ser más atractiva que nvidia.
Los costes son mayores para amd, al tener una producción menor. Yo he dicho ya varias veces que los precios de ambas me parece una mierda, pero la realidad es que la subida de nvidia seguramente le dió aire a amd, porque con su volumen de ventas dificilmente podrá reducir margen.

Con las Vega por encima de 500€ no lo consigue, eso está claro. Si estuvieran a 400€, que podrían estar (eso sí, reconozco que posiblemente con una merma importante de márgenes), seguramente le iría mejor ahora mismo con las gpus (la minería ahora mismo no le da gran cosa).
Con Vega llegó tarde, eso está claro, y con precios más altos que la competencía. Pero fijate por donde, ahora se está viendo como escala en rendimiento en los últimos títulos. La diferencia de precio entre vega 64 y una 1080, se recorta en cuanto metes en la ecuación freesync vs gsync, y no olvidemos que ya salieron con un mercado "contaminado" por la minería. Igualmente, es perfectamente entendible que en esa gama fuesen mucho más atractivas las nvidia, pero vega no es el desastre que se vende. Aquí aprovecho para repetir, que cuanto menor es tu volumen de ventas, más difícil es recortar margen

La gama media es importante, pero ahí aunque sí ofrece algo en realidad tampoco es una bicoca, hace tiempo que no se veía tan "cómodos" a nvidia y AMD asumiendo cada uno el papel de mínima diferenciación en su posicionamiento para resultar atractivos a cada grupo de clientes targets.
Las dos generaciones anteriores, fueron más o menos igual, y coincide con el inicio del nuevo boom del pc gaming

Es que vamos a ver, si la GTX 580 8 GB fuera un poco más barata que la 1060 de 6 GB, AMD podría recuperar mercado de gama media, peroooo... nope. Prefiere atraer a algunos clientes con este modelo, pagando un poquito más que las 1060, apenas diferenciada en precio pero algo al alza, y ofrecer ese plus de rendimiento (ya sabemos que nvidia tiene otros puntos a favor que no se deben despreciar aunque el rendimiento sea lo más importante).
Esa comparación, parte ya de un mercado "contaminado" por el gaming. Si nos vamos a los lanzamientos de esta generación, los rendimientos eran parejos, la baza de nvidia era el consumo y algunos juegos patrocinados, y la de amd mayor vram y otra vez el gran olvidado freesync. Se puede preferir una cosa u otra, pero objetivamente, nvidia no tenía un producto superior y era ligeramente más caro (repito, hablo en los primeros meses post lanzamiento, la minería lo cambió todo)

El problema del mercado de minería es que no sabes cuándo va a implosionar, produces como un loco para vender en él, y cuando se acaba te pasas de frenada (teóricamente es lo que le ha pasado a nvidia con pascal, supongo que también a AMD con las suyas), y lo que es peor, una vez implosiona el mercado de segunda se llena de tarjetas con poca antigüedad y por tanto buen rendimiento por cuatro duros, compitiendo contra tus gráficas producidas en la actualidad (y para más inri, como tienen tanta tralla, con una fiabilidad pésima, lo que de paso daña también a la imagen tanto de marca como al precio de reventa de los usuarios normales con sus gráficas gaming, algo que vemos muy fácil en el foro de C/V cuando en una venta se recalca que X gráfica no viene del mercado de minado).
Que nvidia no haya calculado bien su producción de cara a la minería, no quiere decir que amd haya cometido el mismo error. De hecho, partimos de que la capacidad de fabricación de amd debe ser menor, así que aunque quisiera...


La minería es una puta lacra, no ya por lo que le ha hecho al mercado de gráficas, si no porque es un mercado especulativo de los peores, lleno de oportunistas y grandes "mineros" con sistemas ultracaros trabajando en algo que, realmente, no aporta una mierda a la humanidad. Porque hasta los ideales libertarios (de los que además siempre he cuestionado sus mismos principios) detrás de la criptomoneda se van por el retrete bajo el peso de la pura avaricia.... un truco para intentar forrarse con moneda real, y sostenido en la nada. Demencial.
Aquí nada que objetar ;p

Qué pérdida de tiempo de computación y energía, y de recursos. Por lo menos el gaming nos da una experiencia personal positiva, la minería... nada.

@exter ni mucho menos pretendía ofenderte, mis disculpas si lo hice. Eso lo quería dejar claro.

Pero entiende que estas tecnologías de momento no se han ejecutado. Son tecnologías complejas, es un hecho, y todos los sabemos. Nvidia es la única que arriesga. Siempre ha sido así en este ámbito. Y es más, sinceramente, dudo que esta generación, ni la siguiente, puedan con RT. Pero si en tres generaciones se estandariza, será gracias a la inversión en i+D de Nvidia, y de sus cojones para implementarlo.
valencia escribió:Para el que le interese, Zotac Gaming GeForce RTX 2080Ti AMP! Edition 11GB GDDR6 en stock en PCComponentes, por "sólo" 1349 euros. Link:

https://www.pccomponentes.com/zotac-gam ... 1b64d40168

Saludos


Es mi elección, aunque estaba esperando a la amp xtreme, la paciencia no es mi fuerte, zotac sin miedos, es un excelente ensamblador con 5 años de garantía
goku593 escribió:@exter ni mucho menos pretendía ofenderte, mis disculpas si lo hice. Eso lo quería dejar claro.

Pero entiende que estas tecnologías de momento no se han ejecutado. Son tecnologías complejas, es un hecho, y todos los sabemos. Nvidia es la única que arriesga. Siempre ha sido así en este ámbito. Y es más, sinceramente, dudo que esta generación, ni la siguiente, puedan con RT. Pero si en tres generaciones se estandariza, será gracias a la inversión en i+D de Nvidia, y de sus cojones para implementarlo.


Está claro que es una tecnología en pañales (por potencia bruta) para que los desarrolladores empiezen a jugar con ella, y dependerá igual de su implementación que tire para adelante o no.

Pero que es algo que puede tardar años.

Fijate sino DX12, desde que salió, al principio todo pestes porque o rendía igual que DX11 o en muchos casos empeoraba bastante. 3 años después de su lanzamiento, vemos ahora los primeros juegos que lo aprovechan bien y marcan una diferencia respecto a DX11.

Por desgracia, creo que estas nuevas tecnologías pueden quedar relegadas por un motivo muy tonto, las consolas.

La nueva generación de Sony y Microsoft, seguirán calzando AMD (CPU y GPU). Si estas no tienen RT o posibilidad de utilizar una tecnología parecida, obviamente los desarrolladores de esos juegos no lo implementarán.

Quedaría entonces que cuando saquen la versión PC de un multi, el desarrollador meta horas en incluir ciertas tecnologías.

El DLSS lo veo más fácil de incorporar, pero el RT no, porque quizá el engine tiene que estar peparado para ello (igual me equivoco).

Si al final pasase, que sólo tienen RT algunos juegos exclusivos de PC, no se si nVidia seguiría invirtiendo en mejorar algo que solo usa un X% de gente.

Esperemos que AMD tenga en marcha su RT, que en mayor o menor medida lo incorporen las nuevas consolas, y así de rebote en PC nos aprovechemos de ello.
exter escribió:
goku593 escribió:@exter ni mucho menos pretendía ofenderte, mis disculpas si lo hice. Eso lo quería dejar claro.

Pero entiende que estas tecnologías de momento no se han ejecutado. Son tecnologías complejas, es un hecho, y todos los sabemos. Nvidia es la única que arriesga. Siempre ha sido así en este ámbito. Y es más, sinceramente, dudo que esta generación, ni la siguiente, puedan con RT. Pero si en tres generaciones se estandariza, será gracias a la inversión en i+D de Nvidia, y de sus cojones para implementarlo.


Está claro que es una tecnología en pañales (por potencia bruta) para que los desarrolladores empiezen a jugar con ella, y dependerá igual de su implementación que tire para adelante o no.

Pero que es algo que puede tardar años.

Fijate sino DX12, desde que salió, al principio todo pestes porque o rendía igual que DX11 o en muchos casos empeoraba bastante. 3 años después de su lanzamiento, vemos ahora los primeros juegos que lo aprovechan bien y marcan una diferencia respecto a DX11.

Por desgracia, creo que estas nuevas tecnologías pueden quedar relegadas por un motivo muy tonto, las consolas.

La nueva generación de Sony y Microsoft, seguirán calzando AMD (CPU y GPU). Si estas no tienen RT o posibilidad de utilizar una tecnología parecida, obviamente los desarrolladores de esos juegos no lo implementarán.

Quedaría entonces que cuando saquen la versión PC de un multi, el desarrollador meta horas en incluir ciertas tecnologías.

El DLSS lo veo más fácil de incorporar, pero el RT no, porque quizá el engine tiene que estar peparado para ello (igual me equivoco).

Si al final pasase, que sólo tienen RT algunos juegos exclusivos de PC, no se si nVidia seguiría invirtiendo en mejorar algo que solo usa un X% de gente.

Esperemos que AMD tenga en marcha su RT, que en mayor o menor medida lo incorporen las nuevas consolas, y así de rebote en PC nos aprovechemos de ello.

En esto coincido de pleno. Yo también pienso que el RT va a quedarse en un intento de encendido. Se ha visto, y demostrado, que estas GPU no son capaces de mover juegos con RT a resoluciones más altas de 1080P, y esto es un problema abrumador, ya que, por norma general, todo aquél que se compra una RTX es un entusiasta, y como mínimo juega a 2K. Dile tu ahora que por ver y disfrutar del brilli brilli tiene que jugar a 1080, y luchar por rascar los 60... es que es del todo un NO. Yo ya no bajo ni de resolución ni de frames, y no subo por no crear dependencia.

Con respecto al DLSS. Aquí si tengo puesta una enorme confianza para esta generación. Y sin duda será el ente decisor para juzgar si estas GPU valen la pena o no. Si de aquí a Navidad, el DLSS no se ha implementado...empezaré a arrepentirme de la inversión. Pero vamos, que confio que BV si lo implementará, al igual que TR, y ahí veremos si vale la pena.

Yo, si veo que me otorga un rendimiento aceptable, en aquellos juegos que no llegue a 2K/60, pues lo usaré.

Respecto a las consolas, pienso que están tomando ya el camino del PC. Y, seamos realistas, no dejan de ser un PC, con componentes de AMD, Nvidia, o lo que sea...pero con un OS capado a una función básica. Pero...¿y si fuese Nvidia la encargada de suministrar los chips a las videoconsolas de nueva generación? ¿me estás diciendo que AMD lastra -en consolas- el propio avance que Nvidia crea en PC?
Mendrolo escribió:
wwwendigo escribió:
Mendrolo escribió:
Yo si escribo desde el móvil, así que me tienes que perdonar... ;p

- Amd no es nuevo en el mercado (de hecho es la única alternativa) y tiene un trozo del pastel más pequeño. Si los costes se ponen en la balanza para justificar parte del precio de las NVidia, con mas razón se tienen que poner en la del más débil. Esto no es como los móviles que hay varios actores, vuelcan toda la producción en China a terceros y estos al cabo del tiempo con lo aprendido saltan al mercado rompiendo precios. Es mucho más complicado.

- Los productos lanzados en la gama media, han sido igual de buenos cuando no mejores a los de nvidia en su lanzamiento. Las 470 y 480 de 4gb y 8 Gb salieron ligeramente más baratas que las 1060 de 3gb y 6 Gb (de hecho, las 470 cubrian un sector en el que nvidia tardó en responder, y mal, con la 1050ti) Con todo esto, las cuotas siguieron más o menos igual. Se prefería las 1060 cuando no se lanzaban a por una 1070 que tuvo una subida de precio de aúpa respecto a la 970.

- Salta el boom de la mineria... que hago? Sigo comiéndome una mierda en el mercado gaming, o saco tajada del nuevo? Cuando la fiesta se acabe, como en el gaming todo va a seguir igual, vuelvo a sacar una gama media resultona, con la cuota de siempre y que me quiten lo bailao.


En el fondo estamos más de acuerdo de lo que pueda parecer en lo fundamental.

Los costes están en la balanza, por supuesto, pero también creo que ya he dicho que los costes, aún siendo mayores, no justifican los precios actuales ya que hay un margen de aúpa tanto en todos los productos de nvidia como de AMD. Y AMD si quiere recuperar el mercado gaming no le queda otra que ser más atractiva que nvidia.
Los costes son mayores para amd, al tener una producción menor. Yo he dicho ya varias veces que los precios de ambas me parece una mierda, pero la realidad es que la subida de nvidia seguramente le dió aire a amd, porque con su volumen de ventas dificilmente podrá reducir margen.

Con las Vega por encima de 500€ no lo consigue, eso está claro. Si estuvieran a 400€, que podrían estar (eso sí, reconozco que posiblemente con una merma importante de márgenes), seguramente le iría mejor ahora mismo con las gpus (la minería ahora mismo no le da gran cosa).
Con Vega llegó tarde, eso está claro, y con precios más altos que la competencía. Pero fijate por donde, ahora se está viendo como escala en rendimiento en los últimos títulos. La diferencia de precio entre vega 64 y una 1080, se recorta en cuanto metes en la ecuación freesync vs gsync, y no olvidemos que ya salieron con un mercado "contaminado" por la minería. Igualmente, es perfectamente entendible que en esa gama fuesen mucho más atractivas las nvidia, pero vega no es el desastre que se vende. Aquí aprovecho para repetir, que cuanto menor es tu volumen de ventas, más difícil es recortar margen

La gama media es importante, pero ahí aunque sí ofrece algo en realidad tampoco es una bicoca, hace tiempo que no se veía tan "cómodos" a nvidia y AMD asumiendo cada uno el papel de mínima diferenciación en su posicionamiento para resultar atractivos a cada grupo de clientes targets.
Las dos generaciones anteriores, fueron más o menos igual, y coincide con el inicio del nuevo boom del pc gaming

Es que vamos a ver, si la GTX 580 8 GB fuera un poco más barata que la 1060 de 6 GB, AMD podría recuperar mercado de gama media, peroooo... nope. Prefiere atraer a algunos clientes con este modelo, pagando un poquito más que las 1060, apenas diferenciada en precio pero algo al alza, y ofrecer ese plus de rendimiento (ya sabemos que nvidia tiene otros puntos a favor que no se deben despreciar aunque el rendimiento sea lo más importante).
Esa comparación, parte ya de un mercado "contaminado" por el gaming. Si nos vamos a los lanzamientos de esta generación, los rendimientos eran parejos, la baza de nvidia era el consumo y algunos juegos patrocinados, y la de amd mayor vram y otra vez el gran olvidado freesync. Se puede preferir una cosa u otra, pero objetivamente, nvidia no tenía un producto superior y era ligeramente más caro (repito, hablo en los primeros meses post lanzamiento, la minería lo cambió todo)

El problema del mercado de minería es que no sabes cuándo va a implosionar, produces como un loco para vender en él, y cuando se acaba te pasas de frenada (teóricamente es lo que le ha pasado a nvidia con pascal, supongo que también a AMD con las suyas), y lo que es peor, una vez implosiona el mercado de segunda se llena de tarjetas con poca antigüedad y por tanto buen rendimiento por cuatro duros, compitiendo contra tus gráficas producidas en la actualidad (y para más inri, como tienen tanta tralla, con una fiabilidad pésima, lo que de paso daña también a la imagen tanto de marca como al precio de reventa de los usuarios normales con sus gráficas gaming, algo que vemos muy fácil en el foro de C/V cuando en una venta se recalca que X gráfica no viene del mercado de minado).
Que nvidia no haya calculado bien su producción de cara a la minería, no quiere decir que amd haya cometido el mismo error. De hecho, partimos de que la capacidad de fabricación de amd debe ser menor, así que aunque quisiera...


La minería es una puta lacra, no ya por lo que le ha hecho al mercado de gráficas, si no porque es un mercado especulativo de los peores, lleno de oportunistas y grandes "mineros" con sistemas ultracaros trabajando en algo que, realmente, no aporta una mierda a la humanidad. Porque hasta los ideales libertarios (de los que además siempre he cuestionado sus mismos principios) detrás de la criptomoneda se van por el retrete bajo el peso de la pura avaricia.... un truco para intentar forrarse con moneda real, y sostenido en la nada. Demencial.
Aquí nada que objetar ;p

Qué pérdida de tiempo de computación y energía, y de recursos. Por lo menos el gaming nos da una experiencia personal positiva, la minería... nada.



Lo dicho, en el fondo de acuerdo en muchos puntos, pero para señalar y simplemente hacer debate:

Ninguna de ambas marcas debería tener problemas para ajustar precios en rangos similares por volumen de ventas, dado que ambas en realidad tienen volúmenes de éstas enormes, no es lo mismo que comparar a volkswagen como marca y su producción contra Jaguar, por ejemplo (sólo hablando de volumen, no de posicionamiento).

Eso no quiere decir que nvidia no tenga una ventaja, la tiene porque fuera del volumen para muchas de las marcas genéricas de tarjetas gráficas (o no específicamente atadas a una casa de gpus, mejor dicho), suele tener más fuerza de negociado y puede forzar más su mano y sus márgenes si así lo desea.

Pero vamos... que no es un tema de "empresa pequeña contra empresa grande", como si ambas no fueran gigantes con mecanismos internos y de mercado similares. No es un caso de pequeño productor contra grande.

Sobre 580 vs 1060, es que en lanzamiento esto no era así, era 480 vs 1060, y sí era más rápida la 1060 que la 480 (y sigue siendo, aunque algo menos con drivers más depurados), de ahí su mayor precio. Recuerdo perfectamente cómo la 480 se colocaba justo debajo de la 980 en rendimiento, a poco de ésta, y cómo la 1060 se colocaba justo encima de la 980, justificando así un cierto sobreprecio en la nvidia.

Después vino la minería a joderlo todo, y cuando salió la 580, cierto, era y es algo más rápida, pero también salió algo más cara (y ya la fiebre minera jodiendo por todos lados, aunque aún apenas tenía presencia en las nvidia, algo que cambió unos meses después cuando la dificultad fue subiendo y empezó a verse como más rentables las nvidia por mantener mejor el balance moneda/W, hubo dos fases de esta fiebre, la que atacó primero a las AMd, y cuando se extendió a las nvidia y pascal, concretamente).

Sobre si nvidia ha calculado o no bien el efecto de la minería en su producción, ni siquiera tengo claro que sea real esa afirmación de alguna parte de la prensa, dado que es la marca que se ha mostrado más proactiva en contra de ésta (forzando a, por ejemplo, limitar el número de unidades vendidas por cliente en varias tiendas, a vigilar más los precios aunque sin éxito, etc), y de hecho cuando se habló del problema de que tenían stock de demasiadas tarjetas en algunos fabricantes, lo cierto es que no tenía sentido atribuirle esto a la minería cuando se descubrió que el stock estaba formado sobre todo por tarjetas de gama baja (no usadas en minería).

Lo que sí está claro es que se ha distorsionado mucho los precios, posiblemente estas subidas han afectado negativamente a todas las tarjetas de gama media para arriba, y puede que el estancamiento incluso en gama baja se deba tanto a una cierta subida de precios por arrastre de estas gamas así como al uso de más gráficos integrados.

Sobre freesync/Gsync, es cierto que Gsync es la opción menos atractiva del mercado (sólo se puede considerar una opción top gama, y siempre con un buen sobrecoste), pero este punto atractivo para las AMD lo es en gran medida por la cabezonería de la propia nvidia, pues ésta puede adoptar cuando quiera el estándar freesync (no la marca comercial, si no me equivoco, pero sí la compatibilidad, es un simple estándar VESA, adaptative-sync como nombre genérico), lo que no se puede dar es lo contrario, AMD usando Gsync (o por lo menos NO sin acuerdo comercial entre AMD y nvidia).

Es un valor que tiene AMD, y seguirá teniendo hasta que nvidia caiga de la burra.

@exter

Sobre RT y DLSS, es más fácil incorporar DLSS, sí, y RT en principio es más complejo al afectar y no poco a la pipeline de proceso de render y necesitar meter algún paso intermedio para ello.

Ahora, que Microsoft se supone que con el último win10 ha metido una extensión para RT en tiempo real en su pipeline 3D, extensión que ya es compatible con los RT cores de nvidia (y también con shaders genéricos).

https://wccftech.com/first-nvidia-rtx-2 ... benchmark/

O sea, habrá una forma de poder usar estos efectos de forma estandarizada y "simple" en la pipeline de D3D. Si renta o no ya es otro tema.
goku593 escribió: ¿me estás diciendo que AMD lastra -en consolas- el propio avance que Nvidia crea en PC?


Si. Es exactamente eso.

Al final un equipo se centra en una plataforma X para desarrollar y sacar todo el partido, y se adapta a ese hard.

La única parte buena, es que como las cpu de las consolas son una patata con 8 hilos, almenos han empezado a usar bien el tema de paralelizar y en eso beneficia al PC.

En cuanto a GPU, pues en consolas hay lo que hay, lo más top la One X lleva algo parecido a una RX570.

Pero vamos, que no es ninguna novedad esto que te digo, es lo que ha pasado siempre. Por suerte cada vez pasará menos, porque las consolas ya serán muy potentes, equivalentes a un pc medio.
KailKatarn escribió:
anikilador_imperial escribió:El Raytracing será viable dentro de una década y en ese momento yo lo disfrutaré como un niño, ahora mismo están usando a la gente de early adopter con un producto sacadineros que NO es capaz de mover raytracing decentemente ni en las gamas entusiastas.



Claro, la rasterización por su parte se movió increíble a cualquier resolución desde las primeras GPUs que salieron al mercado. Aun me acuerdo en los años 90 con las Number 9 jugando a resolución 4K y 40000fps o las Voodoo 1 a 16K, 64bit de profundidad de color y no menos de 5000000000000000000000000 de fps.

A ver si vamos entendiendo que las primeras tecnologías e implementaciones de algo no van a mover precisamente las cosas sobradísimamente, bastante que las pueden ejecutar, aunque bueno, estoy en España, aquí personalmente se creen todos ingenieros de GPUs y lo que haga falta con tal de llorar en público.

Vamos, si me devolviesen todo el dinero que me he dejado en GPUs en su evolución en rasterización directamente pagar una de estas me iba a parecer un juego de niños, pero claro, en la evolución de la rasterización parece ser que aquí nadie hemos jugado a 640x480 o 800x600 y hasta a 15fps, no, directamente fue todo increíble y las tarjetas nos las regalaban en las puertas de los colegios al salir de clase.

Ahora hablan de 30-40fps a 1080p en las primeras tarjetas capaces de utilizar Raytracing en tiempo real y es el fin del mundo, sin lugar a dudas. Que mal Nvidia ... que mal, has empezado con el Raytracing bastante mejor que lo que pudimos conocer en el mundo de la rasterización, pero tranquila, que ahora vienen los foreros españoles y te dicen como hay que hacer las cosas entre lloro y lloro mientras no te queda ni una en las estanterías de las tiendas. [plas] [plas] [plas]


Claro, y comparamos saltar de la nada al rasterizado con lo que está pasando ahora. Estás derrapando más que un Sprinter Trueno repartiendo tofu, pero no solo tu, tu y mucha gente. Nvidia ha vendido su RTX como la panacea que va a revolucionar el gaming y está MINTIENDO. Y no voy a aguantarte ni a ti ni a nadie que menosprecie o ridiculice mi opinión y ese tonito sarcástico y de superioridad que rezuman tus posts de un tiempo a esta parte. Si te quieres dirigir a la gente lo haces con respeto, no por nada, sino porque igual estás hablando con alguien que sabe lo mismo o más que tu sobre raytracing y sobre las redes neuronales que Nvidia nos quiere vender como si fueran Jesucristo en la tierra. De verdad, es que no entiendo como puedes tener la cabeza tan bien puesta para unas cosas y luego tragarte maniobras de marketing tan evidentes para otras.
evilkainn_ escribió:@anikilador_imperial viva el AE86 coño! xD


Que viva el amo y señor del japoderrape xDDD

Imagen

N-NNN-NANI!!!

KANSAI NVIDIARIFTOO

(sorry por el offtopic xD)
Hoy el Peste me va a 5 fps con la 2080

Lamentable [facepalm] [facepalm]
Kamikaze 11 está baneado por "Troll"
Eddie11 escribió:Hoy el Peste me va a 5 fps con la 2080

Lamentable [facepalm] [facepalm]

Eso con el simulador de atletismo no pasa
wwwendigo escribió:
Lo dicho, en el fondo de acuerdo en muchos puntos, pero para señalar y simplemente hacer debate:

Ninguna de ambas marcas debería tener problemas para ajustar precios en rangos similares por volumen de ventas, dado que ambas en realidad tienen volúmenes de éstas enormes, no es lo mismo que comparar a volkswagen como marca y su producción contra Jaguar, por ejemplo (sólo hablando de volumen, no de posicionamiento).

Eso no quiere decir que nvidia no tenga una ventaja, la tiene porque fuera del volumen para muchas de las marcas genéricas de tarjetas gráficas (o no específicamente atadas a una casa de gpus, mejor dicho), suele tener más fuerza de negociado y puede forzar más su mano y sus márgenes si así lo desea.

Pero vamos... que no es un tema de "empresa pequeña contra empresa grande", como si ambas no fueran gigantes con mecanismos internos y de mercado similares. No es un caso de pequeño productor contra grande.

Sobre 580 vs 1060, es que en lanzamiento esto no era así, era 480 vs 1060, y sí era más rápida la 1060 que la 480 (y sigue siendo, aunque algo menos con drivers más depurados), de ahí su mayor precio. Recuerdo perfectamente cómo la 480 se colocaba justo debajo de la 980 en rendimiento, a poco de ésta, y cómo la 1060 se colocaba justo encima de la 980, justificando así un cierto sobreprecio en la nvidia.
Eso es, era 480 vs 1060 lo que yo decía se dió en el lanzamiento (la 580 no deja de ser una 480 apretada). Pero ni de coña la 1060 rendía lo que una 980 los primeros meses. Ambas (480 8gb y 1060 6gb) rendían similar (a medio camino de la 970 y la 980), diferencias de menos de 10 fps a favor de una u otra según el juego. Pese a esto, se valoró más el menor consumo y el sanbenito de los drivers y la 1060 vendió mucho más.

Después vino la minería a joderlo todo, y cuando salió la 580, cierto, era y es algo más rápida, pero también salió algo más cara (y ya la fiebre minera jodiendo por todos lados, aunque aún apenas tenía presencia en las nvidia, algo que cambió unos meses después cuando la dificultad fue subiendo y empezó a verse como más rentables las nvidia por mantener mejor el balance moneda/W, hubo dos fases de esta fiebre, la que atacó primero a las AMd, y cuando se extendió a las nvidia y pascal, concretamente).

Sobre si nvidia ha calculado o no bien el efecto de la minería en su producción, ni siquiera tengo claro que sea real esa afirmación de alguna parte de la prensa, dado que es la marca que se ha mostrado más proactiva en contra de ésta (forzando a, por ejemplo, limitar el número de unidades vendidas por cliente en varias tiendas, a vigilar más los precios aunque sin éxito, etc), y de hecho cuando se habló del problema de que tenían stock de demasiadas tarjetas en algunos fabricantes, lo cierto es que no tenía sentido atribuirle esto a la minería cuando se descubrió que el stock estaba formado sobre todo por tarjetas de gama baja (no usadas en minería).

Lo que sí está claro es que se ha distorsionado mucho los precios, posiblemente estas subidas han afectado negativamente a todas las tarjetas de gama media para arriba, y puede que el estancamiento incluso en gama baja se deba tanto a una cierta subida de precios por arrastre de estas gamas así como al uso de más gráficos integrados.

Sobre freesync/Gsync, es cierto que Gsync es la opción menos atractiva del mercado (sólo se puede considerar una opción top gama, y siempre con un buen sobrecoste), pero este punto atractivo para las AMD lo es en gran medida por la cabezonería de la propia nvidia, pues ésta puede adoptar cuando quiera el estándar freesync (no la marca comercial, si no me equivoco, pero sí la compatibilidad, es un simple estándar VESA, adaptative-sync como nombre genérico), lo que no se puede dar es lo contrario, AMD usando Gsync (o por lo menos NO sin acuerdo comercial entre AMD y nvidia).

Es un valor que tiene AMD, y seguirá teniendo hasta que nvidia caiga de la burra.

.


Básicamente, lo que discuto, es lo que se viene repitiendo de que amd no ha plantado cara. La única razón de que los precios se desbocaran, ha sido que los consumidores hemos tragado, y si ha aumentado el "monopolio" de nvidia, ha sido porque esos consumidores han preferido esa marca por inercia, no porque en muchos casos para el uso que le iban a dar, fuera la mejor opción.

A mi los precios de la 2080 y la 2080ti me la pelan. Si se confirman los de la 2070, hasta va a ser decente teniendo en cuenta que la 1070 ya salió por un precio similar. Sigo esperando un título que me empuje a cambiar de gráfica, y ahora mismo estaría entre una 2070 por 520 o un vega 56 por 400.

A mi lo que me jode es que unos cuantos años después, si quiero ver un salto de rendimiento respecto a mi r9 290, tengo que gastar mucho más porque por el mismo precio que me costó en su momento, el salto es mínimo.

Así que repito por enésima vez, nos la metieron doblada con pascal y las rx, así que los precios de ahora son "normales" teniendo en cuenta de donde venimos.
Kamikaze 11 escribió:
Eddie11 escribió:Hoy el Peste me va a 5 fps con la 2080

Lamentable [facepalm] [facepalm]

Eso con el simulador de atletismo no pasa

Con el simulador de robots si pasa. [facepalm]
Kamikaze 11 está baneado por "Troll"
Eddie11 escribió:
Kamikaze 11 escribió:
Eddie11 escribió:Hoy el Peste me va a 5 fps con la 2080

Lamentable [facepalm] [facepalm]

Eso con el simulador de atletismo no pasa

Con el simulador de robots si pasa. [facepalm]

De tu NVIDIA nase mi famah
11796 respuestas