Octavia_RS escribió:@Kamikaze 11 ya , las tarjetas nuevas de AMD se esperan para el 2019, con nueva arquitectura y nodo a 7 nm
alxinako escribió:Claro porque si la gente no tiene una 2080ti no puede disfrutar de su hobby
@KamiKaze 11 Ahora mismo si quieres te hago un pc por 1000 e que te aguante 2 generaciones, pero eso si no esperes estar a la ultimísima.
Ese es el fallo de este hilo, o el que sea, en el momento que se dan datos falsos o se omiten otros por conveniencia para justificar vuestro cabreo por que las últimas graficas son muy caras.
Las 1080ti cuando salieron valian sobre los 1000e, no entiendo porque decis que las 2080ti son caras valiendo 300 pavos más llevando lo que llevan demás y siendo una arquitectura nueva, con memorias nuevas y nuevas tecnologías.
Que no os parece suficiente rendimiento o no os interesan las nuevas tecnologías que conllevan, pues muy bien, pero dejar de aconsejar con mentiras o patalear porque el incremento de rendimiento no ha sido el esperado, cuando esto no es cíclico tampoco como algunos se empeñan en repetir.
Estas ultimas páginas han pasado de ser un hilo interesante con datos e información para el que quiera consultar sobre las turing, a un hilo de 3djuegos sobre "pleyvsxbos"
Kamikaze 11 escribió:Octavia_RS escribió:@Kamikaze 11 ya , las tarjetas nuevas de AMD se esperan para el 2019, con nueva arquitectura y nodo a 7 nm
Las Navi no? A ver que tal, yo no creo que me cambie aún de gráfica pero me interesa seguir el tema para más adelante
exter escribió:goku593 escribió:Tío, con todo el respeto, ¿tú qué coño sabes si va a ser funcional o no la IA? Quizás sea el comienzo de una tecnología prometedora, o quizás no. Pero ahí está tanto a nivel de Hard dedicado, como a nivel de inversión empresarial (SATURN V).
De verdad, a veces parece que eres la voz de la sabiduría.
Simplemente que no me trago toda la charlatanería de marketing por haberme dejado 900€ en una gráfica.
Es lo mismo que la IA o la computación en la nube que vendía microsoft con la Xbox One, que todo iba a ser la polla, que granjas de 35.000 servidores, y nadie usa eso.
Humo para la presentación, todo el mundo ohhh vamos a flipar, y al final queda en nada.
Si pensaras un poco en lo que te venden, en lugar de darlo por sentado, no te parecería que mis palabras son de listillo de bar, que parece es lo que sugieres.
Si realmente hay un servidor Saturn V o Skynet, que hace de IA para ayudarte en ciertos cálculos, lo primero que tienes que pensar es que eso tiene que ser real time mientras juegas.
Como es en tiempo real, necesitas unas latencias extremadamente bajas, para que ello no te haga un "cuello de botella" en lo que sea que hace el juego. Por eso, a mi no me cuadran estas cosas.
Además ya sabes que soy programador, y estoy bastante cansado de leer propaganda de marketing en otros àmbitos, que me chirria por todos lados, pero lo lee mi jefe y te viene alucinando pepinillos.
Octavia_RS escribió:Kamikaze 11 escribió:Octavia_RS escribió:@Kamikaze 11 ya , las tarjetas nuevas de AMD se esperan para el 2019, con nueva arquitectura y nodo a 7 nm
Las Navi no? A ver que tal, yo no creo que me cambie aún de gráfica pero me interesa seguir el tema para más adelante
Si las Navi, y ojala AMD haga buenas graficas sera bueno para todos los usuarios, yo con mi Ryzen estoy muy contento en rendimiento, pensaba que no iba a comprar mas procesadores AMD desde los FX y mira
Octavia_RS escribió:@Kamikaze 11 ya , las tarjetas nuevas de AMD se esperan para el 2019, con nueva arquitectura y nodo a 7 nm
wwwendigo escribió:
1.- No, no tiene nada que ver. Estás mezclando churras con merinas.
2.- Mejor te diría que releas en qué consisten los IA cores y cuál es su trabajo. Real.
3.- ¿?, El servidor Saturn V NO se usa para NADA que tenga que ver con tiempo real, ni para ayudarte, ni para comunicarse en absoluto con tu sistema y hacer cálculos. Pero estás errando muy de lejos, vamos.
4.- Saturn V entrena redes neuronales, de ahí salen unos kernels específicos para juegos para reconstruir imágenes, kernels que van en los drivers y los usan las turing al habilitar DLSS para hacer un escalado inteligente con antialiasing integrado.
5 .- Ten cuidado de hacerle leer esto a tu jefe, no vaya a ser que te despida por... no tener nada claros los conceptos manejados.
Es que NO tiene nada que ver con la idea que tienes montada en la cabeza, no es un sistema en la nube, ese servidor se usa para algo que evidentemente no has entendido (es para entrenar las redes usadas, NO para hacer nada con tu sistema mientras juegas), y en general los IA cores están ahí para hacer funciones similares al DLSS pero en otras facetas, como el denoising realizado en varias etapas del procesado con RT de "reflejos" para así poder obtener imágenes base a reflejar de mayor resolución a las calculadas realmente a través de los RT cores (que en realidad deberían hacer sólo la etapa de testado de rayos y tal, pero por simplificar todo este lío).
Te estás confundiendo mucho con el para qué y cómo funciona todo el tema basado en los Tensor cores.
¿tú qué coño sabes si va a ser funcional o no la IA? Quizás sea el comienzo de una tecnología prometedora, o quizás no. Pero ahí está tanto a nivel de Hard dedicado, como a nivel de inversión empresarial (SATURN V).
adriano_99 escribió:Octavia_RS escribió:@Kamikaze 11 ya , las tarjetas nuevas de AMD se esperan para el 2019, con nueva arquitectura y nodo a 7 nm
En 2019 amd sólo sacará productos totalmente nuevos para profesionales y para IA.
La única gráfica para consumo que se espera antes de 2020 son refritos de polaris.
Mendrolo escribió:Yo lo que nunca a entenderé, es porque se espera que la competencia venda a mejor precio/rendimiento que el actor principal cuando a este le compran como si no hubiese un mañana.
Y porque resulta extraño, que cuando no calas en el mercado gaming ofreciendo un producto competente, te vuelques en el del minado.
KailKatarn escribió:Vamos, otro ejemplo más de que la gente no sabe ni de lo que habla en su inmensa mayoría, eso sí, se les olvidan muchas cosas por el camino.
Kamikaze 11 escribió:KailKatarn escribió:Vamos, otro ejemplo más de que la gente no sabe ni de lo que habla en su inmensa mayoría, eso sí, se les olvidan muchas cosas por el camino.
Peor para eso está muy bien estos debates e hilos, porque se aprende, al menos a mí me sirve para eso.
exter escribió:Kamikaze 11 escribió:KailKatarn escribió:Vamos, otro ejemplo más de que la gente no sabe ni de lo que habla en su inmensa mayoría, eso sí, se les olvidan muchas cosas por el camino.
Peor para eso está muy bien estos debates e hilos, porque se aprende, al menos a mí me sirve para eso.
A malas también se aprende a como poder meter gente en ignorados para no consumir el ancho de banda en parrafadas vende humos.
Mendrolo escribió:Yo lo que nunca a entenderé, es porque se espera que la competencia venda a mejor precio/rendimiento que el actor principal cuando a este le compran como si no hubiese un mañana.
Y porque resulta extraño, que cuando no calas en el mercado gaming ofreciendo un producto competente, te vuelques en el del minado.
exter escribió:wwwendigo escribió:
1.- No, no tiene nada que ver. Estás mezclando churras con merinas.
2.- Mejor te diría que releas en qué consisten los IA cores y cuál es su trabajo. Real.
3.- ¿?, El servidor Saturn V NO se usa para NADA que tenga que ver con tiempo real, ni para ayudarte, ni para comunicarse en absoluto con tu sistema y hacer cálculos. Pero estás errando muy de lejos, vamos.
4.- Saturn V entrena redes neuronales, de ahí salen unos kernels específicos para juegos para reconstruir imágenes, kernels que van en los drivers y los usan las turing al habilitar DLSS para hacer un escalado inteligente con antialiasing integrado.
5 .- Ten cuidado de hacerle leer esto a tu jefe, no vaya a ser que te despida por... no tener nada claros los conceptos manejados.
Es que NO tiene nada que ver con la idea que tienes montada en la cabeza, no es un sistema en la nube, ese servidor se usa para algo que evidentemente no has entendido (es para entrenar las redes usadas, NO para hacer nada con tu sistema mientras juegas), y en general los IA cores están ahí para hacer funciones similares al DLSS pero en otras facetas, como el denoising realizado en varias etapas del procesado con RT de "reflejos" para así poder obtener imágenes base a reflejar de mayor resolución a las calculadas realmente a través de los RT cores (que en realidad deberían hacer sólo la etapa de testado de rayos y tal, pero por simplificar todo este lío).
Te estás confundiendo mucho con el para qué y cómo funciona todo el tema basado en los Tensor cores.
Lo del sistema mientras juegas me refería a lo que sacó microsoft con la computacion en la nube y los ejemplos en videos con Crackdown. Comparandolo si nvidia planeaba hacer lo mismo con tanto servidor y tanta IA.
Que tengas un servidor que te haga unas dll para luego aplicar el DLSS, vamos no se para que tanta historia. Marketing. Pero oye, que tu lo vendes de puta madre, se nota que tienes el whitepaper estudiado.
Está claro que tu lo sabes todo y que se trata de dejar al resto de gente como que son gilipollas. Pues oye, disfruta tu sabiduría.
Mendrolo escribió:Yo lo que nunca a entenderé, es porque se espera que la competencia venda a mejor precio/rendimiento que el actor principal cuando a este le compran como si no hubiese un mañana.
Y porque resulta extraño, que cuando no calas en el mercado gaming ofreciendo un producto competente, te vuelques en el del minado.
Krain escribió:Mendrolo escribió:Yo lo que nunca a entenderé, es porque se espera que la competencia venda a mejor precio/rendimiento que el actor principal cuando a este le compran como si no hubiese un mañana.
Y porque resulta extraño, que cuando no calas en el mercado gaming ofreciendo un producto competente, te vuelques en el del minado.
Porque si quieres competir con alguien que domina el mercado tienes que hacerlo a menor precio y con mayores prestaciones. No hay otra forma (bueno sí, a muuucho menor precio con prestaciones parecidas). Así que lo que se espera es competencia real u ostracismo. No que llegue AMD con un producto peor y más caro. AMD después de los disparates que ha hecho INTEL tiene un mercado con Ryzen y puede liderar cuando lleguen los Zen2 a 7nm (todo apunta a que puede ser un momento relevante) pero en las gráficas de consumo está a años luz de Nvidia. Desde Hawaii y Maxwell Nvidia ha dado 2 pasos de gigante y AMD refritos y errores. No creo que en GPU sea tan relevante el salto de litografía y más cuando Nvidia en posición abasalladora ha elegido el camino del raytracing (aunque yo sigo pensando que la decisión se tomó para que los mineros se quedaran con pascal por precio/rendimiento en minado)
AlbertX escribió:@wwwendigo Lo que me he reido con el tio y su argumentacion sobre el tema de el DLSS y la saturno V y luego te saca que para hacer esas DLL no necesitas redes neuronales y no se que.
La madre del amor hermoso, siempre he dicho el problema no es criticar algo o no gustarte, el problema es hacerlo desde la total y completa ignorancia.
Obvio que no ha se ha tomado 5 minutos para leer la funcion que cumple ese Super Computador ni que es lo termina haciendo.
En serio, si de verdad lo lee el jefe es para que le diga que es bastante mediocre en terminos de tecnologia sino ha entendido el concepto simple y el porque esta alli.
Krain escribió:Porque si quieres competir con alguien que domina el mercado tienes que hacerlo a menor precio y con mayores prestaciones. No hay otra forma (bueno sí, a muuucho menor precio con prestaciones parecidas). Así que lo que se espera es competencia real u ostracismo. No que llegue AMD con un producto peor y más caro. AMD después de los disparates que ha hecho INTEL tiene un mercado con Ryzen y puede liderar cuando lleguen los Zen2 a 7nm (todo apunta a que puede ser un momento relevante) pero en las gráficas de consumo está a años luz de Nvidia. Desde Hawaii y Maxwell Nvidia ha dado 2 pasos de gigante y AMD refritos y errores. No creo que en GPU sea tan relevante el salto de litografía y más cuando Nvidia en posición abasalladora ha elegido el camino del raytracing (aunque yo sigo pensando que la decisión se tomó para que los mineros se quedaran con pascal por precio/rendimiento en minado)
karlostek escribió:67/68 grados de temperatura con la gigabyte 2080ti oc gaming jugando a 4k ultra y von OC
razieljas escribió:Bueno pues me han mandado ya la Zotac RTX 2080 Ti AMP! desde Coolmod con tan buena suerte de que hay un temporal de la muerte en la Comunidad Valenciana y a saber cuando coño me llega.
Genial.
KailKatarn escribió:
De hecho el tema de la minería le ha venido muy bien a AMD a nivel de cuentas en su sector de GPU, si no llega a ser por eso no sé como estaría ya esa sección sin la aparición de Ryzen. De hecho este mismo ejemplo vale para ver que cuando venden anda que no estaban caras las RX480/580, ahí han sacado todos los cuartos que han podido, vamos como hacen todas las compañías tecnológicas últimamente.
wwwendigo escribió:Mendrolo escribió:Yo lo que nunca a entenderé, es porque se espera que la competencia venda a mejor precio/rendimiento que el actor principal cuando a este le compran como si no hubiese un mañana.
Y porque resulta extraño, que cuando no calas en el mercado gaming ofreciendo un producto competente, te vuelques en el del minado.
Hombre, sobre el punto 1, es evidente, si tú no eres el actor principal ni tienes su prestigio, no te queda otra que intentar resultar más atractivo ofreciendo algo más por menos, o aunque sea una de las dos direcciones de lo sentenciado (más por lo mismo, o lo mismo por menos, pero un EXTRA).
Si no lo haces, seguirás sin ser no ya el actor principal, es que el actor principal te va a comer los márgenes tuyos al expandir aún más su popularidad (y con razón en ese caso).
Sobre el 2, no, no resulta extraño. Pero lo cierto es que es pan para hoy y hambre para mañana, como se ha demostrado en los tiempos recientes, la minería por gpu está más que estancada, como ya ha pasado anteriormente, la burbuja explota una y otra vez, estancando ventas, y eso hablando sólo de la burbuja especulativa, ni qué decir que hay un ciclo "natural" donde toda criptomoneda de moda acaba aumentando de dificultad lo suficiente como para no hacerla ya rentable con gpus (más cara la electricidad consumida para el minado que el rendimiento con éste), y que de ahí se pasen ya a ASICs y FPGAs.
En ese sentido, el mercado "gaming" es muchísimo más estable, fiable, y suficientemente buen pagador. Despreciarlo si diseñas gpus es lo mismo que pegarte un tiro en el cielo de la boca, AMD sabrá lo que hace, pero a este ritmo sólo quedará la división de cpus (a la cual le doy un auténtico aplauso por su gesta y de la que me declaro fan de sus últimos productos, que cuando pueda, salto a Ryzen).exter escribió:wwwendigo escribió:
1.- No, no tiene nada que ver. Estás mezclando churras con merinas.
2.- Mejor te diría que releas en qué consisten los IA cores y cuál es su trabajo. Real.
3.- ¿?, El servidor Saturn V NO se usa para NADA que tenga que ver con tiempo real, ni para ayudarte, ni para comunicarse en absoluto con tu sistema y hacer cálculos. Pero estás errando muy de lejos, vamos.
4.- Saturn V entrena redes neuronales, de ahí salen unos kernels específicos para juegos para reconstruir imágenes, kernels que van en los drivers y los usan las turing al habilitar DLSS para hacer un escalado inteligente con antialiasing integrado.
5 .- Ten cuidado de hacerle leer esto a tu jefe, no vaya a ser que te despida por... no tener nada claros los conceptos manejados.
Es que NO tiene nada que ver con la idea que tienes montada en la cabeza, no es un sistema en la nube, ese servidor se usa para algo que evidentemente no has entendido (es para entrenar las redes usadas, NO para hacer nada con tu sistema mientras juegas), y en general los IA cores están ahí para hacer funciones similares al DLSS pero en otras facetas, como el denoising realizado en varias etapas del procesado con RT de "reflejos" para así poder obtener imágenes base a reflejar de mayor resolución a las calculadas realmente a través de los RT cores (que en realidad deberían hacer sólo la etapa de testado de rayos y tal, pero por simplificar todo este lío).
Te estás confundiendo mucho con el para qué y cómo funciona todo el tema basado en los Tensor cores.
Lo del sistema mientras juegas me refería a lo que sacó microsoft con la computacion en la nube y los ejemplos en videos con Crackdown. Comparandolo si nvidia planeaba hacer lo mismo con tanto servidor y tanta IA.
Que tengas un servidor que te haga unas dll para luego aplicar el DLSS, vamos no se para que tanta historia. Marketing. Pero oye, que tu lo vendes de puta madre, se nota que tienes el whitepaper estudiado.
Está claro que tu lo sabes todo y que se trata de dejar al resto de gente como que son gilipollas. Pues oye, disfruta tu sabiduría.
Lo siento si te sienta mal, pero es que tú has argumentado el principio de autoridad con el compañero (que eres programador, que si tu jefe se reiría, etc) cuando estabas equivocado de cabo a rabo. Y eso tampoco es dando la razón al otro compañero, porque ambos no teníais razón en entender en qué consiste exactamente el tema.
Yo no tengo "estudiado el whitepaper", yo lo que pasa es que además de ser también programador, sí sé cómo funciona el tema de ML porque entre otras cosas lo tengo mamado y he diseñado y entrenado algún kernel de reconocimiento de imágenes, en su momento. Ser programador no garantiza en absoluto que se conozcan estos temas de ML, porque hay muchas áreas de la programación que nada tienen que ver con esto, y si te veo tan despistado con el tema, pues lo aclaro antes de evitar más confusiones.
Sobre lo recalcado, es que nada tiene que ver con la computación en la nube y mucho menos con ese servicio de streaming de microsoft (donde granjas de ordenadores harían el papel de tu sistema, o enviarían un stream parcial de lo que sale en pantalla acelerando "cálculos" que no se hicieran en tu consola, pues por ejemplo un streaming con el render de todo lo que no sean los personajes controlados, o cualquier cosa similar).
Lo que hace ese servidor no es generar unas DLLs, es un kernel, básicamente se podría ver como un gigantesca matriz de convolución o un filtro a aplicar sobre la imagen para mejorarla. Es que es algo muy distinto.
Te aseguro que si se pudiera aplicar sin ningún problema el mismo kernel en todo juego activando DLSS, la primera en hacerlo sería nvidia, se ahorra el tedioso proceso caro de entrenamiento de kernels para cada título específico, caro porque implica muchísima capacidad computacional y porque implica un largo proceso en tiempo y recursos de entrenamiento (el desarrollador sube varios miles de imágenes a distintas resoluciones para entrenar la red/kernel y que tenga tanto entradas como salidas adecuadas a buscar por dicho kernel, etc).
De hecho el primero en tener dudas sobre si sería funcional un kernel genérico para DLSS en cualquier juego, en el sentido de que "creo que sí funcionaría", soy yo mismo. Pero un asunto es que yo crea que sí funcionaría, y otra que asegure que es una solución suficientemente buena o libre de artefactos como los kernels entrenados juego a juego.
Pareciera que debería funcionar igual el genérico, pero en distintos juegos hay diferencias sutiles de gráficos que pueden hacer fallar kernels genéricos (diferencias cromáticas generales por uso de paletas de colores concretas, un diseño poligonal más complejo o lleno de mayores ángulos rectos en un caso y otro no, etc).
Pero vamos, los IA core sirven para, por lo menos ahora, de todo menos lo que la gente piensa, IA, que es el error que algunos arrastráis. De momento no hay ni traza de que se vayan a usar para acelerar nada de IAs en juegos (aunque se podría, de todas formas es un reto a nivel técnico por su naturaleza mixta con la cpu y el código normal del juego), sirven para mejorar imágenes con "filtros" avanzados sacados de trabajo con machine learning.
Es lo que hay, y no es por ofender, es por aclarar puntos muy confusos, entre otras por la propia nvidia que no ha dado demasiada información sobre el tema (inicialmente pensaba que DLSS servía para, tras trabajar con una imagen con supersampling real, hacer una detección y eliminado de aliasind de tipo superb, cuando no es así, y es un resultado peor del que me pensaba).
John_Doe escribió:Estoy pensando en coger la FE ahora que esta de nuevo en Stock pero me echa para atras el ruido en reposo.
Alguno de los que la tengáis, como de ruidoso es el nuevo sistema de refrigeración? molesta en reposo?
Un saludo
exter escribió:wwwendigo escribió:
1.- No, no tiene nada que ver. Estás mezclando churras con merinas.
2.- Mejor te diría que releas en qué consisten los IA cores y cuál es su trabajo. Real.
3.- ¿?, El servidor Saturn V NO se usa para NADA que tenga que ver con tiempo real, ni para ayudarte, ni para comunicarse en absoluto con tu sistema y hacer cálculos. Pero estás errando muy de lejos, vamos.
4.- Saturn V entrena redes neuronales, de ahí salen unos kernels específicos para juegos para reconstruir imágenes, kernels que van en los drivers y los usan las turing al habilitar DLSS para hacer un escalado inteligente con antialiasing integrado.
5 .- Ten cuidado de hacerle leer esto a tu jefe, no vaya a ser que te despida por... no tener nada claros los conceptos manejados.
Es que NO tiene nada que ver con la idea que tienes montada en la cabeza, no es un sistema en la nube, ese servidor se usa para algo que evidentemente no has entendido (es para entrenar las redes usadas, NO para hacer nada con tu sistema mientras juegas), y en general los IA cores están ahí para hacer funciones similares al DLSS pero en otras facetas, como el denoising realizado en varias etapas del procesado con RT de "reflejos" para así poder obtener imágenes base a reflejar de mayor resolución a las calculadas realmente a través de los RT cores (que en realidad deberían hacer sólo la etapa de testado de rayos y tal, pero por simplificar todo este lío).
Te estás confundiendo mucho con el para qué y cómo funciona todo el tema basado en los Tensor cores.
Lo del sistema mientras juegas me refería a lo que sacó microsoft con la computacion en la nube y los ejemplos en videos con Crackdown. Comparandolo si nvidia planeaba hacer lo mismo con tanto servidor y tanta IA.
Que tengas un servidor que te haga unas dll para luego aplicar el DLSS, vamos no se para que tanta historia. Marketing. Pero oye, que tu lo vendes de puta madre, se nota que tienes el whitepaper estudiado.
Yo no hablaba del DLSS, mi comentario con lo del Saturn y la IA venía por lo que decía goku, por lo que pueden hacer en el futuro:¿tú qué coño sabes si va a ser funcional o no la IA? Quizás sea el comienzo de una tecnología prometedora, o quizás no. Pero ahí está tanto a nivel de Hard dedicado, como a nivel de inversión empresarial (SATURN V).
Para hacer una DLL de mierda que pones en los drivers, no hace falta vender que vas a usar no se que super servidor neuronal etc etc. Por eso, Marketing.
Está claro que tu lo sabes todo y que se trata de dejar al resto de gente como que son gilipollas. Pues oye, disfruta tu sabiduría.
goku593 escribió:¿Pero que hablas tío? Lo que no puedes venir aquí es disfrazado de Sandro Rey, que te falta la bola, vaticinando y augurando que X tecnología, que lleva un mes en el mercado, es marketing empresarial. Esto si lo dices en 2019 vale, pero a un mes de la salida...
Mendrolo escribió:
Yo si escribo desde el móvil, así que me tienes que perdonar... ;p
- Amd no es nuevo en el mercado (de hecho es la única alternativa) y tiene un trozo del pastel más pequeño. Si los costes se ponen en la balanza para justificar parte del precio de las NVidia, con mas razón se tienen que poner en la del más débil. Esto no es como los móviles que hay varios actores, vuelcan toda la producción en China a terceros y estos al cabo del tiempo con lo aprendido saltan al mercado rompiendo precios. Es mucho más complicado.
- Los productos lanzados en la gama media, han sido igual de buenos cuando no mejores a los de nvidia en su lanzamiento. Las 470 y 480 de 4gb y 8 Gb salieron ligeramente más baratas que las 1060 de 3gb y 6 Gb (de hecho, las 470 cubrian un sector en el que nvidia tardó en responder, y mal, con la 1050ti) Con todo esto, las cuotas siguieron más o menos igual. Se prefería las 1060 cuando no se lanzaban a por una 1070 que tuvo una subida de precio de aúpa respecto a la 970.
- Salta el boom de la mineria... que hago? Sigo comiéndome una mierda en el mercado gaming, o saco tajada del nuevo? Cuando la fiesta se acabe, como en el gaming todo va a seguir igual, vuelvo a sacar una gama media resultona, con la cuota de siempre y que me quiten lo bailao.
exter escribió:AlbertX escribió:@wwwendigo Lo que me he reido con el tio y su argumentacion sobre el tema de el DLSS y la saturno V y luego te saca que para hacer esas DLL no necesitas redes neuronales y no se que.
La madre del amor hermoso, siempre he dicho el problema no es criticar algo o no gustarte, el problema es hacerlo desde la total y completa ignorancia.
Obvio que no ha se ha tomado 5 minutos para leer la funcion que cumple ese Super Computador ni que es lo termina haciendo.
En serio, si de verdad lo lee el jefe es para que le diga que es bastante mediocre en terminos de tecnologia sino ha entendido el concepto simple y el porque esta alli.
Simplemente no lo he leído. He sacado mis conclusiones y está claro que eran erróneas, porque lo que he leído por encima en diversas webs, me suena a panfleto de marketing la verdad.
Si me dejas un link que lo explique bien me lo leeré, para no quedar como un gilipollas la próxima vez.
De todos modos, sigo creyendo que se montan un tinglado de marketing para vender la moto y que no haría falta tanta historia.
@wwwendigo Tu explicación me parece excelente, pero no se hay cosas que me siguen sin cuadrar.
No entiendo que como se aplica que un desarrollador mande unas imágenes estáticas, y que procesando eso haga que en tiempo real mi equipo al ejecutar el juego a menor resolución para mejorar el rendimiento, haga un supersampling aplicando un AA con el DLSS que mejore la imagen.
No se, debo ser idiota pero no lo entiendo.
Como dices, hay ámbitos y ámbitos de programación, pero no se por sentido común hay cosas que me cuestiono, quizá por desconocimiento o por cautela, y hasta que no las vea aplicadas no me lo creo.
También puedo decirte que culpa de esto lo tiene nVidia, porque no te enseña las cosas claras.
Edit: Precisamente una de las cosas que critíqué es que dudaba de la aceptación del DLSS si el desarrollador tenía que enviar X información a nVidia para que pueda generar esa DLL. Y me dijeron que no, que estaba equivocado que eso era automático. Ahora tu me confirmas que es como yo decía (había leído anteriormente).
exter escribió:karlostek escribió:67/68 grados de temperatura con la gigabyte 2080ti oc gaming jugando a 4k ultra y von OC
Me parece muy buena temperatura. La gráfica va al 100% de carga todo el rato? Que tal de ruido?
karlostek escribió:exter escribió:karlostek escribió:67/68 grados de temperatura con la gigabyte 2080ti oc gaming jugando a 4k ultra y von OC
Me parece muy buena temperatura. La gráfica va al 100% de carga todo el rato? Que tal de ruido?
81% de carga,ruido muy bien la verdad
exter escribió:@wwwendigo
Si ponemos como ejemplo un juego como Battlefield V, en modo single player para simplificar y pongamos que su campaña dura 10h de juego.
Para cada punto del escenario, el desarrollador tendría que mandar una imagen de 360º, para que posteriormente el servidor de nVidia procese todo esto?
O solo tienen que mandar imágenes estáticas de los distintos objetos del escenario, sin tener en cuenta la perspectiva desde que la verá el jugador?
Es lo que me hace dudar, porque cuando estás en el juego, la cantidad distinta de cosas que puedes hacer, o dónde mirar, etc, como lo ha tenido en cuenta el desarrollador al pasar los "masters" de imágenes a nvidia?
Tienen a un chino haciendo capturas de pantalla como un loco?karlostek escribió:exter escribió:
Me parece muy buena temperatura. La gráfica va al 100% de carga todo el rato? Que tal de ruido?
81% de carga,ruido muy bien la verdad
Al 100% de carga seguramente suba algunos grados más, pero vamos que siempre puedes hacer una curva de ventilador más agresiva.
wwwendigo escribió:Mendrolo escribió:
Yo si escribo desde el móvil, así que me tienes que perdonar... ;p
- Amd no es nuevo en el mercado (de hecho es la única alternativa) y tiene un trozo del pastel más pequeño. Si los costes se ponen en la balanza para justificar parte del precio de las NVidia, con mas razón se tienen que poner en la del más débil. Esto no es como los móviles que hay varios actores, vuelcan toda la producción en China a terceros y estos al cabo del tiempo con lo aprendido saltan al mercado rompiendo precios. Es mucho más complicado.
- Los productos lanzados en la gama media, han sido igual de buenos cuando no mejores a los de nvidia en su lanzamiento. Las 470 y 480 de 4gb y 8 Gb salieron ligeramente más baratas que las 1060 de 3gb y 6 Gb (de hecho, las 470 cubrian un sector en el que nvidia tardó en responder, y mal, con la 1050ti) Con todo esto, las cuotas siguieron más o menos igual. Se prefería las 1060 cuando no se lanzaban a por una 1070 que tuvo una subida de precio de aúpa respecto a la 970.
- Salta el boom de la mineria... que hago? Sigo comiéndome una mierda en el mercado gaming, o saco tajada del nuevo? Cuando la fiesta se acabe, como en el gaming todo va a seguir igual, vuelvo a sacar una gama media resultona, con la cuota de siempre y que me quiten lo bailao.
En el fondo estamos más de acuerdo de lo que pueda parecer en lo fundamental.
Los costes están en la balanza, por supuesto, pero también creo que ya he dicho que los costes, aún siendo mayores, no justifican los precios actuales ya que hay un margen de aúpa tanto en todos los productos de nvidia como de AMD. Y AMD si quiere recuperar el mercado gaming no le queda otra que ser más atractiva que nvidia.
Los costes son mayores para amd, al tener una producción menor. Yo he dicho ya varias veces que los precios de ambas me parece una mierda, pero la realidad es que la subida de nvidia seguramente le dió aire a amd, porque con su volumen de ventas dificilmente podrá reducir margen.
Con las Vega por encima de 500€ no lo consigue, eso está claro. Si estuvieran a 400€, que podrían estar (eso sí, reconozco que posiblemente con una merma importante de márgenes), seguramente le iría mejor ahora mismo con las gpus (la minería ahora mismo no le da gran cosa).
Con Vega llegó tarde, eso está claro, y con precios más altos que la competencía. Pero fijate por donde, ahora se está viendo como escala en rendimiento en los últimos títulos. La diferencia de precio entre vega 64 y una 1080, se recorta en cuanto metes en la ecuación freesync vs gsync, y no olvidemos que ya salieron con un mercado "contaminado" por la minería. Igualmente, es perfectamente entendible que en esa gama fuesen mucho más atractivas las nvidia, pero vega no es el desastre que se vende. Aquí aprovecho para repetir, que cuanto menor es tu volumen de ventas, más difícil es recortar margen
La gama media es importante, pero ahí aunque sí ofrece algo en realidad tampoco es una bicoca, hace tiempo que no se veía tan "cómodos" a nvidia y AMD asumiendo cada uno el papel de mínima diferenciación en su posicionamiento para resultar atractivos a cada grupo de clientes targets.
Las dos generaciones anteriores, fueron más o menos igual, y coincide con el inicio del nuevo boom del pc gaming
Es que vamos a ver, si la GTX 580 8 GB fuera un poco más barata que la 1060 de 6 GB, AMD podría recuperar mercado de gama media, peroooo... nope. Prefiere atraer a algunos clientes con este modelo, pagando un poquito más que las 1060, apenas diferenciada en precio pero algo al alza, y ofrecer ese plus de rendimiento (ya sabemos que nvidia tiene otros puntos a favor que no se deben despreciar aunque el rendimiento sea lo más importante).
Esa comparación, parte ya de un mercado "contaminado" por el gaming. Si nos vamos a los lanzamientos de esta generación, los rendimientos eran parejos, la baza de nvidia era el consumo y algunos juegos patrocinados, y la de amd mayor vram y otra vez el gran olvidado freesync. Se puede preferir una cosa u otra, pero objetivamente, nvidia no tenía un producto superior y era ligeramente más caro (repito, hablo en los primeros meses post lanzamiento, la minería lo cambió todo)
El problema del mercado de minería es que no sabes cuándo va a implosionar, produces como un loco para vender en él, y cuando se acaba te pasas de frenada (teóricamente es lo que le ha pasado a nvidia con pascal, supongo que también a AMD con las suyas), y lo que es peor, una vez implosiona el mercado de segunda se llena de tarjetas con poca antigüedad y por tanto buen rendimiento por cuatro duros, compitiendo contra tus gráficas producidas en la actualidad (y para más inri, como tienen tanta tralla, con una fiabilidad pésima, lo que de paso daña también a la imagen tanto de marca como al precio de reventa de los usuarios normales con sus gráficas gaming, algo que vemos muy fácil en el foro de C/V cuando en una venta se recalca que X gráfica no viene del mercado de minado).
Que nvidia no haya calculado bien su producción de cara a la minería, no quiere decir que amd haya cometido el mismo error. De hecho, partimos de que la capacidad de fabricación de amd debe ser menor, así que aunque quisiera...
La minería es una puta lacra, no ya por lo que le ha hecho al mercado de gráficas, si no porque es un mercado especulativo de los peores, lleno de oportunistas y grandes "mineros" con sistemas ultracaros trabajando en algo que, realmente, no aporta una mierda a la humanidad. Porque hasta los ideales libertarios (de los que además siempre he cuestionado sus mismos principios) detrás de la criptomoneda se van por el retrete bajo el peso de la pura avaricia.... un truco para intentar forrarse con moneda real, y sostenido en la nada. Demencial.
Aquí nada que objetar ;p
Qué pérdida de tiempo de computación y energía, y de recursos. Por lo menos el gaming nos da una experiencia personal positiva, la minería... nada.
valencia escribió:Para el que le interese, Zotac Gaming GeForce RTX 2080Ti AMP! Edition 11GB GDDR6 en stock en PCComponentes, por "sólo" 1349 euros. Link:
https://www.pccomponentes.com/zotac-gam ... 1b64d40168
Saludos
goku593 escribió:@exter ni mucho menos pretendía ofenderte, mis disculpas si lo hice. Eso lo quería dejar claro.
Pero entiende que estas tecnologías de momento no se han ejecutado. Son tecnologías complejas, es un hecho, y todos los sabemos. Nvidia es la única que arriesga. Siempre ha sido así en este ámbito. Y es más, sinceramente, dudo que esta generación, ni la siguiente, puedan con RT. Pero si en tres generaciones se estandariza, será gracias a la inversión en i+D de Nvidia, y de sus cojones para implementarlo.
exter escribió:goku593 escribió:@exter ni mucho menos pretendía ofenderte, mis disculpas si lo hice. Eso lo quería dejar claro.
Pero entiende que estas tecnologías de momento no se han ejecutado. Son tecnologías complejas, es un hecho, y todos los sabemos. Nvidia es la única que arriesga. Siempre ha sido así en este ámbito. Y es más, sinceramente, dudo que esta generación, ni la siguiente, puedan con RT. Pero si en tres generaciones se estandariza, será gracias a la inversión en i+D de Nvidia, y de sus cojones para implementarlo.
Está claro que es una tecnología en pañales (por potencia bruta) para que los desarrolladores empiezen a jugar con ella, y dependerá igual de su implementación que tire para adelante o no.
Pero que es algo que puede tardar años.
Fijate sino DX12, desde que salió, al principio todo pestes porque o rendía igual que DX11 o en muchos casos empeoraba bastante. 3 años después de su lanzamiento, vemos ahora los primeros juegos que lo aprovechan bien y marcan una diferencia respecto a DX11.
Por desgracia, creo que estas nuevas tecnologías pueden quedar relegadas por un motivo muy tonto, las consolas.
La nueva generación de Sony y Microsoft, seguirán calzando AMD (CPU y GPU). Si estas no tienen RT o posibilidad de utilizar una tecnología parecida, obviamente los desarrolladores de esos juegos no lo implementarán.
Quedaría entonces que cuando saquen la versión PC de un multi, el desarrollador meta horas en incluir ciertas tecnologías.
El DLSS lo veo más fácil de incorporar, pero el RT no, porque quizá el engine tiene que estar peparado para ello (igual me equivoco).
Si al final pasase, que sólo tienen RT algunos juegos exclusivos de PC, no se si nVidia seguiría invirtiendo en mejorar algo que solo usa un X% de gente.
Esperemos que AMD tenga en marcha su RT, que en mayor o menor medida lo incorporen las nuevas consolas, y así de rebote en PC nos aprovechemos de ello.
Mendrolo escribió:wwwendigo escribió:Mendrolo escribió:
Yo si escribo desde el móvil, así que me tienes que perdonar... ;p
- Amd no es nuevo en el mercado (de hecho es la única alternativa) y tiene un trozo del pastel más pequeño. Si los costes se ponen en la balanza para justificar parte del precio de las NVidia, con mas razón se tienen que poner en la del más débil. Esto no es como los móviles que hay varios actores, vuelcan toda la producción en China a terceros y estos al cabo del tiempo con lo aprendido saltan al mercado rompiendo precios. Es mucho más complicado.
- Los productos lanzados en la gama media, han sido igual de buenos cuando no mejores a los de nvidia en su lanzamiento. Las 470 y 480 de 4gb y 8 Gb salieron ligeramente más baratas que las 1060 de 3gb y 6 Gb (de hecho, las 470 cubrian un sector en el que nvidia tardó en responder, y mal, con la 1050ti) Con todo esto, las cuotas siguieron más o menos igual. Se prefería las 1060 cuando no se lanzaban a por una 1070 que tuvo una subida de precio de aúpa respecto a la 970.
- Salta el boom de la mineria... que hago? Sigo comiéndome una mierda en el mercado gaming, o saco tajada del nuevo? Cuando la fiesta se acabe, como en el gaming todo va a seguir igual, vuelvo a sacar una gama media resultona, con la cuota de siempre y que me quiten lo bailao.
En el fondo estamos más de acuerdo de lo que pueda parecer en lo fundamental.
Los costes están en la balanza, por supuesto, pero también creo que ya he dicho que los costes, aún siendo mayores, no justifican los precios actuales ya que hay un margen de aúpa tanto en todos los productos de nvidia como de AMD. Y AMD si quiere recuperar el mercado gaming no le queda otra que ser más atractiva que nvidia.
Los costes son mayores para amd, al tener una producción menor. Yo he dicho ya varias veces que los precios de ambas me parece una mierda, pero la realidad es que la subida de nvidia seguramente le dió aire a amd, porque con su volumen de ventas dificilmente podrá reducir margen.
Con las Vega por encima de 500€ no lo consigue, eso está claro. Si estuvieran a 400€, que podrían estar (eso sí, reconozco que posiblemente con una merma importante de márgenes), seguramente le iría mejor ahora mismo con las gpus (la minería ahora mismo no le da gran cosa).
Con Vega llegó tarde, eso está claro, y con precios más altos que la competencía. Pero fijate por donde, ahora se está viendo como escala en rendimiento en los últimos títulos. La diferencia de precio entre vega 64 y una 1080, se recorta en cuanto metes en la ecuación freesync vs gsync, y no olvidemos que ya salieron con un mercado "contaminado" por la minería. Igualmente, es perfectamente entendible que en esa gama fuesen mucho más atractivas las nvidia, pero vega no es el desastre que se vende. Aquí aprovecho para repetir, que cuanto menor es tu volumen de ventas, más difícil es recortar margen
La gama media es importante, pero ahí aunque sí ofrece algo en realidad tampoco es una bicoca, hace tiempo que no se veía tan "cómodos" a nvidia y AMD asumiendo cada uno el papel de mínima diferenciación en su posicionamiento para resultar atractivos a cada grupo de clientes targets.
Las dos generaciones anteriores, fueron más o menos igual, y coincide con el inicio del nuevo boom del pc gaming
Es que vamos a ver, si la GTX 580 8 GB fuera un poco más barata que la 1060 de 6 GB, AMD podría recuperar mercado de gama media, peroooo... nope. Prefiere atraer a algunos clientes con este modelo, pagando un poquito más que las 1060, apenas diferenciada en precio pero algo al alza, y ofrecer ese plus de rendimiento (ya sabemos que nvidia tiene otros puntos a favor que no se deben despreciar aunque el rendimiento sea lo más importante).
Esa comparación, parte ya de un mercado "contaminado" por el gaming. Si nos vamos a los lanzamientos de esta generación, los rendimientos eran parejos, la baza de nvidia era el consumo y algunos juegos patrocinados, y la de amd mayor vram y otra vez el gran olvidado freesync. Se puede preferir una cosa u otra, pero objetivamente, nvidia no tenía un producto superior y era ligeramente más caro (repito, hablo en los primeros meses post lanzamiento, la minería lo cambió todo)
El problema del mercado de minería es que no sabes cuándo va a implosionar, produces como un loco para vender en él, y cuando se acaba te pasas de frenada (teóricamente es lo que le ha pasado a nvidia con pascal, supongo que también a AMD con las suyas), y lo que es peor, una vez implosiona el mercado de segunda se llena de tarjetas con poca antigüedad y por tanto buen rendimiento por cuatro duros, compitiendo contra tus gráficas producidas en la actualidad (y para más inri, como tienen tanta tralla, con una fiabilidad pésima, lo que de paso daña también a la imagen tanto de marca como al precio de reventa de los usuarios normales con sus gráficas gaming, algo que vemos muy fácil en el foro de C/V cuando en una venta se recalca que X gráfica no viene del mercado de minado).
Que nvidia no haya calculado bien su producción de cara a la minería, no quiere decir que amd haya cometido el mismo error. De hecho, partimos de que la capacidad de fabricación de amd debe ser menor, así que aunque quisiera...
La minería es una puta lacra, no ya por lo que le ha hecho al mercado de gráficas, si no porque es un mercado especulativo de los peores, lleno de oportunistas y grandes "mineros" con sistemas ultracaros trabajando en algo que, realmente, no aporta una mierda a la humanidad. Porque hasta los ideales libertarios (de los que además siempre he cuestionado sus mismos principios) detrás de la criptomoneda se van por el retrete bajo el peso de la pura avaricia.... un truco para intentar forrarse con moneda real, y sostenido en la nada. Demencial.
Aquí nada que objetar ;p
Qué pérdida de tiempo de computación y energía, y de recursos. Por lo menos el gaming nos da una experiencia personal positiva, la minería... nada.
goku593 escribió: ¿me estás diciendo que AMD lastra -en consolas- el propio avance que Nvidia crea en PC?
KailKatarn escribió:anikilador_imperial escribió:El Raytracing será viable dentro de una década y en ese momento yo lo disfrutaré como un niño, ahora mismo están usando a la gente de early adopter con un producto sacadineros que NO es capaz de mover raytracing decentemente ni en las gamas entusiastas.
Claro, la rasterización por su parte se movió increíble a cualquier resolución desde las primeras GPUs que salieron al mercado. Aun me acuerdo en los años 90 con las Number 9 jugando a resolución 4K y 40000fps o las Voodoo 1 a 16K, 64bit de profundidad de color y no menos de 5000000000000000000000000 de fps.
A ver si vamos entendiendo que las primeras tecnologías e implementaciones de algo no van a mover precisamente las cosas sobradísimamente, bastante que las pueden ejecutar, aunque bueno, estoy en España, aquí personalmente se creen todos ingenieros de GPUs y lo que haga falta con tal de llorar en público.
Vamos, si me devolviesen todo el dinero que me he dejado en GPUs en su evolución en rasterización directamente pagar una de estas me iba a parecer un juego de niños, pero claro, en la evolución de la rasterización parece ser que aquí nadie hemos jugado a 640x480 o 800x600 y hasta a 15fps, no, directamente fue todo increíble y las tarjetas nos las regalaban en las puertas de los colegios al salir de clase.
Ahora hablan de 30-40fps a 1080p en las primeras tarjetas capaces de utilizar Raytracing en tiempo real y es el fin del mundo, sin lugar a dudas. Que mal Nvidia ... que mal, has empezado con el Raytracing bastante mejor que lo que pudimos conocer en el mundo de la rasterización, pero tranquila, que ahora vienen los foreros españoles y te dicen como hay que hacer las cosas entre lloro y lloro mientras no te queda ni una en las estanterías de las tiendas.
evilkainn_ escribió:@anikilador_imperial viva el AE86 coño! xD
Eddie11 escribió:Hoy el Peste me va a 5 fps con la 2080
Lamentable
wwwendigo escribió:
Lo dicho, en el fondo de acuerdo en muchos puntos, pero para señalar y simplemente hacer debate:
Ninguna de ambas marcas debería tener problemas para ajustar precios en rangos similares por volumen de ventas, dado que ambas en realidad tienen volúmenes de éstas enormes, no es lo mismo que comparar a volkswagen como marca y su producción contra Jaguar, por ejemplo (sólo hablando de volumen, no de posicionamiento).
Eso no quiere decir que nvidia no tenga una ventaja, la tiene porque fuera del volumen para muchas de las marcas genéricas de tarjetas gráficas (o no específicamente atadas a una casa de gpus, mejor dicho), suele tener más fuerza de negociado y puede forzar más su mano y sus márgenes si así lo desea.
Pero vamos... que no es un tema de "empresa pequeña contra empresa grande", como si ambas no fueran gigantes con mecanismos internos y de mercado similares. No es un caso de pequeño productor contra grande.
Sobre 580 vs 1060, es que en lanzamiento esto no era así, era 480 vs 1060, y sí era más rápida la 1060 que la 480 (y sigue siendo, aunque algo menos con drivers más depurados), de ahí su mayor precio. Recuerdo perfectamente cómo la 480 se colocaba justo debajo de la 980 en rendimiento, a poco de ésta, y cómo la 1060 se colocaba justo encima de la 980, justificando así un cierto sobreprecio en la nvidia.
Eso es, era 480 vs 1060 lo que yo decía se dió en el lanzamiento (la 580 no deja de ser una 480 apretada). Pero ni de coña la 1060 rendía lo que una 980 los primeros meses. Ambas (480 8gb y 1060 6gb) rendían similar (a medio camino de la 970 y la 980), diferencias de menos de 10 fps a favor de una u otra según el juego. Pese a esto, se valoró más el menor consumo y el sanbenito de los drivers y la 1060 vendió mucho más.
Después vino la minería a joderlo todo, y cuando salió la 580, cierto, era y es algo más rápida, pero también salió algo más cara (y ya la fiebre minera jodiendo por todos lados, aunque aún apenas tenía presencia en las nvidia, algo que cambió unos meses después cuando la dificultad fue subiendo y empezó a verse como más rentables las nvidia por mantener mejor el balance moneda/W, hubo dos fases de esta fiebre, la que atacó primero a las AMd, y cuando se extendió a las nvidia y pascal, concretamente).
Sobre si nvidia ha calculado o no bien el efecto de la minería en su producción, ni siquiera tengo claro que sea real esa afirmación de alguna parte de la prensa, dado que es la marca que se ha mostrado más proactiva en contra de ésta (forzando a, por ejemplo, limitar el número de unidades vendidas por cliente en varias tiendas, a vigilar más los precios aunque sin éxito, etc), y de hecho cuando se habló del problema de que tenían stock de demasiadas tarjetas en algunos fabricantes, lo cierto es que no tenía sentido atribuirle esto a la minería cuando se descubrió que el stock estaba formado sobre todo por tarjetas de gama baja (no usadas en minería).
Lo que sí está claro es que se ha distorsionado mucho los precios, posiblemente estas subidas han afectado negativamente a todas las tarjetas de gama media para arriba, y puede que el estancamiento incluso en gama baja se deba tanto a una cierta subida de precios por arrastre de estas gamas así como al uso de más gráficos integrados.
Sobre freesync/Gsync, es cierto que Gsync es la opción menos atractiva del mercado (sólo se puede considerar una opción top gama, y siempre con un buen sobrecoste), pero este punto atractivo para las AMD lo es en gran medida por la cabezonería de la propia nvidia, pues ésta puede adoptar cuando quiera el estándar freesync (no la marca comercial, si no me equivoco, pero sí la compatibilidad, es un simple estándar VESA, adaptative-sync como nombre genérico), lo que no se puede dar es lo contrario, AMD usando Gsync (o por lo menos NO sin acuerdo comercial entre AMD y nvidia).
Es un valor que tiene AMD, y seguirá teniendo hasta que nvidia caiga de la burra.
.
Kamikaze 11 escribió:Eddie11 escribió:Hoy el Peste me va a 5 fps con la 2080
Lamentable
Eso con el simulador de atletismo no pasa
Eddie11 escribió:Kamikaze 11 escribió:Eddie11 escribió:Hoy el Peste me va a 5 fps con la 2080
Lamentable
Eso con el simulador de atletismo no pasa
Con el simulador de robots si pasa.