tigerscream escribió:Eso mismo dije yo, y SI, IKER de HW360 es pro AMD pero habrá que ver si como dicen por aquí es tan sencillo como cambiar un Raytracing nivel 2 por Raytracing nivel 7 (cambiar un dígito y ya) o por contra toca programar cuantos rebotes, cuantas sombras, cuanta densidad, cuanta incidencia, etc... etc... POR CADA ESCENA ... y aunque fuera tan sencillo como cambiar 4 dígitos de manera global sin tener que valorar cada escena, me apuesto algo a que el "son 5 minutos" luego se acaba transformando en test, debuging, correcciones por cambios inesperados (recordemos que la tecnología del Raytracing en gráficas de público general apenas está empezando a andar, las herramientas están en pañales aún en comparación con lo que se podría conseguir en un futuro no muy lejano) y NO ES NADA fácil programar Raytracing a estas alturas creo, porque puede provocar efectos indeseados y en lugar de quedar "mejor" hace que parezca artificial TOTAL. Para lograr un Raytracing en condiciones hoy en día es chungo de narices, solo hace falta mirar lo que ha ocurrido con las RTX y los juegos que lo han implementado.
Repito que es mi opinión, pero a mi me da que tirarán (como siempre) por el camino más fácil y si en consolas les funciona "digno" harán ports a PC al mismo nivel y a todo lo más se notará una mejora... INAPRECIABLE, porque estamos hablando de Raytracing... y eso solo hace que las escenas de iluminación sean más realistas... NADA MÁS. Esto significa que el brilli brilli parece más real, los reflejos, etc etc... pero no veo yo un salto potencial entre tener Raytracing AMD básico y que en PC rule con Nvidia en plan Maestro que se vea a simple vista.
Ahora bien... y esto está por ver, si AMD no consigue que funcione bien en consolas (probable también) acabará siendo de uso muy residual en contadísimos juegos y luego en los ports a PC veremos si la solución de Nvidia realmente es mejor que la actual y si además las herramientas permiten implementarlo de manera super fácil o no. Pues como en AMD sea chungo y no rule bien del todo y en Nvidia consigan que funcione bien pero cueste programarlo mucho tiempo... me veo los juegos con un Raytracing forzado al inicio del juego y luego en 1% aleatorio de escenas... TODO para poner la pegatinita de Raytracing incluido.
Dicho todo esto, también es cierto que a mi el Raytracing ni fu ni fa... prefiero que se centren en mejorar la eficiencia energética y potencia, si esta gen tampoco arranca o funciona en condiciones, que se dejen de esta chorrada, porque como dice en el vídeo, el problema de Nvidia es que han invertido demasiado en esto y está provocando (como es evidente) mayor coste de producción, mayor consumo y encima limitación de espacio para más CU orientados a procesamiento gráfico puro y duro. Si triunfan, OLÉ, pero como les salga mal, les puede salir muy caro el jueguecito del Raytracing.
cristiano.88 escribió:Lo de que Iker es pro AMD os lo sacáis de la manga no?
adriano_99 escribió:PilaDePetaca escribió:
Tampoco dice nada nuevo el vídeo. AMD ha hecho una solución "inteligente" ya que reutiliza partes de la GPU que ya están, no utiliza unidades nuevas dedicadas y que encima ocupan espacio extra en el die. El problema que tiene es que requiere que todas las operaciones dependientes de raytracing sean dependientes de la cola de compute, por lo que hay que tener en cuenta (sobre todo en consolas por la penalización de 2 ciclos por instrucción al tener el front end hibrido de RDNA1, y ya veremos con que se presenta AMD en PC) que aunque en nVidia hay penalización por el RT porque hay periodos de parón, en AMD para cada instrucción del ciclo de RT tiene que consultar con la cola principal, y eso va a presentar una penalización mayor que lo que presenta en nVidia (y eso que en nVidia ya han optimizado un poco el asunto) porque hay que esperar 1 ciclo mínimo por cada consulta.
En resumidas cuentas, el enfoque de AMD ya se vió en los white papers que salieron allá por el 2018 y en aquel entonces ya se postulaba como una solución sobre todo a nivel de costes impresionante, pero no tan impresionante en relación a rendimiento sobre lo que había entonces en nVidia. Ahora con la serie 3xxx y si sale un DLSS 3.0, es muy probable que nVidia este mas de un escalón por encima de AMD en implementación y rendimiento en RT.
PD: Lo que dice en el video de la implementación por parte de los desarrolladoradores del RT carece de sentido absolutamente, ya que se pide el cálculo de intersecciones, independientemente de si se hacen por pasos o de golpe.
Exacto, la implementación de amd es mas barato de fabricar pero no ahorra trabajo ni hace a los desarrolladores hacer algo diferente a lo de nvidia.
Como he dicho una vez ya tienes el sistema meterle mas chicha para sacar provecho a las nvidia es cuestión de cambiar parametros.
PilaDePetaca escribió:adriano_99 escribió:PilaDePetaca escribió:
Tampoco dice nada nuevo el vídeo. AMD ha hecho una solución "inteligente" ya que reutiliza partes de la GPU que ya están, no utiliza unidades nuevas dedicadas y que encima ocupan espacio extra en el die. El problema que tiene es que requiere que todas las operaciones dependientes de raytracing sean dependientes de la cola de compute, por lo que hay que tener en cuenta (sobre todo en consolas por la penalización de 2 ciclos por instrucción al tener el front end hibrido de RDNA1, y ya veremos con que se presenta AMD en PC) que aunque en nVidia hay penalización por el RT porque hay periodos de parón, en AMD para cada instrucción del ciclo de RT tiene que consultar con la cola principal, y eso va a presentar una penalización mayor que lo que presenta en nVidia (y eso que en nVidia ya han optimizado un poco el asunto) porque hay que esperar 1 ciclo mínimo por cada consulta.
En resumidas cuentas, el enfoque de AMD ya se vió en los white papers que salieron allá por el 2018 y en aquel entonces ya se postulaba como una solución sobre todo a nivel de costes impresionante, pero no tan impresionante en relación a rendimiento sobre lo que había entonces en nVidia. Ahora con la serie 3xxx y si sale un DLSS 3.0, es muy probable que nVidia este mas de un escalón por encima de AMD en implementación y rendimiento en RT.
PD: Lo que dice en el video de la implementación por parte de los desarrolladoradores del RT carece de sentido absolutamente, ya que se pide el cálculo de intersecciones, independientemente de si se hacen por pasos o de golpe.
Exacto, la implementación de amd es mas barato de fabricar pero no ahorra trabajo ni hace a los desarrolladores hacer algo diferente a lo de nvidia.
Como he dicho una vez ya tienes el sistema meterle mas chicha para sacar provecho a las nvidia es cuestión de cambiar parametros.
Exactamente, nVidia ahora sólo tiene que empezar a pulirlo en cuanto a hardware se refiere. La implementación de nVidia aunque aumenta los costes y consumos a la larga es muy superior a lo que ha hecho AMD, ya que una puede optimizarse mientras que la otra siempre va a ser dependiente de las colas de procesamiento principales. Y con respecto a lo que dice al final del video, aunque está muy bien documentado, se nota que no tiene mucha idea de lo que al final hacen las unidades de aceleración de cálculo para RT y como el desarrollador codifica eso.
Faxtron escribió:PilaDePetaca escribió:Exactamente, nVidia ahora sólo tiene que empezar a pulirlo en cuanto a hardware se refiere. La implementación de nVidia aunque aumenta los costes y consumos a la larga es muy superior a lo que ha hecho AMD, ya que una puede optimizarse mientras que la otra siempre va a ser dependiente de las colas de procesamiento principales. Y con respecto a lo que dice al final del video, aunque está muy bien documentado, se nota que no tiene mucha idea de lo que al final hacen las unidades de aceleración de cálculo para RT y como el desarrollador codifica eso.
Porque dices eso que esta en negritas ?
Podrias dar mas datos para entender, vamos que soy un completo ignorante en el tema y quisiera saber a que te refieres ?
pdriko31 escribió:A mi el RT me la trae floja, lo que quiero son graficazos, los reflejos con que lo pongan hasta ahora me vale, gráficos me refiero tipo la demo que presentó Sony, pff jugar con ese nivel o más tiene que ser la hostia,es verdad que con RT se tiene que ver de puta madre, pero tener que sacrificar fps a casco porro prefiero que sigan con los reflejos de de toda la vida pero con texturas,partículas, teselado, etc de infarto.
chrispro escribió:https://nuevoperiodico.com/se-filtro-el-precio-de-nvidia-geforce-rtx-3090/
un conocido usuario que ya acerto otros años pone precio!
jiujinkai escribió:Bueno esperemos a que salgan y ya veremos si salen pata negra o no.
Respecto al precio pues parece que va cogiendo fuerza por todos los lares la 3080 ti 90 sobre unos 1400-1600 USD. como sea asi joder va a ser un palo enorme, en fin, si al menos el poder que tenga hace gala del precio pues se podria ver de esa forma.
Gwyn escribió:jiujinkai escribió:Bueno esperemos a que salgan y ya veremos si salen pata negra o no.
Respecto al precio pues parece que va cogiendo fuerza por todos los lares la 3080 ti 90 sobre unos 1400-1600 USD. como sea asi joder va a ser un palo enorme, en fin, si al menos el poder que tenga hace gala del precio pues se podria ver de esa forma.
Parece que la 3080Ti y la 3090 serían tarjetas diferentes, por lo que se está viendo los últimos días.
tigerscream escribió:Gwyn escribió:jiujinkai escribió:Bueno esperemos a que salgan y ya veremos si salen pata negra o no.
Respecto al precio pues parece que va cogiendo fuerza por todos los lares la 3080 ti 90 sobre unos 1400-1600 USD. como sea asi joder va a ser un palo enorme, en fin, si al menos el poder que tenga hace gala del precio pues se podria ver de esa forma.
Parece que la 3080Ti y la 3090 serían tarjetas diferentes, por lo que se está viendo los últimos días.
Yo lo dije hace cosa de 1 mes creo, pero no lo dije muy convencido, al ver benchmarks de la 3080 20% superior a 2080ti, y por otro lado ver otros del 35% y 50%. Si solo están la 3080 y la 3080ti (3090) mucho cambio ha habido. Quizás la 3090 sea la Titan... lo digo de nuevo por decir. No sé ni como las llamarán, pero tampoco he visto fuentes que hablen sobre 3 modelos en lugar de 2.
Respecto al precio, debe ser duro para los que esperáis poder pillar una 3080 o una 3080ti (o 3090) el tema del precio de Nvidia. Sinceramente esa gama top es la que peor precio va a tener seguro (en los últimos 6 años se ha disparado cosa mala), no solo por ser la más cara, sino también porque no hay (ni creo que haya por el momento) competencia, lo cual le da barra libre sin necesidad de rectificar a Nvidia ¿porque? porque como en casi todo lo que se vende hoy día (coches, smartphones, TV, etc etc) los que la compran no tienen muchas veces limitación de presupuesto y buscan tener lo más de lo más, han quedado atrapados por el marketting que les hace sentir esa extraña sensación de ... si no lleva esto ya no lo quiero o si no es capaz de hacer tal cosa no me sirve... ¡y no es una crítica ojo! sencillamente somos personas y el marketting consigue su objetivo, vendernos esa falsa necesidad de querer comprarlo. Obvio no todo el mundo entra dentro de ese saco, pero si una gran mayoría que encima usa el PC de uvas a peras o para correr FIFA, Fornite o COD o un MMO... Gente caprichosa al fin y al cabo, porque para eso con una gama media vas que sobrado.
Sé que me pueden llover críticas por esto que estoy diciendo, pero no es eso lo que busco, quizás busco abrir un poco la mente a los que solo ven lo superficial y quedan un poco cegados por ese marketting. Realmente si Nvidia no vendiese suficientes 80ti bajarían los precios... pero todos sabemos que eso no va a ocurrir. La 80ti se ha convertido en una gama bien vendida porque venden lo suficiente (no es la más vendida, pero sí la que mayor beneficio sacan y la que mayor popularidad y deseo provoca). Yo he sido víctima (y lo sigo siendo) del consumismo actual, pero trato siempre de analizar bien las cosas desde un punto de vista global y objetivo. Pero siendo sinceros, cuando uno compra algo y lo tiene que vender antes que se devalúe demasiado (la sensación que tenía yo cuando veía más de 500 euros metidos en una GPU)... es porque vive en un mercado muy volátil, la informática y la tecnología son el caso más extremo quizás, pero espero algún día poder volver a estar tranquilo con una gráfica de 150 euros que me de igual si se devalúa o no y me permita estar a gusto jugando sin comerme la cabeza porque no rinde lo suficiente.
Yo busco poder jugar sin problemas, a ser posible en calidad alta o ultra, pero a un mínimo de 1080 a 60fps. Si no fuera porque me chiflan las oculus y no quería palmar 200 euros, no hubiera vendido mi 1080ti, es más, creo que hasta con menos me bastaría y me sobraría (pero con 150 euros no creo que me llegue para dejarme satisfecho). Entiendo que otros busquen más, pero a veces veo gente que habla de jugar a 4K, 120Fps, etc etc... y me pierdo. Yo he probado la experiencia y WOW si, es más espectacular, pero no veo tanta tanta diferencia de 1080 a 60 fps a 1080 a 120fps (en un monitor que lo soporte claro, uno de 144 hz por ejemplo) o de 1080 a 4K en un mismo monitor. Supongo será porque yo he vivido la experiencia de empezar con un monocromo y he experimentado los saltos brutales que había hace años y en comparación lo de ahora son pequeñeces. Sí, se nota la fluidez a leguas y Sí te permite mayor precisión en muchos juegos... pero es que no hay que ir siempre hasta lo mejor de lo mejor para poder disfrutar (aunque está en el ser humano metido a fuego el querer siempre tener más y más). Respeto a cada cual y estoy de acuerdo que es una afición muy molona. pica mucho y todo eso, pero si os dejaran un mes en una isla abandonada quizás veríais las cosas e otra manera al volver de semejante experiencia. Sé que lo del virus también puede llevar a ese pensamiento a más de uno (por desgracia, porque sería mejor poder llegar a ese pensamiento sin una desgracia) pero no hay que llegar a los extremos, ni por un lado ni por el otro.
Yo he conocido mucha gente Gamer y Wow, ves de todo. Gente super perfeccionista, gente obsesionada, casuals, etc... etc... pero no sé, esto al final es un hobby, no hay que obsesionarse tanto a veces con las cosas, no es bueno. Yo he tenido ya una 980ti y una 1080ti y aunque cuesta, voy a pisar el freno porque con la 2080ti se pasaron 3 pueblos ya. Yo conseguí la 980ti por 500 y la 1080ti por poco más, pero sin llegar a los 600. Me pongo a pensar y digo... ¿pero como es posible? Si yo antes no me compraba una gráfica de 300 euros ¡porque la veía cara! la GTX8800 fue muy tentadora para mi en su día pero nunca la tuve por eso. Siempre fui con gráficas de 150 a todo lo más. Poco a poco fui subiendo y mirad donde hemos terminado... emosido engañaos. Soy víctima del marketting de Nvidia a más no poder, pero voy a pararme aquí. 500 euros será mi tope y espero nunca pasar de ahí.
Siempre fue la CPU lo más caro de un ordenador (o al menos la parte que teóricamente mayor importancia tiene), pero ahora las GPU sobrepasan con creces a las CPU en muchos casos, diría que la mayoría de gamers tienen una GPU más cara que una CPU en su PC... y eso no tiene demasiado sentido si lo piensas fríamente. Incluso la teoría del cuello de botella con CPUs de gama alta de hace solo 4 o 5 años... Una cosa es cuello de botella y otra que no rinda igual que lo top de lo top... muchos quedarían sorprendidos si les pusieran 5 ordenadores y tuvieran que adivinar cual es cual cambiando solo la CPU sin ver el benchmark o los FPS en pantalla. Hay casos extremos que si se notan, pero haced la prueba vosotros mismos. Yo no he sido capaz de ver mucho cambio entre una CPU y otra usando la misma gráfica y el mismo PC, luego SI, pongo benchs y demás y lo veo claro, pero en la práctica... supongo que soy conformista con los 1080p 60fps y por eso no veo más allá. Hasta con mi actual GTX950 cutre puedo jugar decentemente a muchos juegos y eso me ha hecho reflexionar demasiado.
Todo esto lo digo por intentar que al menos algunos no se tiren de cabeza siempre a lo top a cualquier precio, aunque sé que eso es imposible de lograr... pero si Nvidia sacase una 3080ti a 1500$ y bajasen las ventas a las ya de por si bajas de la 2080ti, quizás SI bajarían de nuevo a los 900-1000 que deberían estar como mucho. Y lo digo en serio, me doy con un canto en los dientes si Nvidia saca la 3080ti por 1500$, porque son capaces de lanzarla más cara incluso.
Al final lo único que espero YO es que las 3060 y 3070 (las que más se venden al final) no suban tanto y acaben saliendo por precios más contenidos, confío que las consolas y AMD conseguirán frenar un poco el auge de precios de NVIDIA. Prefiero comprar una Nvida, no voy a decir que no, por mis experiencias previas, tanto en fiabilidad como en estabilidad y compatibilidad, siempre ha sido mejor en mi opinión, pero si de aquí a Noviembre (una vez haya salido RDNA2 y consolas) Nvidia sigue siendo demasiado cara, soy capaz de pillarme una AMD (como ya hice con Intel al pillarme un Ryzen).
Perdón por el tocho filosófico / moral pero a veces de buena mañana... en fin, con solo que una persona lo lea y reflexione sobre esto, me doy por contento, igual es mi manera de verlo y seguro muchos tendrán la suya distinta a la mía, pero el consumismo a veces se va un poco de madre y creo que la 80ti debería estar reservada SOLO a los millonarios o profesionales (pero Nvidia nos está metiendo a todos casi en ese saco).
WGP Kakashii escribió:esperemos q sea un rumor bulo pero si hay q estar atento a estas cosas
VanSouls escribió:jiujinkai escribió:Yo me quiero pasar este ano a una TV 4k, a mi con poder jugar a 60fps y en calidad guapa con eso me vale, a dia de hoy ando con 1080 ti en tv 1080p 60 fps rocosos, ultritis y el tio mas feliz del mundo. si veo una subida de parra increible de la N pues me pensare si ve voy a la 3070. Lo unico que tengo claro es que quiero Nvidia, anteriormente he tenido AMD (creo His 280X) y no me gusto para nada la experiencia. Bueno tambien recuerdo que por aquella epoca tenia montado un fx 8530, vaya combo de la casa del terror.... A partir de ahi me cuesta mucho dar el salto a AMD, fue una experiencia muy amarga para mi.
¿Que tal la Ñ en china?
jiujinkai escribió:Yo me quiero pasar este ano a una TV 4k, a mi con poder jugar a 60fps y en calidad guapa con eso me vale, a dia de hoy ando con 1080 ti en tv 1080p 60 fps rocosos, ultritis y el tio mas feliz del mundo. si veo una subida de parra increible de la N pues me pensare si ve voy a la 3070. Lo unico que tengo claro es que quiero Nvidia, anteriormente he tenido AMD (creo His 280X) y no me gusto para nada la experiencia. Bueno tambien recuerdo que por aquella epoca tenia montado un fx 8530, vaya combo de la casa del terror.... A partir de ahi me cuesta mucho dar el salto a AMD, fue una experiencia muy amarga para mi.
WGP Kakashii escribió:yo estoy sin grafica ahora mismo tirando con una 960 asi q imagina las ganas q tengo q salgan jja, eso si espero q no les de por poner la serie 3080 normal a 1000 pavos pa ariba
Nada que el horno no solucione.. quince minutos a 175 grados y rico ricoPulet escribió:Presumiblemente las nuevas rtx tendrían problemas de temperatura en la gddr6x....se viene otra oleada de space invaders??
https://hardzone.es/noticias/tarjetas-g ... ra-gddr6x/
Mendrolo escribió:Los que esperan un salto "generacional" acojonante van listos ;p
4k, 120hz, poligonos a cascoporro, partículas hasta en la sopa, iluminación hyperealistas, ia de ensueño... mamma, que duro va a ser cuando suene el despertador ;p
pdriko31 escribió:@Nomada_Firefox si, lo que no tengo es gráfica porque la vendí hace 1 mes y a la espera de las ampere.
Nomada_Firefox escribió:pdriko31 escribió:@Nomada_Firefox si, lo que no tengo es gráfica porque la vendí hace 1 mes y a la espera de las ampere.
Jo que valiente. Quedarse sin Pc en estas fechas que igual nos confinan a todos mañana mismo.........
Por curiosidad ¿cuanto te pagaron?
Pulet escribió:@mante sólo tienes que ver la cantidad de rma que han tenido las rtx en sus inicios, cascaban que daba gusto, el control de calidad hoy en día lo hace el usuario..