› Foros › Xbox Series › General
alalan26 escribió:Creéis que algún día volveremos a tener videojuegos en formato físico que incluyan una manual/librito? Se que no tiene nada que ver con la consola y que hace años que no se incluyen, pero todavía hay juegos (un 1%) que si que incluye el libreto. Es una pijada pero a mi me hacía mucha ilusión y me gustaba verlos y llevármelos.
korchopan escribió:dicanio1 escribió:marx666 escribió:El RT, que yo estoy a favor, me mola, pero también puede haber sido un poco impuesto por la industria, bueno para los que venden hardware, bueno para los desarrolladores que tendrán que trabajar menos, ya no solo en iluminación si como parece facilita la vida en tiempo, sino que invirtiendo x potencia en ello, no lo tendrán que hacer en otras cosas más laboriosas o costosas.
La próxima generación será el 8k.
Los 8k no aportan nada más que mes definición, pero 4K y es suficiente .
El fotorealismo es el futuro, y las gafitas esas que no se como se llaman.
Más definición no aporta ningún avance gráfico.. ahora mismo se puede mejorar las texturas , que la vegetación,ect ect se vean más reales pero eso tampoco será un gran avance ..
El la generación que viene el RT para mí es mucho más importante que los 8k pero de lejos.
Y parece ser que M$ debe pensar parecido viendo cómo se la ha sacado en ese aspecto viendo las diferencias con la competencia en este aspecto..
entiendo que se refiere a la siguiente a series x
alalan26 escribió:Creéis que algún día volveremos a tener videojuegos en formato físico que incluyan una manual/librito? Se que no tiene nada que ver con la consola y que hace años que no se incluyen, pero todavía hay juegos (un 1%) que si que incluye el libreto. Es una pijada pero a mi me hacía mucha ilusión y me gustaba verlos y llevármelos.
Yui Shojei escribió:@dicanio1 DF no eran esos que al principio de Xbox One, sacaban imágenes de Quantum Break con zoom para encontrarle los pixeles cuadrados al fondo de la pantalla?
castigo diario escribió:Yui Shojei escribió:@dicanio1 DF no eran esos que al principio de Xbox One, sacaban imágenes de Quantum Break con zoom para encontrarle los pixeles cuadrados al fondo de la pantalla?
Wenas
Ya sabes la respuesta xdd no seas malo, como nos pongamos a repasar los famosos vídeos de los 1080 vs 900 con el zoom (que eso desde hace tres años ya no està de moda jajajsja, ejem one x casualidad hoyga) no terminamos...
Está claro que las webs y usuarios cuando interesa arrimamos el ascua a nuestra sardina xddd metemos o sacamos zoom a disposición jajaja
Salu2
dicanio1 escribió:korchopan escribió:dicanio1 escribió:
Los 8k no aportan nada más que mes definición, pero 4K y es suficiente .
El fotorealismo es el futuro, y las gafitas esas que no se como se llaman.
Más definición no aporta ningún avance gráfico.. ahora mismo se puede mejorar las texturas , que la vegetación,ect ect se vean más reales pero eso tampoco será un gran avance ..
El la generación que viene el RT para mí es mucho más importante que los 8k pero de lejos.
Y parece ser que M$ debe pensar parecido viendo cómo se la ha sacado en ese aspecto viendo las diferencias con la competencia en este aspecto..
entiendo que se refiere a la siguiente a series x
Lo entendí perfectamente , y digo lo mismo pasar de 4K a 8k no es ningún salto gráfico.
@Xpider_MX Exacto en DF saben de lo que hablan y como puse ayer aquí el RT en Xbox no lleva prácticamente ningún coste.
En DF y ha dicho el pedazo trabajo que se ha marcado M$ con l seriesX y su RT por hardware
https://www.eurogamer.net/articles/digi ... full-specs
cchone37 escribió:No decia alguno que Gears5 y su upgrade para series X no usaba raytracing??? Xd...
Yui Shojei escribió:@dicanio1 DF no eran esos que al principio de Xbox One, sacaban imágenes de Quantum Break con zoom para encontrarle los pixeles cuadrados al fondo de la pantalla?
vivazizou escribió:Pues..... Muchos se lo toman en serio... Nada más ver la cantidad de gañanes que utilizan su vocabulario..... Piperos, etc...
Benitojulai escribió:Phil acaba de decir que esta generación va a suponer un salto como el que hubo del 2D al 3D
ayran escribió:Benitojulai escribió:Phil acaba de decir que esta generación va a suponer un salto como el que hubo del 2D al 3D
Fuente?
Edit: Vale, una respuesta en twitter. Copio para quien le interese:
Hi
@XboxP3
. With the imminent arrival of the XSX, what technologies do you think allow this spectacular advance? We have been hearing about Raytracing for a few months and recently about photogrammetry. Would this be a new course?
Thank you for your answer Phil Corazón verde
RT on console will be great. I'm very focused on the work we are doing around Dynamic Latency Input (DLI). In my view the feel of games this upcoming generation will change as dramatically as any since 2D to 3D given CPU upgrade, DLI, memory bandwidth and SSD.
deryck escribió:Yo creo que ahora tengo más claro que nunca que Xbox va a ser la consola que me voy a pillar
Este mes que viene va a ser decisivo para saber lo que nos espera.
Mulzani escribió:@Xpider_MX
Patinó un poco, porque no se entra en varios conceptos, de los diferentes uso del raytracing.
Y la realidad es que el Path RayTracing ni en PC se mueve correctamente salvo que funcione a 1080p, si nos fijamos en Minecraft, y eso va a ser así de aquí en adelante durante unos cuantos años, ni las futuras Ampere auguro que consigan mejorar ésto, y sí, ahora mismo Xbox Series X lo está moviendo al mismo nivel que un PC en 1080p, prácticamente lo movería como su homóloga en cuanto a Teraflops, y puede que algo mejor por las mejoras introducidas.
Otra cosa es que para 4K lo que hacen en Nvidia es meter DLSS porque, si fuera en 4K reales, ninguna RTX actual (ni las Ampere seguramente) podrían con ello y, en éste caso, Xbox Series X tendría que tirar de su propio DirectML y del rendimiento que éste tenga teniendo en cuenta que haciendo uso de la GPU una parte del procesado de shaders se tiene que ir a ésta tecnología, algo que en las RTX no tiene que hacerse al tener los Tensor Cores.
Por tanto, lo que vamos a tener son experiencias 4k, o sub 4K (¿1440p?) + DirectML, con ray tracing en cuanto a iluminación, sombreado y reflejos, para la mayoría de los juegos y, sólo algunos donde la carga gráfica del modelado no sea tan importante donde se realice con path raytracing.
moiky escribió:malosoxxx escribió:ayran escribió:Fuente?
Edit: Vale, una respuesta en twitter. Copio para quien le interese:
Hi
@XboxP3
. With the imminent arrival of the XSX, what technologies do you think allow this spectacular advance? We have been hearing about Raytracing for a few months and recently about photogrammetry. Would this be a new course?
Thank you for your answer Phil Corazón verde
RT on console will be great. I'm very focused on the work we are doing around Dynamic Latency Input (DLI). In my view the feel of games this upcoming generation will change as dramatically as any since 2D to 3D given CPU upgrade, DLI, memory bandwidth and SSD.
Ya está el payaso este diciendo cosas del SSD cuando todos sabemos que solo Sony va a sacar partido de él. Vaya tiro en el pié se está metiendo el tito Phil jajajajaja. Solo falta que Microsoft le copie también el revolucionario audio 3D inexistente hasta la salida de la próxima generación. Guiño, guiño.
Ya se aclaro que el sistema de archivos de Xbox Series X es un 60% mejor que el de ps5 y por lo tanto sera mas rapido en XBox series X a la hora de leer los juegos y en cambio el SSD de sony sera mas caliente y leera peor, a Microsoft le van a enseñar sobre sistema de archivos estos de sony???
Por cierto en Xbox Series X el audio es un chip de audio dedicado que libera alrededor del 10% de potencia de la CPU, Microsoft y Dolby con Dolby Atmos (que ya esta en Xbox One) pero en Series X esta a otro nivel, le llaman Audio 3D Raytracing que por cierto Dolby le respondio a sony diciendole a sony que le gustaba que estubieran experimentando (travieso en pocas palabras) en un campo en donde Dolby son los expertos
slash_94 escribió:
Pero lo bueno es eso, aprovecharse del DLSS. Yo juego a Control renderizado a 720p o 960p con DLSS a 1440p, va como un tiro y sinceramente, para el ojo inexperto como el mío (y como el de la inmensa mayoría de jugadores), no hay diferencias notables. Eso te permite meter RTX y que el juego te vaya a 100fps.
Si AMD o MS en este caso con la tecnología que comentas consiguen implementar algo similar, sería un salto sin igual para Series X.
El único problema es el tema del Hardware dedicado, pero llevando el tema de los tensor cores dos años en el mercado, yo creo que AMD ha implementado lo propio en sus GPUs.
jonafigue escribió:La clave sera en pulir las tecnologias que permitan escalar la resolución sin perder detalle como el DLSS, que se vaya puliendo mas y mas los algoritmos y liberar capacidad para las otras tareas como el RT, no tengo duda que sera así
Mulzani escribió:@cchone37
Creo que el que no entiendes eres tú.
Minecraft ha salido con path tracing (o path raytracing) y tiene un coste muy, muy elevado en cuanto al uso de GPU, tanto que tiene que funcionar a 1080p en Series X, como en cualquier tarjeta Nvidia, para funcionar a 4K se hace mediante DLSS.
Para que entiendas la diferencia, con raytracing todos los rayos que se generan provienen de un único punto, que es la cámara, por tanto, las interacciones entre objetos queda sujeta a raíz de lo que se ve desde la cámara. Con path tracing, los rayos se generan por toda la escena de manera aleatoria, así pues, existen multitud de interacciones entre cada objeto que compone la escena y es, todavía, más realista.
Gears of War 5 ha salido con un raytracing, no con path tracing, que es muy diferente, se obtiene mejor resultado que con el rasterizado y consume mucho menos recursos que path tracing.
Por eso he dicho que la mayoría de juegos utilizarán raytracing, obteniendo un gran resultado, a 4K, como los habrá con algo menos de resolución (cosas de los estudios) o con menos de 60 fps.. en cambio, salvo juegos con un modelado mucho más sencillo, con path tracing la cantidad de juegos será muy limitada, porque ninguna GPU actual, ni en un par de generaciones (de GPU), va a poder ejecutar path tracing en calidad 4K nativa con los modelados de juegos punteros, sin DLSS o DirectML, porque si quiera con Minecraft es posible.
No he quitado puntos a Series X, sólo he constatado lo que se es capaz ahora mismo con la tecnología que hay, tanto en PC como en consolas.
marx666 escribió:Pues en el video de DF sobre Minecraft rtx me pareció entender que path tracing y raytracing (full) es exactamente lo mismo.
oscar_fv escribió:Necesitamos anuncios señores jaja La falta de info y la cuarentena me vuelven loco
alanwake escribió:oscar_fv escribió:Necesitamos anuncios señores jaja La falta de info y la cuarentena me vuelven loco
Pues tiro en el pie
dicanio1 escribió:Yui Shojei escribió:@dicanio1 DF no eran esos que al principio de Xbox One, sacaban imágenes de Quantum Break con zoom para encontrarle los pixeles cuadrados al fondo de la pantalla?
Pues imagínate entonces la semejante consola que a tenido que hacer M$ para que DF se rinda a la evidencia ..
marx666 escribió:Pues en el video de DF sobre Minecraft rtx me pareció entender que path tracing y raytracing (full) es exactamente lo mismo.
Midian28 escribió:marx666 escribió:Pues en el video de DF sobre Minecraft rtx me pareció entender que path tracing y raytracing (full) es exactamente lo mismo.
Lo que se ve en el video de DF y en la demo tecnica de Series X es un juego completamente hecho con ray tracing, por decirlo así, a lo bruto.
Sobre el costo del ML, estamos todos expectantes, pero ni yo creo que el DLSS2.0 tenga coste cero en muchas situaciones aun con tensor cores (imagino ue necesitaras X tensor cores para descargar el proceso completamente de la gpu en X reescalado y en x modo) , ni creo que sea una tecnologia necesaria para reescalar resolución los dos primeros años de vida de las máquinas, lo que daria tiempo a los devs a hacerse a ella.
DLSS 2.0 aun tiene que mostrarse como ese game changer que promete ser , y he leido analisis que dudan de la aplicación de la tecnología por ser algo caótica ( al parecer tiene tres modos con distinto consumo de GPU/ Tensor cores y los resultados de cada modo son jn tanto impredecibles, pudiendo un modo superior ofrecer resultados peores que uno inferior). En todo caso, hablariamos de un 2.1 o un 3.0, unos años mas a lo sumo. Se acabaran imponiendo las tecnologías de reescalado por deep learning, se ahorran muchisimos recursos.
Como en cualquier cambio de gen de verdad, como este, las tecnologias estan aun verdes, y aunque se ve que los cambios van a ser globalmente una pasada, de esos cambios tecnológicos que recuerdas para siempre (como los saltos de 8 a 16 bits, o la primera vez que arrancabas Doom, o lo que generó la voodoo 3dfx ) tambien alguna de estas cosas quedaran olvidadas en el baul de los recuerdos dentro de unos años ( el RT no, ese ha venido para quedarse mucho tiempo, lo cambia todo y a futuro sera increíble).
Tengo mucha curiosidad en que nos expliquen mejor la customizacion de ML que Microsoft desarrolla con Nvidia y la parte dedicada para RT de AMD en la gpu (es muy muy curioso ver uns GPU Amd funcionando con soluciones hechas en parte por Nvidia) .
Algo que me gusto mucho viendo el trailer de Senua 2, es como, creo, usan el VRS para tratar al máximo de detalle los objetos principales de la escena, y los demas se tratan con un efecto de bokeh fotografico (desenfocado artistico) para reducir gasto de gpu y centrarlo en lo otro, pongo un ejemplo de donde lo veo, escenas de manos cortadas y craneos en el barro. La verdad, no encuentro capturas mejores, pero en el trailer se ve claro:
https://developer.nvidia.com/vrworks/graphics/variablerateshading
castigo diario escribió:Midian28 escribió:marx666 escribió:Pues en el video de DF sobre Minecraft rtx me pareció entender que path tracing y raytracing (full) es exactamente lo mismo.
Lo que se ve en el video de DF y en la demo tecnica de Series X es un juego completamente hecho con ray tracing, por decirlo así, a lo bruto.
Sobre el costo del ML, estamos todos expectantes, pero ni yo creo que el DLSS2.0 tenga coste cero en muchas situaciones aun con tensor cores (imagino ue necesitaras X tensor cores para descargar el proceso completamente de la gpu en X reescalado y en x modo) , ni creo que sea una tecnologia necesaria para reescalar resolución los dos primeros años de vida de las máquinas, lo que daria tiempo a los devs a hacerse a ella.
DLSS 2.0 aun tiene que mostrarse como ese game changer que promete ser , y he leido analisis que dudan de la aplicación de la tecnología por ser algo caótica ( al parecer tiene tres modos con distinto consumo de GPU/ Tensor cores y los resultados de cada modo son jn tanto impredecibles, pudiendo un modo superior ofrecer resultados peores que uno inferior). En todo caso, hablariamos de un 2.1 o un 3.0, unos años mas a lo sumo. Se acabaran imponiendo las tecnologías de reescalado por deep learning, se ahorran muchisimos recursos.
Como en cualquier cambio de gen de verdad, como este, las tecnologias estan aun verdes, y aunque se ve que los cambios van a ser globalmente una pasada, de esos cambios tecnológicos que recuerdas para siempre (como los saltos de 8 a 16 bits, o la primera vez que arrancabas Doom, o lo que generó la voodoo 3dfx ) tambien alguna de estas cosas quedaran olvidadas en el baul de los recuerdos dentro de unos años ( el RT no, ese ha venido para quedarse mucho tiempo, lo cambia todo y a futuro sera increíble).
Tengo mucha curiosidad en que nos expliquen mejor la customizacion de ML que Microsoft desarrolla con Nvidia y la parte dedicada para RT de AMD en la gpu (es muy muy curioso ver uns GPU Amd funcionando con soluciones hechas en parte por Nvidia) .
Algo que me gusto mucho viendo el trailer de Senua 2, es como, creo, usan el VRS para tratar al máximo de detalle los objetos principales de la escena, y los demas se tratan con un efecto de bokeh fotografico (desenfocado artistico) para reducir gasto de gpu y centrarlo en lo otro, pongo un ejemplo de donde lo veo, escenas de manos cortadas y craneos en el barro. La verdad, no encuentro capturas mejores, pero en el trailer se ve claro:
https://developer.nvidia.com/vrworks/graphics/variablerateshading
Wenas
Juer que lio, entonces el tipo de raytracing de la demo que enseñó ms con minecraft a través de Digital Foundry es el mismo de las demos de Nvidia?
O el de la demo de ms era más costoso para la Xsx?
Salu2
Mulzani escribió:marx666 escribió:Pues en el video de DF sobre Minecraft rtx me pareció entender que path tracing y raytracing (full) es exactamente lo mismo.
Es la manera de llamarlo.
A ver, de raytracing existen muchas técnicas, la más básica es la que los rayos se generan en la cámara y, esa, es la que se utiliza más comunmente, pues es la que tiene menor coste de rendimiento (y eso que es bastante importante).
Path tracing los rayos se generan de manera aleatoria por toda la escena, lo que implica un mayor número de rayos para que no exista ruido en la escena lo que conlleva mayor coste de rendimiento. El tema es que los de DF llaman full raytracing al path tracing, y hay quien también lo llaman path raytracing.
@Xpider_MX
No son iguales:
Raytracing:
Como ves, los rayos se generan en la cámara y en los puntos de luz. Si, por ejemplo, tuvieras pocos rayos, tendrías el problema que donde no hubiera interacción lo que verías es la imagen rasterizada.
Lo que comentas es solo qué elementos pones en juego, es decir, la iluminación y sombreado o los reflejos, pero siguen estando supeditados a rayos generados desde puntos fijos, cámara y luces, pero ésto no es path tracing.
En el Path Tracing los rayos se generan de manera aleatoria por toda la escena, no únicamente desde los puntos de luz o la cámara, independientemente de si tuviera o no iluminación propia cada elemento y se realizan todas las interacciones que todos esos rayos se generen, hasta que no puedan pasar por otros elementos o ser reflejados. Por eso, si existieran pocos rayos, lo que verías entre esos es el vacío, porque no existe luz, no verías ningún rasterizado. Es lo que denominan como ruido.
castigo diario escribió:@Midian28
Wenas
Gracias por la respuesta
A ver si viendo videos me voy enterando mejor , que esto parece que viene para quedarse y junto al dlss puede ser la gran diferencia en los futuros videojuegos.
Espero que el hard esté a la altura.
Salu2
Midian28 escribió:castigo diario escribió:@Midian28
Wenas
Gracias por la respuesta
A ver si viendo videos me voy enterando mejor , que esto parece que viene para quedarse y junto al dlss puede ser la gran diferencia en los futuros videojuegos.
Espero que el hard esté a la altura.
Salu2
Para path tracing queda mucho, otra gen minimo. Lo bueno del ray tracing, path tracing, etc es que son procesos fácilmente paralelizables, es decir, puedes separar el proceso en un hardware diferente al de la gpu y que funcionen en paralelo, ayudandose, de forma sencilla. Esto que quiere decir? En el caso de series X, que el hardware dedicado sumara mucho en ray tracing restando poco a la gpu (para una estimacion aproximada, mirate en el video la gráfica final que hace referencia a arquitectura turing la parte azul seria lo que el hardware dedicado RT ahorraria en esa arquitectura, en Series X seria un poco menos, probablemente por Amd vs Nvidia pero rondaria esos valores);en el caso de los PCs quiere decir que, ademas de eso, llegado el caso se podria programar para usar dos gpus en paralelo, por ejemplo, lo que daria una master race aún mas cara, .
El DLSS es solo el nombre comercial de Nvidia. Soluciones de reescalado de resolucion por deep learning hay varias (explicado a lo bruto, un algoritmo que aprende a interpretar datos para tapar agujeros con datos similares, en resolucion eso quiere decir que ve pixeles donde no los hay , y se los inventa, descargando a la gpu de fabricarlos a mano, digamos, y vemos resoluciones mas altas donde en realidad la gpu trabaja a resoluciones y gastos de recursos mas bajos). La solucion de MS es DirectML, machine learning de directx 12 Ultimate. La diferencia seria que supuestamente el DLSS2. 0 no tira nada de gpu (usa tensor cores para ello) y series X gastaría gpu (no sabemos cuanta, y cuanto se ganaria vs 4k nativos a 4k reescalado, por ejemplo) . Una característica chula del DirectML que lei, no se si sera cierta, es que se reescalan tambien assets de texturas, cogerias una textura baja y la alzaria de calidad ,como hace con la resolución, viene en este articilo y las declaraciones afirman que funciona bien sobretodo para texturas fotorealistas ( alguien mas piensa en Hellblade 2 y fotogrametría??)https://wccftech.com/an-xbox-game-studio-is-experimenting-with-shipping-low-res-textures-to-be-ai-upscaled-in-real-time/
Eso, unido al ancho de banda de GPU, su potencia y el VRS... Salivo, y me vuelvo a poner el teailer del Hellblade 2.
Una gen preciosa, ya veras.
tio_marihuana escribió:roly82 escribió:Gears Tactics está doblado al español, que siga la tendencia.
si por favor, he dejado un poco al lado el rdr2 y he empezado fable 1 que no había probado ninguno (me habéis metido el gusanillo cabrones) y que gusta dar no tener que estar leyendo los subtitulos y perderte mientras lo que pasa.
no se por que dejaron de hacer unos buenos doblajes.
castigo diario escribió:Midian28 escribió:castigo diario escribió:@Midian28
Wenas
Gracias por la respuesta
A ver si viendo videos me voy enterando mejor , que esto parece que viene para quedarse y junto al dlss puede ser la gran diferencia en los futuros videojuegos.
Espero que el hard esté a la altura.
Salu2
Para path tracing queda mucho, otra gen minimo. Lo bueno del ray tracing, path tracing, etc es que son procesos fácilmente paralelizables, es decir, puedes separar el proceso en un hardware diferente al de la gpu y que funcionen en paralelo, ayudandose, de forma sencilla. Esto que quiere decir? En el caso de series X, que el hardware dedicado sumara mucho en ray tracing restando poco a la gpu (para una estimacion aproximada, mirate en el video la gráfica final que hace referencia a arquitectura turing la parte azul seria lo que el hardware dedicado RT ahorraria en esa arquitectura, en Series X seria un poco menos, probablemente por Amd vs Nvidia pero rondaria esos valores);en el caso de los PCs quiere decir que, ademas de eso, llegado el caso se podria programar para usar dos gpus en paralelo, por ejemplo, lo que daria una master race aún mas cara, .
El DLSS es solo el nombre comercial de Nvidia. Soluciones de reescalado de resolucion por deep learning hay varias (explicado a lo bruto, un algoritmo que aprende a interpretar datos para tapar agujeros con datos similares, en resolucion eso quiere decir que ve pixeles donde no los hay , y se los inventa, descargando a la gpu de fabricarlos a mano, digamos, y vemos resoluciones mas altas donde en realidad la gpu trabaja a resoluciones y gastos de recursos mas bajos). La solucion de MS es DirectML, machine learning de directx 12 Ultimate. La diferencia seria que supuestamente el DLSS2. 0 no tira nada de gpu (usa tensor cores para ello) y series X gastaría gpu (no sabemos cuanta, y cuanto se ganaria vs 4k nativos a 4k reescalado, por ejemplo) . Una característica chula del DirectML que lei, no se si sera cierta, es que se reescalan tambien assets de texturas, cogerias una textura baja y la alzaria de calidad ,como hace con la resolución, viene en este articilo y las declaraciones afirman que funciona bien sobretodo para texturas fotorealistas ( alguien mas piensa en Hellblade 2 y fotogrametría??)https://wccftech.com/an-xbox-game-studio-is-experimenting-with-shipping-low-res-textures-to-be-ai-upscaled-in-real-time/
Eso, unido al ancho de banda de GPU, su potencia y el VRS... Salivo, y me vuelvo a poner el teailer del Hellblade 2.
Una gen preciosa, ya veras.
Wenas
Muchas gracias de nuevo por las explicaciones, ya vi el vídeo del otro mensaje, aunque mañana con mas calma lo veré de nuevo.
Respecto a la parte "azul" que representa el ahorro por el hard dedicado, será muy interesante ver que tiene Xsx en su hard dedicado a Rt, y hasta dónde libera a la gpu.
Ya lo del deep learning, eso ya viendo videos es la ostia directamente...en el 2.0 de nvidia se ve mejor en 1080p reescalado a 4k que en 4k nativo y eso te da mucha ventaja para meter más carga gràfica o casi duplicar frames.
Mi pregunta aqui es, que si ms desarrolla directx12 con direct Ml que habrá desarrollado junto a Nvidia supongo no? Entonces sabiendo la ventaja que da, como no lleva tensor cores o algo cuanto menos similar en su gpu de amd?
No tendrán alguna sorpresa por ahí?
Me voy a sobar que ya desvarío solo xdddd....
Salu2