Hilo de Noticias y Rumores de Multiplataforma

Unerico está baneado por "troll"
@triki1

Y poner noticias de "somosxbox" es como tener de referencia para hablar del Real Madrid a Roncero siendo generosos.


Y aun asi son mas creibles que tim sweeney hablando del ssd o de cerny hablando de tempest superior a atmos [sati]
LordVulkan escribió:
silenius escribió:AMD ha dicho que funciona en Nvidia pero que no va a mejorarlo lo mas minimo de la version de lanzamiento, que de eso se encargue Nvidia y Nvdia teniendo su dlss dudo que se esfuerce y dedique recuersos lo mas minimo

Es que a NVIDIA no le hace falta optimizarlo. Está basado puramente en SM5 y todas las mejoras que haga AMD funcionaran tambien en NVIDIA.


Habra que verlo cuando salga.

Los rumores apuntan a que Amd pretende estandarizar el FSR por encima del DLSS (que puede suceder facilmente, ya que es codigo abierto y mas sencillo de implementar que DLSS), para posteriormente sacar hardware que lo accelere aún más (RDNA3).

En cualquier caso el DLSS le puede pasar como en su momento a Physx, Gsync y otras tecnologias propietarias, cuando aparece algo libre que lo sustituya que es mas compatible y mas barato se desaparecen.

Si un desarrollador que va sacar X juego, implementando el FSR tiene compatibilidad con consolas, nvidia y amd, para que va implementar el DLSS que solo va funcionar en Nvidia, aunque sea mejor? pues o le paga nvidia o es estremadamente sencillo añadirlo.

Pero bueno, tampoco nos hagamos pajas mentales, que Amd al principio no le dio ningun tipo de bombo a esta tecnologia y es posible que sea un chasco gigantesco.

El movimiento que realmente me gustaria ver es que Nvidia liberara el DLSS, que lo utilice Amd si quiere, y si no tiene tensor core y no aumenta el rendimiento no es su problema.
Unerico está baneado por "troll"
PepeC12 escribió:Los rumores apuntan a que Amd pretende estandarizar el FSR por encima del DLSS (que puede suceder facilmente, ya que es codigo abierto y mas sencillo de implementar que DLSS), para posteriormente sacar hardware que lo accelere aún más (RDNA3).


Donde es que dicen eso de es mas sencillo de implementar que el DLSS?

PepeC12 escribió:En cualquier caso el DLSS le puede pasar como en su momento a Physx, Gsync y otras tecnologias propietarias, cuando aparece algo libre que lo sustituya que es mas compatible y mas barato se desaparecen.


Mientras nVidia siga siendo lider de placas de video lo que puede desaparecer es la alternativa. Ellos imponen el DLSS porque si quieres su placa asi tiene que ser. Y como todo mundo quiere las placas de nVidia. Si hasta se dan el lujo de ser mas caras y aun siguen vendiendo

PepeC12 escribió:Si un desarrollador que va sacar X juego, implementando el FSR tiene compatibilidad con consolas, nvidia y amd, para que va implementar el DLSS que solo va funcionar en Nvidia, aunque sea mejor? pues o le paga nvidia o es estremadamente sencillo añadirlo.


Porque si no lo sacas con DLSS te quedas fuera de nVidia y todas las PC gaming que usan esas placa de video. Tienen la ventaja de haberse impuesto en ventas y en tecnologia

Aparte seamos realistas, lo primero que se vio del fidelity FX de AMD fue un resultado igual de feo que el DLSS1.0, la manera en que la textura se blureaba parecia una textura de Nintendo 64 en un tele de tuvo de 14"
@Unerico nvidia es lider en pc, eso es verdad.
Por el fsr funciona el nvidia también además de consolas que montan amd.

Incluso Intel se ha mostrado interesado para sus graficas.

Veremos la calidad, pero si es mínimamente buena veo el dlss en desuso más aya de la 4 títulos que patrocine nvidia.

Que nvidia este en posición dominante no significa que este siempre.

Ya he visto muchos monstruos caer que soy perro viejo (3dfx, riva tnt etc) y nvidia no siempre ha tenido las mejores graficas (ati ha tenido sus generaciones por encima).
Unerico está baneado por "troll"
Que nvidia este en posición dominante no significa que este siempre.

Ya he visto muchos monstruos caer que soy perro viejo (3dfx, riva tnt etc) y nvidia no siempre ha tenido las mejores graficas (ati ha tenido sus generaciones por encima).


No van a caer porque son como Microsoft, ya tienen tanto dinero que el dia que vean que los pueden superar es el dia que pagan para que todo funcione mejor en nVidia y con DLSS y nadie le programe al RDNA o lo hagan de mala gana. El peor momento de nVidia fue con la gama FX que fue malisima que el mismo Carmack probo la demo de Doom 3 en Radeon. A poco de eso nVidia puso recursos de desarrollo y todo volvio a ser como antes. Tambien tuvieron otra ventaja de diseño cuando desarrollaron los shaders unificados con el Xenos y nVidia estaba con el RSX pero poco tiempo la nuev gama de nVidia los volvio a superar en PC

Y si a eso le sumamos que ya lograron ademas salirse del terreno de las graficas para meterse en la produccion de placas de inteligencia artificial y placas dedicadas a mineria... hay nVidia para rato que aun esta con las graficas y como mejor avance de hardware de sus placas nueva prueba con subir la velocidad de reloj como la gran novedad. Ya nVidia esta como dos generaciones por delante con lo que hizo con turing (la real revolucion) y luego con ampere (la version depurada). Y en menos de un año tienen a lovelace

La principal ventaja que tiene hoy la ex ATi con radeon es que hacen versiones mas economicas de chips graficos y a a la vez te venden el CPU con la grafica integrada, y por eso las eligen para las consolas. Esa es la razón por la que se elige a las ex ATi para para las consolas, porque hacen cosas mas económicas y adecuadas para consolas que tienen que venderse entre 400 y 500 napos, aun si en algunos casos esas cosas mas economicas no son del todo la alta gama que deberian ser (prueba de ello fueron PS4 y One Fat con el lastre de Jaguar y graficas ajustadas). Por ejemplo el uso de la Infinity Cache en las radeon es un parche al limite de bus de la GDRR6, tanto que la misma Microsoft decidio en XSX superar a RDNA2 y poner GDDR6X con el bus aumentado acercandose mas asi al diseño de nVidia

Hasta es posible que inclusive AMD en proximas generaciones tenga que estar compitiendo con las Intel Xe a ver quien se lleva el diseño para establecer en consolas, porque otra ventaja de AMD ahora es que te hace el iGPU de alta gama integrado para consola. Cosa que ni Intel ni nVidia hasta ahora te hacian (intel si, pero no eran de alta gama sus Xe), pero ahora la variable de que puedan haber consolas con un iGPU intel con Xe de alta gama integrado tambien se abre a futuras generaciones. Ya Nintendo esta usando a Intel con los Tegra, si ahora apuntan con las Xe a tener algo de alta gama AMD puede verse discutida en quien tiene el diseño de consolas mas potente a mejor relacion de precio. Igual aun las Xe son primitivas al lado de las Radeon, ni digo al lado de las RTX.
silenius escribió:AMD ha dicho que funciona en Nvidia pero que no va a mejorarlo lo mas minimo de la version de lanzamiento, que de eso se encargue Nvidia y Nvdia teniendo su dlss dudo que se esfuerce y dedique recuersos lo mas minimo así que no espereis grandes cosas en tarjetas de esta marca


Mi comentario no iba enfocado a que funcione mejor o pero en nvidia, si no que si funciona en una gráfica que encima de tener 2 o 3 años es de otra marca, como no va a funcionar en ps5
Unerico escribió:
Que nvidia este en posición dominante no significa que este siempre.

Ya he visto muchos monstruos caer que soy perro viejo (3dfx, riva tnt etc) y nvidia no siempre ha tenido las mejores graficas (ati ha tenido sus generaciones por encima).


No van a caer porque son como Microsoft, ya tienen tanto dinero que el dia que vean que los pueden superar es el dia que pagan para que todo funcione mejor en nVidia y con DLSS y nadie le programe al RDNA o lo hagan de mala gana. El peor momento de nVidia fue con la gama FX que fue malisima que el mismo Carmack probo la demo de Doom 3 en Radeon. A poco de eso nVidia puso recursos de desarrollo y todo volvio a ser como antes. Tambien tuvieron otra ventaja de diseño cuando desarrollaron los shaders unificados con el Xenos y nVidia estaba con el RSX pero poco tiempo la nuev gama de nVidia los volvio a superar en PC

Y si a eso le sumamos que ya lograron ademas salirse del terreno de las graficas para meterse en la produccion de placas de inteligencia artificial y placas dedicadas a mineria... hay nVidia para rato que aun esta con las graficas y como mejor avance de hardware de sus placas nueva prueba con subir la velocidad de reloj como la gran novedad. Ya nVidia esta como dos generaciones por delante con lo que hizo con turing (la real revolucion) y luego con ampere (la version depurada). Y en menos de un año tienen a lovelace

La principal ventaja que tiene hoy la ex ATi con radeon es que hacen versiones mas economicas de chips graficos y a a la vez te venden el CPU con la grafica integrada, y por eso las eligen para las consolas. Esa es la razón por la que se elige a las ex ATi para para las consolas, porque hacen cosas mas económicas y adecuadas para consolas que tienen que venderse entre 400 y 500 napos, aun si en algunos casos esas cosas mas economicas no son del todo la alta gama que deberian ser (prueba de ello fueron PS4 y One Fat con el lastre de Jaguar y graficas ajustadas). Por ejemplo el uso de la Infinity Cache en las radeon es un parche al limite de bus de la GDRR6, tanto que la misma Microsoft decidio en XSX superar a RDNA2 y poner GDDR6X con el bus aumentado acercandose mas asi al diseño de nVidia

Hasta es posible que inclusive AMD en proximas generaciones tenga que estar compitiendo con las Intel Xe a ver quien se lleva el diseño para establecer en consolas, porque otra ventaja de AMD ahora es que te hace el iGPU de alta gama integrado para consola. Cosa que ni Intel ni nVidia hasta ahora te hacian (intel si, pero no eran de alta gama sus Xe), pero ahora la variable de que puedan haber consolas con un iGPU intel con Xe de alta gama integrado tambien se abre a futuras generaciones. Ya Nintendo esta usando a Intel con los Tegra, si ahora apuntan con las Xe a tener algo de alta gama AMD puede verse discutida en quien tiene el diseño de consolas mas potente a mejor relacion de precio. Igual aun las Xe son primitivas al lado de las Radeon, ni digo al lado de las RTX.


Nvidia tiene una buena situacion por la compra de ARM y todo el desarrollo de IA que tiene cosas realmente increibles.

Ampere parecia inalcanzable y ahi esta RDNA2 rindiendo a la par y consumiendo menos.

Tambien intel parecia inalcanzable y ahora los ryzen estan por encima.

Lovelance y RDNA3 van a ser interesantes, supuestamente van a ser arquitecturas basadas en chiplets y ahi Nvidia se puede llevar un buen susto. Amd esta acostumbrada a lidiar con chiplets ya que los ryzen los usan, la infinity cache tambien es parte de esa nueva arquitectura y va ser necesaria para comunicar los chiplets.

Sinceramente llamas parche al infinity cache pero es claramente lo que permite a RDNA2 rendir como rinde, con una memoria más barata que Nvidia consigue un rendimiento similar, seguramente superior en cuanto al uso de memoria y permitiendo montar gpus de 16gB sin problemas.

Amd aprendio del problema de las vega, que montaban memorias caras y muy rapidas y al final no consiguio en su momento superar a la gama 1000.

Hoy por hoy tambien tiene ventaja en DX12 (evolucion de mantle) y se nota en los juegos cpu dependientes, donde las graficas de AMD (por drivers) consumen menos recursos que Nvidia dando resultados como los que saco a la palestra hardware unboxed.

Donde si tiene ventaja Nvidia es con el raytracing, donde va un paso por delante, pero esa diferencia no es tan grande como nos hacen pensar los primeros juegos que lo han implementado, ya que se implementaron con la arquitectura de Nvidia en mente, la diferencia no sera tan grande en un futuro.

Veremos en que acaba el DLSS contra el FSR pero si el resultado no es malo veo poco futuro al DLSS, insisto en que hoy en dia todos los juegos se desarrollan para consolas y luego se portan a pc, si las consolas soportan FSR poco sentido hay de implementar DLSS a no ser que Nvidia ponga pasta.

En cualquier caso, yo no me caso con ninguna marca y comprare el producto que más me ofrezca por mi dinero, lo que si defiendo y siempre defendere son las alternativas de software libre frente al software propietario, ya lo hice con Physix, con Gsync y con este DLSS.
PepeC12 escribió:Los rumores apuntan a que Amd pretende estandarizar el FSR por encima del DLSS (que puede suceder facilmente, ya que es codigo abierto y mas sencillo de implementar que DLSS), para posteriormente sacar hardware que lo accelere aún más (RDNA3).

Una cosa es lo que pretenda AMD y otra cosa es lo que consiga. Han sido bastante claros en la presentación de FSR:

- Es una técnica de escalado espacial que no utiliza acumulación temporal y de entrada ya es peor que DLSS 1.0 y que la mayoría de técnicas de reconstrucción modernas, y se puede ver fácilmente en el propio material promocional que distribuyó AMD.

- Se basa puramente en compute shaders y no utiliza ML, por lo que no es "acelerable" con hardware específico.

- DLSS está libre de royalties aunque sea propietario, ya está implementado en Unreal Engine y a final de año estará implementado en Unity. Con eso ya lo vas a tener en el 90% de los juegos que salgan a partir del año que viene, por no hablar de que grandes desarrolladoras como Remedy, 4AGames, CDProjekt Red o Rockstar también lo han incluído en sus motores.

- Ambas tecnologías no son excluyentes. Salvo que AMD o NVIDIA paguen para lo contrario, perfectamente pueden incluir ambas tecnologías como han hecho muchos títulos hasta ahora con FidelityFX CAS, que venía a ser la solución de AMD para mejorar los algoritmos de TAA antes de tener una alternativa a DLSS.
@LordVulkan

Los datos que se tienen hasta ahora es que el resultado es claramente mejor de lo que era DLSS 1.0, hay que esperar hasta al menos el dia 22 de Junio para ver si merece la pena o no, tambien hay que tener en cuenta que es una primera version y seguramente mejorara con el tiempo.

Todo proceso matematico se puede acelerar por hardware, no hace falta que sea ML y tener tensor cores, siempre puedes poner hardware dedicado a realizar ciertas operaciones (como lo hay por ejemplo para hacer ciertas operaciones criptograficas como hashes etc).

ML no deja de ser una red de funciones con varias entradas y varias salidas a cuyas funciones se les van asignando pesos iterativamente para reducir un error. Es un proceso automatico pero ineficiente, posiblemente se podria coger esa red de neuronas y solucionar el problema mucho mas rapido sin ellas (sin tantos calculos intermedios), depende mucho de la complejidad del problema claro esta.

Llamame loco pero como desarrollador que soy, si por ejemplo tengo una libreria open source que hace lo mismo que una privativa y funciona en mas hardware que la privativa, no me preguntes cual voy a usar, por mucho que me digan que no me van a cobrar por ella.

Veremos en que queda todo esto, porque si la calidad de imagen es mala caera en el olvido.
PepeC12 escribió:@LordVulkan

Los datos que se tienen hasta ahora es que el resultado es claramente mejor de lo que era DLSS 1.0, hay que esperar hasta al menos el dia 22 de Junio para ver si merece la pena o no, tambien hay que tener en cuenta que es una primera version y seguramente mejorara con el tiempo.

¿Mejor que DLSS 1.0? Mirate el video de la confe de AMD, porque es claramente peor.

Imagen

Esa es la base, el resultado que ofrece es malo como el solo, no se puede ni comparar.

PepeC12 escribió:Todo proceso matematico se puede acelerar por hardware, no hace falta que sea ML y tener tensor cores, siempre puedes poner hardware dedicado a realizar ciertas operaciones (como lo hay por ejemplo para hacer ciertas operaciones criptograficas como hashes etc).

ML no deja de ser una red de funciones con varias entradas y varias salidas a cuyas funciones se les van asignando pesos iterativamente para reducir un error. Es un proceso automatico pero ineficiente, posiblemente se podria coger esa red de neuronas y solucionar el problema mucho mas rapido sin ellas (sin tantos calculos intermedios), depende mucho de la complejidad del problema claro esta.


No se puede acelerar lo que ya está acelerado, aquí no hay magia, las técnicas de reconstrucción no son nuevas, con computación tradicional se está llevando ya al límite con técnicas de acumulación temporal, que ya son mejores que el FSR. El algoritmo a falta de verlo el día 22 no va a ser nada nuevo si se basa en técnicas de reconstrucción que están investigadas desde hace años y se han dejado de usar por que se han descubierto nuevas que dan mucho mejor resultado.

El ML se basa en operaciones matriciales. Es algo que es ineficiente en ALUs convencionales, y por eso todos los fabricantes están apostando por su propia arquitectura específica para realizar estas operaciones, ahí tienes a NVIDIA con sus Tensor Cores o a Google con sus TPUs. Los resultados son claros, los algoritmos que se basan en ML están a años luz de los tradicionales.
LordVulkan escribió:
PepeC12 escribió:@LordVulkan

Los datos que se tienen hasta ahora es que el resultado es claramente mejor de lo que era DLSS 1.0, hay que esperar hasta al menos el dia 22 de Junio para ver si merece la pena o no, tambien hay que tener en cuenta que es una primera version y seguramente mejorara con el tiempo.

¿Mejor que DLSS 1.0? Mirate el video de la confe de AMD, porque es claramente peor.

Imagen

Esa es la base, el resultado que ofrece es malo como el solo, no se puede ni comparar.

PepeC12 escribió:Todo proceso matematico se puede acelerar por hardware, no hace falta que sea ML y tener tensor cores, siempre puedes poner hardware dedicado a realizar ciertas operaciones (como lo hay por ejemplo para hacer ciertas operaciones criptograficas como hashes etc).

ML no deja de ser una red de funciones con varias entradas y varias salidas a cuyas funciones se les van asignando pesos iterativamente para reducir un error. Es un proceso automatico pero ineficiente, posiblemente se podria coger esa red de neuronas y solucionar el problema mucho mas rapido sin ellas (sin tantos calculos intermedios), depende mucho de la complejidad del problema claro esta.


No se puede acelerar lo que ya está acelerado, aquí no hay magia, las técnicas de reconstrucción no son nuevas, con computación tradicional se está llevando ya al límite con técnicas de acumulación temporal, que ya son mejores que el FSR. El algoritmo a falta de verlo el día 22 no va a ser nada nuevo si se basa en técnicas de reconstrucción que están investigadas desde hace años y se han dejado de usar por que se han descubierto nuevas que dan mucho mejor resultado.

El ML se basa en operaciones matriciales. Es algo que es ineficiente en ALUs convencionales, y por eso todos los fabricantes están apostando por su propia arquitectura específica para realizar estas operaciones, ahí tienes a NVIDIA con sus Tensor Cores o a Google con sus TPUs. Los resultados son claros, los algoritmos que se basan en ML están a años luz de los tradicionales.



Estas cogiendo una imagen ejecutada en una 1060 que no esta en maxima calidad, esperemos a ver que pasa.

Lo que se sabe hoy en dia es que la calidad es superior a cualquier TAA
¿Qué más da que esté ejecutado en una 1060 si el algoritmo es el mismo?
Edito, que he contestado sin más a una cosa de hace muchas páginas xD
A mí este vídeo de Jay me ha aclarado bastante la diferencia entre lo que hace NVIDIA y lo que hace AMD:

Unerico escribió:@triki1

Y poner noticias de "somosxbox" es como tener de referencia para hablar del Real Madrid a Roncero siendo generosos.


Y aun asi son mas creibles que tim sweeney hablando del ssd o de cerny hablando de tempest superior a atmos [sati]


Tiene delito comparar a Tim Sweeney o Mark Cerny con una web que podría estar dirigida por tí o por mí.
Unerico está baneado por "troll"
@PepeC12

Ampere parecia inalcanzable y ahi esta RDNA2 rindiendo a la par y consumiendo menos.


Partiendo de la base de que esto no es asi, el resto son conclusiones que parten de ese error.

El rendimiento de rdna2 se cae a donde actives el raytracing y en resoluciones superiores a 1440p vs eso mismo en ampere. Parte por la falta de hardware dedicado y especifico, parte por la falta de bus de memoria adecuado donde el parche de la IF ya no alcanza para tapar la falta de bus adecuado

Y eso lo digo sin activar el dlss (como lo hagas la diferencia es aun mayor). Mirate cualquier comparación y veras como el rendimiento de las 6000 igualando a las 3000 parte del truquito de capar las pretensiones con las premisas de "no actives el RT" y "no subas la resolución por arriba de 1440p". No recuerdo exacto pero la 6900xt creo haber leido a donde actives todo en altas resoluciones inclusive tiene problemas para competir con la 3060 o 3070

En el único contexto donde rdna2 rinde igual o mejor es si haces de cuenta que el RT no existe (o lo dejas en bajo nivel) y te quedas en 1080p o 1440p como resoluciones topes.

No seria un problema esto si no fuera porque a fin de cuentas la 6900xt tampoco es tan barata como para decir que en relación calidad precio conviene. Por lo que te sale la 6900xt puedes apuntar a la 3080 y no tener esos topes de rendimiento.

Si ahora inclusive AMD esta tratando de parchear estos inconvenientes junto con las terceras fabricantes de su placa con la premisa de tratar de no quedar en desventaja via aumentar el clock (osea overclock = solución guarra) a todo lo que da usando refrigeracion AIO (la toxic de sapphire, o la Radeon 6900xtx). Pero esto tampoco es la gran solución, aumenta el consumo y pierde esa ventaja por sobre las 3000. Tambien aumenta el precio de manera estratosferica haciendo que esas versiones con AIO esten como una 3090 pero rindiendo como menos que uan 3080. Aparte de que habia leido que RDNA2 no escala bien por sobre los 2000 mhz, osea no da una ventaja proporcional al aumento de clock

@NocheToledana

Tiene delito comparar a Tim Sweeney o Mark Cerny con una web que podría estar dirigida por tí o por mí.


Te daria la razon de no ser porque sweeney se comio una callada de boca del mismo john carmak y encima la filtracion de epic china luego. Idem cerny cuando la callada de boca vino de parte de dolby atmos
mocolostrocolos escribió:


Esto es lo que entre todos debemos evitar, que este hobby no caiga en estas mierdas

Es muy triste este tipo de actitudes
Nuhar escribió:
mocolostrocolos escribió:


Esto es lo que entre todos debemos evitar, que este hobby no caiga en estas mierdas

Es muy triste este tipo de actitudes

Hay gente que sólo les llega para berrea y no cagarse encima.
Nuhar escribió:
mocolostrocolos escribió:


Esto es lo que entre todos debemos evitar, que este hobby no caiga en estas mierdas

Es muy triste este tipo de actitudes

Qué es lo que debemos evitar? Que los fanboys envíen hatemail? O que los desarrolladores utilicen el hatemail para promocionar su juego en otras plataformas? O soy yo el único que ve la jugada?
David Ricardo escribió:
Nuhar escribió:
mocolostrocolos escribió:


Esto es lo que entre todos debemos evitar, que este hobby no caiga en estas mierdas

Es muy triste este tipo de actitudes

Qué es lo que debemos evitar? Que los fanboys envíen hatemail? O que los desarrolladores utilicen el hatemail para promocionar su juego en otras plataformas? O soy yo el único que ve la jugada?


Yo creo que has visto demasiado cine de Oliver Stone ultimamente........
@David Ricardo las dos

Pero si antes es el hatemail, lo primero es lo malo e INDEFENDIBLE
triki1 escribió:
David Ricardo escribió:
Nuhar escribió:
Esto es lo que entre todos debemos evitar, que este hobby no caiga en estas mierdas

Es muy triste este tipo de actitudes

Qué es lo que debemos evitar? Que los fanboys envíen hatemail? O que los desarrolladores utilicen el hatemail para promocionar su juego en otras plataformas? O soy yo el único que ve la jugada?


Yo creo que has visto demasiado cine de Oliver Stone ultimamente........

Lo que he leído últimamente son demasiados artículos sobre cómo funciona el marketing en redes sociales. Concretamente me ha flipado algo que se descubrió hace 70 años y está más vigente que nunca a día de hoy, que es la comunicación en 2 pasos:

Imagen

La publicidad (y los mítines políticos) muchas veces no están enfocadas al cliente final, sino al intermediario. Los llamados "líderes de opinión".

Si sabes que el mensaje no está enfocado a vender nada a la persona que lo está leyendo, sino a hacer que la persona que lo lee ejerza de comercial para tu marca, entiendes muchas cosas.
Homelander está baneado por "Troll"
Mucho interés veo últimamente en extrapolar al mundo real opiniones o comportamientos venideros de estercoleros como twitter, instagrams y demás rrss.

El mundo real no es twitter, ni los foros, aunque algunos vivan en ellos.
Nuhar escribió:@David Ricardo las dos

Pero si antes es el hatemail, lo primero es lo malo e INDEFENDIBLE

Cómo detienes una conducta irracional? Supuestamente (porque yo no he visto esos hatemail) los fanboys de Sony mandan mensajes de odio al desarrollador de un indie. Y estos mensajes en vez de fastidiarle, son utilizados como pitch de ventas de su juego en Xbox. Vamos, que en vez de perjudicarle le ayudan. Si los fanboys siguen presuntamente mandando mensajes de odio, muy listos no son. Cómo impides a un tonto que haga cosas que van en contra de sus intereses?
Como estos dias ando con bastantes horas libres me he puesto a ver videos por youtube y leer articulos sobre las supuestas filtraciones de diferentes conferencias ( 2018 y 2019 principalmente).............¿ Conclusion? Todos los periodistas e "insiders" son unos putos sinverguenzas, aciertan un 10-20% de todo lo que dicen y la mayoria de sus aciertos son de cosas absolutamente obvias y previsibles. La gente que tiene de verdad esta informacion se cuida demasiado de decirlo, siempre puede salir alguna cosa por fallos o alguien que se le va el pico por cualquier circustancia pero los que lo saben de verdad no suelen decir una puta mierda. Charlatanes de feria es lo que son la inmensa mayoria de esos "insiders". Sabia mas Lherre en su momento sobre estos temas que el 98% de estos mentecatos de pacotilla de hoy en dia.
triki1 escribió:Como estos dias ando con bastantes horas libres me he puesto a ver videos por youtube y leer articulos sobre las supuestas filtraciones de diferentes conferencias ( 2018 y 2019 principalmente).............¿ Conclusion? Todos los periodistas e "insiders" son unos putos sinverguenzas, aciertan un 10-20% de todo lo que dicen y la mayoria de sus aciertos son de cosas absolutamente obvias y previsibles. La gente que tiene de verdad esta informacion se cuida demasiado de decirlo, siempre puede salir alguna cosa por fallos o alguien que se le va el pico por cualquier circustancia pero los que lo saben de verdad no suelen decir una puta mierda. Charlatanes de feria es lo que son la inmensa mayoria de esos "insiders". Sabia mas Lherre en su momento sobre estos temas que el 98% de estos mentecatos de pacotilla de hoy en dia.


Es que es de cajón, el que tiene información de verdad, tiene NDA. Otra cosa son las filtraciones interesadas.

Y luego está el juego de las obviedades, como con la switch pro. Que saldrá en algún momento es seguro, que alguna filtración acierte... Un reloj estropeado acierta la hora dos veces al día.

Es como empezar ahora el runrún de PS5 slim, todos sabemos que en 2-3 años saldrá, a partir de ahí, pajas mentales.
@triki1 y de según que cosas me sigo fiando antes de Luis que de cualquiera que tenga Twitter XD
Yo todabia estoy esperando ese leak brutal en el que se habia filtrado la conferencia entera de square.

Como bien decis, mentecatos buscando atencion, y algunos aun los toman como informadores fiables.

El nuevo "me ha dicho mi primo" es un "lo afirman insiders en reddit/twitter".
exar escribió:@triki1 y de según que cosas me sigo fiando antes de Luis que de cualquiera que tenga Twitter XD


Hablo en pasado porque hace años que no hablo con él aunque si sigue igual es posible que ya tenga el codigo fuente del Unreal 5, los planos de la Play 5 Plus HyperGuay y la Switch Pro por casa [qmparto]
David Ricardo escribió:
Nuhar escribió:@David Ricardo las dos

Pero si antes es el hatemail, lo primero es lo malo e INDEFENDIBLE

Cómo detienes una conducta irracional? Supuestamente (porque yo no he visto esos hatemail) los fanboys de Sony mandan mensajes de odio al desarrollador de un indie. Y estos mensajes en vez de fastidiarle, son utilizados como pitch de ventas de su juego en Xbox. Vamos, que en vez de perjudicarle le ayudan. Si los fanboys siguen presuntamente mandando mensajes de odio, muy listos no son. Cómo impides a un tonto que haga cosas que van en contra de sus intereses?


Nadie debería mandar mensajes de odio, jamás!!! Sea por el motivo que sea, extrapolable a futbol, politica, moda, sexo, raza,...

Y si entre todos censuramos estas actitudes ayudaremos a crear una sociedad mejor, y ademas asi no se le da la excusa a nadie para aprovecharse del victimismo, que si está es su intención, es igual de mal y asqueroso que ellos.

Como se evita? No dandoles ningun apoyo y criticando su actitud abiertamente.

Por mi termino este offtopic, que el juego no se cual es y está conversación seria un tema muy largo de tratar
@Nuhar

No si ahora va a ser raro que las compañias intenten publicitarse.

El tema aqui es que a algunos les indigna mas que las compañias publiciten sus productos a que atajos de fanboys manden amenazas y hatemails a trabajadores de las compañias.
Hace un par de dias se decía que Scarlet Nexus saldría directamente en Xbox gamepass, hoy la propia bandai namco lo ha desmentido
https://www.videogameschronicle.com/new ... game-pass/

Para mi que es carne de gamepass pero no de lanzamiento, también se rumoreo que Tales of Arise iría al pass dia 1 pero no le doy credibilidad.
DiGiL escribió:Yo todabia estoy esperando ese leak brutal en el que se habia filtrado la conferencia entera de square.

Como bien decis, mentecatos buscando atencion, y algunos aun los toman como informadores fiables.

El nuevo "me ha dicho mi primo" es un "lo afirman insiders en reddit/twitter".



Imagen
Nuhar escribió:
David Ricardo escribió:
Nuhar escribió:@David Ricardo las dos

Pero si antes es el hatemail, lo primero es lo malo e INDEFENDIBLE

Cómo detienes una conducta irracional? Supuestamente (porque yo no he visto esos hatemail) los fanboys de Sony mandan mensajes de odio al desarrollador de un indie. Y estos mensajes en vez de fastidiarle, son utilizados como pitch de ventas de su juego en Xbox. Vamos, que en vez de perjudicarle le ayudan. Si los fanboys siguen presuntamente mandando mensajes de odio, muy listos no son. Cómo impides a un tonto que haga cosas que van en contra de sus intereses?


Nadie debería mandar mensajes de odio, jamás!!! Sea por el motivo que sea, extrapolable a futbol, politica, moda, sexo, raza,...

Y si entre todos censuramos estas actitudes ayudaremos a crear una sociedad mejor, y ademas asi no se le da la excusa a nadie para aprovecharse del victimismo, que si está es su intención, es igual de mal y asqueroso que ellos.

Como se evita? No dandoles ningun apoyo y criticando su actitud abiertamente.

Por mi termino este offtopic, que el juego no se cual es y está conversación seria un tema muy largo de tratar

No sé, a mí me parece que esto va a seguir porque todos consiguieron lo que querían:
El que envío el hatemail quería notoriedad, que mirasen para él. Lo consiguió.
El que recibió el hatemail quería promocionar su juego, y el hatemail le ayudó. Consiguió sus objetivos.
Los que criticaron la existencia del hatemail querían ser vistos como virtuosos, los buenos en la sociedad. Lo consiguieron.
Y yo quería ir de listo que se da cuenta de cosas que los demás no se dan cuenta. Y también lo conseguí.

Esto se va a repetir. Está claro. De hecho el único que creo que estaría en peligro a largo plazo soy yo, porque se me puede acusar, como ya han hecho, de culpabilizar a la víctima o defender el hatemail. Que vamos, nada más lejos de la realidad.
Visto el último video de Digital Foundry sobre Ratchet, que pasote lo que consiguió Insomniac con el SSD de PS5... que ganas de echarle el guante al juego [babas]

Me alegra ver que tiene upgrade en ciertos aspectos.
El leak de Wonderlands en la web oficial basicamente viene a confirmar el X-Com de Marvel y el juego de mundo abierto de terror de Hangar 13.
He intentado ver lo menos posible del Ratchet, pero me he visto el análisis de DF.

Más allá de lo espectacular que luce el juego, lo que más me gusta es que se pone la tecnología al servicio de la jugabilidad. Y no solo aprovechar la potencia para hacer que el juego luzca más bonito, sino que se amplíen las opciones jugables.

Que llegue ya el viernes de una vez. Y que me llegue el juego sin retraso. [qmparto]
mocolostrocolos escribió:He intentado ver lo menos posible del Ratchet, pero me he visto el análisis de DF.

Más allá de lo espectacular que luce el juego, lo que más me gusta es que se pone la tecnología al servicio de la jugabilidad. Y no solo aprovechar la potencia para hacer que el juego luzca más bonito, sino que se amplíen las opciones jugables.

Que llegue ya el viernes de una vez. Y que me llegue el juego sin retraso. [qmparto]


He leído que lo has pillado en FNAC como yo, a ver si tenemos suerte los dos.
Imagen

Habrá que estar atentos al día 24.
Ya era hora, la idea igual no era mala pero no cuajo por varios motivos.

Se simple y da lo que la gente quiere, luego ya haces pruebas
LordVulkan escribió:Imagen

Habrá que estar atentos al día 24.


Pero esto ya se sabía, que iban a dejar que se vendieran en la windows store aplicaciones que no fuera UWP
Unerico está baneado por "troll"
Switch pro seria increible de ser esto cierto

Fuente

-Usaria DLSS pero posiblemente solo en modo tv o incluso estsr bloqueado en el estreno y activarse por actualizacion
-La gpu seria de 1.0 ghz al lado de los 768 mhz actuales
-Se dice que puede ejecutar hasta 720p / 120 FPS en modo portátil. Sin embargo, se dice que saldrá a 60 FPS a 720p.
-Se sabe que el rendimiento en modo televisión está optimizado para la resolución actual de 1440p.
-Tendria xbox game pass que seria lanzado al mismo tiempo que el lanzamiento de la consola
Plage escribió:
LordVulkan escribió:Imagen

Habrá que estar atentos al día 24.


Pero esto ya se sabía, que iban a dejar que se vendieran en la windows store aplicaciones que no fuera UWP

Pero ya no se habla de permitir aplicaciones Win32, si no que todos los juegos van a pasar a ser Win32.
La famosa demo de Unreal Engine 5 funcionando perfectamente en un PC.

NocheToledana escribió:La famosa demo de Unreal Engine 5 funcionando perfectamente en un PC.



Sin io controller? Eso debe ser feik.
NocheToledana escribió:La famosa demo de Unreal Engine 5 funcionando perfectamente en un PC.



Creo que tiene un 0.1% menos de resolución la sombra de la lanza del cuarto soldado...

Es normal, no tiene I/O Controller dedicado
Lo mejor es el fan escocido acusando al responsable técnico de Nanite de FUD contra PlayStation y pidiendo a Tim Sweeney que controle a sus empleados, metiendo en la mención a todo el alto cargo de Sony que ha pillao.

Imagen
Debe ser un PC con SSD mágico.
82388 respuestas