[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

juanxugr7 escribió:
No se puede lo prohibieron temporalmente.


Hombre, si la gente fuera responsable y no se dedicara a intentar especular con las graficas y tuvieran un precio recomendado o menor, no entiendo porque no dejarían hacerlo, pero si, acabo de ver las normas, yo por eso aun estoy con la 1070, paso de pagar lo que piden por las graficas ahora, funciona de lujo además, a ver el próximo año como va la cosa.

Salu2
Buenas,
Con toda la suerte del mundo, pude comprar una 3080 FE, quería saber por experiencia de los que la tienen, si han visto indispensable cambiar los thermal pads, porque por lo que veo tiene problemas de temperatura y si es así, recomendación de cuales usar y experiencia o tutorial a seguir ya que hay un poco de miedo de estropearla, muchas gracias!!
shark_ean escribió:Buenas,
Con toda la suerte del mundo, pude comprar una 3080 FE, quería saber por experiencia de los que la tienen, si han visto indispensable cambiar los thermal pads, porque por lo que veo tiene problemas de temperatura y si es así, recomendación de cuales usar y experiencia o tutorial a seguir ya que hay un poco de miedo de estropearla, muchas gracias!!

Por lo que dicen, es recomendable hacerlo. En mi caso como poseedor de una, la tengo en una torre ventilada por aire con ventiladores de calidad (noctuas) y si pongo a tope la ventilación la temperatura de la memoria no me sube de 94º, si lo combino con una curva custom en la gráfica pues aún baja un poco más, pero lo cierto es que es una gráfica muy calentorra en cuanto a memorias, porque la GPU se mantiene muy fresquita con el sistema de disipación que han montado... el error ha sido no usar buenos thermal pads...

Yo lo que te aconsejo es que le hagas un undervolt y limites los fps en el panel de control de nvidia a los Hz de tu monitor, yo tengo limitación a 120 fps y el monitor es de 144 Hz, y con eso si tu torre ventila bien, puedes ir tirando. Pero claro, depende de las horas que eches al dia jugando, ya me gustaria a mi echar 7h al dia jugando... pero si llego a 1h ya es mucho, y no creo que usandola de serie tampoco le vaya a pasar nada por 1h al dia, en cualquier caso, hacerle undervolt es lo mejor que puedes hacer, y ya cuando se te pase la garantia, le cambias los thermal pads, porque cuando la abres pierdes la garantia y es tonteria perder 2 años de garantia en un cacharro de 720 euros...
Sbiky escribió:
shark_ean escribió:Buenas,
Con toda la suerte del mundo, pude comprar una 3080 FE, quería saber por experiencia de los que la tienen, si han visto indispensable cambiar los thermal pads, porque por lo que veo tiene problemas de temperatura y si es así, recomendación de cuales usar y experiencia o tutorial a seguir ya que hay un poco de miedo de estropearla, muchas gracias!!

Por lo que dicen, es recomendable hacerlo. En mi caso como poseedor de una, la tengo en una torre ventilada por aire con ventiladores de calidad (noctuas) y si pongo a tope la ventilación la temperatura de la memoria no me sube de 94º, si lo combino con una curva custom en la gráfica pues aún baja un poco más, pero lo cierto es que es una gráfica muy calentorra en cuanto a memorias, porque la GPU se mantiene muy fresquita con el sistema de disipación que han montado... el error ha sido no usar buenos thermal pads...

Yo lo que te aconsejo es que le hagas un undervolt y limites los fps en el panel de control de nvidia a los Hz de tu monitor, yo tengo limitación a 120 fps y el monitor es de 144 Hz, y con eso si tu torre ventila bien, puedes ir tirando. Pero claro, depende de las horas que eches al dia jugando, ya me gustaria a mi echar 7h al dia jugando... pero si llego a 1h ya es mucho, y no creo que usandola de serie tampoco le vaya a pasar nada por 1h al dia, en cualquier caso, hacerle undervolt es lo mejor que puedes hacer, y ya cuando se te pase la garantia, le cambias los thermal pads, porque cuando la abres pierdes la garantia y es tonteria perder 2 años de garantia en un cacharro de 720 euros...


Muchas gracias por la recomendación, hay días en los que juego 1h,otros ninguna, otros varias, etc pero sí que trabajo en el pc y lo tengo muchas horas encendido. La caja que tengo es una Corsair 5000D airflow con los 2 ventiladores de serie y para la cpu un noctua u12s, vigilaré temperaturas y miraré lo de hacerle underclock, el monitor que tengo también es de 144hz.

Por otra parte para ver temperaturas qué programa utilizas?, muchas gracias.
shark_ean escribió:
Sbiky escribió:
shark_ean escribió:Buenas,
Con toda la suerte del mundo, pude comprar una 3080 FE, quería saber por experiencia de los que la tienen, si han visto indispensable cambiar los thermal pads, porque por lo que veo tiene problemas de temperatura y si es así, recomendación de cuales usar y experiencia o tutorial a seguir ya que hay un poco de miedo de estropearla, muchas gracias!!

Por lo que dicen, es recomendable hacerlo. En mi caso como poseedor de una, la tengo en una torre ventilada por aire con ventiladores de calidad (noctuas) y si pongo a tope la ventilación la temperatura de la memoria no me sube de 94º, si lo combino con una curva custom en la gráfica pues aún baja un poco más, pero lo cierto es que es una gráfica muy calentorra en cuanto a memorias, porque la GPU se mantiene muy fresquita con el sistema de disipación que han montado... el error ha sido no usar buenos thermal pads...

Yo lo que te aconsejo es que le hagas un undervolt y limites los fps en el panel de control de nvidia a los Hz de tu monitor, yo tengo limitación a 120 fps y el monitor es de 144 Hz, y con eso si tu torre ventila bien, puedes ir tirando. Pero claro, depende de las horas que eches al dia jugando, ya me gustaria a mi echar 7h al dia jugando... pero si llego a 1h ya es mucho, y no creo que usandola de serie tampoco le vaya a pasar nada por 1h al dia, en cualquier caso, hacerle undervolt es lo mejor que puedes hacer, y ya cuando se te pase la garantia, le cambias los thermal pads, porque cuando la abres pierdes la garantia y es tonteria perder 2 años de garantia en un cacharro de 720 euros...


Muchas gracias por la recomendación, hay días en los que juego 1h,otros ninguna, otros varias, etc pero sí que trabajo en el pc y lo tengo muchas horas encendido. La caja que tengo es una Corsair 5000D airflow con los 2 ventiladores de serie y para la cpu un noctua u12s, vigilaré temperaturas y miraré lo de hacerle underclock, el monitor que tengo también es de 144hz.

Por otra parte para ver temperaturas qué programa utilizas?, muchas gracias.

HWiNFO te muestra el t junction memory temperature, ahi es donde puedes ver si la memoria de la gráfica se calienta de más o no.
Por otro lado tienes buena torre, deberia ventilar bien, pero puedes probar a instalar algún ventilador más en el frontal, yo cambié los de serie que venian en mi torre (Fractal) por Noctuas y la temperatura bajó un disparate en general en toda la torre, si lo llego a saber lo hago antes.
Sbiky escribió:
shark_ean escribió:
Sbiky escribió:Por lo que dicen, es recomendable hacerlo. En mi caso como poseedor de una, la tengo en una torre ventilada por aire con ventiladores de calidad (noctuas) y si pongo a tope la ventilación la temperatura de la memoria no me sube de 94º, si lo combino con una curva custom en la gráfica pues aún baja un poco más, pero lo cierto es que es una gráfica muy calentorra en cuanto a memorias, porque la GPU se mantiene muy fresquita con el sistema de disipación que han montado... el error ha sido no usar buenos thermal pads...

Yo lo que te aconsejo es que le hagas un undervolt y limites los fps en el panel de control de nvidia a los Hz de tu monitor, yo tengo limitación a 120 fps y el monitor es de 144 Hz, y con eso si tu torre ventila bien, puedes ir tirando. Pero claro, depende de las horas que eches al dia jugando, ya me gustaria a mi echar 7h al dia jugando... pero si llego a 1h ya es mucho, y no creo que usandola de serie tampoco le vaya a pasar nada por 1h al dia, en cualquier caso, hacerle undervolt es lo mejor que puedes hacer, y ya cuando se te pase la garantia, le cambias los thermal pads, porque cuando la abres pierdes la garantia y es tonteria perder 2 años de garantia en un cacharro de 720 euros...


Muchas gracias por la recomendación, hay días en los que juego 1h,otros ninguna, otros varias, etc pero sí que trabajo en el pc y lo tengo muchas horas encendido. La caja que tengo es una Corsair 5000D airflow con los 2 ventiladores de serie y para la cpu un noctua u12s, vigilaré temperaturas y miraré lo de hacerle underclock, el monitor que tengo también es de 144hz.

Por otra parte para ver temperaturas qué programa utilizas?, muchas gracias.

HWiNFO te muestra el t junction memory temperature, ahi es donde puedes ver si la memoria de la gráfica se calienta de más o no.
Por otro lado tienes buena torre, deberia ventilar bien, pero puedes probar a instalar algún ventilador más en el frontal, yo cambié los de serie que venian en mi torre (Fractal) por Noctuas y la temperatura bajó un disparate en general en toda la torre, si lo llego a saber lo hago antes.


Perfecto, mil gracias por la ayuda!, revisaré temperaturas con lo que tengo y sino voy a por nuevos ventiladores para la torre y hago undervolt :)
hh1 escribió:
colado escribió:
OnixSa escribió:Buenas

no se si es malo. Pero he alcanzado una temperatura de 70grados en la RTX 3070 con uso del 100% constante en el juego de fortnite todo al máximo con 4k nativos,etc..

Mi pregunta es Tan malo es que se ponga a 70 grados durante 5 horas al dia?
Es que he leído por ahi que es malísimo. No esas horas que ahi hay mucha gente que no ve problemas y otras si.
Pero me refiero son temperaturas mala?

la cpu en cambio se quedaba a 55 y 60grados. Pero claro la CPU apenas iba a 20%de uso y voltaje bajo.
Em cambio el voltaje de gpu se ha disparado a 240w.

Alguien puede aclararme y sacarme de dudas.


Malisimo? para nada, las graficas estan pensadas para funcionar a esa temperatura, bajan el rendimiento cuando sobrepasan los 100ºC asi que no te preocupes.

Cuando subes la resolucion, baja el uso de la cpu asi que es normal.


@bembas_13

No es cierto.
Ya salió por aquí esa discusión y yo pensaba como vosotros que hasta X °C no bajaba rendimiento.
Pero resulta que baja rendimiento a temperaturas más bajas de las que creemos.La cosa está es que la diferencia de rendimiento es pequeña o pco notoria y hay una temperatura a la que ya mete un buen bajón.
Pero la realidad es que a más temperatura ,menor rendimiento ,y no necesariamente tiene que estar a 90°C o más ,sino a bastantes menos grados.


y donde ves que baje? porque yo no veo que baje de los 1950mhz con undervolt en 0.925 y las memos con OC a +1000mhz
86º de máximo alcanzo a 4k en el benchmark de superposition con los ventiladores de la 3070ti al 48% (más del 50% ya me molesta el ruido de la gráfica, así que, por el ruido, prefiero que esté más tirando a caliente que a fría)
Y la TJunction no llega a 90º

Eso sí, ventilando bien la caja: 2 Noctua de 140mm arriba, un Corsair trasero y otros 2 Noctua de 120mm frontal-abajo. Todos al 50% aproximadamente.
eR_pOty está baneado por "GAME OVER"
Gnoblis escribió:
juanxugr7 escribió:Una pregunta, he comprado una series X y tengo la Ps5 y la verdad que la rtx 3070 que tengo le voy a dar poco uso, sabeis algun sitio que no sea el mercadeo de wallapop, para poder cambiar por una menor.
Me refiero algún foro o algo.

Aqui mismo en este foro hay área de compra/venta

Error, los caciques del foro no te permiten venderla para "evitar la especulacion", algun complejo de diputados deben de tener que quieren aplicar leyes que no aplican ni los propios politicos del pais.
solucione el tema de las resoluciones horizontales del image scaling a 4k en la LG Oled G1 , como se comento en este hilo lo dejo aquí por si le sirve a alguien , resulta que la pantalla es compatible con la resolución 4096x2160 es decir resolución con un aspect ratio de 17:9 en vez de 16:9 , al activar ya sea el DSR o el image scaling todas las resoluciones que se generan son 17:9 , para solucionar esto simplemente hay que bajarse un programa para eliminar la resolución 4096x2160 , el programa es el custom resolution utility 1.5.1

aquí dejo la guía que utilice:
https://www.monitortests.com/blog/guide ... 4096x2160/

hay que eliminar todas las frecuencias de dicha resolución...

y el resultado:

Imagen

[oki]

salu2.
Que cosa más extraña esta noticia.
https://videocardz.com/newz/nvidia-intr ... aptop-gpus
Nunca hubiera imaginado que se pusieran ahora a hacer una RTX 2050, ni para portatiles. [flipa]

Sorprende mucho por las caracteristicas para ser RTX. Tiene más cudas que una 2060 pero el interfaz de memoria y el ancho de banda es mucho más pequeño, veremos que sale de esto aunque sea para portatiles.
Imagen
Tambien llama la atención que es un chip basado en el Ampere GA107 GPU. Supongo que van a sacar una serie de modelos hechos con todas las obleas rotas de Ampere.
Nomada_Firefox escribió:Que cosa más extraña esta noticia.
https://videocardz.com/newz/nvidia-intr ... aptop-gpus
Nunca hubiera imaginado que se pusieran ahora a hacer una RTX 2050, ni para portatiles. [flipa]

Sorprende mucho por las caracteristicas para ser RTX. Tiene más cudas que una 2060 pero el interfaz de memoria y el ancho de banda es mucho más pequeño, veremos que sale de esto aunque sea para portatiles.
Imagen
Tambien llama la atención que es un chip basado en el Ampere GA107 GPU. Supongo que van a sacar una serie de modelos hechos con todas las obleas rotas de Ampere.


NVIDIA ha tenido muy olvidada la gama de entrada al gaming con las rtx, siendo sus gtx 16xx la ultima generacion que estaba enfocada en esto

Ahora se acerca intel, cuyo target sera principalmente este nicho de mercado, seguramente tanto para portátiles como para sobremesas

Lo mismo si continua esta dinámica NVIDIA saca las rtx 2030/3030 incluso XD XD
dinamita4922 escribió:
NVIDIA ha tenido muy olvidada la gama de entrada al gaming con las rtx, siendo sus gtx 16xx la ultima generacion que estaba enfocada en esto

Ahora se acerca intel, cuyo target sera principalmente este nicho de mercado, seguramente tanto para portátiles como para sobremesas

Lo mismo si continua esta dinámica NVIDIA saca las rtx 2030/3030 incluso XD XD

Mira no me acordaba ya de Intel y sus graficas de entrada que fueron de las primeras que anunciaron que habria.

Para mi lo más llamativo es que sean anunciadas como graficas Raytracing. Me pregunto que rendimiento se consigue con esto y si Nvidia no estara, muy posiblemente, engañandonos con los tensor cores y el como son necesarios para ejecutar dicho efecto. Siempre me ha parecido que la mayoria de sus filtros u opciones asociadas a una pieza de hardware se podian hacer por software y el tiempo ha acabado por dar la razon en ese aspecto.

Por supuesto la gracia de esta grafica 2050 sera el DLSS y el como los portatiles con resoluciones más inferiores se puedan beneficiar de esto. Veremos como los venden. Los modelos con 3050 tienen precios colores pero se pueden encontrar muchos por debajo de 1000€.

A modo interesante, una RTX 3050 Ti de laptop tiene 2560 núcleos CUDA, 20 de Ray Tracing y 80 de Tensor, basada tambien en el Ampere 107 pero con 128 Bit.
@Nomada_Firefox

Has visto la Demo técnica de UE5 de Matrix,, que hay disponible para ps5 y xbox serie s/x??

Creo que usa RT, y mueve la demo entre 20/30 frames a 4k dinamico, que me imgino que sera 1440p y son GPU AMD....

Las rtx 2050/3050 la gracia que tendrán es el dlss si, porque el RT viendo como se comportan sus hermanas mayores sera solo anecdótico

En su día tendrían que haber sacado las rtx 2050 y no lo hicieron, y se sacaron de la manga las gtx 16xx para justificar el RT y el dlss de las rtx 20xx
dinamita4922 escribió:@Nomada_Firefox

Has visto la Demo técnica de UE5 de Matrix,, que hay disponible para ps5 y xbox serie s/x??

He visto un porque no me llama mucho que vuelvan con Matrix que era algo muy acabado en plan vamos a recaudar. Pero si que luce muy bien y no me extraña porque el motor de UE siempre ha sido de los que mejor aprovechan el hardware. Pero en el Mechwarrior 5 puedes usar Raytracing y sinceramente no noto la diferencia. Si luce diferente pero ¿luce bien? pues no es algo que impresiones en un juego con grandes mapas de terreno.

En el MechWarrior 5 el Raytracing con todo el detalle al maximo y el DLSS en balance te deja bastante cerca de los 60fps. Sin el, sube a 190 fps facilmente. Asi que me muestro muy exceptico con el Raytracing. Eso en 1080p con mi RTX 3060.

Lo mejor sin duda es el DLSS.

Nvidia lo que hace es lo que dices tu, en su dia estiro el chicle con las 16 y ahora viene con estas sin tener mucha intención de vender otra cosa que no sean RTX.
ya podian haber puesto la demo también para PC...

yo a ver si estas navidades paso mi 3080 al pc principal, me compré un monitor 4k / 60 y la 5700xt va algo justa
paconan escribió:ya podian haber puesto la demo también para PC...

Al final son las consolas las que mandan........ya no se hacen muchos juegos directamente para PC y claramente se repite lo mismo de antes, juegos mal optimizados porque el hardware en PC es muy superior y no lo aprovechan bien.

Para ser un juego, luce muy bien pero tampoco es que tenga un nivel insuperable, las texturas en el UE5 lucen muy pasteleras, ya pasaba antes y pasa ahora, es como si fueran todos irreales, no tienen solidez. El acero no acaba de lucir como acero y el asfalto es todo menos asfalto. Quizas con unos brillos mejoraria.
yo a ver si estas navidades paso mi 3080 al pc principal, me compré un monitor 4k / 60 y la 5700xt va algo justa

Ya veo que has caido en el lado oscuro del 4k, el traga hardware. El problema de la 3080, es el mismo de cuando salio, justa de memoria para durar en el tiempo y con los precios actuales......un desproposito de tarjeta para altas resoluciones.

Lo malo es como con todo lo demas el stock. Cero patatero. :-|
@Nomada_Firefox la 3080 ftw3 la tengo desde que salió (antes de que subieran de precio) y menos mal, si tuviera que comprarla ahora... j
paconan escribió:@Nomada_Firefox la 3080 ftw3 la tengo desde que salió (antes de que subieran de precio) y menos mal, si tuviera que comprarla ahora... j

Suerte que tuviste haciendo ese movimiento. :)
Nomada_Firefox escribió:
paconan escribió:ya podian haber puesto la demo también para PC...

Al final son las consolas las que mandan........ya no se hacen muchos juegos directamente para PC y claramente se repite lo mismo de antes, juegos mal optimizados porque el hardware en PC es muy superior y no lo aprovechan bien.

Para ser un juego, luce muy bien pero tampoco es que tenga un nivel insuperable, las texturas en el UE5 lucen muy pasteleras, ya pasaba antes y pasa ahora, es como si fueran todos irreales, no tienen solidez. El acero no acaba de lucir como acero y el asfalto es todo menos asfalto. Quizas con unos brillos mejoraria.
yo a ver si estas navidades paso mi 3080 al pc principal, me compré un monitor 4k / 60 y la 5700xt va algo justa

Ya veo que has caido en el lado oscuro del 4k, el traga hardware. El problema de la 3080, es el mismo de cuando salio, justa de memoria para durar en el tiempo y con los precios actuales......un desproposito de tarjeta para altas resoluciones.

Lo malo es como con todo lo demas el stock. Cero patatero. :-|

Yo por eso veo a estas gráficas hasta la 3080 usables a 4k pero que son mejores para 1440p y altos fps.
La verdad, da más satisfacción jugar. Acaso todo a 1440p (hablando de monitores no enormes) a altos fps que 4K y 60 pelaos.
hh1 escribió:
Nomada_Firefox escribió:
paconan escribió:ya podian haber puesto la demo también para PC...

Al final son las consolas las que mandan........ya no se hacen muchos juegos directamente para PC y claramente se repite lo mismo de antes, juegos mal optimizados porque el hardware en PC es muy superior y no lo aprovechan bien.

Para ser un juego, luce muy bien pero tampoco es que tenga un nivel insuperable, las texturas en el UE5 lucen muy pasteleras, ya pasaba antes y pasa ahora, es como si fueran todos irreales, no tienen solidez. El acero no acaba de lucir como acero y el asfalto es todo menos asfalto. Quizas con unos brillos mejoraria.
yo a ver si estas navidades paso mi 3080 al pc principal, me compré un monitor 4k / 60 y la 5700xt va algo justa

Ya veo que has caido en el lado oscuro del 4k, el traga hardware. El problema de la 3080, es el mismo de cuando salio, justa de memoria para durar en el tiempo y con los precios actuales......un desproposito de tarjeta para altas resoluciones.

Lo malo es como con todo lo demas el stock. Cero patatero. :-|

Yo por eso veo a estas gráficas hasta la 3080 usables a 4k pero que son mejores para 1440p y altos fps.
La verdad, da más satisfacción jugar. Acaso todo a 1440p (hablando de monitores no enormes) a altos fps que 4K y 60 pelaos.

Yo la verdad lo respeto pero no le veo la gracia a jugar en un 4k 60hz. Creo que jugando en monitores que son grandes pero no tienen ningun virtud más que ser grandes, perderas un monton de cosas buenas, a parte que nunca me gusto jugar tirado en el sofa porque un monitor asi de gordo no puedes usarlo a menos de medio metro sin perder de vista media pantalla.
Nomada_Firefox escribió:
hh1 escribió:
Nomada_Firefox escribió:Al final son las consolas las que mandan........ya no se hacen muchos juegos directamente para PC y claramente se repite lo mismo de antes, juegos mal optimizados porque el hardware en PC es muy superior y no lo aprovechan bien.

Para ser un juego, luce muy bien pero tampoco es que tenga un nivel insuperable, las texturas en el UE5 lucen muy pasteleras, ya pasaba antes y pasa ahora, es como si fueran todos irreales, no tienen solidez. El acero no acaba de lucir como acero y el asfalto es todo menos asfalto. Quizas con unos brillos mejoraria.

Ya veo que has caido en el lado oscuro del 4k, el traga hardware. El problema de la 3080, es el mismo de cuando salio, justa de memoria para durar en el tiempo y con los precios actuales......un desproposito de tarjeta para altas resoluciones.

Lo malo es como con todo lo demas el stock. Cero patatero. :-|

Yo por eso veo a estas gráficas hasta la 3080 usables a 4k pero que son mejores para 1440p y altos fps.
La verdad, da más satisfacción jugar. Acaso todo a 1440p (hablando de monitores no enormes) a altos fps que 4K y 60 pelaos.

Yo la verdad lo respeto pero no le veo la gracia a jugar en un 4k 60hz. Creo que jugando en monitores que son grandes pero no tienen ningun virtud más que ser grandes, perderas un monton de cosas buenas, a parte que nunca me gusto jugar tirado en el sofa porque un monitor asi de gordo no puedes usarlo a menos de medio metro sin perder de vista media pantalla.

Cuales son ese montón de cosas buenas que perderás con una gran pantalla? O hablas concretamente de un monitor?

Por otra parte la virtud de ser grande la dejas como algo poco importante, pero diría que en general la gente ve menos importante el salto de 120fps a 144fps que el cambio de una pantalla de unas 27" a otra de unas 60". El tamaño importa. Eso si, no hablo de juegos competitivos, no me interesa ese mundo. A quien le interese entiendo que para él los fps es lo mas importante.
Rvilla87 escribió:Cuales son ese montón de cosas buenas que perderás con una gran pantalla? O hablas concretamente de un monitor?

Lo decia principalmente porque mucha gente se compra pantallas que son de TV y no monitores. Pero sobretodo pierdes inmersión. Y con algo que es 60hz, y no sera ni Gsync ni Freesync porque no creo que se use para pantallas de 60hz.

Pero la critica es sobretodo porque me apuesto el pellejo a que hay muchisima gente que usa pantallas no aptas para las distancias a las que juegan. Vamos que juegan demasiado cerca y pierden media pantalla.

El tema de los fps tiene tela tambien, he visto mucha gente por el mundo que piensa que tienes que jugar a 144fps porque no entienden realmente a que venia la idea. Hay mucho desconocimiento con el tema. Puede que hace 10 años tuviera sentido pero ahora mismo tecnologias como Gsync/Freesync vienen a corregir el problema del lag creado entre el monitor y la grafica. Asi que no necesitas comprar algo super potente para jugar a esos niveles.

Lo malo es incluso el nivel bajo de graficas es demasiado caro. Sino con la 2060 12GB que sacaron y las posibles 3050, veriamos un mercado muy bueno para el gaming, como cuando hubo las mencionadas GTX 16XX.
Nomada_Firefox escribió:
Rvilla87 escribió:Cuales son ese montón de cosas buenas que perderás con una gran pantalla? O hablas concretamente de un monitor?

Lo decia principalmente porque mucha gente se compra pantallas que son de TV y no monitores. Pero sobretodo pierdes inmersión. Y con algo que es 60hz, y no sera ni Gsync ni Freesync porque no creo que se use para pantallas de 60hz.

Pero la critica es sobretodo porque me apuesto el pellejo a que hay muchisima gente que usa pantallas no aptas para las distancias a las que juegan. Vamos que juegan demasiado cerca y pierden media pantalla.

El tema de los fps tiene tela tambien, he visto mucha gente por el mundo que piensa que tienes que jugar a 144fps porque no entienden realmente a que venia la idea. Hay mucho desconocimiento con el tema. Puede que hace 10 años tuviera sentido pero ahora mismo tecnologias como Gsync/Freesync vienen a corregir el problema del lag creado entre el monitor y la grafica. Asi que no necesitas comprar algo super potente para jugar a esos niveles.

Lo malo es incluso el nivel bajo de graficas es demasiado caro. Sino con la 2060 12GB que sacaron y las posibles 3050, veriamos un mercado muy bueno para el gaming, como cuando hubo las mencionadas GTX 16XX.

Precisamente por eso te hice la pregunta, para saber qué perdía desde tu punto de vista si elijo una TV respecto a un monitor.

Con una TV como una LG Oled C1(desde 2020) tienes 120fps, HDMI 2.1 y G-sync entre otras características.

El tema de la relación distancia/tamaño TV es algo bastante personal, como creo que también lo es el darle mas importancia a los fps respecto al tamaño de la pantalla (y teniendo en cuenta el espacio que tenga cada uno).

Dicho de otra forma muy simple, si te dan a elegir jugar a 120fps a 2k en un monitor de 30" y jugar a 60fps a 4k en una TV de 65" qué elegirías? Y en cuál tendrías mas inmersión?

Es posible que la decisión no sea evidente y según los gustos personales prefiera una opción u otra. El clásico ejemplo de jugar a juegos competitivos como un FPS, seguramente prefiera la opción de 120fps. Pero no es eso a lo que quería llegar, sino a lo que se pierde con una TV que sí te lo da un monitor. Y no veo claro qué se pierde, porque me da a entender que estás hablando casi de TVs de tubo cuando la tecnología ha mejorado muchísimo en los últimos años.
Rvilla87 escribió:Con una TV como una LG Oled C1(desde 2020) tienes 120fps, HDMI 2.1 y G-sync entre otras características.

120hz no es 4k 60hz. Asi que no tiene nada que ver con lo comentado. Solo apuntar que no se recomienda un Oled como pantalla de un PC.

El tema de la relación distancia/tamaño TV es algo bastante personal, como creo que también lo es el darle mas importancia a los fps respecto al tamaño de la pantalla (y teniendo en cuenta el espacio que tenga cada uno).

Dicho de otra forma muy simple, si te dan a elegir jugar a 120fps a 2k en un monitor de 30" y jugar a 60fps a 4k en una TV de 65" qué elegirías? Y en cuál tendrías mas inmersión?



El tema de la inmersión es un tanto como si comparas las gafas virtuales que no son más que unas pantallas al ras de tus ojos con la pantalla normal ¿quien da más inmersión?

El problema es que por regla universal la pantalla tienes que verla entera sin girar ni la cabeza ni mover los ojos para ver las esquinas. Asi que mucha gente apuesto a que estan mal situados porque lo he visto. Gente muy pegados a grandes pantallas. Conozco peña con pantallas de 50" en habitaciones que no dan ni el largo para verlas sin mover los ojos o la cabeza para ver la acción que se ve en una esquina...........asi que por eso lo digo. Seguro que más de una vez lo habeis notado incluso en peliculas. Es algo que ya pasaba en los cines.....la mejor posición es el centro y depende la altura de las butacas con respecto a la pantalla porque es facil que no la veas entera y estar más atras sea mejor aunque veas detalles más pequeños. Y eso que ver una pelicula no es jugar a un juego donde tienes que estar centrado, por lo menos a un shooter, un juego de estrategia es diferente, puedes estar menos centrado.

Es posible que la decisión no sea evidente y según los gustos personales prefiera una opción u otra. El clásico ejemplo de jugar a juegos competitivos como un FPS, seguramente prefiera la opción de 120fps. Pero no es eso a lo que quería llegar, sino a lo que se pierde con una TV que sí te lo da un monitor. Y no veo claro qué se pierde, porque me da a entender que estás hablando casi de TVs de tubo cuando la tecnología ha mejorado muchísimo en los últimos años.

Volvemos a lo mismo de antes ¿que tiene que ver 120hz con 60hz? nada de nada. La cuestión es que a 60hz, Gsync y Freesync ya no funcionan tan bien. Freesync se activa a partir de 40fps y Gsync a partir de 30fps. Se supone que Gsync compatible usara algo parecido, pero en general recomiendan 60fps o más para ambas tecnologias. Claro que hay juegos que no pasan de 60 porque sí.

No obstante si tienes Gsync no necesitas poder jugar a 120fps, ni que ser estables porque Gsync va a igualar los fps con los hz. Asi que podrias tener equipo para mover el juego a 70fps y ni te darias cuenta de si estas a 120hz o no. Y esta comprobadisimo que no se diferencia, que se lo digan a Linus tech cuando hizo la comparación con unos gamer a ver si sabian que equipo funcionaba a menos hz.

Seguramente toda esa idea de los fps altos se desmonta cuando ves los fps maximos en las consolas. Vamos no se sostiene ni por un segundo que funcionan a 60fps como mucho, creo recordar que 30 fps es el valor más general.

En fin, supongo que esto seria la discusión universal. :)
eR_pOty está baneado por "GAME OVER"
Nueva actualizacion ya disponible que añade DLSS a Horizon Zero down con una mejora del 50%

Y se prevee que el GOD OF WAR el 14 de enero y todos los titulos TOP de SONY apareceran tambien con DLSS

Muertisimo si.. haya por el 2040 le auguro que morira el dlss.. :-| [rtfm]
Rvilla87 escribió:
Nomada_Firefox escribió:
Rvilla87 escribió:Cuales son ese montón de cosas buenas que perderás con una gran pantalla? O hablas concretamente de un monitor?

Lo decia principalmente porque mucha gente se compra pantallas que son de TV y no monitores. Pero sobretodo pierdes inmersión. Y con algo que es 60hz, y no sera ni Gsync ni Freesync porque no creo que se use para pantallas de 60hz.

Pero la critica es sobretodo porque me apuesto el pellejo a que hay muchisima gente que usa pantallas no aptas para las distancias a las que juegan. Vamos que juegan demasiado cerca y pierden media pantalla.

El tema de los fps tiene tela tambien, he visto mucha gente por el mundo que piensa que tienes que jugar a 144fps porque no entienden realmente a que venia la idea. Hay mucho desconocimiento con el tema. Puede que hace 10 años tuviera sentido pero ahora mismo tecnologias como Gsync/Freesync vienen a corregir el problema del lag creado entre el monitor y la grafica. Asi que no necesitas comprar algo super potente para jugar a esos niveles.

Lo malo es incluso el nivel bajo de graficas es demasiado caro. Sino con la 2060 12GB que sacaron y las posibles 3050, veriamos un mercado muy bueno para el gaming, como cuando hubo las mencionadas GTX 16XX.

Precisamente por eso te hice la pregunta, para saber qué perdía desde tu punto de vista si elijo una TV respecto a un monitor.

Con una TV como una LG Oled C1(desde 2020) tienes 120fps, HDMI 2.1 y G-sync entre otras características.

El tema de la relación distancia/tamaño TV es algo bastante personal, como creo que también lo es el darle mas importancia a los fps respecto al tamaño de la pantalla (y teniendo en cuenta el espacio que tenga cada uno).

Dicho de otra forma muy simple, si te dan a elegir jugar a 120fps a 2k en un monitor de 30" y jugar a 60fps a 4k en una TV de 65" qué elegirías? Y en cuál tendrías mas inmersión?

Es posible que la decisión no sea evidente y según los gustos personales prefiera una opción u otra. El clásico ejemplo de jugar a juegos competitivos como un FPS, seguramente prefiera la opción de 120fps. Pero no es eso a lo que quería llegar, sino a lo que se pierde con una TV que sí te lo da un monitor. Y no veo claro qué se pierde, porque me da a entender que estás hablando casi de TVs de tubo cuando la tecnología ha mejorado muchísimo en los últimos años.

Yo elegiría 120 1440p (no 2K.2K es una resolución menor al QHD).
Entre jugar en 30" a QHD o 4K en pantalla grande, no voy a notar gran cosa.Ya lo experimenté.
Pero en muchos juegos, de 60 a 120 fps, sí que se nota y bastante.En otros, me da igual.

Pero claro, también te dejas el tipoi de panel.Y jugar en una Oled es la mejor experiencia sin duda alguna.Lo único, el come come que se tiene con los quemados.
eR_pOty escribió:Nueva actualizacion ya disponible que añade DLSS a Horizon Zero down con una mejora del 50%

Y se prevee que el GOD OF WAR el 14 de enero y todos los titulos TOP de SONY apareceran tambien con DLSS

Muertisimo si.. haya por el 2040 le auguro que morira el dlss.. :-| [rtfm]


El dlss morira cuando las tarjetas graficas vayan sobradisimas para ejecutar los ultimos juegos a alta resolucion y alta tasa de fps, cosa que nunca ocurrira. Como mucho, sera sustituido por una tecnologia mejor.
Nomada_Firefox escribió:

El tema de la inmersión es un tanto como si comparas las gafas virtuales que no son más que unas pantallas al ras de tus ojos con la pantalla normal ¿quien da más inmersión?



En la cuestión de fondo y en el resto de tu post estoy de acuerdo. Pero creo que has elegido un ejemplo desafortunado.

Unas gafas virtuales ni de lejos se pueden definir como "no son más que unas pantallas al ras de tus ojos". De hecho la pantalla es lo de menos, puedes usar IPS, oled, distintas resoluciones y tasas de refresco..... son las lentes las que hacen "su magia". Y si del factor que hablamos es inmersión, no hay nada que supere a ese tipo de producto.
Calidad, definición, comodidad, Hz.....en todo eso las gafas están y estarán detrás. En inmersión, es imposible que un monitor se les acerque siquiera. Es otro tipo de producto para consumir, al menos mayoritariamente, otro tipo de juegos y experiencias.

Igual no las has usado (o has usado ese subproducto cutre al que se le mete el móvil y pretende ser gafa VR), porque si has usado bien unas buenas gafas VR, no puedo alcanzar a entender que pongas ese ejemplo.
Dracot escribió:
Nomada_Firefox escribió:

El tema de la inmersión es un tanto como si comparas las gafas virtuales que no son más que unas pantallas al ras de tus ojos con la pantalla normal ¿quien da más inmersión?



En la cuestión de fondo y en el resto de tu post estoy de acuerdo. Pero creo que has elegido un ejemplo desafortunado.

Unas gafas virtuales ni de lejos se pueden definir como "no son más que unas pantallas al ras de tus ojos". De hecho la pantalla es lo de menos, puedes usar IPS, oled, distintas resoluciones y tasas de refresco..... son las lentes las que hacen "su magia". Y si del factor que hablamos es inmersión, no hay nada que supere a ese tipo de producto.
Calidad, definición, comodidad, Hz.....en todo eso las gafas están y estarán detrás. En inmersión, es imposible que un monitor se les acerque siquiera. Es otro tipo de producto para consumir, al menos mayoritariamente, otro tipo de juegos y experiencias.

Igual no las has usado (o has usado ese subproducto cutre al que se le mete el móvil y pretende ser gafa VR), porque si has usado bien unas buenas gafas VR, no puedo alcanzar a entender que pongas ese ejemplo.

Tal como te leemos, da la impresión que nos estas contando que las gafas de VR son una cosa como las de Ready Player One donde la inmersión era hasta cerebral practicamente.

Pero la realidad es que por mucho que lo quieras adornar es una pantalla al ras. El problema aqui es la gente es muy orgullosa cuando hablan de lo que tienen en casa y ponen las cosas mejor de lo que realmente son.

Y decir que es una pantalla al ras no es menospreciar. Es que es eso, no es algo que conecte tu cerebro ni que haga maravillas. :)
Nomada_Firefox escribió:...por mucho que lo quieras adornar es una pantalla al ras.

Eso es tan preciso como decir que el David de Miguel Angel es un trozo de marmol. XD
Nomada_Firefox escribió:
Dracot escribió:
Nomada_Firefox escribió:

El tema de la inmersión es un tanto como si comparas las gafas virtuales que no son más que unas pantallas al ras de tus ojos con la pantalla normal ¿quien da más inmersión?



En la cuestión de fondo y en el resto de tu post estoy de acuerdo. Pero creo que has elegido un ejemplo desafortunado.

Unas gafas virtuales ni de lejos se pueden definir como "no son más que unas pantallas al ras de tus ojos". De hecho la pantalla es lo de menos, puedes usar IPS, oled, distintas resoluciones y tasas de refresco..... son las lentes las que hacen "su magia". Y si del factor que hablamos es inmersión, no hay nada que supere a ese tipo de producto.
Calidad, definición, comodidad, Hz.....en todo eso las gafas están y estarán detrás. En inmersión, es imposible que un monitor se les acerque siquiera. Es otro tipo de producto para consumir, al menos mayoritariamente, otro tipo de juegos y experiencias.

Igual no las has usado (o has usado ese subproducto cutre al que se le mete el móvil y pretende ser gafa VR), porque si has usado bien unas buenas gafas VR, no puedo alcanzar a entender que pongas ese ejemplo.

Tal como te leemos, da la impresión que nos estas contando que las gafas de VR son una cosa como las de Ready Player One donde la inmersión era hasta cerebral practicamente.

Pero la realidad es que por mucho que lo quieras adornar es una pantalla al ras. El problema aqui es la gente es muy orgullosa cuando hablan de lo que tienen en casa y ponen las cosas mejor de lo que realmente son.

Y decir que es una pantalla al ras no es menospreciar. Es que es eso, no es algo que conecte tu cerebro ni que haga maravillas. :)

Y por mucho que uno quiera ser lapidario en sus afirmaciones, eso no le da razón.

Pero nada, me quedo entonces con que no tienes ni pajolera idea de lo que estás hablando, y tan contentos. La culpa es mía por matizar algo tuyo sabiendo como reaccionas.
Nomada_Firefox escribió:No obstante si tienes Gsync no necesitas poder jugar a 120fps, ni que ser estables porque Gsync va a igualar los fps con los hz. Asi que podrias tener equipo para mover el juego a 70fps y ni te darias cuenta de si estas a 120hz o no. Y esta comprobadisimo que no se diferencia, que se lo digan a Linus tech cuando hizo la comparación con unos gamer a ver si sabian que equipo funcionaba a menos hz.


Por supuesto que se nota pasar de 70fps a 120fps con Gsync. En algunos juegos más que en otros , pero se nota. En un FPS es evidente el cambio.

Gsync te evita el stuttering pero no hace magia.
Valhan escribió:
Nomada_Firefox escribió:...por mucho que lo quieras adornar es una pantalla al ras.

Eso es tan preciso como decir que el David de Miguel Angel es un trozo de marmol. XD

La comparación no es para comparar calidades, es para comparar un hecho a secas. Que una VR sea buena no viene ni a cuento.

JaviGabber escribió:Por supuesto que se nota pasar de 70fps a 120fps con Gsync. En algunos juegos más que en otros , pero se nota. En un FPS es evidente el cambio.

Gsync te evita el stuttering pero no hace magia.

La cuestión es exactamente que no se nota, sino ves los fps, bastante vas a saber. :)
@Nomada_Firefox que con tu respuesta a mi anterior mensaje me has dejado bastante descolocado.

No sé por qué en tu argumentación de qué se pierde con una TV (lo dijiste tú, aún sigo con la duda) pones un ejemplo absurdo para desmerecer a las TV o pantallas de mayor tamaño. ¿Que si tienen que girar la cabeza para ver toda la pantalla y no sé qué mas? Claro, porque das por hecho que yo hablo de poner una TV de 60" en una habitación de 5m2 donde no tengo espacio ni para moverme y la veo a una distancia de 20 centímetros, no? Por favor, un poco mas de neutralidad en tu argumentación.

En mi comparación respecto a jugar a 4k/60fps en una TV de 60" vs 2,5k/120fps en un monitor de 30" en ningún momento puse condiciones del estado en el que se iban ver ambas pantallas, daba por hecho que en ambos casos eran situaciones de visionado óptimas. Si vas a usar mi comparación úsala pero sin maltratar a ninguna de las 2 opciones.

Luego dices que no tiene que ver nada los 120hz respecto a los 60hz... y te digo que vale, pero, de nuevo, puedes hacer el favor de no ser tan partidista y centrarte en lo que comentaba? Porque es que es de cajón que 120hz y 60hz no es lo mismo, es matemática pura, pero es que acaso lo es comparar una pantalla de 30" respecto una de 60"? Es que acaso no era evidente lo que intentaba poner a debate?

Y para finalizar ya es cuando me rompe un poco toda tu argumentación porque me parece que en tu argumentación favoreces de forma algo fanática a los FPS respecto al tamaño de la pantalla pero en cambio luego comentas varias cosas que echan por tierra esa idea y desmerecen a la necesidad de jugar a altos FPS... :-?

En fin, que a todo esto después de estos mensajes sigo sin saber a qué te referías con esas cosas que se pierden con una gran pantalla. Porque en el primer mensaje dejas a las TVs a la altura del betún (parecía que hablabas de TVs de tuvo) y ahora parece que das por hecho que quien se compra una TV es un tonto que se compra una TV de 60" para verla a 20cm de la pantalla y se destroza las cervicales.


@hh1 perdón por lo del 2k, lo dije para abreviar de forma numérica. 2,5k según veo en internet, apuntado, gracias.

En mi caso, aunque estuviera en la idílica situación de poder jugar a todos los juegos a 4k/60fps en pantalla grande o 2,5k/120fps en pantalla mas pequeña, por preferencia seguramente elegiría jugar a 4k en pantalla mas grande. Pero es que encima si hablamos que usaré la TV tanto para PC como PS5 (con lo limitada que estará con el tema 120fps) ya no me deja mucha opción a duda en elegir la opción de pantalla grande. Pero claro está que es una preferencia personal.

Sí, el tema de los quemados es algo que también tengo presente, ya hay análisis de algunas OLEDs usadas como monitor de PC sin grandes quemaduras (hablamos de TVs con peor tecnología de las de ahora), y aunque sea una importante desventaja, a falta de investigar más y ver las nuevas del 2022, aún no las he descartado.
Siempre he preferido mayor calidad grafica a altas tasas de refresco. Tengo un monitor de 32” 4k, un ultrawide de 34” 1440 y 144hz, y una tv oled C1. Y llamarme raro, pero prefiero jugar a 4k, y segun que juego en el monitor o en la oled. El ultrawide lo tengo abandonadisimo, lo uso para poner youtube/twitch de fondo y mira que he intentado usarlo para jugar, pero me quedo con la mayor resolucion.
colado escribió:Siempre he preferido mayor calidad grafica a altas tasas de refresco. Tengo un monitor de 32” 4k, un ultrawide de 34” 1440 y 144hz, y una tv oled C1. Y llamarme raro, pero prefiero jugar a 4k, y segun que juego en el monitor o en la oled. El ultrawide lo tengo abandonadisimo, lo uso para poner youtube/twitch de fondo y mira que he intentado usarlo para jugar, pero me quedo con la mayor resolucion.

Pero es que también depende de la calidad del panel.No todo es resolución.
Seguramente tu panel ultrawide esté a años luz de la imagen de la Oled.Por poner un ejemplo.

Como se dice, son gustos y depende mucho de los juegos.
Yo si me quedo con algo, es con QHD ,tamaño de no más de 32" y dame todos los fps que sean.
Pero claro, hablo por mi tipio de juegos, en su mayoría, shooters.
Si juego más aventuras estrategia y cosas así, sinceramente, por encima de 90 fps, yo no suelo notar absolutamente nada.
En esa situación, elegiría 1º calidad del panel, y 2º resolución.
Uno por aquí con una LG OLED c9 de monitor,y después de más de un año, 0 quemados ni historias. Y mira que le he metido horas y horas de vicio.

Salu2
Nomada_Firefox escribió:La cuestión es exactamente que no se nota, sino ves los fps, bastante vas a saber. :)


Ale, y te quedas tan pancho.

anne kinoko escribió:Uno por aquí con una LG OLED c9 de monitor,y después de más de un año, 0 quemados ni historias. Y mira que le he metido horas y horas de vicio.

Salu2


Yo tengo tambien la C9 pero como monitor secundario* solo para jugar. Tener windows en un oled me parece demasiado arriesgado....

* Bueno es la TV de la familia y esta en el salon pero la tengo conectada al PC con un HDMI de 15m. Practicamente a todo lo que no sea un FPS lo juego en el Oled.
Otro con una LG c9 65" más de un año y 0 quemados ni problemas. Es mi pantalla de salon y no tiene tanto uso como el monitor principal pero le he dado mucha caña.

Aun siendo OLED, la tecnologia a evolucionado mucho y ya no son tan sensibles como las primeras generaciones. Hay muchos videos de gente profesional haciendo pruebas por YouTube. Ya casí es más leyenda que realidad.
El problema es a largo plazo, puede que en un año y pico no haya problemas, pero a saber a largo plazo cuando ya no esté la TV en garantía, y dí que son baratas como para jugársela...

Saludos.
JaviGabber escribió:
Nomada_Firefox escribió:La cuestión es exactamente que no se nota, sino ves los fps, bastante vas a saber. :)


Ale, y te quedas tan pancho.

Eso lo probo Linus Tech con un grupo de gamers y no se nota nada. Si el juego va fluido, sino el PC no pega tirones, es improbable que sin ver un indicador de fps sepas a cuanto estas jugando.

Lo de los Oled quemados. Quizas solo se estropean cuando tienen que soportar un escritorio que no cambia, al estilo de los antiguos monitores que se quemaban por no tener un salvapantallas. Todo apunta a que no es por jugar sino más bien por usarlos para otras tareas.

@Rvilla87 No he dicho que se pierda exactamente, he dicho que mucha gente juega a la distancia inadecuada para ciertos tamaños de pantalla.

Me hablas de ser neutral pero enseguida dices que tu no lo haces. Yo no voy a decir que todo el mundo posiciona bien el monitor o pantalla de TV cuando veo mucha gente que no lo hace. Si alguien entra aqui sintiendose ofendido, como el de las gafas de VR o tu ahora. Es que no deberiais hacerlo porque no es una llamada de atención para gente que si lo hace bien o que tiene un hardware mejor, es para quien lo haga mal.

En fin yo solamente dije, que respetaba el jugar a 4k 60hz pero que no le veia sentido. Seguramente tenia que haberlo explicado para que iba la critica como pongo al final, asi que leed el final. Pero se va haciendo una bola tremenda..........enseguida pasasteis vos de los 60hz a 120hz......y ya no tiene nada que ver.

Asi que repito lo que dije, respeto mucho que alguien quiera jugar a 4k de gran tamaño y 60hz pero no le veo sentido.

Respecto a la inmersibidad, no se ni porque discutimos esto cuando en el mundo entero, en todos los eventos gaming vemos gente jugando a menos de 1 metro en monitores.

Mira sin buscar mucho, lo cierto es que Linus Tech tiene bastantes videos donde comparan fps bajos o altos, asi como hz altos o bajos, aunque yo lo quiero más para mostrar la cosa de que en general se juega asi. Curiosamente usan en este video un monitor como el mio, aunque la versión superior que soporta más de 144hz. No es un monitor muy bello por los marcos pero es barato y practico, tiene un soporte buenisimo, buenas conexiones y botones reales, no cosas semi ocultas que funcionan al tacto dificiles de manejar.
:)
A más cerca, es de cajon que mayor inmersibidad. Pero en un monitor de 4k no deberias jugar a la misma distancia minima que en un monitor de tamaños inferiores. Ciertamente más que la resolución, es un tema de tamaño de la pantalla. Aunque creo que si vas a comprar un 4k pequeño para acabar con algo que solo va a 60hz, pues es lo que pienso que vaya perdida de calidad. Como si por ver los pixeles más canijos se fuera a ver mejor.

Por cierto que yo ahora mismo, la mayoria del tiempo estoy sentado más lejos de la pantalla que esos del video que da la impresión que tienen que abrir mucho los ojos para ver la pantalla.

Aunque recalco, mi opinión en la cual respeto a quien lo haya hecho. Yo no va para monitores 4k, de tamaños pequeños ni de frecuencias mayores. Solo es la idea de tener un 4k de gran tamaño y 60hz, cosas que son pantallas de tv, más que monitores.

Que levante la mano quien no haya visto gente jugando en pantallas enormes, de 4k, 60hz y a mala distancia. [fiu]

Luego podemos añadir la critica a quien compra un 4k de tamaño 32" o inferior para usarlo a menos de 1 metro. Lo cual veo estupendo pero luego acaban quejandose de que el hardware esta muy caro. Me da la impresión de haber pasado media vida leyendo ese tipo de respuestas, de como tienen que cambiar de hardware en mucho menos tiempo.

Y perdon por el ladrillo, si alguien no lo lee, es muy respetable, seguramente yo no leeria la ni la mitad. [sonrisa]
Nomada_Firefox escribió:
JaviGabber escribió:
Nomada_Firefox escribió:La cuestión es exactamente que no se nota, sino ves los fps, bastante vas a saber. :)


Ale, y te quedas tan pancho.

Eso lo probo Linus Tech con un grupo de gamers y no se nota nada. Si el juego va fluido, sino el PC no pega tirones, es improbable que sin ver un indicador de fps sepas a cuanto estas jugando.

Lo de los Oled quemados. Quizas solo se estropean cuando tienen que soportar un escritorio que no cambia, al estilo de los antiguos monitores que se quemaban por no tener un salvapantallas. Todo apunta a que no es por jugar sino más bien por usarlos para otras tareas.

@Rvilla87 No he dicho que se pierda exactamente, he dicho que mucha gente juega a la distancia inadecuada para ciertos tamaños de pantalla.

Me hablas de ser neutral pero enseguida dices que tu no lo haces. Yo no voy a decir que todo el mundo posiciona bien el monitor o pantalla de TV cuando veo mucha gente que no lo hace. Si alguien entra aqui sintiendose ofendido, como el de las gafas de VR o tu ahora. Es que no deberiais hacerlo porque no es una llamada de atención para gente que si lo hace bien o que tiene un hardware mejor, es para quien lo haga mal.

En fin yo solamente dije, que respetaba el jugar a 4k 60hz pero que no le veia sentido. Seguramente tenia que haberlo explicado para que iba la critica como pongo al final, asi que leed el final. Pero se va haciendo una bola tremenda..........enseguida pasasteis vos de los 60hz a 120hz......y ya no tiene nada que ver.

Asi que repito lo que dije, respeto mucho que alguien quiera jugar a 4k de gran tamaño y 60hz pero no le veo sentido.

Respecto a la inmersibidad, no se ni porque discutimos esto cuando en el mundo entero, en todos los eventos gaming vemos gente jugando a menos de 1 metro en monitores.

Mira sin buscar mucho, lo cierto es que Linus Tech tiene bastantes videos donde comparan fps bajos o altos, asi como hz altos o bajos, aunque yo lo quiero más para mostrar la cosa de que en general se juega asi. Curiosamente usan en este video un monitor como el mio, aunque la versión superior que soporta más de 144hz. No es un monitor muy bello por los marcos pero es barato y practico, tiene un soporte buenisimo, buenas conexiones y botones reales, no cosas semi ocultas que funcionan al tacto dificiles de manejar.

A más cerca, es de cajon que mayor inmersibidad. Pero en un monitor de 4k no deberias jugar a la misma distancia minima que en un monitor de tamaños inferiores. Ciertamente más que la resolución, es un tema de tamaño de la pantalla. Aunque creo que si vas a comprar un 4k pequeño para acabar con algo que solo va a 60hz, pues es lo que pienso que vaya perdida de calidad. Como si por ver los pixeles más canijos se fuera a ver mejor.

Aunque recalco, mi opinión en la cual respeto a quien lo haya hecho. Yo no va para monitores 4k, de tamaños pequeños ni de frecuencias mayores. Solo es la idea de tener un 4k de gran tamaño y 60hz, cosas que son pantallas de tv, más que monitores.


Pues claro que se ve mejor al tener los pixeles mas canijos, claro que se ve mejor tener casi el doble de pixeles en la pantalla. Si no seguiriamos en 720 o menos.
Eres tu el que dice que con gsync activado no notas diferencia de jugar a 70fps que a 120, entones, tampoco notarias diferencia jugar a 60, porque son 10 fps nada mas.
Y claro que hay que sentarse a distancias adecuadas segun el tamaño de la pantalla y la resolucion, cae de cajon, no creo que nadie con un oled de 49” o mas se siente a un metro.
Por tus comentarios, creo que hablas sin tener experiencia propia, tanto en el tema del 4k como del vr.
colado escribió:Por tus comentarios, creo que hablas sin tener experiencia propia, tanto en el tema del 4k como del vr.


Eso es el día a día de un foro, donde hay gente sin idea dando opiniones [carcajad]
colado escribió:Eres tu el que dice que con gsync activado no notas diferencia de jugar a 70fps que a 120, entones, tampoco notarias diferencia jugar a 60, porque son 10 fps nada mas.

No es que lo diga yo, es que hay varios test por el mundo que indican que no se nota.

Comparar 10fps con 60 fps afirmando que es lo mismo que es como detectar 70 o 120 es un sin sentido porque es poco probable que un juego a 10 fps se muestre fluido y sin problemas graficos.

Como no voy a hacer la prueba con vosotros, ni viceversa, nos tendremos que conformar con los test que existen que indican que no hay diferencia.

Por tus comentarios, creo que hablas sin tener experiencia propia, tanto en el tema del 4k como del vr.

Despreciar en vez de discutir no es saber más.

@Darthjedyk lo mismo va para ti, parece que solo vienes a temas de ventas........ [fiu]
esto me recuerda a los que decian que el ojo humano no nota más de 60 fps.
Nomada_Firefox escribió:
colado escribió:Eres tu el que dice que con gsync activado no notas diferencia de jugar a 70fps que a 120, entones, tampoco notarias diferencia jugar a 60, porque son 10 fps nada mas.

No es que lo diga yo, es que hay varios test por el mundo que indican que no se nota.

Comparar 10fps con 60 fps afirmando que es lo mismo que es como detectar 70 o 120 es un sin sentido porque es poco probable que un juego a 10 fps se muestre fluido y sin problemas graficos.

Como no voy a hacer la prueba con vosotros, ni viceversa, nos tendremos que conformar con los test que existen que indican que no hay diferencia.

Por tus comentarios, creo que hablas sin tener experiencia propia, tanto en el tema del 4k como del vr.

Despreciar en vez de discutir no es saber más.

@Darthjedyk lo mismo va para ti, parece que solo vienes a temas de ventas........ [fiu]


Creo que no me has entendido, no hablo de 10 fps base, hablo de que segun tu, o los medios que ves, si no hay diferencia entre 70 y 120fps teniendo activado el gsync, tampoco se notaria diferencia entre 60 y 70fps (ya que es solo 10 fps de diferencia).

Y en que notas desprecio? Te he dicho que si no tienes experiencia usando resoluciones 4k o gafas vr, no eres el mas propicio para opinar al respecto. Yo no se los dolores que se tienen al dar a luz, asi que no se me ocurriria ir a un foro a hablar de ellos.
ruben16 escribió:esto me recuerda a los que decian que el ojo humano no nota más de 60 fps.

Lo cual seguramente sea verdad. ¿Crees que lo notarias si no tuvieras un indicador de fps? si todo va suave, sino hay diferencias graficas, dudo mucho que lo notes en un periodo de juego pequeño y lo que se notarian serian los Hz teniendo que tener la pantalla a esa frecuencia, ahi es facil notar la diferencia, en los hz, no en los fps.
Nomada_Firefox escribió:
ruben16 escribió:esto me recuerda a los que decian que el ojo humano no nota más de 60 fps.

Lo cual seguramente sea verdad. ¿Crees que lo notarias si no tuvieras un indicador de fps? si todo va suave, sino hay diferencias graficas, dudo mucho que lo notes en un periodo de juego pequeño y lo que se notarian serian los Hz teniendo que tener la pantalla a esa frecuencia, ahi es facil notar la diferencia, en los hz, no en los fps.



juegas a juegos competitivos? seguramente no, ¿por que crees que la gente juega por ejemplo a valorant o csgo a más de 200, 300, 400 fps¿? hay monitores que no llegan ni siquisiera a representar esos fps en hz pero se ejecutan en esa configuración porque el juego se siente más fluido y más electrico y en ese tipo de juegos es muy importante.
Nomada_Firefox escribió:
ruben16 escribió:esto me recuerda a los que decian que el ojo humano no nota más de 60 fps.

Lo cual seguramente sea verdad. ¿Crees que lo notarias si no tuvieras un indicador de fps? si todo va suave, sino hay diferencias graficas, dudo mucho que lo notes en un periodo de juego pequeño y lo que se notarian serian los Hz teniendo que tener la pantalla a esa frecuencia, ahi es facil notar la diferencia, en los hz, no en los fps.



No comprendo lo que quieres decir. Los hz de una pantalla son las veces por segundo que se actualiza la informacion que muestra, y los fps los fotogramas por segundo. Si tu ojo es capaz de diferenciar entre 60 "actualizaciones" por segundo y 120, ¿por que no va a ser capaz de diferenciar entre 60 "cuadros" por segundo y 120?
Nomada_Firefox escribió:
@Darthjedyk lo mismo va para ti, parece que solo vienes a temas de ventas........ [fiu]


Si te sientes aludido... mi problema no es. Lo que si te digo es que intentes aclarar conceptos e ideas y expongas de una manera clara lo que quieres decir, porque a veces no hay dios que te comprenda compi.

Llevas varios mensajes en los que no se aún si expones que el ojo humano no ve más de 60hz pero por otro lado el que juega a 4K 60fps es poco menos que un chalado :-?
31123 respuestas