[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

Mangaverse escribió:
adriano_99 escribió:
Mangaverse escribió:
Claro, pero me refiero... la gente a qué suele jugar en cuanto a resolución? (sin hablar de 4K de 3840). Pues o a 1080p o a 1440p. Que es el "extendido" 2K (ó "2K"). El ejemplo está con la búsqueda de Google si quieres buscar un monitor "2K" lo que te sale filtrando en diferentes webs:

https://www.macnificos.com/monitores-2k

https://www.macnificos.com/benq-bl2420p ... ku-BNQ0032

en resumen, que es algo que desde 2010 pues está "aceptado" como tal. Por eso que no hay debate, supongo que todo el mundo sabe que no es "2K" per se, pero se acepta como "2K" [sonrisa]

Y lo de chatGpt sí, ya lo sé. Tengo la versión pro y también copilot, pero vamos que a modo de info rápida al fin y al cabo sirve para ver cosas generales.

@adriano_99 Espero que al menos estés ganando 100K en tu trabajo.

Si en Google pongo algo, me encuentra obviamente ese algo en base a lo que yo ponga para establecer el filtro, pero por eso precisamente... porque es algo extendido y no se inventa en "PcComponentes" por ejemplo que "x" monitores son "2K", ya que también lo pone en la descripción de dichos monitores.

Ya pongas "comprar monitor 2K reales", te seguirá saliendo lo mismo. Que si hago upgrade para gráfica nueva y me compensa más un monitor "4K" por ejemplo pues haré el cambio, pero en su día igualmente cuando compré este Asus que tengo ahora, pues salía lo de 2K en la web del fabricante etc, nos guste más o menos.

Pero vamos que no entiendo la "obsesión" con lo del "2K", que no es cosa mía, es algo aceptado a nivel "mundial". Recrimínaselo a las empresas etc [sonrisa]

Y dale.
Google funciona con tags.
PCcomponentes ha puesto el tag 2k en su web porque sabe que hay mucha gente que lo usa de manera equivocada pero lo único que les importa es ganar dinero.
Ni las búsquedas de google ni lo que hacen las tiendas para aparecer en ellas demuestran nada porque con que supiesen que una sola persona de mas al año va a entrar en su tienda si ponen eso ya lo harían.
Está aceptado por gente que se informa sobre el tema a nivel muy superficial,ningún canal de youtube ni revista ni medio especializado lo usa porque está mal.
Sabes que tambien puedes encontrar muchisima gente que dice?
Que la tierra es plana.
Que las vacunas dan autismo.
Que la raza blanca es superior a las demás.

Yo solo te he pedido que hables correctamente ya que estamos en un foro y en un hilo especializado y se agradece que al menos la gente de aqui llame a las cosas por su nombre.
No quieres? Estupendo.
Pero deja de darle vueltas con demostraciones absurdas de google y chat gpt.
El argumento de "pero mucha gente lo hace!" no es, nunca ha sido y nunca será valido para nada.


Que si, que me parece muy bien, pero al final todo se resume en que a día de hoy y desde hace muchos años (2010), lo que todo el mundo tiene aceptado salvo "4 tiquismiquis", es:

1440p is technically not 2k.

1440p should be considered more 2.5k than 2k, but the naming standards are weird, which is why 3840x2160 is considered 4k, but actually it is just UHD.

Basically, 2k, 2.5k, 4k etc means that the width (the first number in the resolution) is 2000, 2500, 4000 pixels (roughly).
Hence, true 4k is 4096×2160 and ‘Television standard’ 4k is 3840×2160 UHD

By the logic above, 2560×1440 (1440p at 16:9 aspect ratio) is 2.5k but naming schemes are weird and many people will still call it 2k. 1080p (1920×1080) is way closer to 2k than 1440p (2560×1440).

I prefer to not say 2k 2.5k etc. I just say 4k because it can be widely agreed that 4k = 3840x2160


Por lo que sea menos o más correcto, alguien que diga voy a comprar un monitor "2K", juego a resolución "2K", siempre irá ligado a lo aceptado por la mayoría que es lo que te encontrarás en cualquier juego en las opciones de resolución, 1440p = 2560x1440. La gente quitando el 4K, juega el "99%" a 1080p ó 1440p.

No tiene sentido seguir con la "discusión" del 2K, ya te dije que te entiendo, pero es lo aceptado. No tiene nada que ver luego con lo de la tierra es plana que dices, pues eso no es algo aceptado en su mayoría por la gente como con el 2K / 1440 / 2560x1440p.

@pepelardilla Nvidia + Intel siempre, el mejor combo [amor]

@hh1 La verdad que por mucho que compre la 4090, luego realmente juegos que puedan dar más de 165FPS que sean online... no es que haya demasiados, hablando de juegos decentes, no de un "fortnite".

Para single player incluso igual, que salen muchos juegazos, pero optimizados con el culo. Luego comprarme un monitor para que vaya a más de 165Hz como el que tengo actualmente que es (pongo varias comillas) """"2K"""" pues... complicado.

Tampoco me urge obviamente comprar YA MISMO una 4090, no me voy a morir por esperar al anuncio de la 5090, por saber su precio y además no espero que por mucho que salga la 5090 vayan a rebajar la 4090 más allá de 100eur o similar, por lo que salvo que la rebajasen "500eur", que lo dudo... pues siempre será mejor ir con el último modelo.

Hombre ,juegos que te den 240fos o cercanos en 1440p, hay bastantes , la cuestión es que se juegue a ellos .
Y luego, claro ,se acoetes que muchos se consiguen con DLSS o Frame generation.
Pero los 240fps ,con lo que sea ,están ahí.

Otra cosa es aw de 165fps a 240fps se note tanto, que ya te digo que no,por norma general.
Por eso te digo que yo no cambiaba un monitor solo por eso ,sino que tiene que ir acompañado de otras mejoras.


A lo que voy, no es lo que se note o no.Eso depende e cada uno y del tipo de juego.
Sino a qué te comprarías una gráfica ,que en muchos casos ,no estaría dando su 100% porque la lomitas con el monitor
Es ue para eso ,voy a una 4080S que además ,es mucho más barata
Tener una gráfica de 1800€ y que en la mitad de los juegos ,vaya "capada" ...no sé, es mucho dinero como para ese lujo.

Es solo mi forma de verlo.

También te s cierto, es que en los juegos más demandantes o mal optimizados ,pues tendrás ese extra de potencia con respecto al 4080S y te irán mejor los juegos
Pero soy de los que piensa ,que lo suyo es exprimirla en todos los juegos ,no sólo en algunos.

Yo a estas alturas ,esperaría a la 5090 ,la verdad ,siempre que no lo necesites ya.

Lo del tema 2K ,es simplemente decir las cosas bien.No tiene mayor importancia ,pero de decirlo mal ,ya se queda el 2k refiriéndose al QHD ,cuando si lo sabes ,no cuesta nada decir QHD o 1440p.
Coincido con hh1. Y creo que ahora mismo es mal momento para comprar nada salvo ofertas. Depende de cada uno claro esta, depende de lo que tuvieras, yo compre una 4070Ti hace 5 meses, pero tenia una 3060 porque la 6800 que tenia se descompuso y me la pagaron entera.

Pero pienso que si tienes por ejemplo una 3080 o incluso una 3070, algo asi de generación anterior o incluso menos, me esperaria porque por poco que mejore, una 5070 seria mejor por el mismo dinero. Y no digamos si estas pensando en pillar 4080 Super o 4090, la segunda me parece un error tremendo comprarla ahora. La primera.........bueno.....es que no las regalan.
si vas a jugar ya y no tienes PC, claramente compra la que necesites ya. Pero si tienes un PC funcional y es por capricho? ni de locos , como mucho la 4070super, pero de ahi para arriba nada
Ha salido loss less scaling con soporte para G Sync, ahora va super fino y con soporte para frame generation X3 y X4, al tener soporte para G Sync ahora no hace falta bloquear los FPS.

No se que se sacará de la manga Nvidia con las Rtx 5000, pero ahora con el loss less scaling con G Sync y X3, es para pensarse si compensa el cambio a una Rtx 5000
@the_aeon Una pregunta ¿en que juegos es necesario usarlo que no puedas usar DLSS o FSR y sea necesario?
Nomada_Firefox escribió:@the_aeon Una pregunta ¿en que juegos es necesario usarlo que no puedas usar DLSS o FSR y sea necesario?

Dlss y FSR no tienen frame generation X3, loss less scaling sí
LS esta muy bien, pero tiene una latencia entre el doble o triple que el AFMF o el FG del DLSS y FSR......

Son cosas parecidas, pero no compiten entre si en realidad.
the_aeon escribió:
Nomada_Firefox escribió:@the_aeon Una pregunta ¿en que juegos es necesario usarlo que no puedas usar DLSS o FSR y sea necesario?

Dlss y FSR no tienen frame generation X3, loss less scaling sí

Sí pero....... ¿que juegos lo necesitan que no tengan algo?
por lo que veo el loseless 2.0 no es la panacea, mete mucho mas lag y mete mucho mas artefactos que DLSS FG

claro que da mas fps, pero de mucha menos calidad, ver un puntero con artefactos al moverse rapido no es divertido. Ya el DLSS FG provoca esto en algunos juegos muy notorio como the talos 2, pero si esto es aun peor no lo veo
Cuando eramos pocos pario la abuela.......parece que la 4070 con GDDR6 es una realidad que va a llegar pronto, a finales de agosto y lo destable de esta grafica es que ofrecera un 5% menos de ancho de banda que es apenas nada. Todo lo demas es igual.

Asi que tenemos que las RTX 4070 rondan los 550€ y van a sacar un descafeinado de cuanto ¿500€?
Nomada_Firefox escribió:Cuando eramos pocos pario la abuela.......parece que la 4070 con GDDR6 es una realidad que va a llegar pronto, a finales de agosto y lo destable de esta grafica es que ofrecera un 5% menos de ancho de banda que es apenas nada. Todo lo demas es igual.

Asi que tenemos que las RTX 4070 rondan los 550€ y van a sacar un descafeinado de cuanto ¿500€?

No tiene sentido
hh1 escribió:No tiene sentido

Siempre sacan cosas asi. Asi liquidan las obleas que no cumplen para ser una 4090 pero que son perfectas para una 4070. Y sin derrochar GDDR6X. Seguro que tienen un monton de modulos de GDDR6 por ahi sembrados.

A mi, a ti, a seguramente nadie que siga este mundo le interese. Pero si costase como una 4060, pues yo compraria una. Como no va a ser asi......pues vaya churro.

Y seguro que las venden.
@hh1 Tampoco lo tenía una 3060 con un 50% más de VRAM que una 3070 o su propia Ti.

nVidia is different. [oki]
PSX22 escribió:por lo que veo el loseless 2.0 no es la panacea, mete mucho mas lag y mete mucho mas artefactos que DLSS FG

claro que da mas fps, pero de mucha menos calidad, ver un puntero con artefactos al moverse rapido no es divertido. Ya el DLSS FG provoca esto en algunos juegos muy notorio como the talos 2, pero si esto es aun peor no lo veo

Estaba claro.
Yo por el ejemplo, con el FG en The Finals ,juego fetén.
Va de escándalo la verdad.
Pero algo externo ,que te multiplica x 3 los fps...se ve venir

Yo lo veo igual y a priori ,el lag no se nota nada jugando.
Midiéndolo es muy poca la diferencia.
Valhan escribió:nVidia is different. [oki]

No es diferente porque AMD tambien tiene lanzados sus propios descafeinados. Esto es más viejo que el catarro. De hecho ultimamente sacan menos de estos modelos.
Nomada_Firefox escribió:
hh1 escribió:No tiene sentido

Siempre sacan cosas asi. Asi liquidan las obleas que no cumplen para ser una 4090 pero que son perfectas para una 4070. Y sin derrochar GDDR6X. Seguro que tienen un monton de modulos de GDDR6 por ahi sembrados.

A mi, a ti, a seguramente nadie que siga este mundo le interese. Pero si costase como una 4060, pues yo compraria una. Como no va a ser asi......pues vaya churro.

Y seguro que las venden.


WTF?? 4090 que se reconvierten en 4070? Si no son el mismo chip.

Si lo que cambia es la GDDR6X por GDDR6X pues ya está, eso eso, o se han acabado las memorias buenas o quieren recortar aún más gastos de fabricación.
@Nomada_Firefox Es que a AMD ya ni la contemplo. Tres oportunidades le he dado en la vida y no vuelvo.
Valhan escribió:@Nomada_Firefox Es que a AMD ya ni la contemplo. Tres oportunidades le he dado en la vida y no vuelvo.


Y haces bien. Nvidia manda
Valhan escribió:@hh1 Tampoco lo tenía una 3060 con un 50% más de VRAM que una 3070 o su propia Ti.

nVidia is different. [oki]

Yo diría que es más bien al revés, tiene todo el sentido del mundo lo que han hecho. La 3080 tiene la cantidad de VRAM que tiene porque simple y llanamente no había chips GDDR6X de más densidad que 1GB, poner más VRAM en la 3070 o en la 3060Ti (que llevan GDDR6 y sí que había chips de 2GB, que es lo que lleva la 3060 de 12GB) hubiera subido el precio para quedarse IGUAL en juegos y de propina hubiera canibalizado las ventas del modelo de gama superior porque un porcentaje muy alto de usuarios supuestamente informados no sabe interpretar un benchmark y es víctima flagrante del márketing para pagar por cosas que no necesita.

Y dado que esta época es justo el boom de la minería cuando se vendían TODAS las GPUs como rosquillas al doble de su precio poner más VRAM en gráficas incluso antes de sacarse de la manga el LHR (que tampoco hizo mucho, la verdad sea dicha) hubiera hecho todavía más complicado conseguir una gráfica para jugar y hubiera subido los precios más todavía.

DaNi_0389 escribió:WTF?? 4090 que se reconvierten en 4070? Si no son el mismo chip.

Si lo que cambia es la GDDR6X por GDDR6X pues ya está, eso eso, o se han acabado las memorias buenas o quieren recortar aún más gastos de fabricación.

Correcto, difícilmente se va a aprovechar una oblea de 4090 para 4070 si el chip es diferente (y físicamente mucho más grande, por lo que no tiene mucho sentido binnear chips a gamas tan bajas cuando el sobrecoste de ponerle un PCB a medida es mucho mayor que directamente tirar los chips "malos" de la oblea. No se binnea ni de 4090 a 4080 por esta misma razón, como para bajar dos gamas).

Que los OEMs de nVidia tienen escasez de algunos componentes, entre ellos memorias GDDR6X, no es ningún secreto, de hecho lo mencionan (dando fuentes) en varias de las noticias que hablan de la posible existencia de la 4070 con GDDR6.

Yo creo deberían informar adecuadamente del cambio,claro. También creo que la gente está poniendo el grito en el cielo por chorradas. Pasar de GDDR6X a GDDR6 ahora mismo es pasar de 21Gbps a 20Gbps. O dicho de otra forma, algo menos de un 5% de ancho de banda a memoria. Esto podría tener cierto impacto en una 4060Ti, que tiene un bus de risa. En la 4070, con un ligero empujón a las frecuencias se compensaría con creces.

Saludos
DaNi_0389 escribió:WTF?? 4090 que se reconvierten en 4070? Si no son el mismo chip.

Hay que diferenciar lo que es el chip de lo que es la oblea. La oblea es el todo y se recorta para hacer los diferentes chips.
Quizás sea algo así:

Diferentes Modelos de Chips (Ejemplo con Nvidia)
Nvidia fabrica diferentes modelos de chips gráficos (GPUs) como la RTX 4090 y la RTX 4070.
Ambos modelos pueden provenir de la misma oblea, pero con diferentes niveles de rendimiento y calidad.

Reutilización de Chips

RTX 4090:

Supongamos que Nvidia quiere fabricar RTX 4090. Estos chips requieren un alto nivel de rendimiento y deben pasar pruebas estrictas.
Si un chip cumple con estos requisitos, se clasifica como RTX 4090.

RTX 4070:

Algunos chips pueden no cumplir con los requisitos para ser una RTX 4090 pero aún pueden funcionar perfectamente bien con especificaciones más bajas.
Estos chips se pueden reutilizar y clasificar como RTX 4070, que es un modelo de menor rendimiento pero aún funcional.

Diferenciación entre Oblea y Chip

Oblea:

Es el material base del que se cortan los chips.
Contiene múltiples chips impresos en su superficie.

Chip:

Es el componente individual recortado de la oblea.
Cada chip puede tener diferente calidad y rendimiento dependiendo de su ubicación en la oblea y la pureza del silicio.

Resumen
Oblea: Gran lámina de silicio con múltiples chips.
Chip: Componente individual recortado de la oblea.
Reutilización: Chips que no alcanzan la calidad para un modelo superior (ej. RTX 4090) pueden ser reutilizados para modelos inferiores (ej. RTX 4070) si aún son funcionales.

Este proceso permite a los fabricantes maximizar el uso de cada oblea, reduciendo desperdicios y optimizando la producción.
Mangaverse escribió:Quizás sea algo así:

Diferentes Modelos de Chips (Ejemplo con Nvidia)
Nvidia fabrica diferentes modelos de chips gráficos (GPUs) como la RTX 4090 y la RTX 4070.
Ambos modelos pueden provenir de la misma oblea, pero con diferentes niveles de rendimiento y calidad.

Reutilización de Chips

RTX 4090:

Supongamos que Nvidia quiere fabricar RTX 4090. Estos chips requieren un alto nivel de rendimiento y deben pasar pruebas estrictas.
Si un chip cumple con estos requisitos, se clasifica como RTX 4090.

RTX 4070:

Algunos chips pueden no cumplir con los requisitos para ser una RTX 4090 pero aún pueden funcionar perfectamente bien con especificaciones más bajas.
Estos chips se pueden reutilizar y clasificar como RTX 4070, que es un modelo de menor rendimiento pero aún funcional.

Diferenciación entre Oblea y Chip

Oblea:

Es el material base del que se cortan los chips.
Contiene múltiples chips impresos en su superficie.

Chip:

Es el componente individual recortado de la oblea.
Cada chip puede tener diferente calidad y rendimiento dependiendo de su ubicación en la oblea y la pureza del silicio.

Resumen
Oblea: Gran lámina de silicio con múltiples chips.
Chip: Componente individual recortado de la oblea.
Reutilización: Chips que no alcanzan la calidad para un modelo superior (ej. RTX 4090) pueden ser reutilizados para modelos inferiores (ej. RTX 4070) si aún son funcionales.

Este proceso permite a los fabricantes maximizar el uso de cada oblea, reduciendo desperdicios y optimizando la producción.



Eso que es de chat GPT?

Mira, buscando un poco resulta que han lanzado una variante de 4070Ti Super que en lugar del AD103 usa el 102, y el cambio implica que la gráfica es más grande, pesa más y aumenta un pelín el consumo.

https://www.geeknetic.es/Noticia/32080/Vista-una-MSI-RTX-4070-Ti-SUPER-VENTUS-3X-con-una-GPU-AD102-225-en-lugar-de-la-AD103-275.html

Y también un poco más cara
https://www.geeknetic.es/Noticia/32148/Aparecen-en-Alemania-los-primeros-modelos-europeos-de-la-RTX-4070-Ti-SUPER-basados-en-la-GPU-AD102-de-las-RTX-4090.html
DaNi_0389 escribió:
Nomada_Firefox escribió:
hh1 escribió:No tiene sentido

Siempre sacan cosas asi. Asi liquidan las obleas que no cumplen para ser una 4090 pero que son perfectas para una 4070. Y sin derrochar GDDR6X. Seguro que tienen un monton de modulos de GDDR6 por ahi sembrados.

A mi, a ti, a seguramente nadie que siga este mundo le interese. Pero si costase como una 4060, pues yo compraria una. Como no va a ser asi......pues vaya churro.

Y seguro que las venden.


WTF?? 4090 que se reconvierten en 4070? Si no son el mismo chip.

Si lo que cambia es la GDDR6X por GDDR6X pues ya está, eso eso, o se han acabado las memorias buenas o quieren recortar aún más gastos de fabricación.

No sería la primera vez que lo hacen.
Recuerda cuando sacaron la 2060 esa especial que era el chip de la 2080.
Mangaverse escribió:@DaNi_0389 si, chatgpt

Ya te lo dijimos el otro dia, nadie te va a tomar en serio con respuestas sacadas de chatGPT, se inventa demasiadas cosas.
adriano_99 escribió:
Mangaverse escribió:@DaNi_0389 si, chatgpt

Ya te lo dijimos el otro dia, nadie te va a tomar en serio con respuestas sacadas de chatGPT, se inventa demasiadas cosas.


Venga, que si. Todo lo que dice chatGPT versión de pago, Copilot etc puras invenciones. Entendido.
Mangaverse escribió:
adriano_99 escribió:
Mangaverse escribió:@DaNi_0389 si, chatgpt

Ya te lo dijimos el otro dia, nadie te va a tomar en serio con respuestas sacadas de chatGPT, se inventa demasiadas cosas.


Venga, que si. Todo lo que dice chatGPT versión de pago, Copilot etc puras invenciones. Entendido.

No todo pero sí las suficientes veces como para que no sea una fuente viable.
Si una persona te miente 1 de cada 10 veces no le creerías nunca.
Yo solo te digo lo que hay, mucha gente no te va a tomar en serio.
adriano_99 escribió:
Mangaverse escribió:
adriano_99 escribió:Ya te lo dijimos el otro dia, nadie te va a tomar en serio con respuestas sacadas de chatGPT, se inventa demasiadas cosas.


Venga, que si. Todo lo que dice chatGPT versión de pago, Copilot etc puras invenciones. Entendido.

No todo pero sí las suficientes veces como para que no sea una fuente viable.
Si una persona te miente 1 de cada 10 veces no le creerías nunca.
Yo solo te digo lo que hay, mucha gente no te va a tomar en serio.


¿Que me dices "lo que hay"? Ah pues gracias. Haré caso de la sabiduría de cualquier "hinjeniero" de foros de internet y por supuesto hoy dudo que pueda dormir demasiado bien, sabiendo que "mucha gente" (todos "hinjenieros") no me van a tomar en serio por haber puesto eso que cotilleé en un momento por internet y que de seguro, es así.

Ya ha quedado claro. Mañana me doy de baja en ChatGPT Pro y Copilot. Es inaceptable que me engañen.

Dejo por aquí un artículo encontrado rápidamente por Google (espero que Google no me engañe) más digno:

https://www.profesionalreview.com/2023/05/13/wafer/
en serio , la IA no piensa, solo recopila bases de datos y mezcla informacion, pero no esta pensando lo que te dice si tiene sentido o no, es una probabilidad de coincidencia estadistica.... aprender a dar respuestas con sentido pero no sabe lo que dice.


es basico saber esto en 2024. No es que se invente, esque hace un collage de datos en base a un patron que OTRO humano le da
PSX22 escribió:en serio , la IA no piensa, solo recopila bases de datos y mezcla informacion, pero no esta pensando lo que te dice si tiene sentido o no, es una probabilidad de coincidencia estadistica.... aprender a dar respuestas con sentido pero no sabe lo que dice.


es basico saber esto en 2024. No es que se invente, esque hace un collage de datos en base a un patron que OTRO humano le da


Trabajo con IA, se como va. Pero mejor nos fiamos de cualquier forero random de internet que con suerte tenga la "ESO", no se qué es peor.

Y creo que ya se puede dejar el off-topic.
Mangaverse escribió:
adriano_99 escribió:
Mangaverse escribió:
Venga, que si. Todo lo que dice chatGPT versión de pago, Copilot etc puras invenciones. Entendido.

No todo pero sí las suficientes veces como para que no sea una fuente viable.
Si una persona te miente 1 de cada 10 veces no le creerías nunca.
Yo solo te digo lo que hay, mucha gente no te va a tomar en serio.


¿Que me dices "lo que hay"? Ah pues gracias. Haré caso de la sabiduría de cualquier "hinjeniero" de foros de internet y por supuesto hoy dudo que pueda dormir demasiado bien, sabiendo que "mucha gente" (todos "hinjenieros") no me van a tomar en serio por haber puesto eso que cotilleé en un momento por internet y que de seguro, es así.

Ya ha quedado claro. Mañana me doy de baja en ChatGPT Pro y Copilot. Es inaceptable que me engañen.

Dejo por aquí un artículo encontrado rápidamente por Google (espero que Google no me engañe) más digno:

https://www.profesionalreview.com/2023/05/13/wafer/

Tanto sarcasmo y tanta tontería y no has escrito ni un solo argumento real.
Ademas, en ningún momento he dicho que esa información en concreto sea falsa, he dicho que compañeros como @DaNi_0389 no te van a tomar en serio si ves que respondes haciendo copia pega de chatgpt.
Porque una fuente no fiable sigue siendo una fuente no fiable aun cuando acierta.
Haz lo que quieras pero luego no te sorprendas cuando otra gente no te de la mas minima credibilidad aun cuando tienes razón.

PSX22 escribió:en serio , la IA no piensa, solo recopila bases de datos y mezcla informacion, pero no esta pensando lo que te dice si tiene sentido o no, es una probabilidad de coincidencia estadistica.... aprender a dar respuestas con sentido pero no sabe lo que dice.


es basico saber esto en 2024. No es que se invente, esque hace un collage de datos en base a un patron que OTRO humano le da


No no, se inventan cosas ellas mismas que no han leído en ningún sitio especialmente chatgpt.
Y es bastante fácil de forzar de hecho, expliqué hace poco un caso que se puede comprobar con facilidad:
Hace como un mes estuve tratando de usar chatGPT para encontrar el nombre de una pelicula que vi hace años.
Se la describí con muchos detalles pero ninguna que me decía era la correcta.
Después de unos 10-15 intentos se puso en modo full alucinación y empezó a decirme nombres de peliculas de miedo al azar cambiando su sinopsis verdadera por una sinopsis falsa reordenando y cambiando por sinónimos todo lo que yo le había puesto como la descripción de la pelicula que buscaba.
Imagina que yo te digo: busco una pelicula en que un elefante se hace patinador hasta que tiene una lesión en la rodilla y se ve obligado a abrir una tienda de patinetes.
Después de varios intentos fallidos tu empiezas a decirme:
La pelicula que tu buscas es pocahontas! Una pelicula sobre un elefante que se ve obligado a abandonar su deporte pero encuentra su felicidad vendiendo patinetes
La pelicula que tu buscas es Jumanji! Una pelicula sobre un patinador elefante que cambia de oficio para empezar a vender patinetes.
@adriano_99

en serio no se inventan nada, estan juntando palabras que tienen registradas, las IA que programan software no estan creando nada

cuando una IA cree un robot que nos gane una guerra a nosotros avisa! eso no va a ocurrir nunca, no veais tanto terminator jajaj

son juntadatos que replican a procesos humanos, y no inventan nada, no un cuadro pintado por IA, no es un cuadro pintado, es un proceso mecanico no creativo
@adriano_99

Es lo que están haciendo desde hace poco con la 4070Ti super.
Mangaverse escribió:Trabajo con IA, se como va. Pero mejor nos fiamos de cualquier forero random de internet que con suerte tenga la "ESO", no se qué es peor.

¿Y tu eres? ah Mangaverse, busco dicho nickname en google y no veo nada respecto a nadie. [fiu] Asi que tenemos que fiarnos de alguien que dice ser ingeniero de Nvidia o algo parecido pero que seguramente no tenga modo de probarlo. [facepalm]
PSX22 escribió:cuando una IA cree un robot que nos gane una guerra a nosotros avisa! eso no va a ocurrir nunca, no veais tanto terminator jajaj

Bueno, que nos gane es una cosa, que existan robots matando gente, es un hecho consumado. Drones con cierto nivel de automatismo ya existen. Sino seria tan facil como bloquear la señal en un area pero evidentemente eso no los detiene.

La IA que conocemos todos, es uso de bases de datos bastante rapido. No es muy incomparable a un cerebro humano. A fin de cuentas almacenas cosas en el coco y luego las aplicas segun crees. Lo mismo hace una IA.
PSX22 escribió:@adriano_99

en serio no se inventan nada, estan juntando palabras que tienen registradas, las IA que programan software no estan creando nada

cuando una IA cree un robot que nos gane una guerra a nosotros avisa! eso no va a ocurrir nunca, no veais tanto terminator jajaj

son juntadatos que replican a procesos humanos, y no inventan nada, no un cuadro pintado por IA, no es un cuadro pintado, es un proceso mecanico no creativo

A ver que creo que te estas viniendo muy arriba con las ramificaciones filosóficas xD
Inventarse cosas no solo tiene porqué ser lo que tu dices sino simplemente mentir mezclando información que no tiene ninguna relación entre sí.
Si coge el nombre de una pelicula al azar y le añade una versión regurgitada con otras palabras de la descripción que yo he escrito pues se lo está inventando porque nadie en internet ha escrito esas palabras ni ha descrito esa pelicula de forma parecida y yo nunca la he nombrado en mi descripción.
Volviendo a mi caso de ejemplo, si yo te digo :
La pelicula que tu buscas es pocahontas! Una pelicula sobre un elefante que se ve obligado a abandonar su deporte pero encuentra su felicidad vendiendo patinetes
Me estoy inventando eso porque la sinopsis de pocahontas no tiene absolutamente nada que ver con lo que he escrito.
El término mas correcto que se usa en la industria es alucinaciones ya que el bot ia está realmente convencido de lo que dice pese a no haberlo leido en ningun sitio.
@PSX22
Imagen

Básicamente, es lo que tú dices. Si "pensara", tendría criterio, conciencia, falta mucho para eso si llega algún día.

De momento podría ser un silogismo diabólico. [sati]

El hombre crea la IA para preservar la vida en la tierra, la IA llega a la conclusión que el peligro mayor de la tierra es el hombre, la IA extermina al hombre.
Silicio14mm escribió:@PSX22
Imagen

Básicamente, es lo que tú dices. Si "pensara", tendría criterio, conciencia, falta mucho para eso si llega algún día.

De momento podría ser un silogismo diabólico. [sati]

El hombre crea la IA para preservar la vida en la tierra, la IA llega a la conclusión que el peligro mayor de la tierra es el hombre, la IA extermina al hombre.




La
Cuestion es si el cerebro humano no lo comprende ni el propio cerebro, como va a inventar el
Cerebro algo que le supere?

No veo skynet ocurriendo la gente cree que la IA es inteligente pero que va, generan output s en base a datos pero no inventa nada. Sino la IA inventaria su propia IA y no hariamos nada los humanos xd
@PSX22

A día de hoy, la IA solo son algoritmos cada vez más avanzados, que están haciendo uso de una inmensa cantidad de datos, para como tú dices crear un collage, el cual cada vez tiene más ilusión de coherente y por lo tanto parece inteligente.

Pero quien sabe en 50 años, si ya alcanzara cierto criterio...
Pero si ya a día de hoy las IA superan la inteligencia que tiene mucha gente (por llamarles de alguna manera) como l@s antivacunas, terraplanistas, etc... que cada día hay más por desgracia. :)

Saludos.
La IA es muy buena reconociendo patrones ... si Jensen Huang no cambia su lógica, podria predecir bien la serie 50XX [qmparto]
Silicio14mm escribió:@PSX22

A día de hoy, la IA solo son algoritmos cada vez más avanzados, que están haciendo uso de una inmensa cantidad de datos, para como tú dices crear un collage, el cual cada vez tiene más ilusión de coherente y por lo tanto parece inteligente.

Pero quien sabe en 50 años, si ya alcanzara cierto criterio...




Es exactamente como describes, en 50 años dudo mucho que ninguna IA pueda gobernar un pais por ejemplo autonomamente
Nomada_Firefox escribió:
Mangaverse escribió:Trabajo con IA, se como va. Pero mejor nos fiamos de cualquier forero random de internet que con suerte tenga la "ESO", no se qué es peor.

¿Y tu eres? ah Mangaverse, busco dicho nickname en google y no veo nada respecto a nadie. [fiu] Asi que tenemos que fiarnos de alguien que dice ser ingeniero de Nvidia o algo parecido pero que seguramente no tenga modo de probarlo. [facepalm]
PSX22 escribió:cuando una IA cree un robot que nos gane una guerra a nosotros avisa! eso no va a ocurrir nunca, no veais tanto terminator jajaj

Bueno, que nos gane es una cosa, que existan robots matando gente, es un hecho consumado. Drones con cierto nivel de automatismo ya existen. Sino seria tan facil como bloquear la señal en un area pero evidentemente eso no los detiene.

La IA que conocemos todos, es uso de bases de datos bastante rapido. No es muy incomparable a un cerebro humano. A fin de cuentas almacenas cosas en el coco y luego las aplicas segun crees. Lo mismo hace una IA.


¿? Qué tengo yo o nadie que demostrar a alguien en un foro de internet? ¿Te tengo que sacar la nómina o qué? [carcajad] Y qué tiene que ver trabajar con IA y ser ingeniero de Nvidia? WTF [qmparto] [qmparto]

Bueno, off-topics aparte, al final he cogido la 4090 y cuando anuncien la 5090 pues ya se verá
@Mangaverse


La unica que no hay que comprar ahora vas y la compras? Si queda apenas nada
Mangaverse escribió:¿? Qué tengo yo o nadie que demostrar a alguien en un foro de internet? ¿Te tengo que sacar la nómina o qué? [carcajad] Y qué tiene que ver trabajar con IA y ser ingeniero de Nvidia? WTF [qmparto] [qmparto]

Demostrar, no me tienes que demostrar nada. Pero no deberias ir diciendo que eres nada mejor que los demas cuando eres solo un Avatar.

Lo que si has demostrado, es que tienes dinero. Tambien que te importa que sea considerado mala compra, si fuera tu, yo no me preocuparia. Sino te llueven los billetes, si seria de preocupar pero yo nunca critico como gasta cada uno su dinero.

El unico problema que yo veo de comprar una RTX 4090 ahora, bueno, y cualquier RTX 40, es que van a perder una gran parte de su valor cuando salgan las RTX 50.

Luego estan las consideraciones de todas las cosas que hara una RTX 50 y no hara nunca una RTX 40 porque si en algo es buena Nvidia, es en fastidiar al personal sacando nuevas caracteristicas que no funcionen en gamas anteriores. Pero bueno. Ya lo que hay.
PSX22 escribió:@Mangaverse


La unica que no hay que comprar ahora vas y la compras? Si queda apenas nada


Hasta diciembre que anuncien algo y luego vete a saber si sale en enero, febrero o cuando? Quita, quita. Aparte la he comprado en perfecto estado y en garantía tirada de precio.
@Mangaverse


Ah bueno pensaba que era a precio de 1900€ si hay descuento de puede mirar pero dijeron que salian este año eso si a mas de 2000€
Me da la impresión que para ser mediados de Agosto apenas tengamos ofertas en componentes, día a día veo que en el apartado de GPUs al menos en la gama media alta siguen subiendo el precio, cuando debería de ir bajando poco a poco, las 4070ti super ya están rozando los 900€ cuando el precio más bajo estuvo en 820€ y no sé si alguna gama de entrada por 800 raspados. A este paso cuando salga la 5080 va a costar de salida 1500€...
boarone escribió:Me da la impresión que para ser mediados de Agosto apenas tengamos ofertas en componentes, día a día veo que en el apartado de GPUs al menos en la gama media alta siguen subiendo el precio, cuando debería de ir bajando poco a poco, las 4070ti super ya están rozando los 900€ cuando el precio más bajo estuvo en 820€ y no sé si alguna gama de entrada por 800 raspados. A este paso cuando salga la 5080 va a costar de salida 1500€...


Seguramente Nvidia a bajado la producción de la serie 4000 ya preparándose para la 5000, y menos tarjetas disponibles = que el precio no baje...

Personalmente yo no me espero que los precios de salida sean mejores, imagino que, si una 5080 se va acercar a la 4090, los precios de salida sean 1499 y 1999 en la 5080 y la 5090, siendo en este caso muy optimista con el precio de la 5090 viendo lo visto.... Eso si, refiriéndome a las FE, las custom... sabe dios... veremos cualquier cosa.
Mangaverse escribió:en garantía tirada de precio.

¿Cuanto es tirada de precio?

Cuando salgan en menos de 6 meses las 5090, simplemente cuando las anuncien, esa grafica pasara a costar menos que una 5080, seguramente menos de 1000€. Y no como todas las RTX 40, no sera capaz de hacer ninguna de las nuevas caracteristicas exclusivas que añadan en las RTX 50.

Hasta podria suceder que no sabemos nada de las RTX 50 y que sucediera como la RTX 3090, la cual cuando salieron las RTX 40, se quedo a nivel de la RTX 4070Ti. No es descartable que suceda esto.

boarone escribió:Me da la impresión que para ser mediados de Agosto apenas tengamos ofertas en componentes

Pcc ya no es lo que era. Ahora es una tienda cara la mayoria de las veces, desde que empezaron a dar portes gratis en envios y devoluciones, muchas cosas no son tan baratas. Yo miraria antes Neobyte.

Pero agosto no es tanto de ofertas como si de rebaja silenciosa porque luego a partir de septiembre van subiendo los precios hasta el Black Friday y en muchos casos nunca vuelven al precio de agosto.

las 4070ti super ya están rozando los 900

Estaban más baratas cuando compre yo mi 4070Ti normalita que ahora. Ya dije en su momento que quedarse esperando a ese tipo de milagro, podria ser la espera eterna. Y tampoco os creais que las graficas nuevas RTX 40 a van a bajar de su precio de venta cuando salgan las 50. Voy a poner el ejemplo de las RTX 3060 vs 4060, las primeras por logica tenian que haber bajado, pero estan practicamente igual pese a ser un modelo de hace 4 años vs 2 años.

Y neox3 tiene razon, seguro que la producción de RTX 40 ya no es tan alta. No les interesa hacer caer el precio. Tampoco la competencia tiene nada mejor, ni igual, esta claro que la diferencia es por el Raytracing que en AMD no hay por donde cogerlo.
@Nomada_Firefox 1280 ¿Está bien o la devuelvo?

La 4090 no la vas a ver por menos de 1000Eur (teniendo en cuenta lo que cuesta nueva) aunque salga la 5090 ni de broma.

Nvidia es como los iPhone, no se devalúan casi nada con el paso del tiempo. Es lo bueno que tienen.

No te compres entonces un coche o moto, que si miras el precio de compra y la devaluación que tiene nada más sacarlo del concesionario o a los meses... te da algo.
14352 respuestas