654321 escribió:Riwer escribió:Porque tu no pagas suscripcion por determinado estado de GPT4, sino para acceder al modelo mas reciente y algunas pijadas beta.
A ver, no seas iluso, el modelo no va a peor, es el mismo modelo pero con menos precisión, si bajas los bits a la mitad, te hace falta la mitad de GPU para correr las inferencias. Es un downgrade deliberado, no que por accidente haya ido a peor el modelo.
En la IAs Opensource tienes cada modelo para bajartelo en varias variantes, que cambian el numero de parametros, y la precisión (bits de cada parametro)
Y eso que tiene que ver con lo que he dicho yo? Claro que es un downgrade para ahorrar coste computacional. Por qué crees que digo que se merecen todo el hate?
Pero si el modelo mas reciente tiene downgrade, es lo que hay. Tu no pagas en ningun momento por "el mejor modelo que haya tenido OpenAI" sino por tener acceso al que actualmente tienen en servicio.
Si quieres elegir modelo vas y pagas por solicitudes de la API.
Ademas no se a que viene que me vengas con nada de modelos locales como si te hubiese preguntado o necesitase lecciones de nada xD
Llevo usando tanto openAI mediante API y suscripción como modelos locales desde practicamente que existen, no me vas a decir nada que no sepa ya.
Pero ya que te veo con ganas de dar lecciones te voy a dar una yo a ti.
En realidad el modelo actual de GPT4 no está tan downgradado como te piensas.. Es una mezcla de varios factores. Al igual que con GPT 3.5 turbo por supuesto se busca una reduccion de coste computacional pero enfocado mas a acelerar la velocidad de las respuestas y del procesado mas que al ahorro de costes. (A OpenAI ahora mismo precisamemnte le sobra inversión). En una busqueda de quedar a un nivel cercano de calidad pero muchisimo mas rapido (ergo mas eficiente).
De hecho que nombrase a davinci003 no es casualidad. Es exactamente lo mismo que pasó con GPT3.5 turbo. Davinci003 era superior a GTP3 normal y siguió siendo muy superior a GPT3.5 turbo al punto que segun ajustes de GPT4 ha estado tranquilamente por encima. Por algo tiene el precio que tiene por solicitud.
Pero con GPT4 lo que ha pasado es una mezcla de un ajuste poco acertado de la versión del 11 de noviembre junto a un defecto derivado de "GPT vago" que llevan tiempo trabajando en arreglar.
Ya que modificar un poco un parametro como por ejemplo la temperatura de un modelo de este nivel ya puede afectar drásticamente a la calidad de las respuestas.
Ademas de que tu referencia al numero de parametros tambien es bastante absurda, cuando tienes modelos con hasta 10 veces menor cantidad de parametros funcionando al mismo o mejor nivel que modelos 10 veces mayores.
Mas no es necesariamente mejor, no es tan simple el asunto. Y para muestra precisamente Llama de Meta que con 65B de parametros sigue siendo un mierdon.
Echale un ojo a Gemini y al modelo de Alibaba.