[HILO] Inteligencias artificiales conversacionales y modelos de lenguaje ( GOOGLE BARD - CHAT GPT )

Inteligencias artificiales conversacionales ( GOOGLE BARD - CHAT GPT )
Abro este hilo para ir recopilando las IAs conversacionales ( chat bots ) y modelos de lenguaje que vayan apareciendo, actualmente la mayoría de modelos son propietarios, pero su futuro es que sean completamente libres y de código abierto.

La utilidad de este tipo de IAs abarca varios campos, pueden ayudarnos a encontrar información concreta de cualquier tipo como consultar normativas legales de nuestro país, ayudarnos a hacer la declaración de la renta, escribir código de programación, redactar textos, resumir textos, escribir poesía, traducir idiomas, hablar sobre existencialismo, calcular fórmulas matemáticas, etc... un sinfín de posibilidades.

Estas IAs aún están en las antípodas de lo que serán en un futuro, por poner un ejemplo, aún no pueden reconocer vídeo, por lo que cuando reconozcan vídeo, para haceros una idea de su alcance, podrán diagnosticarnos un melanoma cutáneo simplemente mostrándole por cámara una mancha extraña de nuestra piel.
Imagen

GOOGLE AI BARD por GOOGLE
Bard es un bot conversacional de inteligencia artificial desarrollado por Google basado en la familia LaMDA.​ Se desarrolló como respuesta directa al auge de ChatGPT de OpenAI. Se lanzó de forma limitada en marzo de 2023 con una acogida poco entusiasta.

Lo recomiendo antes que chat GPT ya que no está tan capado, aunque aún no tiene soporte en español, para acceder a este hay que hacerlo a través de VPN ya que ha sido prohibido en Europa.
https://bard.google.com/
Imagen

GPT-4 - CHAT GPT por OpenAI)
GPT-4 es un modelo de lenguaje de gran tamaño creado por OpenAI. Se lanzó el 14 de marzo de 2023​ y estará disponible a través de la API y para los usuarios de ChatGPT Plus.
https://openai.com/product/gpt-4

ChatGPT es un prototipo de chatbot de inteligencia artificial desarrollado en 2022 por OpenAI que se especializa en el diálogo. El chatbot es un gran modelo de lenguaje, ajustado con técnicas de aprendizaje tanto supervisadas como de refuerzo.​ Se basa en el modelo GPT-4 de OpenAI, una versión mejorada de GPT-3.
https://chat.openai.com/
Imagen

BLOOM (código abierto) por BigScience
BLOOM , el primer LLM multilingüe capacitado en total transparencia, para cambiar este status quo: el resultado de la mayor colaboración de investigadores de IA jamás involucrada en un solo proyecto de investigación. Con sus 176 mil millones de parámetros, BLOOM puede generar texto en 46 lenguajes naturales y 13 lenguajes de programación. Para casi todos ellos, como el español, el francés y el árabe, BLOOM será el primer modelo de idioma con más de 100B de parámetros jamás creado. Esta es la culminación de un año de trabajo en el que participaron más de 1000 investigadores de más de 70 países y más de 250 instituciones, lo que llevó a una carrera final de 117 días (del 11 de marzo al 6 de julio) entrenando el modelo BLOOM en la supercomputadora Jean Zay en el sur de París, Francia, gracias a una subvención de cómputo por un valor estimado de 3 millones de euros de las agencias de investigación francesas CNRS y GENCI.
Imagen
Los investigadores ahora pueden descargar, ejecutar y estudiar BLOOM para investigar el rendimiento y el comportamiento de los grandes modelos de lenguaje desarrollados recientemente hasta sus operaciones internas más profundas. En términos más generales, cualquier persona o institución que acepte los términos de la Licencia de IA responsable del modelo (desarrollada durante el propio proyecto BigScience) puede usar y desarrollar el modelo en una máquina local o en un proveedor de la nube, ya que está integrado en Hugging Face. ecosistema, es tan fácil como importarlo con transformadores y ejecutarlo con aceleración. En este espíritu de colaboración y mejora continua, también lanzamos, por primera vez, los puntos de control intermedios y los estados de optimización del entrenamiento. ¿No tienes 8 A100 para jugar? Estamos finalizando una API de inferencia para uso a gran escala incluso sin hardware o ingeniería dedicados. Mientras tanto, para pruebas rápidas, creación de prototipos y uso a menor escala, ya puede jugar con una versión anterior en el concentrador HF.

https://bigscience.huggingface.co/blog/bloom
Edito

Hilo equivocado XD XD
Bard de Google llega a todo el mundo… menos a España y la UE por culpa de ChatGPT

Bard ahora está disponible en más de 180 países en su versión en inglés, japonés y coreano. Pronto se agregarán 40 idiomas más, incluyendo español. Esta esperada expansión llegó con una integración nativa a Google Search, el motor de búsqueda de la empresa, lo que cambiará el modo en que realizamos búsquedas en internet para siempre. Además, el chatbot inteligente de Google promete vincularse con otros servicios del ecosistema de la empresa.

Lo cierto es que este gran avance está lejos de ser accesible en España y otras partes de la Unión Europea y mucho tiene que ver con los problemas alrededor de privacidad que sistemas como ChatGPT han enfrentado en aquella región.]

Imagen
Países como España, Alemania o Italia han puesto en marcha una serie de investigaciones alrededor del funcionamiento de sistemas basados en inteligencia artificial generativa como Bard o ChatGPT.

Las preocupaciones de las autoridades europeas alrededor de la inteligencia artificial no son nuevas. El 21 de abril de 2021, la Comisión Europea propuso la Ley de Inteligencia Artificial (AI Act) con el objetivo de introducir en la Unión Europea (UE) un marco normativo y jurídico común para controlar el uso de la IA en aquella región.

Desde entonces, dicha propuesta de ley se ha actualizado para considerar avances y desarrollos sin precedentes como ChatGPT o Bard. Durante esta semana, el Comité de Mercado Interior y el Comité de Libertades Civiles aprobaron un nuevo borrador de la ley que, entre otras cosas, prohíbe el uso de sistemas de inteligencia artificial para cumplir tareas de vigilancia biométrica masiva.

Bard avanza con pasos de plomo
A principios del mes pasado, los eurodiputados que trabajan en este proyecto de ley publicaron una carta abierta en la que aseguran que el rápido avance de la IA generativa demanda un marcó legal que controle los alcances y riesgos de esta tecnología. “Con la rápida evolución de la poderosa IA, vemos la necesidad de una atención política significativa. Los legisladores aún tenemos algunas negociaciones pendientes, pero esperamos que esta regulación, que cubrirá a todo el mercado de la UE, pueda servir como modelo para otras iniciativas regulatorias […] a lo largo del mundo”, se lee en el documento.

La decisión de Google por no lanzar Bard en la Unión Europea tiene que ver justo con estas medidas. La compañía ha dicho que el lanzamiento de Bard en aquella región deberá esperar hasta tener la garantía de cumplir con las normas locales para evitar enfrentamientos con las autoridades La decisión es también un recurso para cuidar el negocio alrededor del desarrollo IA que ahora está en una etapa incipiente.

Recordemos que tras las intenciones de regulación de la Unión Europea, las empresas relacionadas con desarrollos IA expresaron sus preocupaciones sobre el impacto negativo que una regulación más estricta en el bloque europeo dejará en sus negocios.

Cumplir con los requisitos que serán aplicables en muchos países europeos supone la necesidad de incrementar las inversiones y elevar o poner un costo a sus herramientas. Una encuesta reciente indicaba, ante este escenario, que el 51% de los desarrolladores espera una desaceleración de sus actividades e ingresos como resultado de la nueva Ley de IA.
BLOOM también lanza su propio chat bot
ABRIL 2023
Stability AI lanza el primero de su conjunto de modelos de lenguaje StableLM

https://stability.ai/blog/stability-ai- ... age-models
Stability AI lanzó un nuevo modelo de lenguaje de código abierto, StableLM. La versión Alpha del modelo está disponible en 3 mil millones y 7 mil millones de parámetros, con 15 mil millones a 65 mil millones de modelos de parámetros a continuación. Los desarrolladores pueden inspeccionar, usar y adaptar libremente nuestros modelos base StableLM con fines comerciales o de investigación, sujeto a los términos de la licencia CC BY-SA-4.0.

En 2022, Stability AI impulsó el lanzamiento público de Stable Diffusion, un modelo de imagen revolucionario que representa una alternativa transparente, abierta y escalable a la IA propietaria. Con el lanzamiento del conjunto de modelos StableLM, Stability AI continúa haciendo que la tecnología fundamental de IA sea accesible para todos. Nuestros modelos StableLM pueden generar texto y código y potenciarán una gama de aplicaciones posteriores. Demuestran cómo los modelos pequeños y eficientes pueden ofrecer un alto rendimiento con la formación adecuada.

El lanzamiento de StableLM se basa en nuestra experiencia en modelos de idioma anteriores de código abierto con EleutherAI, un centro de investigación sin fines de lucro. Estos modelos de lenguaje incluyen GPT-J, GPT-NeoX y la suite Pythia, que se entrenaron en el conjunto de datos de código abierto The Pile. Muchos modelos de lenguaje de código abierto recientes continúan basándose en estos esfuerzos, incluidos Cerebras-GPT y Dolly-2.

StableLM está entrenado en un nuevo conjunto de datos experimentales creado en The Pile, pero tres veces más grande con 1,5 billones de tokens de contenido. Publicaremos detalles sobre el conjunto de datos a su debido tiempo. La riqueza de este conjunto de datos otorga a StableLM un rendimiento sorprendentemente alto en tareas de conversación y codificación, a pesar de su pequeño tamaño de 3 a 7 mil millones de parámetros (en comparación, GPT-3 tiene 175 mil millones de parámetros).

También estamos lanzando un conjunto de modelos de investigación que son instrucción afinada. Inicialmente, estos modelos perfeccionados utilizarán una combinación de cinco conjuntos de datos de código abierto recientes para agentes conversacionales: Alpaca, GPT4All, Dolly, ShareGPT y HH. Estos modelos ajustados están destinados únicamente para uso en investigación y se publican bajo una licencia CC BY-NC-SA 4.0 no comercial, en línea con la licencia Alpaca de Stanford.

Vea algunos ejemplos a continuación, producidos por nuestro modelo ajustado de 7 mil millones de parámetros:

Los modelos lingüísticos formarán la columna vertebral de nuestra economía digital y queremos que todos tengan voz en su diseño. Modelos como StableLM demuestran nuestro compromiso con la tecnología de IA que es transparente, accesible y de apoyo:

Transparente. Abrimos nuestros modelos para promover la transparencia y fomentar la confianza. Los investigadores pueden "mirar debajo del capó" para verificar el rendimiento, trabajar en técnicas de interpretación, identificar riesgos potenciales y ayudar a desarrollar salvaguardas. Las organizaciones de los sectores público y privado pueden adaptar ("afinar") estos modelos de código abierto para sus propias aplicaciones sin compartir sus datos confidenciales ni ceder el control de sus capacidades de IA.

Accesible. Diseñamos para el borde para que los usuarios cotidianos puedan ejecutar nuestros modelos en dispositivos locales. Con estos modelos, los desarrolladores pueden crear aplicaciones independientes compatibles con hardware ampliamente disponible en lugar de depender de los servicios propietarios de una o dos empresas. De esta forma, los beneficios económicos de la IA son compartidos por una amplia comunidad de usuarios y desarrolladores. El acceso abierto y detallado a nuestros modelos permite a la amplia comunidad académica y de investigación desarrollar técnicas de interpretación y seguridad más allá de lo que es posible con modelos cerrados.

Apoyo. Construimos modelos para apoyar a nuestros usuarios, no para reemplazarlos. Estamos enfocados en un rendimiento de IA eficiente, especializado y práctico, no en una búsqueda de inteligencia divina. Desarrollamos herramientas que ayudan a las personas y las empresas cotidianas a utilizar la IA para desbloquear la creatividad, aumentar su productividad y abrir nuevas oportunidades económicas.

Los modelos ya están disponibles en nuestro repositorio de GitHub. Publicaremos un informe técnico completo en un futuro cercano y esperamos una colaboración continua con los desarrolladores e investigadores a medida que implementamos la suite StableLM. Además, iniciaremos nuestro programa RLHF de fuente abierta y trabajaremos con esfuerzos comunitarios como Open Assistant para crear un conjunto de datos de fuente abierta para asistentes de IA.


Pronto lanzaremos más modelos y nuestro equipo está creciendo. Si le apasiona democratizar el acceso a esta tecnología y tiene experiencia en LLM, ¡solicite aquí!


Stability AI lanza StableVicuna, el primer chatbot RLHF LLM de código abierto del mundo de IA
https://stability.ai/blog/stablevicuna-open-source-rlhf-chatbot


En los últimos meses, ha habido un impulso significativo en el desarrollo y lanzamiento de chatbots. Desde el chatbot de Character.ai la primavera pasada hasta ChatGPT en noviembre y Bard en diciembre, la experiencia del usuario creada al ajustar los modelos de lenguaje para el chat ha sido un tema candente. La aparición de alternativas de acceso abierto y código abierto ha alimentado aún más este interés.

El entorno actual de los chatbots de código abierto

El éxito de estos modelos de chat se debe a dos paradigmas de formación: el ajuste fino de la instrucción y el aprendizaje reforzado a través de la retroalimentación humana (RLHF). Si bien se han realizado esfuerzos significativos para crear marcos de código abierto para ayudar a entrenar este tipo de modelos, como trlX, trl, DeepSpeed Chat y ColossalAI, hay una falta de acceso abierto y modelos de código abierto que tengan ambos paradigmas aplicados. En la mayoría de los modelos, el ajuste fino de instrucciones se aplica sin entrenamiento RLHF debido a la complejidad que implica.

Recientemente, Open Assistant, Anthropic y Stanford han comenzado a hacer que los conjuntos de datos de chat RLHF estén disponibles para el público. Esos conjuntos de datos, combinados con el entrenamiento sencillo de RLHF proporcionado por trlX, son la columna vertebral para el primer modelo de RLHF y sintonizado con aletas de instrucción a gran escala que presentamos aquí hoy: StableVicuna.


Presentamos el primer chatbot RLHF LLM de código abierto a gran escala

Estamos orgullosos de presentar StableVicuna, el primer chatbot de código abierto a gran escala entrenado a través del aprendizaje reforzado a partir de la retroalimentación humana (RLHF). StableVicuna es una versión de Vicuna v0 13b capacitada en RLHF y afinada con instrucciones adicionales, que es un modelo LLaMA 13b afinado con instrucciones. Para el lector interesado, puede encontrar más sobre Vicuña aquí.

Estos son algunos de los ejemplos con nuestro Chatbot,

Pídele que haga matemáticas básicas.Imagen
Pídele que escriba códigoImagen
Pídele que te ayude con la gramática.Imagen


Del mismo modo, aquí hay una serie de puntos de referencia que muestran el rendimiento general de StableVicuna en comparación con otros chatbots de código abierto de tamaño similar.

Imagen


Para lograr el sólido rendimiento de StableVicuna, utilizamos Vicuna como modelo base y seguimos el proceso típico de RLHF de tres etapas descrito por Steinnon et al. y Ouyang et al. Concretamente, entrenamos aún más el modelo base de Vicuña con ajuste fino supervisado (SFT) utilizando una combinación de tres conjuntos de datos:

OpenAssistant Conversations Dataset (OASST1), un corpus de conversación estilo asistente generado por humanos y anotado por humanos que comprende 161 443 mensajes distribuidos en 66 497 árboles de conversación, en 35 idiomas diferentes;

GPT4All Prompt Generations, un conjunto de datos de 437 605 mensajes y respuestas generados por GPT-3.5 Turbo;

Y Alpaca, un conjunto de datos de 52 000 instrucciones y demostraciones generadas por el motor text-davinci-003 de OpenAI.

Usamos trlx para entrenar un modelo de recompensa que primero se inicializa a partir de nuestro modelo SFT adicional en los siguientes conjuntos de datos de preferencias de RLHF:

El conjunto de datos de conversaciones de OpenAssistant (OASST1) contiene 7213 muestras de preferencias;

Anthropic HH-RLHF, un conjunto de datos de preferencias sobre la utilidad e inocuidad del asistente de IA que contiene 160 800 etiquetas humanas;

Y Stanford Human Preferences (SHP), un conjunto de datos de 348.718 preferencias humanas colectivas sobre las respuestas a preguntas/instrucciones en 18 áreas temáticas diferentes, desde cocina hasta filosofía.

Finalmente, usamos trlX para realizar el aprendizaje de refuerzo de optimización de política proximal (PPO) para realizar el entrenamiento RLHF del modelo SFT para llegar a StableVicuna.

Obtención de Vicuña Estable-13B

¡StableVicuna está, por supuesto, en HuggingFace Hub! El modelo se puede descargar como un peso delta contra el modelo LLaMA original. Para obtener StableVicuna-13B, puede descargar el delta de peso desde aquí. Sin embargo, tenga en cuenta que también debe tener acceso al modelo LLaMA original, lo que requiere que solicite los pesos LLaMA por separado mediante el enlace proporcionado en el repositorio de GitHub o aquí. Una vez que tenga tanto el peso delta como los pesos LLaMA, puede usar un script provisto en el repositorio de GitHub para combinarlos y obtener StableVicuna-13B.

Anuncio de nuestra próxima interfaz de chatbot
Imagen
Junto con nuestro chatbot, nos complace presentar una vista previa de nuestra próxima interfaz de chat que se encuentra en las etapas finales de desarrollo. Las siguientes capturas de pantalla ofrecen una idea de lo que los usuarios pueden esperar.
ChatGPT ahora puede oir, ver y hablar:
GPT X Perplexity v1 - GPT Custom Instructions

Llevo un tiempo usando perplexity aprovechando el 50% de descuento, he pensado en añadir los beneficios de Perlexity.ai a GPT

Añado unas conversaciones para mostrar el potencia y la sencillez de estas instrucciones, donde solo con una pregunta muy vaga y números, puedes recibir mucha información.

Chat 1

Chat 2

Chat 3

Cómo funciona 🌟💬🔄

Paso 1: "Copiloto 🌟" - Aquí, el GPT revisa tus preguntas para comprender completamente el contexto y solicita información adicional para que la respuesta sea lo más significativa y útil posible. Se trata de adaptar la experiencia a tus necesidades únicas.

Paso 2: "Respuesta 💬" - Con una comprensión completa del Paso 1, la IA proporciona una respuesta detallada, teniendo en cuenta cualquier información adicional del usuario para alinearse estrechamente con sus intereses y objetivos.

Paso 3: "Relacionado 🔄" - Después de la respuesta, obtendrás una lista numerada de temas relacionados para seguir explorando. Esto fomenta el aprendizaje continuo y las inmersiones profundas en temas de interés.
Para la instalación:


https://pastebin.com/0wEZHB6y

Cambiar “English” por Spanish, suelo ir actualizando para afinar las instrucciones.
No había visto este hilo, muy interesante, creo que las IA tienen mucho que aportar en nuestro día a día. De momento van estupendas como asistentes, esperemos que no llegue el dia que nos reemplacen.

Empecé usando ChatGPT y ahora es justamente el que menos uso. No me gusta que sigue sin poder recabar información de internet y me parece bastante lento respondiendo. Por seguir añadiendo algunos a la lista:
  • Microsoft Bing Chat / Copilot (no me queda claro cómo llamarlo): funciona bastante bien, responde rápidamente y da respuestas coherentes. A diferencia de ChatGPT se puede conectar a internet por lo que las respuestas son actualizadas y a menudo añade enlaces de referencia. En su contra, no almacena conversaciones como si hace ChatGPT
  • Aria (chatbot integrado en Opera): muy similar a Copilot en resultado y eficiencia, además de poder conectarse también a internet. Si usas este navegador, viene integrado y es muy cómodo. A diferencia de Copilot, si almacena tus conversaciones para retomarlas.

Deseando que sigan avanzando y puedan generar algo más que contenidos textuales. Sería muy útil por ejemplo que pudiera generarte un excel siguiendo unas instrucciones.
AxelStone escribió:No había visto este hilo, muy interesante, creo que las IA tienen mucho que aportar en nuestro día a día. De momento van estupendas como asistentes, esperemos que no llegue el dia que nos reemplacen.

Empecé usando ChatGPT y ahora es justamente el que menos uso. No me gusta que sigue sin poder recabar información de internet y me parece bastante lento respondiendo. Por seguir añadiendo algunos a la lista:
  • Microsoft Bing Chat / Copilot (no me queda claro cómo llamarlo): funciona bastante bien, responde rápidamente y da respuestas coherentes. A diferencia de ChatGPT se puede conectar a internet por lo que las respuestas son actualizadas y a menudo añade enlaces de referencia. En su contra, no almacena conversaciones como si hace ChatGPT
  • Aria (chatbot integrado en Opera): muy similar a Copilot en resultado y eficiencia, además de poder conectarse también a internet. Si usas este navegador, viene integrado y es muy cómodo. A diferencia de Copilot, si almacena tus conversaciones para retomarlas.

Deseando que sigan avanzando y puedan generar algo más que contenidos textuales. Sería muy útil por ejemplo que pudiera generarte un excel siguiendo unas instrucciones.


Si pagas chatgpt es muchísimo mejor, le puedes pasar hasta imágenes e incluso está en beta poder crear tus propios chatbots. Es la puta hostia

@Satoru Gojo Hombre imagino que con una cuota de 20€ debe mejorar mucho la versión gratuita. Estuve a punto de pillar la suscripción, pero con la salida de tantas alternativas (Copilot / Bing, Aria, Bard, etc) eché el freno, creo que de momento van bastante bien.

Lo que aún no hace ninguno es generar contenidos complejos ¿cierto? Se limitan a prompts de texto, enlaces y poco más. Quiero decir, ninguno te genera un excel, word, powerpoint...al menos gratuitos, igual de pago si. Para mi ese sería el verdadero copilot, podría ahorrar mucho trabajo.
GOOGLE GEMINI YA ESTÁ AQUÍ https://deepmind.google/technologies/ge ... pabilities
Promete rivalizar con GPT-4



Imagen
Imagen
Yo uso IAs conversacionales para que me haga algunos cálculos que me da pereza calcular a mí o para que me revise algo de código de Vue, Groovy, Bash o lo que necesite.
Siempre suelo usar ChatGPT, que además de que últimamente me falla (he llegado a este hilo a raíz de otro que precisamente el usuario que lo abrió se quejaba de que no iba bien) no son pocas las veces que me da respuestas incorrectas.
Sin ir más lejos, hoy he calculado una probabilidad cuyo resultado era 4,23% y él me ha dicho 51,2%, así por la cara.

Y no sólo eso, hace unos días le pedí que me dijera álbumes de grupos en los que la batería suene similar a la de St. Anger de Metallica, y me recomendó St. Anger de Metallica.

Dicho esto: ¿Cuál es ahora mismo la mejor IA conversacional, que sea gratis (o barata) y que guarde las conversaciones en servidor (para poder acceder a ellas desde diferentes dispositivos?
sexto escribió:Yo uso IAs conversacionales para que me haga algunos cálculos que me da pereza calcular a mí o para que me revise algo de código de Vue, Groovy, Bash o lo que necesite.
Siempre suelo usar ChatGPT, que además de que últimamente me falla (he llegado a este hilo a raíz de otro que precisamente el usuario que lo abrió se quejaba de que no iba bien) no son pocas las veces que me da respuestas incorrectas.
Sin ir más lejos, hoy he calculado una probabilidad cuyo resultado era 4,23% y él me ha dicho 51,2%, así por la cara.

Y no sólo eso, hace unos días le pedí que me dijera álbumes de grupos en los que la batería suene similar a la de St. Anger de Metallica, y me recomendó St. Anger de Metallica.

Dicho esto: ¿Cuál es ahora mismo la mejor IA conversacional, que sea gratis (o barata) y que guarde las conversaciones en servidor (para poder acceder a ellas desde diferentes dispositivos?

Actualmente todas son imperfectas, te pueden ayudar en algunas cosas y en otras liártela, solo las debes de usar como un acompañamiento y bajo supervisión humana.


Prueba google gemini, si no pagas GPT estarás usando la versión 3.5, no la 4.


La que no he probado es chat con RTX de NVIDIA


CHAT CON RTX
Ocupa unos 30 GB y se ejecutan en local, no me la he bajado por el peso.
Descarga: https://www.nvidia.com/en-us/ai-on-rtx/ ... rative-ai/
OPEN AI PRESENTA CHAT-GPT4o
La compañía anuncia esta actualización, gratuita y capaz de interactuar con imágenes, vídeo, audio y texto, y el lanzamiento de un asistente de voz parecido a Siri o Alexa

FORMAS DE USAR CHAT GPT 4 GRATIS: https://www.xataka.com/basics/gpt-4-gra ... atgpt-plus




TRADUCCIONES AL VUELO CON CHAT GPT
katatsumuri escribió:OPEN AI PRESENTA CHAT-GPT4o
La compañía anuncia esta actualización, gratuita y capaz de interactuar con imágenes, vídeo, audio y texto, y el lanzamiento de un asistente de voz parecido a Siri o Alexa

FORMAS DE USAR CHAT GPT 4 GRATIS: https://www.xataka.com/basics/gpt-4-gra ... atgpt-plus




TRADUCCIONES AL VUELO CON CHAT GPT

Estoy deseando que salga la aplicación de móvil con gpt4o. Va a suponer un antes y un después.

Un abrazo compañero. [tadoramo]
SYNTHFLOW AI
Synthflow AI es una plataforma innovadora diseñada para crear agentes de voz de IA conversacionales avanzados que pueden administrar llamadas entrantes y salientes y programar citas las 24 horas del día, los 7 días de la semana, sin necesidad de conocimientos de codificación.
Este modelo conversacional tiene una latencia bajísima https://synthflow.ai/



EXPERIMENTO ENTRE IA'S PARA VER SI ADIVINAN QUIEN ES EL HUMANO



OPENAI HA LANZADO SU CHATBOT


Refloto un poco el hilo para preguntar a los usuarios de Opera: ¿habeís notado un bajón tremendo en su IA, Aria? Eso o las demás han avanzado (mucho) más rápido que ella.

Cuando lanzaron el modelo me gustó bastante por sus respuestas simples, rápidas y directas. Vamos que llegué a usarlo con cierta frecuencia por su capacidad de síntesis. A día de hoy me está dando algunas respuestas que me caigo de culo, pongo un ejemplo reciente.

Estoy intentando instalar Veyon, una aplicación de monitorización, y estoy teniendo algunos problemas. Le pregunté a ChatGPT que me sintetizara los pasos para instalar y configurar Veyon por primera vez, a lo cuál pues más o menos me dió una Quick Start Guide (con algunos errores eso sí, algo habitual en las IAs en cualquier caso). La respuesta de Aria a la misma pregunta no tuvo desperdicio, algo tal que:

"Claro que te puedo ayudar. Para instalar Veyon debes seguir los pasos indicados en su documentación oficial, ubicada en..."

Joer, me enlaza la web de Veyon y se lava las manos. Y cada vez veo más respuestas de este tipo. ¿Alguien más ha notado este empobrecimiento de Aria?
17 respuestas