Google ha recibido una nueva sanción en Francia por la forma en la que procesa los contenidos de los medios de comunicación online, y más concretamente de los datos a los que accede para entrenar a su IA. En un principio Google tenía la obligación de negociar un acuerdo con los proveedores de este tipo de contenidos, pero la Autoridad de la Competencia de Francia ha determinado que Google decidió utilizarlos por las bravas, y esa decisión será castigada ahora con una multa de 250 millones de euros.
Según la agencia de noticias EFE, tras su tropezón en 2021 Google se comprometió a seguir una serie de obligaciones a la hora de trabajar con los contenidos de los medios de comunicación, pero no respetó cuatro de los siete puntos establecidos. Así, además de no haber llevado a cabo negociaciones bajo criterios de transparencia y ni discriminación, tal y como se prometió en su momento, Google entrenó la IA de Bard (actualmente Gemini) sin advertir a los medios ni a las autoridades correspondientes, todo ello al tiempo que evitó proponer alguna clase de mecanismo para evitar la utilización de dicha información.
La respuesta de Google ha sido inmediata. De acuerdo con las palabras de un portavoz, la sanción es desproporcionada y "no tiene suficientemente en cuenta los esfuerzos que hemos desplegado para responder a las diferentes consideraciones en un entorno en el que es muy complicado definir una línea de acción cuando no se puede anticipar una dirección precisa", aduciendo que como el número de publicaciones por los que paga no deja de cambiar, es imposible saber a quién paga en realidad y por qué.
El uso de contenidos para entrenar inteligencias artificiales se ha convertido en objeto de una polémica considerable, puesto que no deja de ser una explotación con propósitos comerciales de unos textos que no siempre han sido licenciados para ello. No es un secreto que numerosas empresas han utilizado textos e imágenes procedentes de bancos con contenido privativo, y ante esta situación algunos medios han decidido abrir una nueva vía de negocio comercializando sus derechos. En España tenemos un ejemplo bastante reciente, y es que hace poco OpenAI anunció que ofrecerá el contenido del grupo PRISA a través de ChatGPT.
Según la agencia de noticias EFE, tras su tropezón en 2021 Google se comprometió a seguir una serie de obligaciones a la hora de trabajar con los contenidos de los medios de comunicación, pero no respetó cuatro de los siete puntos establecidos. Así, además de no haber llevado a cabo negociaciones bajo criterios de transparencia y ni discriminación, tal y como se prometió en su momento, Google entrenó la IA de Bard (actualmente Gemini) sin advertir a los medios ni a las autoridades correspondientes, todo ello al tiempo que evitó proponer alguna clase de mecanismo para evitar la utilización de dicha información.
La respuesta de Google ha sido inmediata. De acuerdo con las palabras de un portavoz, la sanción es desproporcionada y "no tiene suficientemente en cuenta los esfuerzos que hemos desplegado para responder a las diferentes consideraciones en un entorno en el que es muy complicado definir una línea de acción cuando no se puede anticipar una dirección precisa", aduciendo que como el número de publicaciones por los que paga no deja de cambiar, es imposible saber a quién paga en realidad y por qué.
El uso de contenidos para entrenar inteligencias artificiales se ha convertido en objeto de una polémica considerable, puesto que no deja de ser una explotación con propósitos comerciales de unos textos que no siempre han sido licenciados para ello. No es un secreto que numerosas empresas han utilizado textos e imágenes procedentes de bancos con contenido privativo, y ante esta situación algunos medios han decidido abrir una nueva vía de negocio comercializando sus derechos. En España tenemos un ejemplo bastante reciente, y es que hace poco OpenAI anunció que ofrecerá el contenido del grupo PRISA a través de ChatGPT.
supongo que así se sale bien de una crisis... [qmparto]
Ahora megabufetes de abogados 5 años de juicios y recursos y al final ni pagarán
Me los imagino en una oficina con 2 ruletas, una con razones random para denunciar, y la otra con la cantidad a sacar, tiran las 2 ruletas y lo que toque tocó.
Y es tanta la velocidad que llevamos con las IA, LLM y demás mandanga que todos juegan sucio. A unos pillarán y a otros no. Incluso puede que luego ni la multa sea aplicada.
Y ya fuera de Europa directamente es la jungla sin leyes ninguna XD
En fin, todo muy loco.
¿Para cuándo se podrán todos de acuerdo para meter una multa conjunta?