inteligencia artificial y el futuro de la informática

Pues eso , que pensais de como nos afectara a los informáticos la implantación en el futuro de las IA. ¿Es preocupante a corto plazo o deberíamos reciclarnos en un rama mas especifica relacionada con las IA?. Aunque me preocupa mas que pasara en este país cuando los empresarios patrios vean que pueden sustituir miles de empleos.
Joder, como que no hay ramas en informática para que todos tengamos que ir a IA...
alexr escribió:Pues eso , que pensais de como nos afectara a los informáticos la implantación en el futuro de las IA. ¿Es preocupante a corto plazo o deberíamos reciclarnos en un rama mas especifica relacionada con las IA?. Aunque me preocupa mas que pasara en este país cuando los empresarios patrios vean que pueden sustituir miles de empleos.


Lo de sustituir empleos es algo que pasa desde la automatización de las cadenas de montaje etc...
Creo que con el tiempo podría surgir una nueva moda o tendencia en informática, comparable a la que hay actualmente en automovilismo y en relojería:

Crear programas en los que la IA fuese inexistente o desconectable a voluntad por el usuario.

Del mismo modo que hoy los coches son capaces de aparcar solos, llevan todo tipo de electrónica, y ya hay gente que ha reaccionado en contra de todo esto; y en relojería pasa igual: tenemos todo tipo de relojes electrónicos que son prácticamente ordenadores de mano, y sigue habiendo miles de personas que compran relojes mecánicos de cuerda manual o automáticos.

El eslogan podría ser "Controla tu informática, no dejes que ella te controle a ti" XD y luego venderías un programa cuya IA sería desconectable manualmente.

De todos modos, preveo que la IA tiene un futuro prometedor en el ámbito de la aviación y la astronáutica porque muchísimos accidentes graves podrían evitarse simplemente con comprobaciones de la IA.

Lo que es discutible todavía es que la IA pueda tomar decisiones importantes por sí misma, sin control humano.

Salu2
Suelo ver el fútbol en el bar con los amigos. Pero el día de la final de la champions me quedé en casa con mis hijos.

Pues me saltó un mensaje de Google preguntándome si estaba en ese bar.

Creo que le extrañó que no estuviera.

Yo no diría que se está creando una inteligencia artificial. Es otra cosa, otro tipo de inteligencia. Jugaremos con eso de la inteligencia artificial, pero estamos creando un mostruo con su propia inteligencia.

El día que Google sea consciente...
En el campo de la informática no deberíamos preocuparnos mucho. En otros ámbitos en cambio...
Quintiliano escribió:Creo que con el tiempo podría surgir una nueva moda o tendencia en informática, comparable a la que hay actualmente en automovilismo y en relojería:

Crear programas en los que la IA fuese inexistente o desconectable a voluntad por el usuario.

Del mismo modo que hoy los coches son capaces de aparcar solos, llevan todo tipo de electrónica, y ya hay gente que ha reaccionado en contra de todo esto; y en relojería pasa igual: tenemos todo tipo de relojes electrónicos que son prácticamente ordenadores de mano, y sigue habiendo miles de personas que compran relojes mecánicos de cuerda manual o automáticos.

El eslogan podría ser "Controla tu informática, no dejes que ella te controle a ti" XD y luego venderías un programa cuya IA sería desconectable manualmente.

De todos modos, preveo que la IA tiene un futuro prometedor en el ámbito de la aviación y la astronáutica porque muchísimos accidentes graves podrían evitarse simplemente con comprobaciones de la IA.

Lo que es discutible todavía es que la IA pueda tomar decisiones importantes por sí misma, sin control humano.

Salu2


No es que pueda, es que DEBE surgir tal tendencia, no se puede dejar todo en manos del modo automático porque como ese coche falle o lo hackeen ("secuestros por control remoto" lo llamo yo) pierdes el control de la máquina, siempre tiene que haber una forma de manipularla de forma manual.
En la informatica no me preocupa cuanto avance la IA. Mas que nada, porque si avanza tanto como para quitarle el trabajo a una persona (los ordenadores se programan solos) entonces de lo que me preocuparé es de mi vida y no del trabajo
Quintiliano escribió:Creo que con el tiempo podría surgir una nueva moda o tendencia en informática, comparable a la que hay actualmente en automovilismo y en relojería:

Crear programas en los que la IA fuese inexistente o desconectable a voluntad por el usuario.

Del mismo modo que hoy los coches son capaces de aparcar solos, llevan todo tipo de electrónica, y ya hay gente que ha reaccionado en contra de todo esto; y en relojería pasa igual: tenemos todo tipo de relojes electrónicos que son prácticamente ordenadores de mano, y sigue habiendo miles de personas que compran relojes mecánicos de cuerda manual o automáticos.

El eslogan podría ser "Controla tu informática, no dejes que ella te controle a ti" XD y luego venderías un programa cuya IA sería desconectable manualmente.

De todos modos, preveo que la IA tiene un futuro prometedor en el ámbito de la aviación y la astronáutica porque muchísimos accidentes graves podrían evitarse simplemente con comprobaciones de la IA.

Lo que es discutible todavía es que la IA pueda tomar decisiones importantes por sí misma, sin control humano.

Salu2

Hombre, en la aviación y la astronautica realmente muchas cosas se hacen con ordenadores de a bordo, otra cosa es que consideres eso IA, pero por ejemplo un lanzamiento de un cohete, se hace con ordenes automáticas, evidentemente estan programadas por el ser humano, pero no hay nadie que dirija ese cohete, y pasa lo mismo con el piloto automático de los aviones, que dirijen ese vuelo incluso aterrizan los aviones
Quintiliano escribió:Lo que es discutible todavía es que la IA pueda tomar decisiones importantes por sí misma, sin control humano.

No, a dia de hoy, no. Un ordenador o una IA no es mas que un seguido de instrucciones logicas programadas por alguien (una persona). A un ordenador no le saques de ahí. Tal vez te puedan controlar un aterrizaje pero porque una persona le ha dicho paso a paso, previamente, como hacerlo. Si ocurre una casuistica no contemplada el programa no sabe que hacer. Lo que nos diferencia hoy en dia de las IA es que nosotros podemos tomar decisiones, los ordenadores no.

Por eso digo que el dia en que un ordenador le pueda quitar el trabajo a un programador, será porque una IA puede tomar sus propias decisiones y razonar. El dia que eso ocurra, preocupate por si dicha IA decide que los humanos ya no somos necesarios.
Lo que mas se necesitan ahora mismo son programadores
WiiBoy escribió:Lo que mas se necesitan ahora mismo son programadores

Pero tened en cuenta que "programador" es una categoría MUY AMPLIA.
@jorcoval no, lo que hay son muchos lenguajes, pero programar es programar
Namco69 escribió:
Quintiliano escribió:Lo que es discutible todavía es que la IA pueda tomar decisiones importantes por sí misma, sin control humano.

No, a dia de hoy, no. Un ordenador o una IA no es mas que un seguido de instrucciones logicas programadas por alguien (una persona). A un ordenador no le saques de ahí. Tal vez te puedan controlar un aterrizaje pero porque una persona le ha dicho paso a paso, previamente, como hacerlo. Si ocurre una casuistica no contemplada el programa no sabe que hacer. Lo que nos diferencia hoy en dia de las IA es que nosotros podemos tomar decisiones, los ordenadores no.

No, el machine learning permite a la maquina resolver problemas por sí misma sin que nadie sepa como coño ha sacado esa conclusión.

WiiBoy escribió:@jorcoval no, lo que hay son muchos lenguajes, pero programar es programar

Programar sigue siendo una actividad bastante amplia, con muchos paradigmas y barreras.

Y el lenguaje/api influye claro.
es amplia pero esta bastante definida , tan facil como decidir un lenguaje y empezar, lo que pasa es que el mundo de la informatica, el camino de aprender nunca termina pero para empezar no hay nada mas centrado que coger un lenguaje y ponerte a ello
Sinceramente, creo qeu se subestima el poder de la IA, y no sólo eso, sino de la informática en general.

A día de hoy, por ejemplo, las mayores y más grandes empresas no tienen a un a cabeza pensante detrás, sino que hacen uso del big data para tomar decisiones. Es decir: las toman los datos, no las personas. Al ritmo que evolucionan los procesadores es bastante posible que en unas décadas un ordenador sea capaz de tomar decisiones empresariales mejores que las que pueda tomar una persona a base de analizar datos. Con procesadores cuánticos capaces de realizar miles de millones de iteraciones y pruebas por segundo serán mucho más eficientes que las personas.

Teniendo en cuenta que incluso en informática secada vez más se siguen patrones de diseño, es cuestión de tiempo que la máquina pueda directamente crear aplicaciones bajo demanda y efectuar correcciones y experimientos in situ.

Y para todo eso no hace falta una IA. Basta con análisis de datos, estadísticas y automatización de procesos. Si a eso se le añade una inteligencia artificial que pueda llegar a ser superior a la humana, id pensando en el arte, salvo que las máquinas puedan llegar a hacerlo también a base de analizar nuestros comportamientos y respuestas.
WiiBoy escribió:@jorcoval no, lo que hay son muchos lenguajes, pero programar es programar

No.
Programar no es programar. Hay áreas muy específicas.

El lenguaje, a veces, es incluso lo de menos.
amchacon escribió:
Namco69 escribió:
Quintiliano escribió:Lo que es discutible todavía es que la IA pueda tomar decisiones importantes por sí misma, sin control humano.

No, a dia de hoy, no. Un ordenador o una IA no es mas que un seguido de instrucciones logicas programadas por alguien (una persona). A un ordenador no le saques de ahí. Tal vez te puedan controlar un aterrizaje pero porque una persona le ha dicho paso a paso, previamente, como hacerlo. Si ocurre una casuistica no contemplada el programa no sabe que hacer. Lo que nos diferencia hoy en dia de las IA es que nosotros podemos tomar decisiones, los ordenadores no.

No, el machine learning permite a la maquina resolver problemas por sí misma sin que nadie sepa como coño ha sacado esa conclusión.

No, no me lo creo. Ese programa o comportamiento esta diseñado y estructurado de forma logica, mas o menos complejo, pero de forma logica con instrucciones. Si nadie sabe como coño ha llegado la IA a esa conclusión es simplemente porque no se han parado el tiempo necesario a mirarlo por detras. Una maquina no tiene "imaginacion", por asi decirlo, para inventarse cosas.

Reakl escribió:A día de hoy, por ejemplo, las mayores y más grandes empresas no tienen a un a cabeza pensante detrás, sino que hacen uso del big data para tomar decisiones. Es decir: las toman los datos, no las personas

Porque un ordenador es millones de veces mas rapido que una persona (eso sí). Y las empresas si tienen cabezas pensantes detras, las que piensan como configurar y preparar ese big data para que llegue a esa conclusión por si solo.
Namco69 escribió:
amchacon escribió:
Namco69 escribió:No, a dia de hoy, no. Un ordenador o una IA no es mas que un seguido de instrucciones logicas programadas por alguien (una persona). A un ordenador no le saques de ahí. Tal vez te puedan controlar un aterrizaje pero porque una persona le ha dicho paso a paso, previamente, como hacerlo. Si ocurre una casuistica no contemplada el programa no sabe que hacer. Lo que nos diferencia hoy en dia de las IA es que nosotros podemos tomar decisiones, los ordenadores no.

No, el machine learning permite a la maquina resolver problemas por sí misma sin que nadie sepa como coño ha sacado esa conclusión.

No, no me lo creo. Ese programa o comportamiento esta diseñado y estructurado de forma logica, mas o menos complejo, pero de forma logica con instrucciones. Si nadie sabe como coño ha llegado la IA a esa conclusión es simplemente porque no se han parado el tiempo necesario a mirarlo por detras. Una maquina no tiene "imaginacion", por asi decirlo, para inventarse cosas.

Ah bueno, entonces depende de como interpretemos el aprendizaje.

Al machine learning se le suele decir así porque no se programa la solución al problema, sino que se le mete una entrada del problema y se le da una puntuación a la salida. Y así va aprendiendo a solucionar el problema de la mejor forma posible.

Es como si la maquina se programase a sí misma, en cierto sentido.
amchacon escribió:Ah bueno, entonces depende de como interpretemos el aprendizaje.

Al machine learning se le suele decir así porque no se programa la solución al problema, sino que se le mete una entrada del problema y se le da una puntuación a la salida. Y así va aprendiendo a solucionar el problema de la mejor forma posible.

Es como si la maquina se programase a sí misma, en cierto sentido.

Creo que sabes perfectamente a que me refiero. Tu puedes enseñarle a un ordenador a mirar estadísticas y que a partir de ahi actuar en consecuencia, pero no va a generar software nuevo él solito.
Las máquinas son tontas. Esa frase cambió mi vida, porque a día de hoy siguen teniendo la misma explicación.
Hacen todo lo que se les ordena y nunca se equivocan (el que se equivoca es el que dió mal la orden o administró mal el sistema).

En ese plan, hay que reconocer que igual que han creado empleos nuevos en otros sectores, en los ya antiguos es posible que se reduzca plantilla y se especialice más a la nueva, pero de ahí a que una IA haga todo el trabajo... [jaja]

Si alguien ha estudiado IA puede decir que la IA no es más que algoritmos súperespecializados y supereficientes, basados en ecuaciones súpersimplificadas y bases de conocimiento.

Cuidado, que hablo de la IA que existe y se usa, no la de las pelis ni la cuántica, que de esa no creo que en España haya una sola empresa que esté utilizándola (producción), ni la habrá al paso que vamos con las universidades y las grandes empresas españolas.

Hablamos de que hoy los programas, servicios, apis, utilizan algoritmos mucho más refinados y potentes, que hacen que los trabajos sean las sencillos. Pero de ahí a que la máquina piense por el jefe y la plantilla... [bye]

Saludos.
Reakl escribió:Sinceramente, creo qeu se subestima el poder de la IA, y no sólo eso, sino de la informática en general.

A día de hoy, por ejemplo, las mayores y más grandes empresas no tienen a un a cabeza pensante detrás, sino que hacen uso del big data para tomar decisiones. Es decir: las toman los datos, no las personas. Al ritmo que evolucionan los procesadores es bastante posible que en unas décadas un ordenador sea capaz de tomar decisiones empresariales mejores que las que pueda tomar una persona a base de analizar datos. Con procesadores cuánticos capaces de realizar miles de millones de iteraciones y pruebas por segundo serán mucho más eficientes que las personas.

Teniendo en cuenta que incluso en informática secada vez más se siguen patrones de diseño, es cuestión de tiempo que la máquina pueda directamente crear aplicaciones bajo demanda y efectuar correcciones y experimientos in situ.

Y para todo eso no hace falta una IA. Basta con análisis de datos, estadísticas y automatización de procesos. Si a eso se le añade una inteligencia artificial que pueda llegar a ser superior a la humana, id pensando en el arte, salvo que las máquinas puedan llegar a hacerlo también a base de analizar nuestros comportamientos y respuestas.


Estoy de acuerdo. Creo que nos sigue gustando pensar que en última instancia somos nosotros los que tomamos decisiones pero en cada vez más ámbitos esto está cambiando.

Mi empresa está dedicada a las finanzas y el 90% de la toma de decisiones la lleva a cabo una máquina que actúa en función de todos los datos que recibe a su vez de otras máquinas. La autonomía que tiene el sistema es increíble y prácticamente no requiere supervisión ni mantenimiento.

En la mayoría de las operaciones de compra-venta de activos no hay intervención humana de ningún tipo. La máquina es capaz de tomar decisiones en función de los datos que recopila, puede cambiar de "estilo" en función de la volatilidad de los mercados e incluso es capaz de predecir tendencias futuras en sectores específicos con un grado de exactitud que ni el más eminente de los expertos podría hacer.

Es decir, el sistema no solo hace tal o cual cosa en función de unos parámetros preestablecidos. No compra o vende X activo cuando este toca un soporte o una resistencia programados. Se adapta a las circunstancias cambiantes en tiempo real, toma miles de decisiones sin pestañear y plantea futuros escenarios.

Me decía el responsable de departamento que desde que se eliminó el elemento humano de la toma de decisiónes, los beneficios de la empresa han aumentado un 310% en los últimos 10 años. El humano tiene miedo a equivocarse. La máquina no duda y esa "confianza artificial" hace ganar dinero.

Desde el punto de vista de un programador quizá esto no pueda parecer nada espectacular. A mis ojos totalmente ignorantes, parece que el sistema actúa como un verdadero cerebro de las finanzas.

La función de las personas, por lo menos en mi empresa, ha quedado relegada a examinar los informes que hace la propia máquina, a hacer powerpoints para enseñárselos a los inversores y a publicitarnos acudiendo a distintas ferias por todo el mundo. Sin las decisiones de la "máquina" (así es como la llamamos todos) mi empresa simplemente no existiría.
Pero a medio-largo plazo la IA puramente artificial es un callejon sin salida ¿No? :-?

Comparado con la simbiosis entre IH e IA,ya sea mejorando la IH mediante implantes o llevando una IH a un soporte artificial,la IA solo artificial carece de sentido.

La mayor ventaja de la IA es la velocidad de proceso,si la union de IH+IA es mas rapida que la IA y no hay problemas con la toma de decisiones ¿Para que sirve la IA?

Yo y Michio Kaku opinamos que el futuro es la union de IH+IA :o
Piriguallo escribió:Suelo ver el fútbol en el bar con los amigos. Pero el día de la final de la champions me quedé en casa con mis hijos.

Pues me saltó un mensaje de Google preguntándome si estaba en ese bar.

Creo que le extrañó que no estuviera.

Yo no diría que se está creando una inteligencia artificial. Es otra cosa, otro tipo de inteligencia. Jugaremos con eso de la inteligencia artificial, pero estamos creando un mostruo con su propia inteligencia.

El día que Google sea consciente...


Eso es big data aplicado. Mi empresa lo usa para controlar cambios en la conducta de enfermos de Alzheimer y avisar a los familiares.
Hay mucha gente que piensa que los informáticos no tienen que preocuparse por la IA, yo creo que por el contrario son los primeros que deben preocuparse.

Cómo programador, en mi ámbito laboral nadie tiene ni idea de redes neuronales. Para mi eso es lo mismo que si hace 10 años un desarrollador web te dijera "Yo no tengo ni idea de HTML5, pero eso a mi me da igual porque hago webs en flash".

Hace poco en la empresa donde trabajo han empezado un proyecto donde necesitan un software para reconocer placas de auto. Lo primero que pensé fue que eso sería facilísimo de hacer con machine learning, la solución de la empresa fue pagar un software costoso para ello. ¿Por qué? Porqué ahí todos siguen pensando que la IA es tecnología que usaremos algún día en el futuro.

Pues vamos, la I.A. es algo sumamente importante en el presente de la informática, y muchos informáticos no se han dado cuenta que empezar hoy, no es ser pionero, empezar hoy es empezar cuando la I.A. ya se está volviendo tan accesible para que cualquier (informático) sin ser un experto pueda usarla.
Namco69 escribió:
amchacon escribió:Ah bueno, entonces depende de como interpretemos el aprendizaje.

Al machine learning se le suele decir así porque no se programa la solución al problema, sino que se le mete una entrada del problema y se le da una puntuación a la salida. Y así va aprendiendo a solucionar el problema de la mejor forma posible.

Es como si la maquina se programase a sí misma, en cierto sentido.

Creo que sabes perfectamente a que me refiero. Tu puedes enseñarle a un ordenador a mirar estadísticas y que a partir de ahi actuar en consecuencia, pero no va a generar software nuevo él solito.

Hoy. Mañana, ya veremos. Y para eso no se necesita inteligencia artificial sino comparaciones, cosa para la cual los ordenadores están mejor preparados que las personas.


PD:
https://www.youtube.com/watch?v=WSKi8HfcxEk
Reakl escribió:
Namco69 escribió:
amchacon escribió:Ah bueno, entonces depende de como interpretemos el aprendizaje.

Al machine learning se le suele decir así porque no se programa la solución al problema, sino que se le mete una entrada del problema y se le da una puntuación a la salida. Y así va aprendiendo a solucionar el problema de la mejor forma posible.

Es como si la maquina se programase a sí misma, en cierto sentido.

Creo que sabes perfectamente a que me refiero. Tu puedes enseñarle a un ordenador a mirar estadísticas y que a partir de ahi actuar en consecuencia, pero no va a generar software nuevo él solito.

Hoy. Mañana, ya veremos. Y para eso no se necesita inteligencia artificial sino comparaciones, cosa para la cual los ordenadores están mejor preparados que las personas.


PD:
https://www.youtube.com/watch?v=WSKi8HfcxEk


Es que toda la inteligencia artificial son solo comparaciones. Lo unico que un ordenador puede hacer es comparar, sumar y multiplicar. En realidad una red neural (o cualquier otro metodo de machine learning) no es mas que un monton de ifs que se generan automaticamente al entrenarla y que puedes ver una vez la entrenes (eso si, entenderlos ya es otra cosa :D).

Yo soy programador de IA para videojuegos (aunque tambien he trabajado con IA generica anteriormente), y aqui todavia es mas rudimentario. Se utilizan tecnicas como arboles de decision o planificadores, pero todo el contenido (condiciones y comportamientos) se mete a mano.
Prospekt escribió:Yo soy programador de IA para videojuegos (aunque tambien he trabajado con IA generica anteriormente), y aqui todavia es mas rudimentario. Se utilizan tecnicas como arboles de decision o planificadores, pero todo el contenido (condiciones y comportamientos) se mete a mano.

En videojuegos no se utiliza IA. Se utilizan árboles de decisiones. La IA implica aprendizaje. Yo sí que he trabajado con redes neuronales y te puedo asegurar que hay muchas cosas que no se sabe por qué pasan pero pasan. He visto simulaciones que tras unas pocas miles de iteraciones eran capaces de ser mejores que cualquier controlador humano.

Pero por otro lado se sobreestima la capacidad humana. Nuestro cerebro no deja de ser una red neuronal. Son neuronas disparando señales eléctricas que se han ido refinando con el tiempo desde que eramos un feto. Y si algo pueden hacer las máquinas es crecer más deprisa. El día en que un procesador pueda procesar la misma cantidad de neuronas que un cerebro años ha habremos sido sobrepasados, pues los procesadores funcionan a muchisima mayor frecuencia que nuestras neuronas.

El problema que va a tener la singularidad tecnológica es que cuando queramos verla ya habrá pasado. Como digo, a día de hoy con big data se toman más, mejores y mayores decisiones que desde las cabezas pensantes. Y cada vez el nivel sube más. En business ahora mismo las decisiones se toman mirando los datos. Podríamos sustituir a medio departamento de business por una máquina que te analice los resultados de una query ya hecha.

Al final hay que recordar lo que es un cerebro humano y no olvidar que no hay magia detrás, que es una máquina (muy compleja) que analiza unos datos de entrada y los compara con unos parámetros (experiencias previas) para dar una salida. Eso lo hace una máquina, y lo que tiene es que no es necesario construir nada, tan solo exponerse a las experiencias. Y para una máquina lo facil es precisamente exponerse a esas experiencias. A ti no te pueden introducir la wikipedia en la cabeza, pero a una máquina sí. A nivel de conocimientos la máquina es ya infinitamente superior a las personas y la gente todavía no lo sabe.
Reakl escribió:
Prospekt escribió:Yo soy programador de IA para videojuegos (aunque tambien he trabajado con IA generica anteriormente), y aqui todavia es mas rudimentario. Se utilizan tecnicas como arboles de decision o planificadores, pero todo el contenido (condiciones y comportamientos) se mete a mano.

En videojuegos no se utiliza IA. Se utilizan árboles de decisiones. La IA implica aprendizaje. Yo sí que he trabajado con redes neuronales y te puedo asegurar que hay muchas cosas que no se sabe por qué pasan pero pasan. He visto simulaciones que tras unas pocas miles de iteraciones eran capaces de ser mejores que cualquier controlador humano.


Como he dicho, trabajo en videojuegos actualmente, pero he pasado 4 años trabajando con IA de verdad. Y aunque es verdad que hay cosas que no se saben porque pasa, siempre puedes volcar las condiciones que tiene una red neuronal y ver porque en un momento dado ha ido por ese camino en vez del otro. Posiblemente siga siendo dificil de entender porque esa condicion es asi, pero a lo que me refiero es es que al final no son mas que condiciones para hacer esto o lo otro (o para activar esta neurona o la otra, vamos). Que no hay ninguna magia indescifrable detras.

Por otro lado, en videojuegos aunque todavia se utilizan mucho los arboles de comportamientos como unidad de decision, hace mucho que existen cosas mejores como planificadores jerarquicos (Killzone, Horizon Zero Dawn) o funciones de utilidad (los Sims, Guild Wars). Por poder (aunque no es recomendable debido a lo dificil que es predecir el comportamiento de antemano), podrias meter ahi lo que te de la gana, desde una red neuronal a cualquier otro algoritmo de aprendizaje automatico como SVM.
Prospekt escribió:
Reakl escribió:
Prospekt escribió:Yo soy programador de IA para videojuegos (aunque tambien he trabajado con IA generica anteriormente), y aqui todavia es mas rudimentario. Se utilizan tecnicas como arboles de decision o planificadores, pero todo el contenido (condiciones y comportamientos) se mete a mano.

En videojuegos no se utiliza IA. Se utilizan árboles de decisiones. La IA implica aprendizaje. Yo sí que he trabajado con redes neuronales y te puedo asegurar que hay muchas cosas que no se sabe por qué pasan pero pasan. He visto simulaciones que tras unas pocas miles de iteraciones eran capaces de ser mejores que cualquier controlador humano.


Como he dicho, trabajo en videojuegos actualmente, pero he pasado 4 años trabajando con IA de verdad. Y aunque es verdad que hay cosas que no se saben porque pasa, siempre puedes volcar las condiciones que tiene una red neuronal y ver porque en un momento dado ha ido por ese camino en vez del otro. Posiblemente siga siendo dificil de entender porque esa condicion es asi, pero a lo que me refiero es es que al final no son mas que condiciones para hacer esto o lo otro (o para activar esta neurona o la otra, vamos). Que no hay ninguna magia indescifrable detras.

Le llaman caja negra por algo, todavía no se sabe por qué pasa, a día de hoy no es posible hacer lo que dices.

Sobre el big data... opino que está sobrevalorado visto grandes fracasos que ha tenido. Es el problema de confundir correlación con causalidad y causas con factores intermedios. Hacer tantas comparaciones hace que se obtengan muchísimas correlaciones espúreas, incluso utilizando correcciones. Dicho esto, obviamente es una herramienta genial y se usa en multitud de sectores con éxito, pero hay que tener cuidado.
dark_hunter escribió:Sobre el big data... opino que está sobrevalorado visto grandes fracasos que ha tenido. Es el problema de confundir correlación con causalidad y causas con factores intermedios. Hacer tantas comparaciones hace que se obtengan muchísimas correlaciones espúreas, incluso utilizando correcciones. Dicho esto, obviamente es una herramienta genial y se usa en multitud de sectores con éxito, pero hay que tener cuidado.


Puñetas...No he entendido nada.... :-?

Bueno, algo he entendido, quizas entre un 1 y un 10% de lo que has dicho xDD

Salu2!!
cadeformidable escribió:
dark_hunter escribió:Sobre el big data... opino que está sobrevalorado visto grandes fracasos que ha tenido. Es el problema de confundir correlación con causalidad y causas con factores intermedios. Hacer tantas comparaciones hace que se obtengan muchísimas correlaciones espúreas, incluso utilizando correcciones. Dicho esto, obviamente es una herramienta genial y se usa en multitud de sectores con éxito, pero hay que tener cuidado.


Puñetas...No he entendido nada.... :-?

Bueno, algo he entendido, quizas entre un 1 y un 10% de lo que has dicho xDD

Salu2!!

A ver, el big data consiste en introducir multitud de variables y datos para que un programa ajuste un modelo estadístico que relacione esas variables (bueno, realmente esto es el data mining, el big data es la base de datos en sí). El ejemplo clásico es el de Wall-Mart (u otra superficie, porque hay varias historias distintas ya que realmente es una leyenda urbana), que descubrió que los hombres que compraban pañales compraban también cerveza, por lo tanto colocó la cerveza cerca de los pañales y aumentó un 5% las ventas.

Básicamente es encontrar ese tipo de relaciones y explotarlas. Por ejemplo, en algunos MediaMarkt directamente venden a precio de coste algunos productos como móviles y demás y los beneficios les vienen por las ventas cruzadas (fundas, seguros, etc.). Se supone que para ellos es importante conocer todo esto.

Pero tiene muchas limitaciones porque hacer tantas comparaciones hace que baje la potencia estadística y descubras "correlaciones" que realmente no existen, y aunque existen correcciones para esto, no son tan efectivas cuando hay tanta variable introducida.
dark_hunter escribió:
cadeformidable escribió:
dark_hunter escribió:Sobre el big data... opino que está sobrevalorado visto grandes fracasos que ha tenido. Es el problema de confundir correlación con causalidad y causas con factores intermedios. Hacer tantas comparaciones hace que se obtengan muchísimas correlaciones espúreas, incluso utilizando correcciones. Dicho esto, obviamente es una herramienta genial y se usa en multitud de sectores con éxito, pero hay que tener cuidado.


Puñetas...No he entendido nada.... :-?

Bueno, algo he entendido, quizas entre un 1 y un 10% de lo que has dicho xDD

Salu2!!

A ver, el big data consiste en introducir multitud de variables y datos para que un programa ajuste un modelo estadístico que relacione esas variables (bueno, realmente esto es el data mining, el big data es la base de datos en sí). El ejemplo clásico es el de Wall-Mart (u otra superficie, porque hay varias historias distintas ya que realmente es una leyenda urbana), que descubrió que los hombres que compraban pañales compraban también cerveza, por lo tanto colocó la cerveza cerca de los pañales y aumentó un 5% las ventas.

Básicamente es encontrar ese tipo de relaciones y explotarlas. Por ejemplo, en algunos MediaMarkt directamente venden a precio de coste algunos productos como móviles y demás y los beneficios les vienen por las ventas cruzadas (fundas, seguros, etc.). Se supone que para ellos es importante conocer todo esto.

Pero tiene muchas limitaciones porque hacer tantas comparaciones hace que baje la potencia estadística y descubras "correlaciones" que realmente no existen, y aunque existen correcciones para esto, no son tan efectivas cuando hay tanta variable introducida.


Gracias por molestarte en la aclaración [beer] , ahora si xD

Salu2!!
Te he puesto ejemplos de supermercados, pero en verdad se puede aplicar a casi todo, bolsa, estudios de mercado, creación de nuevos medicamentos, epidemiología...
dark_hunter escribió:
Prospekt escribió:Como he dicho, trabajo en videojuegos actualmente, pero he pasado 4 años trabajando con IA de verdad. Y aunque es verdad que hay cosas que no se saben porque pasa, siempre puedes volcar las condiciones que tiene una red neuronal y ver porque en un momento dado ha ido por ese camino en vez del otro. Posiblemente siga siendo dificil de entender porque esa condicion es asi, pero a lo que me refiero es es que al final no son mas que condiciones para hacer esto o lo otro (o para activar esta neurona o la otra, vamos). Que no hay ninguna magia indescifrable detras.

Le llaman caja negra por algo, todavía no se sabe por qué pasa, a día de hoy no es posible hacer lo que dices.


No soy experto en redes neuronales por lo que es posible que este equivocado, pero no entiendo porque no se va a poder hacer. Al final no es mas que volcar los pesos y condicones de las neuronas y sus conexiones. Otra cosa despues es entender porque ha llegado a la conclusion de que esas condicones dan una solucion al problema, que ahi ya no me meto.
No he dicho que no se pueda, se puede y se hace. Otra cosa muy distinta es que las conclusiones tengan sentido o sean reales.

EDIT: perdón, pensaba que hablabas de otra cosa. El problema está en lo último que has dicho, no se tiene ni idea de por qué se toma esa decisión.
dark_hunter escribió:Le llaman caja negra por algo, todavía no se sabe por qué pasa, a día de hoy no es posible hacer lo que dices.

Sobre el big data... opino que está sobrevalorado visto grandes fracasos que ha tenido. Es el problema de confundir correlación con causalidad y causas con factores intermedios. Hacer tantas comparaciones hace que se obtengan muchísimas correlaciones espúreas, incluso utilizando correcciones. Dicho esto, obviamente es una herramienta genial y se usa en multitud de sectores con éxito, pero hay que tener cuidado.


Lo que hay es mucho marketing.

Por partes:

  • Los modelos de Machine Learning NO son cajas negras. Se sabe perfectamente porqué se construyen los modelos como se construyen (en muchos casos, como con redes neuronales, son soluciones a problemas de optimización del error de aprendizaje), y se sabe perfectamente porqué los modelos "toman" las decisiones que toman (para arboles de decision/sistemas basados en reglas se pueden seguir las reglas que se han activado, para redes neuronales se puede estudiar la estructura de pesos de cada neurona, para SVMs se puede ver la estructura de los vectores soporte, para una regresión logística se pueden ver los pesos aprendidos para cada factor).

    La cantinela de que son cajas negras simplemente viene porque a veces es difícil explicar estas cosas (especialmente a publico no experto). Pero decir que son cajas negras es tajantemente falso, hay mucha investigación hecha sobre esto, desde hace bastante tiempo (incluso en España). La próxima vez que veáis a alguien repetir que las redes neuronales son cajas negras decidle que mire una cosa llamada autoencoders :o

  • El Big Data es la patraña (o rebranding para los mas sensibles) mas grande que se ha colado en estos campos en los últimos años, especialmente desde las consultorías. Análisis de datos, Machine Learning, IA... ha existido desde hace varias décadas, tanto en las empresas como en investigación. Lo que ha cambiado en la ultima década ha sido un incremento del interés (y de las herramientas disponibles) y una mejora en la capacidad de cómputo paralelo. Ahora podemos analizar mayores cantidades de datos que antes. Pero eso no significa necesariamente que los resultados vayan a ser mejores. O que los insights vayan a tener más sentido.

    Lo bueno de esto es que se ha acabado "enseñando" a las empresas de las ventajas de hacer algo con los datos aparte de tenerlos encerrados en el Data Warehouse de turno. Lo malo es que la cantidad de mercachifles soltando palabros guays (cognitive, singularity... Deep Learning incluso) y repitiendo consignas que ni ellos mismos entienden ha crecido exponencialmente. A veces da hasta miedo de ver lo que te encuentras por ahí

  • Deep Learning no es mas que otro rebranding de las mismas redes neuronales de siempre (junto a ciertos modelos probabilísticos que se subieron al carro en su momento). No son tan nuevos como quieren haceros creer (el mismo término tiene ya unos años - yo lo escuché por primera vez en 2011. Por ponerlo en perspectiva, llevo menos tiempo registrado en EOL).

    De nuevo, lo que ha cambiado han sido avances en la capacidad de paralelismo, en la capacidad de ciertas empresas para almacenar datos (o pedir a la gente que se los suministre de gratis), y a avances en la forma de entrenar los modelos.

    Pero digan lo que digan ciertos departamentos de Marketing, Deep Learning no dejan de ser redes neuronales con mas capas que de costumbre. Y por eso, Deep Learning no es más que una pequeña parte de Machine Learning, que a su vez no es más que una pequeña parte de lo que llamamos IA - IA débil, para ser más exactos.

  • NO estamos cerca de una IA tal y como nos la venden por ahí (la singularidad). Tenemos una serie de técnicas de IA débil que está avanzando bastante en los últimos años. Estas técnicas pueden ser más o menos útiles para resolver problemas difíciles (como ver cuanto hay que girar un volante de un coche para no salirse, dada una imagen y la información de un conjunto de sensores), y están muy bien, pero de ahí a empezar a asustar a la gente con lo de que van a perder sus trabajos hay un trecho bastante largo. Falta muchísimo camino que recorrer, y aun así si se eliminan tipos de trabajo va a ser por una mejora en las capacidades de automatización de las empresas, no por la IA en sí.

    No os creáis los cuentos de las consultorías de que esto es una cosa completamente nueva que sólo los expertos (ellos) pueden desarrollar, nada más lejos de la realidad.

  • Y que se vean problemas en el futuro de la informática por los avances en IA ya clama al cielo. La IA es parte de la informática, siempre lo ha sido, y el trabajo de informático no va a sufrir por esto. Yo trabajo como Data Scientist/Machine Learning Engineer, y así, a ojo, necesitamos Data Analysts, Research Scientists, Data Engineers, Backend Engineers, Frontend Engineers, Test/QA Engineers, DevOps, Administradores de Sistemas... para hacer nuestro trabajo. No se están perdiendo puestos, al contrario, cada vez hay más necesidad y más demanda de nuevos puestos.

Lo que sí puede que pase es que ahora haya más avances tecnológicos y vengan más rápido que de costumbre, y haya más riesgo de quedarse anticuado si uno no se recicla y se pone al día. Pero, por desgracia, esto siempre ha sido así con la informática desde el principio. El que se ha metido en esto sabía lo que había antes de empezar, no hay nada nuevo realmente ;)
Toda la especulación parte de la definición de inteligencia que uno considere.
38 respuestas