› Foros › Off-Topic › Miscelánea
maponk escribió:Y no me refiero al significado literal que dice la RAE o similares,leerlo se yo sólo....pero que es exactamente la entropia,un caos???una forma de "medida" técnicamente hablando (termodinamica y demás)
algún ejemplo clarificador???
maponk escribió:o sea, que mide el desorden...no???? no es el caos ni el desorden como tal sino una medida de ese desorden...me equivoco???
maponk escribió:o sea, que mide el desorden...no???? no es el caos ni el desorden como tal sino una medida de ese desorden...me equivoco???
Menkure escribió:La entropia indica la variacion del calor respecto a la temperatura. dS > dQ/dT. Cuando dos sistemas intercamcbian calor de manera ireversible (como la mayoria de los sistemas en la naturaleza). El aumento de entropia del que lo recibe, es mayor de lo que lo disminuye el que lo cede, de esta manera se puede afirmar que la entropia del universo siempre aumenta.
maponk escribió:o sea, que mide el desorden...no???? no es el caos ni el desorden como tal sino una medida de ese desorden...me equivoco???
Det_W.Somerset escribió:Como nota curiosa, al ser una expresión del desorden, también es una expresión del orden (al ser contrapuestos ), por lo que muchas veces en teoría de la información se habla casi indistintamente de entropía, incertidumbre e información, porque vienen a ser tres cuartos de lo mismo. Para quien le interese el tema, hay un corto articulillo en la wikipedia: http://es.wikipedia.org/wiki/Entrop%C3% ... aci%C3%B3n)
En los procesos irreversible si aumenta pero en los reversibles es constante, no?
dark_hunter escribió:La entropia creo que no se puede considerar como desorden en sí ya que es una variable de estado y por lo tanto lo que mide es la variación de desorden, no el desorden en sí (aquí no se si he metido la gamba xD).
Saludos
Idealmente sí, en la práctica creo que no
Det_W.Somerset escribió:En Teoría de la Información (que es el campo que yo manejo), la entropía es una medida cuantitativa de la incertidumbre que tienes cuando te encuentras una variable aleatoria. Por poner un ejemplo, si consideras las variables aleatorias que producen lanzar una moneda al aire y una tirada de un dado, el lanzamiento de la moneda tiene menos entropía que la tirada del dado, porque la moneda sólo tiene 2 estados posibles, mientras que el dado tiene 6 (más estados, por tanto más incierto es saber en qué estado estará).
Es un tema muy importante en teoría de la información, y a partir de la entropía emanan teoremas básicos que son los que hacen que hoy en día podamos ver la tele, por ejemplo
Veo que en termodinámica el concepto viene a ser el mismo, pero claro, aplicado a ese campo
Det escribió:Como nota curiosa, al ser una expresión del desorden, también es una expresión del orden (al ser contrapuestos ), por lo que muchas veces en teoría de la información se habla casi indistintamente de entropía, incertidumbre e información, porque vienen a ser tres cuartos de lo mismo. Para quien le interese el tema, hay un corto articulillo en la wikipedia: http://es.wikipedia.org/wiki/Entrop%C3% ... aci%C3%B3n)
Nocrala escribió:Es lo que hace un entropájaro.
duende escribió:¿Pero realmente puede haber una variable aleatoria? Osea, si hay aleatoriedad puede haber probabilidad? eso no puede ser, no? Como dices en el caso de la moneda por ejemplo, mediría la cantidad de aleatoriedad por así decirlo que se encuentra en lanzar una moneda. Sin embargo, se supone que aleatorio significa que todas las variables tengan las mismas posiblidades de dar el resultado (cara o cruz), pero no obstante sólo una de ellas puede darse, así que ésa ha tenido que tener más posibilidades que la otra, por lo que ya no existiría aleatoriedad, no? simplemente que las variables escapan a nuestro control por así decirlo o que no las podemos predecir.
duende escribió:Supongo que tendrá que ver con eso. Osea, si dijeramos que existe aleatoriedad, tendríamos que decir que hay desorden y no hay probabilidad, pero como digo no es así, y si no existe aletoriedad es que existe orden porque pese a las variables, una tiene más posiblidades que otra -causalidad-. Yo creo que esto nos llevaría a plantearnos si realmente existe el concepto de aleatoriedad, a lo mejor lo que realmente queremos decir es imprevisibilidad? Lo único que veo que pueda ser aleatorio parece ser que son las partículas cuánticas, pero una vez más, puede ser que simplemente aún no hayamos descubierto sus patrones.
Mmm paja mental
duende escribió:Det_W.Somerset escribió:En Teoría de la Información (que es el campo que yo manejo), la entropía es una medida cuantitativa de la incertidumbre que tienes cuando te encuentras una variable aleatoria. Por poner un ejemplo, si consideras las variables aleatorias que producen lanzar una moneda al aire y una tirada de un dado, el lanzamiento de la moneda tiene menos entropía que la tirada del dado, porque la moneda sólo tiene 2 estados posibles, mientras que el dado tiene 6 (más estados, por tanto más incierto es saber en qué estado estará).
Es un tema muy importante en teoría de la información, y a partir de la entropía emanan teoremas básicos que son los que hacen que hoy en día podamos ver la tele, por ejemplo
Veo que en termodinámica el concepto viene a ser el mismo, pero claro, aplicado a ese campo
¿Pero realmente puede haber una variable aleatoria? Osea, si hay aleatoriedad puede haber probabilidad? eso no puede ser, no? Como dices en el caso de la moneda por ejemplo, mediría la cantidad de aleatoriedad por así decirlo que se encuentra en lanzar una moneda. Sin embargo, se supone que aleatorio significa que todas las variables tengan las mismas posiblidades de dar el resultado (cara o cruz), pero no obstante sólo una de ellas puede darse, así que ésa ha tenido que tener más posibilidades que la otra, por lo que ya no existiría aleatoriedad, no? simplemente que las variables escapan a nuestro control por así decirlo o que no las podemos predecir.
KBM escribió:Lol, empiezo a no entender nada
_WiLloW_ escribió:KBM escribió:Lol, empiezo a no entender nada
No me extraña, porque ésto empieza a ser surrealista
¿Alguno podría dar una definición entendible por cualquier ente inteligente?
A ser posible, que la definición no incluya la palabra "entropía", porque sino ... mal vamos
Y si esa definición es extrapolable a cualquier campo, es decir, que sea una definición genérica, mejor todavía.
¿Es una unidad de medida?
¿Es la descripción de un determinado estado (expresión del orden/desorden)?
Gracias
DemonR escribió:duende escribió:Det_W.Somerset escribió:En Teoría de la Información (que es el campo que yo manejo), la entropía es una medida cuantitativa de la incertidumbre que tienes cuando te encuentras una variable aleatoria. Por poner un ejemplo, si consideras las variables aleatorias que producen lanzar una moneda al aire y una tirada de un dado, el lanzamiento de la moneda tiene menos entropía que la tirada del dado, porque la moneda sólo tiene 2 estados posibles, mientras que el dado tiene 6 (más estados, por tanto más incierto es saber en qué estado estará).
Es un tema muy importante en teoría de la información, y a partir de la entropía emanan teoremas básicos que son los que hacen que hoy en día podamos ver la tele, por ejemplo
Veo que en termodinámica el concepto viene a ser el mismo, pero claro, aplicado a ese campo
¿Pero realmente puede haber una variable aleatoria? Osea, si hay aleatoriedad puede haber probabilidad? eso no puede ser, no? Como dices en el caso de la moneda por ejemplo, mediría la cantidad de aleatoriedad por así decirlo que se encuentra en lanzar una moneda. Sin embargo, se supone que aleatorio significa que todas las variables tengan las mismas posiblidades de dar el resultado (cara o cruz), pero no obstante sólo una de ellas puede darse, así que ésa ha tenido que tener más posibilidades que la otra, por lo que ya no existiría aleatoriedad, no? simplemente que las variables escapan a nuestro control por así decirlo o que no las podemos predecir.
Ejemplo práctico,
Moneda
H(X) = 1/2 + 1/2 = 1 bit
Dado
H(X) = - log2(1/6) = 2,584 bits
La entropía (en teoría de la información) da idea del mínimo número de bits que necesitas para guardar esa información (entre otras muchas cosas). Y eso es porque esa información es desconocida (no confundas una variable aleatoria con una realización del experimento que es un valor).
Quizá te interese investigar cosas como la t de Student y temás de calibración. Se explica muy bien la diferencia entre variable aleatoria, muestras/experimentos, intervalos de confianza, etc.
duende escribió:Sí, eso lo entiendo y estoy de acuerdo, pero parece entonces que el problema es el concepto de aleatoriedad, significa algo entre infinito, pero cuando se usa aleatoriedad siempre es debido a unos márgenes ya conocidos por lo que veo o cómo lo estais explicando, no?, una aleatoriedaad con probabilidad o no. Es como:
1/desconocido(infinito)
1/x (unos márgenes probabilísticos o estadísticos)
Aunque estríctamente hablando no puede haber fenómenos aleatorios entiendo yo, no puede existir aleatoriedad sin ninguna causa, en su estado más primigenio y esto llevaría a una concepción determinista y anularía lo que es la aleatoriedad. Lo digo por esto: http://en.wikipedia.org/wiki/Bohm_interpretation
maponk escribió:Quizás la de Somerset sea la más clara,para mi:
es una medida cuantitativa de la incertidumbre que tienes cuando te encuentras una variable aleatoria...
DemonR escribió:duende escribió:Sí, eso lo entiendo y estoy de acuerdo, pero parece entonces que el problema es el concepto de aleatoriedad, significa algo entre infinito, pero cuando se usa aleatoriedad siempre es debido a unos márgenes ya conocidos por lo que veo o cómo lo estais explicando, no?, una aleatoriedaad con probabilidad o no. Es como:
1/desconocido(infinito)
1/x (unos márgenes probabilísticos o estadísticos)
Aunque estríctamente hablando no puede haber fenómenos aleatorios entiendo yo, no puede existir aleatoriedad sin ninguna causa, en su estado más primigenio y esto llevaría a una concepción determinista y anularía lo que es la aleatoriedad. Lo digo por esto: http://en.wikipedia.org/wiki/Bohm_interpretation
Desde luego todo tiene unos márgenes (o físicos o prácticos), se "cuantifica" en valores discretos y así se puede trabajar con ellos en ordenadores/etc.
Todo es aleatorio en esta vida. Lo que no es, es una distribución uniforme. Un dado tendrá una funcion densidad de probabilidad determinada según su centro de masas y momento de inercia, que se podrá determinar, y saldrá que un número sale más que otro. Y si hicieras muchísimas tiradas, hay otro teorema por ahí que dice que el número de veces que te sale tal número / número de tiradas, tiende a ser su probabilidad. Eso no quita para que la siguiente tirada sea otra vez aleatoria y pueda tocarte cualquier número (lo he enredado un huevo, pero vamos, que quiero decir que todo en esta vida es aleatorio, pero con una fdp que puedes ajustar tanto como puedas porque esta si que es determinista).
duende escribió:a/infinito => falta de causalidad
1/infinito => aleatoriedad
a/x => probaibilidad
El tiempo meteorológico podríamos decir que es aleatorio, sin embargo sigue un sistema causal, si lo conocemos y analizamos podemos preever el tiempo meteorológico, por lo tanto nos lleva a que aleatoriedad = imprevisibilidad.
duende escribió:
Pero volvemos a lo que quería decir, si el dado tiene una probabilidad determinada, según su masa, momento de inercia... etc. se podría preveer el resultado si analizamos las variables, por lo tanto aleatoriedad es más bien imprevisibilidad, es desconocimiento de las variables.
duende escribió:
El tiempo meteorológico podríamos decir que es aleatorio, sin embargo sigue un sistema causal, si lo conocemos y analizamos podemos preever el tiempo meteorológico, por lo tanto nos lleva a que aleatoriedad = imprevisibilidad.
_WiLloW_ escribió:Yo me quedo con ésto:
Lo que está claro que es un concepto muy abstracto y difícil de entender.
927PoWeR escribió:Y yo, aún a riesgo de parecer tonto del culo, pregunto:
¿Entonces el Universo está abocado a disminuir la entropía, verdad?, puesto que tiende a enfriarse con el paso de los eones.
Es loq ue creo haber dilucidado leyendo y viendo documentales del universo, pero a lo mejor lo he entendido mal (juer, me estoy voviendo loco con este tema).
Y aún a riego de parecer aún más tonto, ¿si invertimos la flecha del tiempo invertimos la entropía?, (toy rallao )
Y creo que Hawkings ha descubierto que los agujeros negros emiten radiación entrópica (la radiación Hawkings), por lo que la primera pregunta que hago se me lía aún más.
Suerte a lo que estudian estos temas, yo no podría.
Det_W.Somerset escribió:duende escribió:
Pero volvemos a lo que quería decir, si el dado tiene una probabilidad determinada, según su masa, momento de inercia... etc. se podría preveer el resultado si analizamos las variables, por lo tanto aleatoriedad es más bien imprevisibilidad, es desconocimiento de las variables.
El problema es que no tenéis la misma definición de "aleatorio" Él usa la definición convencional, en la que un experimento es aleatorio cuando no se conoce su resultado hasta que no se realice. En cambio, tú entiendes por aleatorio un proceso aleatorio y cuya función de densidad de probabilidad es uniforme.
A que tú dirías que si lanzamos una moneda normal al aire, el resultado es aleatorio? Y si lanzamos al aire una moneda "trucada" (no me preguntes cómo), en la que es el doble de probable que salga cara a que salga cruz? Para tí este caso no sería aleatorio, sin embargo ambos lo son... sólo que el segundo no tiene fdp uniforme, es decir, que no todos los resultados son equiprobables.
Det_W.Somerset escribió:duende escribió:
El tiempo meteorológico podríamos decir que es aleatorio, sin embargo sigue un sistema causal, si lo conocemos y analizamos podemos preever el tiempo meteorológico, por lo tanto nos lleva a que aleatoriedad = imprevisibilidad.
Esto ya es más casi metafísica pero en ningún momento se puede conocer al 100% las condiciones de un sistema. Y esto emana de la mecánica cuántica, cuando mides cualquier cosa, el acto de medir cambia el resultado (principio de incertidumbre de Heisenberg), por lo que jamás podrás conocer el estado preciso de un sistema, ya que necesitarías medir y el medir modifica el estado del sistema, por lo que podrías medir pero acabarías con una medida no exacta (y si nos ponemos técnicos, con instrumentos reales tampoco tendrías una medida precisa, ya que siempre va a haber un error de medida inherente al aparato de medida utilizado).
In Bohm's interpretation, there is no uncertainty in position and momentum of a particle; therefore a well defined trajectory is possible, but we have limited knowledge of what this trajectory is (and thus of the position and momentum). It is our knowledge of the particle's trajectory that is subject to the uncertainty relation. What we know about the particle is described by the same wave function that other interpretations use, so the uncertainty relation can be derived in the same way as for other interpretations of quantum mechanics.
To put the statement differently, the particles' positions are only known statistically. As in classical mechanics, successive observations of the particles' positions refine the initial conditions. Thus, with succeeding observations, the initial conditions become more and more restricted. This formalism is consistent with normal use of the Schrödinger equation. It is the underlying chaotic behaviour of the hidden variables that allows the defined positions of the Bohm theory to generate the apparent indeterminacy associated with each measurement, and hence recover the Heisenberg uncertainty principle.
Inki escribió:La entropía en química es el grado de desorden que tienen las reacciones, puede aumentar o disminuir, pero la entropía del universo tiende a aumentar. Y aumentará hasta que toda la energía del universo en trasforme en calor, pues es la forma de energía más degradada.
Para crear orden (disminuir entropía) siempre generas más desorden.
Imagínate un bosque en el que quieres construir una cabaña. Para construir la cabaña tienes que cortar la madera, quitar lo que no necesites colocar todo en su lugar. Gastaste energía para hacerlo tú y además no toda la madera que tienes en la cabaña es la que quitaste, dejaste mucha por el camino.
Ahora miremoslo por parte del universo, si tú dejas la cabaña construida y al lado la madera agrupada, el universo tenderá a desordenar la madera de la cabaña y no coger el montón de madera para formar una casa.
Si hay un tornillo a medio apretar, este nunca se apretara solo (quedar ordenado) acabará saltando.
Para mantener la vida, (nuestras células en orden) tenemos que comer y para eso generamos desorden. Cazamos, recoletamos etc... La vida es una lucha contra el desorden.
Espero no haberte liado más si no más bien al contrario darte en general una visión de que es la entropía
927PoWeR escribió:O yo estoy entendiendo mal el tema o los datos que he leido hasta ahora están equivocados.
Sobre la entropía del universo, yo tenía entendido que acabaría por ser 0ºK o lo que es lo mismo, -273ºC, ya que el universo, al expandirse, tiende a enfriarse, y, de esa forma, la entropía debería de tender a 0, por eso que he explicado antes de Penzias y Wilson y la radiación de fondo de microondas, que actualmente está a 5ºK.
Ahora oigo que tiende a aumentar, pero eso, según el ruido de fondo de microondas ES IMPOSIBLE, por lo tanto o yo lo he entendido mal o en algún lugar me he perdido.
Ruego un poquillo de luz.
927PoWeR escribió:Inki escribió:La entropía en química es el grado de desorden que tienen las reacciones, puede aumentar o disminuir, pero la entropía del universo tiende a aumentar. Y aumentará hasta que toda la energía del universo en trasforme en calor, pues es la forma de energía más degradada.
Para crear orden (disminuir entropía) siempre generas más desorden.
Imagínate un bosque en el que quieres construir una cabaña. Para construir la cabaña tienes que cortar la madera, quitar lo que no necesites colocar todo en su lugar. Gastaste energía para hacerlo tú y además no toda la madera que tienes en la cabaña es la que quitaste, dejaste mucha por el camino.
Ahora miremoslo por parte del universo, si tú dejas la cabaña construida y al lado la madera agrupada, el universo tenderá a desordenar la madera de la cabaña y no coger el montón de madera para formar una casa.
Si hay un tornillo a medio apretar, este nunca se apretara solo (quedar ordenado) acabará saltando.
Para mantener la vida, (nuestras células en orden) tenemos que comer y para eso generamos desorden. Cazamos, recoletamos etc... La vida es una lucha contra el desorden.
Espero no haberte liado más si no más bien al contrario darte en general una visión de que es la entropía
O yo estoy entendiendo mal el tema o los datos que he leido hasta ahora están equivocados.
Sobre la entropía del universo, yo tenía entendido que acabaría por ser 0ºK o lo que es lo mismo, -273ºC, ya que el universo, al expandirse, tiende a enfriarse, y, de esa forma, la entropía debería de tender a 0, por eso que he explicado antes de Penzias y Wilson y la radiación de fondo de microondas, que actualmente está a 5ºK.
Ahora oigo que tiende a aumentar, pero eso, según el ruido de fondo de microondas ES IMPOSIBLE, por lo tanto o yo lo he entendido mal o en algún lugar me he perdido.
Ruego un poquillo de luz.
O yo estoy entendiendo mal el tema o los datos que he leido hasta ahora están equivocados.
Sobre la entropía del universo, yo tenía entendido que acabaría por ser 0ºK o lo que es lo mismo, -273ºC, ya que el universo, al expandirse, tiende a enfriarse, y, de esa forma, la entropía debería de tender a 0, por eso que he explicado antes de Penzias y Wilson y la radiación de fondo de microondas, que actualmente está a 5ºK.
Ahora oigo que tiende a aumentar, pero eso, según el ruido de fondo de microondas ES IMPOSIBLE, por lo tanto o yo lo he entendido mal o en algún lugar me he perdido.
Ruego un poquillo de luz.