Definición de entropía,please

Y no me refiero al significado literal que dice la RAE o similares,leerlo se yo sólo....pero que es exactamente la entropia,un caos???una forma de "medida" técnicamente hablando (termodinamica y demás)

algún ejemplo clarificador???
yo diria q es una medida del grado de desorden de un sistema,cuando el desorden aumenta la entropia aumenta y la segunda ley de la termodinamica expresa q todos los procesos expontaneos de la naturaleza hacen q la entropia del universo aumente(por eso,por ejemplo,un vaso si se cae se rompe,porque aumenta el desorden pero q a partir de trozos de cristal rotos se forme el vaso no se produce expontaneamente pq eso implicaria un proceso de ordenacion)


pero mejor consultalo en la wiki q hace tiempo q no manejo estos conceptos..:p :p
yo siempre he pensado que era la tendencia al caos y al desorden. creo que la he leído en textos sobre el universo o algo así. pero no me hagas demasiado caso
maponk escribió:Y no me refiero al significado literal que dice la RAE o similares,leerlo se yo sólo....pero que es exactamente la entropia,un caos???una forma de "medida" técnicamente hablando (termodinamica y demás)

algún ejemplo clarificador???

Es una medida de desorden, a mayor desorden mayor entropia. Los sistemas aislados tienden a aumentar su entropia.
Depende del campo, del contexto en el que lo uses.

La palabra entropía procede del griego (ἐντροπία) y significa evolución o transformación.


Saludos.
Los seres vivos tratan de reducir su entropía para contrariar esa tendencia universal al aumento. Algunos de hecho, consideran que la definición de vida es eso : "Sistema ordenado que trata de conservar su entropia". Cuando mueres, es muy visible como la entropía de tu cuerpo empieza a aumentar sin freno, obedeciendo a esa tendencia universal.
Por ejemplo, tiene más entropía dos imanes juntos con polos iguales que dos imanes juntos con polos distintos.

Corregidme si me equivoco [+risas]
En Teoría de la Información (que es el campo que yo manejo), la entropía es una medida cuantitativa de la incertidumbre que tienes cuando te encuentras una variable aleatoria. Por poner un ejemplo, si consideras las variables aleatorias que producen lanzar una moneda al aire y una tirada de un dado, el lanzamiento de la moneda tiene menos entropía que la tirada del dado, porque la moneda sólo tiene 2 estados posibles, mientras que el dado tiene 6 (más estados, por tanto más incierto es saber en qué estado estará).

Es un tema muy importante en teoría de la información, y a partir de la entropía emanan teoremas básicos que son los que hacen que hoy en día podamos ver la tele, por ejemplo XD

Veo que en termodinámica el concepto viene a ser el mismo, pero claro, aplicado a ese campo :-)
quien haya jugado a Mago: La Ascensión lo sabe de sobra XD
o sea, que mide el desorden...no???? no es el caos ni el desorden como tal sino una medida de ese desorden...me equivoco???
Estamos hablando del desorden de las partículas no??

Un saludo [oki]
maponk escribió:o sea, que mide el desorden...no???? no es el caos ni el desorden como tal sino una medida de ese desorden...me equivoco???

En principio sí, por lo menos en física.
maponk escribió:o sea, que mide el desorden...no???? no es el caos ni el desorden como tal sino una medida de ese desorden...me equivoco???


Correcto, ¿por qué lo preguntas? Si es por un tema del estado de un gas, por ejemplo, deberías mirar cosillas de termodinámica estadística y la definición clásica que dio Boltzmann, como función de los n estados microscópicos posibles que tiene el gas. Si es símplemente por un tema de un ciclos termodinámicos, te interesa mirar el concepto de entropía desde un punto de vista de función de estado por termodinámica clásica.

Pero vamos, que todos ellos parten de la base de que la entropía es la medida del grado de desorden del sistema. Pero da tanto de sí el concepto de entropía, que se puede hablar desde el grado de irreversibilidad de un proceso termodinámico, hasta la entropía de esos imanes de edu_mambo69, pasando por la de agujeros negros, teoría de la información de Sommerset y rendimientos isoentrópicos de turbomaquinaria.
La entropia indica la variacion del calor respecto a la temperatura. dS > dQ/dT. Cuando dos sistemas intercamcbian calor de manera ireversible (como la mayoria de los sistemas en la naturaleza). El aumento de entropia del que lo recibe, es mayor de lo que lo disminuye el que lo cede, de esta manera se puede afirmar que la entropia del universo siempre aumenta.

Es una vfuncion de estado termodinamica que se utliza mucho como parte de representacion en los diagramas T-S, que son muy muy utiles para ver evoluciones termodinamicas, comparar rendimientos termodinamicos etc. Ademas al estar relacionada con el calor y la temperatura se puede expresar en funcion de variables termodinamicas como la presion, volumen especifico.
Menkure escribió:La entropia indica la variacion del calor respecto a la temperatura. dS > dQ/dT. Cuando dos sistemas intercamcbian calor de manera ireversible (como la mayoria de los sistemas en la naturaleza). El aumento de entropia del que lo recibe, es mayor de lo que lo disminuye el que lo cede, de esta manera se puede afirmar que la entropia del universo siempre aumenta.


En los procesos irreversible si aumenta pero en los reversibles es constante, no?

Un saludo [oki]
maponk escribió:o sea, que mide el desorden...no???? no es el caos ni el desorden como tal sino una medida de ese desorden...me equivoco???


Es una medida del desorden, o una expresión del desorden de un sistema, pero yo no diría que es el desorden en sí mismo. De todas formas, se podría decir... de forma hablada, no sé si me explico, vamos, si no nos ponemos muy rigurosos.

Como nota curiosa, al ser una expresión del desorden, también es una expresión del orden (al ser contrapuestos XD), por lo que muchas veces en teoría de la información se habla casi indistintamente de entropía, incertidumbre e información, porque vienen a ser tres cuartos de lo mismo. Para quien le interese el tema, hay un corto articulillo en la wikipedia: http://es.wikipedia.org/wiki/Entrop%C3% ... aci%C3%B3n)
Lol, empiezo a no entender nada
Det_W.Somerset escribió:Como nota curiosa, al ser una expresión del desorden, también es una expresión del orden (al ser contrapuestos XD), por lo que muchas veces en teoría de la información se habla casi indistintamente de entropía, incertidumbre e información, porque vienen a ser tres cuartos de lo mismo. Para quien le interese el tema, hay un corto articulillo en la wikipedia: http://es.wikipedia.org/wiki/Entrop%C3% ... aci%C3%B3n)

Bueno sí, pero eso es como decir que hace frio, en verdad no hace frio, hay ausencia de calor xD. Pero eso ya son matices sutiles.

La entropia creo que no se puede considerar como desorden en sí ya que es una variable de estado y por lo tanto lo que mide es la variación de desorden, no el desorden en sí (aquí no se si he metido la gamba xD).

En los procesos irreversible si aumenta pero en los reversibles es constante, no?

Idealmente sí, en la práctica creo que no.


Saludos
dark_hunter escribió:La entropia creo que no se puede considerar como desorden en sí ya que es una variable de estado y por lo tanto lo que mide es la variación de desorden, no el desorden en sí (aquí no se si he metido la gamba xD).

Saludos


+1. Es como la altura. Tienes que medir una altura con respecto de algo,p.e. con respecto del suelo jeje

Un saludo [oki]
Dark Hunter escribio:
Idealmente sí, en la práctica creo que no


Si el proceso es reversible, como funcion de estado que es, el incremento de entropia es nulo. Ahora bien que en la naturaleza existan procesos reversibles es otra cuestion. Los procesos reversibles tienen su utlidad como ejercicios academicos ya que si no la dificultad de los ejercicios aumenteria enormemente.

Para los que tengais curiosidad, os pongo una ecuacion que relaciona la variacion de entropia en funcion de otras varables.

W = T*S. (donde W es el trabajo realizado en un ciclo de carnot, que en este caso coincide con el calor por ser un ciclo, T es la temperatura de absorcion o cesion de calor y S es la entropia).

Ya comente que la funcion de la entropia es meramente academica. Viene muy bien en las tablas de vapor, en los diagramas de Mollier para calcular rendimientos, perdidas etc
Es lo que hace un entropájaro.
Det_W.Somerset escribió:En Teoría de la Información (que es el campo que yo manejo), la entropía es una medida cuantitativa de la incertidumbre que tienes cuando te encuentras una variable aleatoria. Por poner un ejemplo, si consideras las variables aleatorias que producen lanzar una moneda al aire y una tirada de un dado, el lanzamiento de la moneda tiene menos entropía que la tirada del dado, porque la moneda sólo tiene 2 estados posibles, mientras que el dado tiene 6 (más estados, por tanto más incierto es saber en qué estado estará).

Es un tema muy importante en teoría de la información, y a partir de la entropía emanan teoremas básicos que son los que hacen que hoy en día podamos ver la tele, por ejemplo XD

Veo que en termodinámica el concepto viene a ser el mismo, pero claro, aplicado a ese campo :-)


¿Pero realmente puede haber una variable aleatoria? Osea, si hay aleatoriedad puede haber probabilidad? eso no puede ser, no? Como dices en el caso de la moneda por ejemplo, mediría la cantidad de aleatoriedad por así decirlo que se encuentra en lanzar una moneda. Sin embargo, se supone que aleatorio significa que todas las variables tengan las mismas posiblidades de dar el resultado (cara o cruz), pero no obstante sólo una de ellas puede darse, así que ésa ha tenido que tener más posibilidades que la otra, por lo que ya no existiría aleatoriedad, no? simplemente que las variables escapan a nuestro control por así decirlo o que no las podemos predecir.

Det escribió:Como nota curiosa, al ser una expresión del desorden, también es una expresión del orden (al ser contrapuestos XD), por lo que muchas veces en teoría de la información se habla casi indistintamente de entropía, incertidumbre e información, porque vienen a ser tres cuartos de lo mismo. Para quien le interese el tema, hay un corto articulillo en la wikipedia: http://es.wikipedia.org/wiki/Entrop%C3% ... aci%C3%B3n)


Supongo que tendrá que ver con eso. Osea, si dijeramos que existe aleatoriedad, tendríamos que decir que hay desorden y no hay probabilidad, pero como digo no es así, y si no existe aletoriedad es que existe orden porque pese a las variables, una tiene más posiblidades que otra -causalidad-. Yo creo que esto nos llevaría a plantearnos si realmente existe el concepto de aleatoriedad, a lo mejor lo que realmente queremos decir es imprevisibilidad? Lo único que veo que pueda ser aleatorio parece ser que son las partículas cuánticas, pero una vez más, puede ser que simplemente aún no hayamos descubierto sus patrones.

Mmm paja mental [fumando]
Nocrala escribió:Es lo que hace un entropájaro.



[qmparto] [qmparto] [qmparto] [qmparto] fijate si sé poco del tema de la termodinamica que he buscado entropájaro en la wikipedia...... [toctoc] [buuuaaaa] [buuuaaaa] [buuuaaaa]
Pero los sistemas tienen un límite de caos ó si acaso entrópico (se dice así?), donde hay un punto de no retorno, o de inflexión?

Es decir, supongamos un hilo donde la entropía crece de forma exponencial, llevando al hilo al más rápidamente todavía, al caos.

De repente banean a tres usuarios, y muchos se marchan. Lo que supone una reestructuración del hilo.


Ha sido porque el hilo ha llegado a su límite entrópico (ya que es un diferencial), o a su límite de caos.


Me pregunto ein?
duende escribió:¿Pero realmente puede haber una variable aleatoria? Osea, si hay aleatoriedad puede haber probabilidad? eso no puede ser, no? Como dices en el caso de la moneda por ejemplo, mediría la cantidad de aleatoriedad por así decirlo que se encuentra en lanzar una moneda. Sin embargo, se supone que aleatorio significa que todas las variables tengan las mismas posiblidades de dar el resultado (cara o cruz), pero no obstante sólo una de ellas puede darse, así que ésa ha tenido que tener más posibilidades que la otra, por lo que ya no existiría aleatoriedad, no? simplemente que las variables escapan a nuestro control por así decirlo o que no las podemos predecir.



duende escribió:Supongo que tendrá que ver con eso. Osea, si dijeramos que existe aleatoriedad, tendríamos que decir que hay desorden y no hay probabilidad, pero como digo no es así, y si no existe aletoriedad es que existe orden porque pese a las variables, una tiene más posiblidades que otra -causalidad-. Yo creo que esto nos llevaría a plantearnos si realmente existe el concepto de aleatoriedad, a lo mejor lo que realmente queremos decir es imprevisibilidad? Lo único que veo que pueda ser aleatorio parece ser que son las partículas cuánticas, pero una vez más, puede ser que simplemente aún no hayamos descubierto sus patrones.

Mmm paja mental [fumando]


Un apunte que quizá te ayude en tus dudas: aleatoriedad no significa forzosamente (y afortunadamente para nosotros) falta de regularidad. Es decir, tú puedes tener una variable aleatoria pero puedes saber la densidad de probabilidad de que un cierto suceso aleatorio se dé y conocer así su probabilidad, dentro de un intervalo de confianza. Así pues, aunque el movimiento dentro de un gas sea aleatorio, eso no significa que no se pueda caracterizar y medir en cierta forma sus estados microscópicos.

Muy parecido es el caso del movimiento Browniano. Imagínate una mota de polvo sobre la superficie de agua. Debido a que el agua tiene un estado agregado definido (liquido), a pesar de que la mota de polvo está constantemente sometida a la tensión superficial del agua y ésta se caracteriza por un equilibrio complejo entre las moléculas que chocan con la mota de polvo y la atmósfera, podría parecer que su movimiento es caótico, pero no es así: tiene un movimiento definido, aunque mejor no pongo la fórmula, primero porque ni me acuerdo y segundo porque podría darnos un síncope a todos XD. Por cierto, el movimiento browniano juega un papel muy importante en la modelización de la cotización de las acciones de bolsa, que últimamente he visto a alguien por ahí que le interesa el tema :p
duende escribió:
Det_W.Somerset escribió:En Teoría de la Información (que es el campo que yo manejo), la entropía es una medida cuantitativa de la incertidumbre que tienes cuando te encuentras una variable aleatoria. Por poner un ejemplo, si consideras las variables aleatorias que producen lanzar una moneda al aire y una tirada de un dado, el lanzamiento de la moneda tiene menos entropía que la tirada del dado, porque la moneda sólo tiene 2 estados posibles, mientras que el dado tiene 6 (más estados, por tanto más incierto es saber en qué estado estará).

Es un tema muy importante en teoría de la información, y a partir de la entropía emanan teoremas básicos que son los que hacen que hoy en día podamos ver la tele, por ejemplo XD

Veo que en termodinámica el concepto viene a ser el mismo, pero claro, aplicado a ese campo :-)


¿Pero realmente puede haber una variable aleatoria? Osea, si hay aleatoriedad puede haber probabilidad? eso no puede ser, no? Como dices en el caso de la moneda por ejemplo, mediría la cantidad de aleatoriedad por así decirlo que se encuentra en lanzar una moneda. Sin embargo, se supone que aleatorio significa que todas las variables tengan las mismas posiblidades de dar el resultado (cara o cruz), pero no obstante sólo una de ellas puede darse, así que ésa ha tenido que tener más posibilidades que la otra, por lo que ya no existiría aleatoriedad, no? simplemente que las variables escapan a nuestro control por así decirlo o que no las podemos predecir.


Ejemplo práctico,

Moneda
H(X) = 1/2 + 1/2 = 1 bit

Dado
H(X) = - log2(1/6) = 2,584 bits

La entropía (en teoría de la información) da idea del mínimo número de bits que necesitas para guardar esa información (entre otras muchas cosas). Y eso es porque esa información es desconocida (no confundas una variable aleatoria con una realización del experimento que es un valor).

Quizá te interese investigar cosas como la t de Student y temás de calibración. Se explica muy bien la diferencia entre variable aleatoria, muestras/experimentos, intervalos de confianza, etc.
KBM escribió:Lol, empiezo a no entender nada

No me extraña, porque ésto empieza a ser surrealista :-|

¿Alguno podría dar una definición entendible por cualquier ente inteligente? ;)
A ser posible, que la definición no incluya la palabra "entropía", porque sino ... mal vamos [qmparto]

Y si esa definición es extrapolable a cualquier campo, es decir, que sea una definición genérica, mejor todavía.

¿Es una unidad de medida?
¿Es la descripción de un determinado estado (expresión del orden/desorden)?


Gracias [risita]
_WiLloW_ escribió:
KBM escribió:Lol, empiezo a no entender nada

No me extraña, porque ésto empieza a ser surrealista :-|

¿Alguno podría dar una definición entendible por cualquier ente inteligente? ;)
A ser posible, que la definición no incluya la palabra "entropía", porque sino ... mal vamos [qmparto]

Y si esa definición es extrapolable a cualquier campo, es decir, que sea una definición genérica, mejor todavía.

¿Es una unidad de medida?
¿Es la descripción de un determinado estado (expresión del orden/desorden)?


Gracias [risita]


Quizás la de Somerset sea la más clara,para mi:

es una medida cuantitativa de la incertidumbre que tienes cuando te encuentras una variable aleatoria....
DemonR escribió:
duende escribió:
Det_W.Somerset escribió:En Teoría de la Información (que es el campo que yo manejo), la entropía es una medida cuantitativa de la incertidumbre que tienes cuando te encuentras una variable aleatoria. Por poner un ejemplo, si consideras las variables aleatorias que producen lanzar una moneda al aire y una tirada de un dado, el lanzamiento de la moneda tiene menos entropía que la tirada del dado, porque la moneda sólo tiene 2 estados posibles, mientras que el dado tiene 6 (más estados, por tanto más incierto es saber en qué estado estará).

Es un tema muy importante en teoría de la información, y a partir de la entropía emanan teoremas básicos que son los que hacen que hoy en día podamos ver la tele, por ejemplo XD

Veo que en termodinámica el concepto viene a ser el mismo, pero claro, aplicado a ese campo :-)


¿Pero realmente puede haber una variable aleatoria? Osea, si hay aleatoriedad puede haber probabilidad? eso no puede ser, no? Como dices en el caso de la moneda por ejemplo, mediría la cantidad de aleatoriedad por así decirlo que se encuentra en lanzar una moneda. Sin embargo, se supone que aleatorio significa que todas las variables tengan las mismas posiblidades de dar el resultado (cara o cruz), pero no obstante sólo una de ellas puede darse, así que ésa ha tenido que tener más posibilidades que la otra, por lo que ya no existiría aleatoriedad, no? simplemente que las variables escapan a nuestro control por así decirlo o que no las podemos predecir.


Ejemplo práctico,

Moneda
H(X) = 1/2 + 1/2 = 1 bit

Dado
H(X) = - log2(1/6) = 2,584 bits

La entropía (en teoría de la información) da idea del mínimo número de bits que necesitas para guardar esa información (entre otras muchas cosas). Y eso es porque esa información es desconocida (no confundas una variable aleatoria con una realización del experimento que es un valor).

Quizá te interese investigar cosas como la t de Student y temás de calibración. Se explica muy bien la diferencia entre variable aleatoria, muestras/experimentos, intervalos de confianza, etc.


Sí, eso lo entiendo y estoy de acuerdo, pero parece entonces que el problema es el concepto de aleatoriedad, significa algo entre infinito, pero cuando se usa aleatoriedad siempre es debido a unos márgenes ya conocidos por lo que veo o cómo lo estais explicando, no?, una aleatoriedaad con probabilidad o no. Es como:

1/desconocido(infinito)
1/x (unos márgenes probabilísticos o estadísticos)

Aunque estríctamente hablando no puede haber fenómenos aleatorios entiendo yo, no puede existir aleatoriedad sin ninguna causa, en su estado más primigenio y esto llevaría a una concepción determinista y anularía lo que es la aleatoriedad. Lo digo por esto: http://en.wikipedia.org/wiki/Bohm_interpretation
duende escribió:Sí, eso lo entiendo y estoy de acuerdo, pero parece entonces que el problema es el concepto de aleatoriedad, significa algo entre infinito, pero cuando se usa aleatoriedad siempre es debido a unos márgenes ya conocidos por lo que veo o cómo lo estais explicando, no?, una aleatoriedaad con probabilidad o no. Es como:

1/desconocido(infinito)
1/x (unos márgenes probabilísticos o estadísticos)

Aunque estríctamente hablando no puede haber fenómenos aleatorios entiendo yo, no puede existir aleatoriedad sin ninguna causa, en su estado más primigenio y esto llevaría a una concepción determinista y anularía lo que es la aleatoriedad. Lo digo por esto: http://en.wikipedia.org/wiki/Bohm_interpretation


Desde luego todo tiene unos márgenes (o físicos o prácticos), se "cuantifica" en valores discretos y así se puede trabajar con ellos en ordenadores/etc.

Todo es aleatorio en esta vida. Lo que no es, es una distribución uniforme. Un dado tendrá una funcion densidad de probabilidad determinada según su centro de masas y momento de inercia, que se podrá determinar, y saldrá que un número sale más que otro. Y si hicieras muchísimas tiradas, hay otro teorema por ahí que dice que el número de veces que te sale tal número / número de tiradas, tiende a ser su probabilidad. Eso no quita para que la siguiente tirada sea otra vez aleatoria y pueda tocarte cualquier número (lo he enredado un huevo, pero vamos, que quiero decir que todo en esta vida es aleatorio, pero con una fdp que puedes ajustar tanto como puedas porque esta si que es determinista).
maponk escribió:Quizás la de Somerset sea la más clara,para mi:

es una medida cuantitativa de la incertidumbre que tienes cuando te encuentras una variable aleatoria...

Que traducido XD, sería algo así:

"Es una medición de la cantidad de restricciones que existen para que un proceso se lleve a cabo".
"No tiene sentido hablar de entropía sino en términos de un cambio en las condiciones de un sistema".

Es decir, que realmente lo que indica la palabra entropía es un proceso evolutivo, de transformación, cuya resistencia al cambio puede medirse (en forma de diferencial).

¿No? [hallow]
DemonR escribió:
duende escribió:Sí, eso lo entiendo y estoy de acuerdo, pero parece entonces que el problema es el concepto de aleatoriedad, significa algo entre infinito, pero cuando se usa aleatoriedad siempre es debido a unos márgenes ya conocidos por lo que veo o cómo lo estais explicando, no?, una aleatoriedaad con probabilidad o no. Es como:

1/desconocido(infinito)
1/x (unos márgenes probabilísticos o estadísticos)

Aunque estríctamente hablando no puede haber fenómenos aleatorios entiendo yo, no puede existir aleatoriedad sin ninguna causa, en su estado más primigenio y esto llevaría a una concepción determinista y anularía lo que es la aleatoriedad. Lo digo por esto: http://en.wikipedia.org/wiki/Bohm_interpretation


Desde luego todo tiene unos márgenes (o físicos o prácticos), se "cuantifica" en valores discretos y así se puede trabajar con ellos en ordenadores/etc.

Todo es aleatorio en esta vida. Lo que no es, es una distribución uniforme. Un dado tendrá una funcion densidad de probabilidad determinada según su centro de masas y momento de inercia, que se podrá determinar, y saldrá que un número sale más que otro. Y si hicieras muchísimas tiradas, hay otro teorema por ahí que dice que el número de veces que te sale tal número / número de tiradas, tiende a ser su probabilidad. Eso no quita para que la siguiente tirada sea otra vez aleatoria y pueda tocarte cualquier número (lo he enredado un huevo, pero vamos, que quiero decir que todo en esta vida es aleatorio, pero con una fdp que puedes ajustar tanto como puedas porque esta si que es determinista).


Pero volvemos a lo que quería decir, si el dado tiene una probabilidad determinada, según su masa, momento de inercia... etc. se podría preveer el resultado si analizamos las variables, por lo tanto aleatoriedad es más bien imprevisibilidad, es desconocimiento de las variables. Lo que dices tú lo veo yo más como un análisis estadístico que otra cosa, y cambio lo que puse antes, yo diría que:

a/infinito => falta de causalidad
1/infinito => aleatoriedad
a/x => probaibilidad

El tiempo meteorológico podríamos decir que es aleatorio, sin embargo sigue un sistema causal, si lo conocemos y analizamos podemos preever el tiempo meteorológico, por lo tanto nos lleva a que aleatoriedad = imprevisibilidad.
Ufff qué lío... xD

La entropía es un concepto creado para la termodinámica, y más concretamente la termoquímica.

La definición para termo de entropía es la de "Nivel de desorden de un sitema". Sus unidades son las de J/K (julios partido kelvin (unidad de temperatura absotula - 0K es el mínimo de temperatura 8como asíntota) y 273,15K equivalen a los 0ºC).
El problema aquí, sería poder definir la energía y la temperatura, ya que son magnitudes MUY abstractas (para poder entender el concepto de entropía de una manera mucho más amplia).

Como han dicho anteriormente, para un proceso irreversible dS > q/dT, y para un proceso reversible dS = q/dT, es decir, la variación de calor en un proceso en relación con la variación de temperatura MUY lentamente (es decir, variaciones infinitesimales).
Imagina una combustión, al arder la temperatura aumenta, con lo cual la energía también y en este caso será energía cinética, las moléculas de aire de alrededor se excitarán mucho y se moverán mucho más rápido, con lo cual se desordenarán más, serán más caóticas, hay más choques, etc.
No sé si me explico muy bien, pero pensar en entropía con este ejemplo ayuda bastante (al menos a los químicos, jejejeje).
Bueno, pues lo dicho, al final depende del campo y del contexto: no es lo mismo una entropía física, que la entropía que se estudia en Teoría de la Información, ni a lo que se refieren los economistas o los biólogos cuando hablan de ella (aunque el principio en el que se basa sea el mismo: toda transformación constituye una degradación, una pérdida parcial de la energía disponible)

Yo me quedo con ésto:


Imagen



[risita]

Lo que está claro que es un concepto muy abstracto y difícil de entender.
tengo suerte, todavía no se ha usado el ejemplo de la pera XD
esta es una definición más bien biológica del concepto
imaginemos un sistema con un árbol (peral) y nosotros
el árbol ordena parte del sistema (disminuye la entropía) y lo convierte en una pera, nosotros nos comemos la pera ordenada y la "devolvemos" desordenada (aumentamos la entropía)
este proceso de orden y desorden permite a los seres vivos mantener su homeostasis (o grado de estabilidad interna)

saludos
duende escribió:a/infinito => falta de causalidad
1/infinito => aleatoriedad
a/x => probaibilidad

El tiempo meteorológico podríamos decir que es aleatorio, sin embargo sigue un sistema causal, si lo conocemos y analizamos podemos preever el tiempo meteorológico, por lo tanto nos lleva a que aleatoriedad = imprevisibilidad.


Por partes:
1. Todo tiene límites en tanto y cuanto la masa(+energía) del universo es finita. Puedes derivar todo de ahí para ver que todo es finito, con un límite muy grande en algunos casos, pero no infinito. Por tanto teóricamente puedes hacer un modelo más y más preciso de cualquier cosa hasta límites subatómicos (en la práctica no, por falta de conocimientos y de medios).

2. Estás mezclando aleatoriedad con causalidad. Lo primero son variables aleatorias, con lo segundo pasamos a procesos estocásticos. Aunque pudieses definir perfectamente la causalidad, tendrías que conoces mejor la fdp en el siguiente instante (pero el valor exacto no lo conoces, es aleatorio).

3. No hablo de estadística. La puedes utilizar para confirmar tu modelo o si este es muy malo. Lo que te quiero decir es que si tu modelo fuera casi-perfecto, a priori puedes predecir el promedio de veces que te toca cada cosa, pero no el valor siguiente porque es aleatorio.

Realmente creo que no hablamos de lo mismo [+risas]
duende escribió:
Pero volvemos a lo que quería decir, si el dado tiene una probabilidad determinada, según su masa, momento de inercia... etc. se podría preveer el resultado si analizamos las variables, por lo tanto aleatoriedad es más bien imprevisibilidad, es desconocimiento de las variables.


El problema es que no tenéis la misma definición de "aleatorio" ;-) Él usa la definición convencional, en la que un experimento es aleatorio cuando no se conoce su resultado hasta que no se realice. En cambio, tú entiendes por aleatorio un proceso aleatorio y cuya función de densidad de probabilidad es uniforme.

A que tú dirías que si lanzamos una moneda normal al aire, el resultado es aleatorio? Y si lanzamos al aire una moneda "trucada" (no me preguntes cómo), en la que es el doble de probable que salga cara a que salga cruz? Para tí este caso no sería aleatorio, sin embargo ambos lo son... sólo que el segundo no tiene fdp uniforme, es decir, que no todos los resultados son equiprobables.

Relacionando todo esto con la entropía, la entropía máxima se consigue cuando se tiene equiprobabilidad, en nuestro ejemplo sería en el primer caso, porque es "más difícil" saber el resultado (que es lo que mide la entropía, incertidumbre), ya que en el segundo caso lo tenemos más fácil para acertar el resultado de un experimento aleatorio (si decimos siempre cara, saldremos ganando a la larga, por la ley de los grandes números como alguien decía antes).

duende escribió:
El tiempo meteorológico podríamos decir que es aleatorio, sin embargo sigue un sistema causal, si lo conocemos y analizamos podemos preever el tiempo meteorológico, por lo tanto nos lleva a que aleatoriedad = imprevisibilidad.


Esto ya es más casi metafísica XD pero en ningún momento se puede conocer al 100% las condiciones de un sistema. Y esto emana de la mecánica cuántica, cuando mides cualquier cosa, el acto de medir cambia el resultado (principio de incertidumbre de Heisenberg), por lo que jamás podrás conocer el estado preciso de un sistema, ya que necesitarías medir y el medir modifica el estado del sistema, por lo que podrías medir pero acabarías con una medida no exacta (y si nos ponemos técnicos, con instrumentos reales tampoco tendrías una medida precisa, ya que siempre va a haber un error de medida inherente al aparato de medida utilizado).

_WiLloW_ escribió:Yo me quedo con ésto:


Imagen



[risita]

Lo que está claro que es un concepto muy abstracto y difícil de entender.


XD Vaya dos cracks, Shannon y Von Neumann. Hay que decir en honor al genio de Von Neumann, que Shannon al final le hizo caso, y utilizó el concepto de entropía en su creación de la teoría de la información. Y sí, es muy abstracto y difícil de entender, y eso que sólo hemos estado hablando de conceptos, que cuando te empiezas a meter en harina de verdad... [+risas]

saludos
Os podéis creer que llevo usando la entropia tanto tiempo y a día de hoy no tengo ni puta idea de lo que es xDDD
Y yo, aún a riesgo de parecer tonto del culo, pregunto:

¿Entonces el Universo está abocado a disminuir la entropía, verdad?, puesto que tiende a enfriarse con el paso de los eones.

Es loq ue creo haber dilucidado leyendo y viendo documentales del universo, pero a lo mejor lo he entendido mal (juer, me estoy voviendo loco con este tema).

Y aún a riego de parecer aún más tonto, ¿si invertimos la flecha del tiempo invertimos la entropía?, (toy rallao ¬_¬ )

Y creo que Hawkings ha descubierto que los agujeros negros emiten radiación entrópica (la radiación Hawkings), por lo que la primera pregunta que hago se me lía aún más.

Suerte a lo que estudian estos temas, yo no podría. ¬_¬ ¬_¬
927PoWeR escribió:Y yo, aún a riesgo de parecer tonto del culo, pregunto:

¿Entonces el Universo está abocado a disminuir la entropía, verdad?, puesto que tiende a enfriarse con el paso de los eones.

Es loq ue creo haber dilucidado leyendo y viendo documentales del universo, pero a lo mejor lo he entendido mal (juer, me estoy voviendo loco con este tema).

Y aún a riego de parecer aún más tonto, ¿si invertimos la flecha del tiempo invertimos la entropía?, (toy rallao ¬_¬ )

Y creo que Hawkings ha descubierto que los agujeros negros emiten radiación entrópica (la radiación Hawkings), por lo que la primera pregunta que hago se me lía aún más.

Suerte a lo que estudian estos temas, yo no podría. ¬_¬ ¬_¬


En cierto modo, y de forma implícita, la entropía es como un reloj que marca un tiempo en un sólo sentido estricto. Es decir, en el transcurso de una reacción química, todos sabemos ya que la entropía del universo tenderá a aumentar, poco o mucho dependiendo de la calidad de ésta, pero en definitiva a aumentar. Esto fuerza a una flecha de tiempo en una sóla dirección para que esto sea cierto; si invirtiesemos el tiempo, como tú dices la entropía aumentaría, violando así el 2º Principio de la Termodinámica (2º P.T.)

Pero bueno, esto es a nivel macroscópico. A nivel cuántico es otra historia, ya que se pueden establecer flechas del tiempo arbitrarias; no hay sólo un "hacia adelante" como nosotros conocemos. Hasta que no colapsa la función de onda asociada a una partícula, hay varias flechas del tiempo; una vez el observador hace decantar el sistema hacia un camino, la función de onda colapsa (digamos que se "decide" por ir por un camino) y la flecha del tiempo es la que conocemos en el mundo macroscópico, volviéndose a cumplir el 2º P.T.
Det_W.Somerset escribió:
duende escribió:
Pero volvemos a lo que quería decir, si el dado tiene una probabilidad determinada, según su masa, momento de inercia... etc. se podría preveer el resultado si analizamos las variables, por lo tanto aleatoriedad es más bien imprevisibilidad, es desconocimiento de las variables.


El problema es que no tenéis la misma definición de "aleatorio" ;-) Él usa la definición convencional, en la que un experimento es aleatorio cuando no se conoce su resultado hasta que no se realice. En cambio, tú entiendes por aleatorio un proceso aleatorio y cuya función de densidad de probabilidad es uniforme.


Yap, ése es el problema, la definición de aleatorio. Yo es que tengo entendido es que algo aleatorio es algo totalmente independiente de la causalidad. Si un experimento es aleatorio cuando no se conoce el resultado hasta que no se realice yo lo veo más como imprevisibilidad y falta de conocimiento, luego con el resultado del experimento empíricamente se pueden detectar las causas que resultan en el resultado, y el experimento deja de ser aleatorio.

A que tú dirías que si lanzamos una moneda normal al aire, el resultado es aleatorio? Y si lanzamos al aire una moneda "trucada" (no me preguntes cómo), en la que es el doble de probable que salga cara a que salga cruz? Para tí este caso no sería aleatorio, sin embargo ambos lo son... sólo que el segundo no tiene fdp uniforme, es decir, que no todos los resultados son equiprobables.


Ahí mi matización, que es que para mí no es sólo la moneda trucada la que no es aleatoria, la ´normal´ tampoco la consideraría aleatoria por mi definición de aleatoriedad, el resultado lo es a priori pero como he dicho porque es imprevisible pero no anula la causalidad. La moneda "trucada" aumena las probabilidades causales de que dé un resultado antes que otro, se podría decir que es más controlable su [i]aleatoriedad[/].

Det_W.Somerset escribió:
duende escribió:
El tiempo meteorológico podríamos decir que es aleatorio, sin embargo sigue un sistema causal, si lo conocemos y analizamos podemos preever el tiempo meteorológico, por lo tanto nos lleva a que aleatoriedad = imprevisibilidad.


Esto ya es más casi metafísica XD pero en ningún momento se puede conocer al 100% las condiciones de un sistema. Y esto emana de la mecánica cuántica, cuando mides cualquier cosa, el acto de medir cambia el resultado (principio de incertidumbre de Heisenberg), por lo que jamás podrás conocer el estado preciso de un sistema, ya que necesitarías medir y el medir modifica el estado del sistema, por lo que podrías medir pero acabarías con una medida no exacta (y si nos ponemos técnicos, con instrumentos reales tampoco tendrías una medida precisa, ya que siempre va a haber un error de medida inherente al aparato de medida utilizado).


Entonces no podremos conocer con exactitud las relaciones causales porque las variables se vuelven infinitas y casi incontrolables, y ya ni hablemos a nivel subatómico, es lo que dice Bohm sobre el principio de incertidumbre de Heisenberg:

In Bohm's interpretation, there is no uncertainty in position and momentum of a particle; therefore a well defined trajectory is possible, but we have limited knowledge of what this trajectory is (and thus of the position and momentum). It is our knowledge of the particle's trajectory that is subject to the uncertainty relation. What we know about the particle is described by the same wave function that other interpretations use, so the uncertainty relation can be derived in the same way as for other interpretations of quantum mechanics.

To put the statement differently, the particles' positions are only known statistically
. As in classical mechanics, successive observations of the particles' positions refine the initial conditions. Thus, with succeeding observations, the initial conditions become more and more restricted. This formalism is consistent with normal use of the Schrödinger equation. It is the underlying chaotic behaviour of the hidden variables that allows the defined positions of the Bohm theory to generate the apparent indeterminacy associated with each measurement, and hence recover the Heisenberg uncertainty principle.

http://en.wikipedia.org/wiki/Bohm_interpretation
La entropía en química es el grado de desorden que tienen las reacciones, puede aumentar o disminuir, pero la entropía del universo tiende a aumentar. Y aumentará hasta que toda la energía del universo en trasforme en calor, pues es la forma de energía más degradada.

Para crear orden (disminuir entropía) siempre generas más desorden.

Imagínate un bosque en el que quieres construir una cabaña. Para construir la cabaña tienes que cortar la madera, quitar lo que no necesites colocar todo en su lugar. Gastaste energía para hacerlo tú y además no toda la madera que tienes en la cabaña es la que quitaste, dejaste mucha por el camino.

Ahora miremoslo por parte del universo, si tú dejas la cabaña construida y al lado la madera agrupada, el universo tenderá a desordenar la madera de la cabaña y no coger el montón de madera para formar una casa.
Si hay un tornillo a medio apretar, este nunca se apretara solo (quedar ordenado) acabará saltando.

Para mantener la vida, (nuestras células en orden) tenemos que comer y para eso generamos desorden. Cazamos, recoletamos etc... La vida es una lucha contra el desorden.

Espero no haberte liado más si no más bien al contrario darte en general una visión de que es la entropía
Inki escribió:La entropía en química es el grado de desorden que tienen las reacciones, puede aumentar o disminuir, pero la entropía del universo tiende a aumentar. Y aumentará hasta que toda la energía del universo en trasforme en calor, pues es la forma de energía más degradada.

Para crear orden (disminuir entropía) siempre generas más desorden.

Imagínate un bosque en el que quieres construir una cabaña. Para construir la cabaña tienes que cortar la madera, quitar lo que no necesites colocar todo en su lugar. Gastaste energía para hacerlo tú y además no toda la madera que tienes en la cabaña es la que quitaste, dejaste mucha por el camino.

Ahora miremoslo por parte del universo, si tú dejas la cabaña construida y al lado la madera agrupada, el universo tenderá a desordenar la madera de la cabaña y no coger el montón de madera para formar una casa.
Si hay un tornillo a medio apretar, este nunca se apretara solo (quedar ordenado) acabará saltando.

Para mantener la vida, (nuestras células en orden) tenemos que comer y para eso generamos desorden. Cazamos, recoletamos etc... La vida es una lucha contra el desorden.

Espero no haberte liado más si no más bien al contrario darte en general una visión de que es la entropía


O yo estoy entendiendo mal el tema o los datos que he leido hasta ahora están equivocados.

Sobre la entropía del universo, yo tenía entendido que acabaría por ser 0ºK o lo que es lo mismo, -273ºC, ya que el universo, al expandirse, tiende a enfriarse, y, de esa forma, la entropía debería de tender a 0, por eso que he explicado antes de Penzias y Wilson y la radiación de fondo de microondas, que actualmente está a 5ºK.

Ahora oigo que tiende a aumentar, pero eso, según el ruido de fondo de microondas ES IMPOSIBLE, por lo tanto o yo lo he entendido mal o en algún lugar me he perdido.

Ruego un poquillo de luz.
927PoWeR escribió:O yo estoy entendiendo mal el tema o los datos que he leido hasta ahora están equivocados.

Sobre la entropía del universo, yo tenía entendido que acabaría por ser 0ºK o lo que es lo mismo, -273ºC, ya que el universo, al expandirse, tiende a enfriarse, y, de esa forma, la entropía debería de tender a 0, por eso que he explicado antes de Penzias y Wilson y la radiación de fondo de microondas, que actualmente está a 5ºK.

Ahora oigo que tiende a aumentar, pero eso, según el ruido de fondo de microondas ES IMPOSIBLE, por lo tanto o yo lo he entendido mal o en algún lugar me he perdido.

Ruego un poquillo de luz.


La muerte térmica del universo se dará cuando toda la energía se haya transformado en calor, así que no podrá haber ningún intercambio de temperatura, así que tampoco reacciones químicas. Creo que cuando se alcanza el 0 absoluto la entropía permanece constante, pero nunca disminuye, digo creo por que no me acuerdo muy bien, pero estoy relativamente seguro xD
927PoWeR escribió:
Inki escribió:La entropía en química es el grado de desorden que tienen las reacciones, puede aumentar o disminuir, pero la entropía del universo tiende a aumentar. Y aumentará hasta que toda la energía del universo en trasforme en calor, pues es la forma de energía más degradada.

Para crear orden (disminuir entropía) siempre generas más desorden.

Imagínate un bosque en el que quieres construir una cabaña. Para construir la cabaña tienes que cortar la madera, quitar lo que no necesites colocar todo en su lugar. Gastaste energía para hacerlo tú y además no toda la madera que tienes en la cabaña es la que quitaste, dejaste mucha por el camino.

Ahora miremoslo por parte del universo, si tú dejas la cabaña construida y al lado la madera agrupada, el universo tenderá a desordenar la madera de la cabaña y no coger el montón de madera para formar una casa.
Si hay un tornillo a medio apretar, este nunca se apretara solo (quedar ordenado) acabará saltando.

Para mantener la vida, (nuestras células en orden) tenemos que comer y para eso generamos desorden. Cazamos, recoletamos etc... La vida es una lucha contra el desorden.

Espero no haberte liado más si no más bien al contrario darte en general una visión de que es la entropía


O yo estoy entendiendo mal el tema o los datos que he leido hasta ahora están equivocados.

Sobre la entropía del universo, yo tenía entendido que acabaría por ser 0ºK o lo que es lo mismo, -273ºC, ya que el universo, al expandirse, tiende a enfriarse, y, de esa forma, la entropía debería de tender a 0, por eso que he explicado antes de Penzias y Wilson y la radiación de fondo de microondas, que actualmente está a 5ºK.

Ahora oigo que tiende a aumentar, pero eso, según el ruido de fondo de microondas ES IMPOSIBLE, por lo tanto o yo lo he entendido mal o en algún lugar me he perdido.

Ruego un poquillo de luz.


La fórmula de la entropía es dS = q/dT.
Si la entropía tiende a aumentar, quiere decir que dS > 0, por lo tanto 0 > q/dT.
Si dT tiende a cero (0K o cero absoluto) entonces dS = infinito (algo partido cero infinito, al menos en cuanto un límite).
Con lo cual, como la entropía tiende a aumentar (2ª Ley de la termodinámica) la temperatura tiende al cero absoluto.
Nótese que q también tiene que ser positivo, de hecho como se ha dicho la energía tiende a degradarse en forma de calor... así que ahí lo tenemos.

PD: Esto me recuerda a esa escena de los Simpsons donde Homer dice "¡Lisa! En esta casa se obedecen las leyes... ¡DE LA TERMODINÁMICA!"
¡Jajajajaja! Cómo me puedo llegar a reir [carcajad]
O yo estoy entendiendo mal el tema o los datos que he leido hasta ahora están equivocados.

Sobre la entropía del universo, yo tenía entendido que acabaría por ser 0ºK o lo que es lo mismo, -273ºC, ya que el universo, al expandirse, tiende a enfriarse, y, de esa forma, la entropía debería de tender a 0, por eso que he explicado antes de Penzias y Wilson y la radiación de fondo de microondas, que actualmente está a 5ºK.

Ahora oigo que tiende a aumentar, pero eso, según el ruido de fondo de microondas ES IMPOSIBLE, por lo tanto o yo lo he entendido mal o en algún lugar me he perdido.

Ruego un poquillo de luz.

Cuanto más se extienda el universo más aumenta su entropia aunque con el fin térmico del universo ahora no recuerdo lo que pasaba con la entropía pero sí recuerdo que tiene solución, es cosa de buscarlo.

Preguntaban sobre la radiación de Hawking, esta se forma gracias a un efecto por el cual se pueden crear cosas de la nada "pidiendo prestada" energía al resto del universo siempre y cuando se devuelva inmediatamente.

Normalmente se crearia una partícula con su antipartícula que al aniquilarse devolverian la energía "prestada" pero si la partícula se forma fuera del horizonte de sucesos y la antipartícula en el interior (o viceversa) se libera radiación al no poder aniquilarse.


Saludos
Joder... menudo lio... creo que maponk se está empezando a arrepentir xD

Para mi, con mi humilde nivel de termodinámica, la entropía no es más que una de las variables que define un sistema.

Proviene del segundo principio de la termodinámica y es una variable como otra cualquiera....

Tenemos el volumen (V), la temperatura (T), la presión (P), la entropía (S)....

vamos... en la wikipedia lo pone bastante claro: Entropía termodinámica, una magnitud que mide la parte de la energía que no puede utilizarse para producir un trabajo
46 respuestas