Aterrizaje del Curiosity en Marte ¡A las 07:30 horas! Mission complete!!

No he dicho na, no miré el dia xD
blade133bo escribió:
Saltador_Ne0 escribió:
Dracarys escribió:Ya hay vídeo del descenso:

http://www.youtube.com/watch?v=UcGMDXy-Y1I&hd=1


Impresionante.

Si lo es, ¿que no podia enviar imagenes a color?
Por lo visto si se puede. XD


Daltónico total. Está a color.
Perfect Ardamax escribió:
KoX escribió:
SkaL escribió:
Sobre lo de chocar asteroides y para el nucleo de la tierra durante millones de años... ¿No podria ser eso lo que le ocurre a martes y que tarde o temprano se volvera a activar?


Según vi yo en el documental sobre Marte, está deformado, lo que podria ser que le afecte al núcleo y jamás pueda de nuevo "ponerse en marcha". Esta deformación le pudo ser causada por el impacto con un obejeto grande posiblemente en el proceso de "creación de una luna"


Las lunas de marte son simples asteroides de cinturon de asteroides que han sido capturados por la gravedad marciana.
Ademas el nucleo de marte no esta deformado lo que tu estas diciendo es la dicotomía marciana (diferencia notable entre un hemisferio y el otro) El hemisferio sur (izquierda) es elevado mientras que el norte (derecha) es casi llano he incluso esta hundido.
Imagen

Esto se piensa que fue causado por el impacto de un enorma objeto (de hecho todo el hemisferio norte se piensa que es asi devido a que es "una gigantesca cuenca de impacto")

Saludos


yo no he dicho el núcleo he dicho Marte. Pero vienes a decir lo que yo he dicho. Según el docu ese objeto grande fué una posible luna, que además puso en marcha el núcleo, pero luego impactó. Pero es una teoria.
¿Según he leido el núcleo de marte es parcialmente líquido, siendo así se podría "Reactivar"?
Buenos días, ya hay imágenes a color del curiosity, eso sí se ve mal porque por lo visto el filtro protector de la camara tiene mucha mierda en polvo quemado por el descenso, imagino que esos protectores podran retirarse para dejar el objetivo impoluto.

Imagen
Grandioso e interesante hilo ...

Felicitaciones al autor por el trabajo y a los que contribuyen que siga creciendo ...

Saludos
HispaCoder escribió:Buenos días, ya hay imágenes a color del curiosity, eso sí se ve mal porque por lo visto el filtro protector de la camara tiene mucha mierda en polvo quemado por el descenso, imagino que esos protectores podran retirarse para dejar el objetivo impoluto.

Imagen


WoW tremenda camptura, Que polvorienta es la superficie marciana!
la verdad es que la foto es guapísima, con las montañas al fondo
No se si lo habreis puesto a lo largo del hilo, aqui explica lo que lleva el cacharro.Yo tengo ganas de que muestren ya imagenes en 3D.
http://www.youtube.com/watch?v=GUQ91fdYbP4
de todas estas cosas, me asquea los formatos estos tan raros de las fotos. Como si ocultaran algo. XD
HispaCoder escribió:Buenos días, ya hay imágenes a color del curiosity, eso sí se ve mal porque por lo visto el filtro protector de la camara tiene mucha mierda en polvo quemado por el descenso, imagino que esos protectores podran retirarse para dejar el objetivo impoluto.

Imagen



Hombre la imagen podria ser de la tierra(es un montaje!!xDD).Esperemos que dejen el objetivo en mejor estado y se hagan mejores fotos,eso si,ver esa imagen y pensar que es de marte,que esta tan y tan lejos me hace fascinarme por la capacidad del hombre para lograr proezas.

Por cierto,es off-topic pero como creo que hay mucho fan del espacio en el hilo,os recomiendo el reportaje de 4º milenio de "sonidos del espacio" imagino que estara en youtube,no es nada esoterico ni ocultista,todo lo contrario son sonidos registrados por distintas sondas de la nasa.

Un saludo.
Moraydron escribió:Por cierto,es off-topic pero como creo que hay mucho fan del espacio en el hilo,os recomiendo el reportaje de 4º milenio de "sonidos del espacio" imagino que estara en youtube,no es nada esoterico ni ocultista,todo lo contrario son sonidos registrados por distintas sondas de la nasa.

Un saludo.


para aficionados al universo la serie the universe. 7 temporadas, casi 80 capitulos, fullHD,...

recuerdo un capitulo en donde hablaron de los sonidos que emiten los planetas, y como los podias escuchar usando una radio... muy curioso. tambien recuerdo el hexagono del polo de saturno y muchas mas cosas curiosas.
lo dicho muy recomendable para cualquier fan.

el segundo capitulo que emitieron se centraba exclusivamente en marte:

http://www.youtube.com/watch?v=Jlhg3A-cWO4
Para todos los que dicen que vaya mierda de calidad, etc etc etc.

http://mars.jpl.nasa.gov/msl/mission/co ... arth/data/

una pequeña información sobre el ancho de banda a la tierra de la que dispone el curiosity, y ojo es ancho de banda, no quiere decir que tu mandes un ipg asi a pelo, eso tiene que llevar información redundante a saco, para prevenir las posibles perdidas e interferencias por el camino.

Y por supuesto el ancho de banda no está unicamente para transmitir fotos.
va a pasar lo mismo que en Planet 51
Philip J Fry está baneado por "utilizar clon para saltarse baneo temporal"
vik_sgc escribió:
SoteBcn escribió:



Lo que te comentaba es que si tienes que mandar un valor-numero para tener una foto en blanco y negro, pues manda el otro valor-numero( lo que te he comentado de las restas) , que a efectos de ancho de banda es lo mismo, y consigues gracias a la ingeniería y las matemáticas una imagen en color sin aumentar el ancho de banda, no es magia., estamos hablando de que el coste es cero , es como renunciar a la información de color sin motivo . Lo de el cambio de la tele en B/N a color, es un ben ejemplo, en el otro hilo lo tienes...

Si quieres saber algo de modulaciones pregúntale a google y dedícale tiempo, esto no te lo digo a malas, pero tienes que tener una base teórica y el tema es espeso.

PD: He dicho varias veces en el otro hilo que yo no le encuentro explicación, que no significa que no la haya. Pero hasta que alguien me lo explique solo me queda la censura, pero bien explicado, no diciendo cosas al tuntun sabiendo un poco por encima del tema.
Philip J Fry escribió:
vik_sgc escribió:
SoteBcn escribió:



Lo que te comentaba es que si tienes que mandar un valor-numero para tener una foto en blanco y negro, pues manda el otro valor-numero( lo que te he comentado de las restas) , que a efectos de ancho de banda es lo mismo, y consigues gracias a la ingeniería y las matemáticas una imagen en color sin aumentar el ancho de banda, no es magia., estamos hablando de que el coste es cero , es como renunciar a la información de color sin motivo . Lo de el cambio de la tele en B/N a color, es un ben ejemplo, en el otro hilo lo tienes...

Si quieres saber algo de modulaciones pregúntale a google y dedícale tiempo, esto no te lo digo a malas, pero tienes que tener una base teórica y el tema es espeso.

PD: He dicho varias veces en el otro hilo que yo no le encuentro explicación, que no significa que no la haya. Pero hasta que alguien me lo explique solo me queda la censura, pero bien explicado, no diciendo cosas al tuntun sabiendo un poco por encima del tema.


Sigues necesitando tres valores en vez de uno.

Para crear una imagen a color necesitas tres números (porque la luminancia se saca de esos tres números). Pero siguen siendo tres números frente a uno. Eso come ancho de banda.

Que esos tres números son la resta de los potenciales usados para la luminancia y los tres colores principales, perfecto, pero sigues necesitando mandar tres números por pixel: (R-Y), (G-Y), (B-Y).

Tres números por pixel. En una imagen de alta resolución la diferencia de ancho de banda usado es bestial entre el B/N y el color.

Vamos, que necesito que me expliques eso. Como pasas de 1 potencial por píxel a 3 potenciales por píxel sin comerte ancho de banda.

EDIT: encuentro que para representar unívocamente un color sólo se necesitan dos potenciales (que es lo que se usa en PAL y NTSC), los denominados U y V o I y Q para PAL y NTSC respectivamente. Vale, he conseguido quitarme un potencial a enviar. Queda uno.
Philip J Fry escribió:
vik_sgc escribió:
SoteBcn escribió:



Lo que te comentaba es que si tienes que mandar un valor-numero para tener una foto en blanco y negro, pues manda el otro valor-numero( lo que te he comentado de las restas) , que a efectos de ancho de banda es lo mismo, y consigues gracias a la ingeniería y las matemáticas una imagen en color sin aumentar el ancho de banda, no es magia., estamos hablando de que el coste es cero , es como renunciar a la información de color sin motivo . Lo de el cambio de la tele en B/N a color, es un ben ejemplo, en el otro hilo lo tienes...

Si quieres saber algo de modulaciones pregúntale a google y dedícale tiempo, esto no te lo digo a malas, pero tienes que tener una base teórica y el tema es espeso.

PD: He dicho varias veces en el otro hilo que yo no le encuentro explicación, que no significa que no la haya. Pero hasta que alguien me lo explique solo me queda la censura, pero bien explicado, no diciendo cosas al tuntun sabiendo un poco por encima del tema.


Te estás liando un montón. No se tratra de restar o quitar o usar fórmulas matemáticas, se trata de transmitir información o no. Y en caso de datos sin comprimir lo que importa no es ni más ni menos que el bpp (bits por pixel). Te pongas como te pongas, una imagen rgb necesita 24 bits por pixel para poder ser mostrado con color real, mientras que una imagen en blanco y negro solo necesita 8 bits por pixel, ya que solo es necesario el valor de luminancia.

Sin embargo sí se puede hacer algo como tú dices, y es descartar precisión para mantener el peso. Entonces sí, podemos usar 8 bits por pixel en color, dando un rango de 256 (totales, no por paleta. No nos confundamos con el color indexado del photoshop),colores por pixel en formato 3-3-2. Para que te hagas una idea, tendrías imágenes calidad super nintendo o calidad windows 95 en modo 8 bits.
Philip J Fry está baneado por "utilizar clon para saltarse baneo temporal"
No, digo que mandas un solo numero,
Si buscas en Internet lo encontraras, que de verdad que no me lo invento. Lo puedes encontrar buscando fundamentos de la televisión y leyendo bastante.
Tu mandas (R-Y) por pixel o en toda la linea, y en la linea o pixel siguiente (B-Y),sigue siendo un solo valor por pixel o linea, recuerda, un solo valor, con esto tienes tres valores de la ecuación que tiene cuatro incógnitas, osea que lo tienes todo. Aun asi, nuestro cerebro no necesita toda la info de color, de ahí el tema de los muestreos en digital 2:2:2, 4:2:2 etc, nuestros ojos y el cerebro hacen la integración y lo percibimos "bien".
Acabo de recordar dándole vueltas, que se mandaba el producto (R-Y)(B-Y), un solo valor, que si se descompone tiens tres valores de la ecuación con cuatro incognitas. ¿De esto ultimo no estoy del todo seguro?, pero me parece que si era asi. Aun asi el primer método también funciona.
Solo es necesario mandar un solo valor por pixel o linea, con eso, las matemáticas y nuestro cerebro se consigue el resto, a coste cero!!!
Me remito al mejor ejemplo posible, el cambio de tv en blanco y negro a tv en color se hizo sin aumentar el ancho de banda. Porque no se aplican esos principios??

Realk en el hilo de ovnis esta tarde lo he explicado detalladamente de todas las formas posibles.. Pásate por allí y me dices, que no me apetece escribir todo otra vez.
Philip J Fry escribió:No, digo que mandas un solo numero,
Si buscas en Internet lo encontraras, que de verdad que no me lo invento. Lo puedes encontrar buscando fundamentos de la televisión y leyendo bastante.
Tu mandas (R-Y) por pixel o en toda la linea, y en la linea o pixel siguiente (B-Y),sigue siendo un solo valor por pixel o linea, recuerda, un solo valor, con esto tienes tres valores de la ecuación que tiene cuatro incógnitas, osea que lo tienes todo. Aun asi, nuestro cerebro no necesita toda la info de color, de ahí el tema de los muestreos en digital 2:2:2, 4:2:2 etc, nuestros ojos y el cerebro hacen la integración y lo percibimos "bien".
Acabo de recordar dándole vueltas, que se mandaba el producto (R-Y)(B-Y), un solo valor, que si se descompone tiens tres valores de la ecuación con cuatro incognitas. ¿De esto ultimo no estoy del todo seguro?, pero me parece que si era asi. Aun asi el primer método también funciona.
Solo es necesario mandar un solo valor por pixel o linea, con eso, las matemáticas y nuestro cerebro se consigue el resto, a coste cero!!!
Me remito al mejor ejemplo posible, el cambio de tv en blanco y negro a tv en color se hizo sin aumentar el ancho de banda. Porque no se aplican esos principios??


Puede que tengas razón, pero necesito mejores explicaciones porque estoy estudiando a la vez cosicas de cuántica y es estar con dos materias bastante espesas y distintas a la vez.

Pero ya te digo que, por lo que estoy viendo, puede que sí tengas razón.

(Seguiré pensando en ello, esto no ha terminado xD).
vik_sgc escribió:
Philip J Fry escribió:No, digo que mandas un solo numero,
Si buscas en Internet lo encontraras, que de verdad que no me lo invento. Lo puedes encontrar buscando fundamentos de la televisión y leyendo bastante.
Tu mandas (R-Y) por pixel o en toda la linea, y en la linea o pixel siguiente (B-Y),sigue siendo un solo valor por pixel o linea, recuerda, un solo valor, con esto tienes tres valores de la ecuación que tiene cuatro incógnitas, osea que lo tienes todo. Aun asi, nuestro cerebro no necesita toda la info de color, de ahí el tema de los muestreos en digital 2:2:2, 4:2:2 etc, nuestros ojos y el cerebro hacen la integración y lo percibimos "bien".
Acabo de recordar dándole vueltas, que se mandaba el producto (R-Y)(B-Y), un solo valor, que si se descompone tiens tres valores de la ecuación con cuatro incognitas. ¿De esto ultimo no estoy del todo seguro?, pero me parece que si era asi. Aun asi el primer método también funciona.
Solo es necesario mandar un solo valor por pixel o linea, con eso, las matemáticas y nuestro cerebro se consigue el resto, a coste cero!!!
Me remito al mejor ejemplo posible, el cambio de tv en blanco y negro a tv en color se hizo sin aumentar el ancho de banda. Porque no se aplican esos principios??


Puede que tengas razón, pero necesito mejores explicaciones porque estoy estudiando a la vez cosicas de cuántica y es estar con dos materias bastante espesas y distintas a la vez.

Pero ya te digo que, por lo que estoy viendo, puede que sí tengas razón.



(Seguiré pensando en ello, esto no ha terminado xD).


Yo de lo que te diga Philip me mantendría a distancia prudencial, que saber usar el buscador de google ha creado muchos grandes genios en este foro, pero autoridad vista su trayectoria en misce, tiene muy poca, aun cuando parece que pueda tener razón.

De hecho me ha parecido tan razonable y educada su última respuesta que estoy por apostar que le han abducido y ya no es el que era.
Philip J Fry escribió:No, digo que mandas un solo numero,
Si buscas en Internet lo encontraras, que de verdad que no me lo invento. Lo puedes encontrar buscando fundamentos de la televisión y leyendo bastante.
Tu mandas (R-Y) por pixel o en toda la linea, y en la linea o pixel siguiente (B-Y),sigue siendo un solo valor por pixel o linea, recuerda, un solo valor, con esto tienes tres valores de la ecuación que tiene cuatro incógnitas, osea que lo tienes todo. Aun asi, nuestro cerebro no necesita toda la info de color, de ahí el tema de los muestreos en digital 2:2:2, 4:2:2 etc, nuestros ojos y el cerebro hacen la integración y lo percibimos "bien".
Acabo de recordar dándole vueltas, que se mandaba el producto (R-Y)(B-Y), un solo valor, que si se descompone tiens tres valores de la ecuación con cuatro incognitas. ¿De esto ultimo no estoy del todo seguro?, pero me parece que si era asi. Aun asi el primer método también funciona.
Solo es necesario mandar un solo valor por pixel o linea, con eso, las matemáticas y nuestro cerebro se consigue el resto, a coste cero!!!
Me remito al mejor ejemplo posible, el cambio de tv en blanco y negro a tv en color se hizo sin aumentar el ancho de banda. Porque no se aplican esos principios??

Realk en el hilo de ovnis esta tarde lo he explicado detalladamente de todas las formas posibles.. Pásate por allí y me dices, que no me apetece escribir todo otra vez.

A ver, la televisión en blanco y negro y a color era analógico, no tiene nada que ver, esto es digital, está mandando una archivo que pesa X, y ese X pesa más a color que en blanco y negro, haz la prueba desaturando una imagen. Te estás liando con cosas que no tienen nada que ver.
josemurcia escribió:
Philip J Fry escribió:No, digo que mandas un solo numero,
Si buscas en Internet lo encontraras, que de verdad que no me lo invento. Lo puedes encontrar buscando fundamentos de la televisión y leyendo bastante.
Tu mandas (R-Y) por pixel o en toda la linea, y en la linea o pixel siguiente (B-Y),sigue siendo un solo valor por pixel o linea, recuerda, un solo valor, con esto tienes tres valores de la ecuación que tiene cuatro incógnitas, osea que lo tienes todo. Aun asi, nuestro cerebro no necesita toda la info de color, de ahí el tema de los muestreos en digital 2:2:2, 4:2:2 etc, nuestros ojos y el cerebro hacen la integración y lo percibimos "bien".
Acabo de recordar dándole vueltas, que se mandaba el producto (R-Y)(B-Y), un solo valor, que si se descompone tiens tres valores de la ecuación con cuatro incognitas. ¿De esto ultimo no estoy del todo seguro?, pero me parece que si era asi. Aun asi el primer método también funciona.
Solo es necesario mandar un solo valor por pixel o linea, con eso, las matemáticas y nuestro cerebro se consigue el resto, a coste cero!!!
Me remito al mejor ejemplo posible, el cambio de tv en blanco y negro a tv en color se hizo sin aumentar el ancho de banda. Porque no se aplican esos principios??

Realk en el hilo de ovnis esta tarde lo he explicado detalladamente de todas las formas posibles.. Pásate por allí y me dices, que no me apetece escribir todo otra vez.

A ver, la televisión en blanco y negro y a color era analógico, no tiene nada que ver, esto es digital, está mandando una archivo que pesa X, y ese X pesa más a color que en blanco y negro, haz la prueba desaturando una imagen. Te estás liando con cosas que no tienen nada que ver.


Lo mandan a través de señales analógicas. Él habla de la transmisión, vosotros de la codificación.
Foto de la sonda MRO localizando el paracaídas y demás:

Imagen
vik_sgc escribió:A ver, la televisión en blanco y negro y a color era analógico, no tiene nada que ver, esto es digital, está mandando una archivo que pesa X, y ese X pesa más a color que en blanco y negro, haz la prueba desaturando una imagen. Te estás liando con cosas que no tienen nada que ver.


Lo mandan a través de señales analógicas.[/quote]
Claro que la señal es analógica, pero la información que transmite no.
josemurcia escribió:
vik_sgc escribió:

Lo mandan a través de señales analógicas.

Claro que la señal es analógica, pero la información que transmite no.


Ya, pero durante la transmisión intervienen el modulado y la multiplexación, técnicas para ahorrar ancho de banda. Y por lo que he estado leyendo y lo que ha dicho él no creo que se esté haciendo un lío.

PD: Gracias por la imagen Dracarys. Bastante interesante ver donde han ido cayendo los despojos.
vik_sgc escribió:Ya, pero durante la transmisión intervienen el modulado y la multiplexación, técnicas para ahorrar ancho de banda. Y por lo que he estado leyendo y lo que ha dicho él no creo que se esté haciendo un lío.

El modulado es simplemente mover tu señal al tipo de onda que más te interese.
La multiplexación te sirve cuando quieres establecer varios canales de comunicación en el mismo ancho de banda.
Lo que está claro es que todo lo que puedas utilizar para optimizar la transmisión de 200kb lo puedes hacer para optimizar una transmisión de 50kb, por lo tanto siempre va a consumir más la primera.
Y cuando hablamos de señales el ancho de banda es el rango de frecuencias, no tiene nada que ver con lo que comunmente conocemos como ancho de banda del PC, eso sería la capacidad de un enlace.

Así que se está liando con la televisión analógica, que no transmite ceros y unos, esto si.
Dracarys escribió:Foto de la sonda MRO localizando el paracaídas y demás:

Imagen


Menudo ejemplo, ahí, enguarranando to marte }:/
La verdad que viendo todo este tema siempre soñando desde pequeño con películas, de ficción, mangas etc, me alegro de poder ver esto, y quien sabe si ver gente caminando por Marte o x planeta y pensar en viajes interplanetarios, me da que lo veremos en cuestión de años fascinante, sigo pensando que si no nosotros podemos ir a otro planeta etc, no estamos solos aunque no hayamos visto nada que lo confirme 100% por 100% pero me da que mucho que pensar.
Philip J Fry escribió:No, digo que mandas un solo numero,
Si buscas en Internet lo encontraras, que de verdad que no me lo invento. Lo puedes encontrar buscando fundamentos de la televisión y leyendo bastante.
Tu mandas (R-Y) por pixel o en toda la linea, y en la linea o pixel siguiente (B-Y),sigue siendo un solo valor por pixel o linea, recuerda, un solo valor, con esto tienes tres valores de la ecuación que tiene cuatro incógnitas, osea que lo tienes todo. Aun asi, nuestro cerebro no necesita toda la info de color, de ahí el tema de los muestreos en digital 2:2:2, 4:2:2 etc, nuestros ojos y el cerebro hacen la integración y lo percibimos "bien".
Acabo de recordar dándole vueltas, que se mandaba el producto (R-Y)(B-Y), un solo valor, que si se descompone tiens tres valores de la ecuación con cuatro incognitas. ¿De esto ultimo no estoy del todo seguro?, pero me parece que si era asi. Aun asi el primer método también funciona.
Solo es necesario mandar un solo valor por pixel o linea, con eso, las matemáticas y nuestro cerebro se consigue el resto, a coste cero!!!
Me remito al mejor ejemplo posible, el cambio de tv en blanco y negro a tv en color se hizo sin aumentar el ancho de banda. Porque no se aplican esos principios??

Realk en el hilo de ovnis esta tarde lo he explicado detalladamente de todas las formas posibles.. Pásate por allí y me dices, que no me apetece escribir todo otra vez.

Pero entonces, tal y como lo estás contando, estás perdiendo en calidad de imagen. Es decir, si no me equivoco esto funciona así (corrígeme si me equivoco).

Tenemos un millón de píxeles. En el primer byte, enviamos la luminancia del rojo. En el segundo byte, enviamos la luminancia del azul. En el tercer byte, enviamos la luminancia del verde. En una televisión en blanco y negro, recibimos el valor de luminancia, sin color, por lo que vemos la imagen en blanco y negro. Pero en una televisión en color, recibes un pixel de cada color: rojo, luego verde, luego azul. De forma que si aumentásemos el zoom al máximo veríamos una secuencia de píxeles rojo, verde, azul, rojo, verde, azul, etcétera. El resto, se lo dejamos al cerebro, que hará como el efecto 3D anaglifo, que mezclará los colores formando una imágen.

Entonces, no estás enviando una foto en color real. Estás enviando un mosaico de colores. Estás despreciando 1/3 de la información del color intercalando píxeles para que a ojo no se note la diferencia.

No se como se hará, pero me juego el cuello a que esto requiere o una cámara específica para captar las imágenes en este formato, cosa que no van a meter porque no creo que sea objetivo gastarse 2500 millones de dólares para enviarte una foto sesentera de marte, o bién requerirá un preprocesado para transformar las imá´genes en el formato adecuado, con lo que volvemos al punto inicial de que es más costoso que en blanco y negro.
ReinLOL escribió:
Moraydron escribió:Por cierto,es off-topic pero como creo que hay mucho fan del espacio en el hilo,os recomiendo el reportaje de 4º milenio de "sonidos del espacio" imagino que estara en youtube,no es nada esoterico ni ocultista,todo lo contrario son sonidos registrados por distintas sondas de la nasa.

Un saludo.


para aficionados al universo la serie the universe. 7 temporadas, casi 80 capitulos, fullHD,...

recuerdo un capitulo en donde hablaron de los sonidos que emiten los planetas, y como los podias escuchar usando una radio... muy curioso. tambien recuerdo el hexagono del polo de saturno y muchas mas cosas curiosas.
lo dicho muy recomendable para cualquier fan.

el segundo capitulo que emitieron se centraba exclusivamente en marte:

http://www.youtube.com/watch?v=Jlhg3A-cWO4

El último capítulo sobre Marte que han hecho.
http://www.youtube.com/watch?v=D-oJhoVSYoA
1Saludo
Philip J Fry escribió:No, digo que mandas un solo numero,
Si buscas en Internet lo encontraras, que de verdad que no me lo invento. Lo puedes encontrar buscando fundamentos de la televisión y leyendo bastante.
Tu mandas (R-Y) por pixel o en toda la linea, y en la linea o pixel siguiente (B-Y),sigue siendo un solo valor por pixel o linea, recuerda, un solo valor, con esto tienes tres valores de la ecuación que tiene cuatro incógnitas, osea que lo tienes todo. Aun asi, nuestro cerebro no necesita toda la info de color, de ahí el tema de los muestreos en digital 2:2:2, 4:2:2 etc, nuestros ojos y el cerebro hacen la integración y lo percibimos "bien".
Acabo de recordar dándole vueltas, que se mandaba el producto (R-Y)(B-Y), un solo valor, que si se descompone tiens tres valores de la ecuación con cuatro incognitas. ¿De esto ultimo no estoy del todo seguro?, pero me parece que si era asi. Aun asi el primer método también funciona.
Solo es necesario mandar un solo valor por pixel o linea, con eso, las matemáticas y nuestro cerebro se consigue el resto, a coste cero!!!
Me remito al mejor ejemplo posible, el cambio de tv en blanco y negro a tv en color se hizo sin aumentar el ancho de banda. Porque no se aplican esos principios??

Realk en el hilo de ovnis esta tarde lo he explicado detalladamente de todas las formas posibles.. Pásate por allí y me dices, que no me apetece escribir todo otra vez.


Tu estás hablado de codificación YUV. Vamos de tener por un lado la luminancia y por otro la crominancia de forma que una serie de píxeles pueden compartir parte de la información y comprimir (con pérdida, eso si) la información. O sea, lo que haces con un JPG [burla2]

El problema es que lo mires cómo lo mires, una imagen en B/N ocupará menos espacio y te recuerdo que el procesador del bicho va solo a 200 Mhz, dispone de 256MB para trabajar tan solo y tiene que ocuparse de mas historias que la de presentar un foto, que en el fondo, a los científicos le importa un pepino por que lo que quieren son los otros datos que pueda aportar la sonda (lo que quieren es detectar agua, indicios de vida, etc), mientras que las imágenes quedan bien para vendernos la moto a la gente de a pié y no les corre prisa (a ellos para ver el entorno, les basta con una imagen en B/N, sobre todo por que ese planeta es mas bien de color rojo... y no es que se pierdan mucho por verlo así, pero no te preocupes: tienen 10 años al menos, por delante para enviar fotos en 3D y de alta resolución a color para financiar la siguiente misión XD)

Aún así, si has mirado el enlace que han puesto otros, en enlace directo con la tierra la velocidad de transmisión baja hasta 500 bits/segundo. Y es que la gente se cree que enviar una señal es fácil y obvia las interferencias bastante fuertes que se pueden dar (y mira, ya que estamos en la era del TDT, seguro que sabéis lo que pasa cuando se producen unos cuantos errores de recepción de lo digital y aquí si quieres algo de feedback la demora es de nada menos que 14 minutos que tardaría la luz en ir y volver)
karatfur está baneado del subforo por "faltas de respeto continuadas"
Y pensar lo avanzados que estaríamos si no fuese por la crisis global y las malditas guerras en todo el mundo.
(mensaje borrado)
Philip J Fry está baneado por "utilizar clon para saltarse baneo temporal"
Jose Murcia:

No es lo mismo tener una imagen en el ordenador y desaturarla, que claro que te va a ocupar menos, pero en tu caso la imagen no la tienes que transmitir, cuando tienes que mandarla la imagen sufre un proceso de codificación para comprimirla y la modulas para mandarla. Esto es otra cosa. Entre TV analogía y digital los fundamentos para mandar señales es el mismo, hoy en deia digitalizas una señal analógica para mandarla y luego la pasas a analógico para representara por pantalla

Realk:

Lo que dices de perder calidad de imagen es correcto, es algo normal cuando tienes un limitado ancho de banda.
Por un lado tienes la Y(luminancia), R,G,B. En cada pixel tienes esos tres LED y la Y indica el valor de luz que tiene que tener cada pixel.
Una imagen RGB máxima calidad tendría un muestreo 4:4:4 se manda toda la información de cada pixel.
La formula de la señal de lumunancia es:

Y=0.299R+0.587G+0.114B

Como G es la que mas ocupa se mandan las diferencias de (R-Y) y (G-Y), que se llamarian U y V, siendo:

(R-Y)+Y=R
(B-Y)+Y=G

Normalmente se manda U y V solo, y con eso se consigue toda la información.
No es que se mande solo la luminancia, o solo las componentes de color. Se digitaliza directamente la resta. Es un numero, lo bueno es lo que se puede sacar de ese numero, en vez de mandar un numero que solo nos diga la luminancia, mandamos otro que nos pueda dar más cosas mejor.
Los CCD de las cámaras captan toda la información, depende de lo que se haga luego con ella.
Hasta el punto que ni siquiera el DVD viene con toda la información. Un muestreo 4:2:2 significa que mandas toda información de luminancia, y la mitad de color (U y V), y un muestreo 4:2:0 manda toda la info de luz y una de color (V o U), este ultimo creo que es el formato MPEG-1

Escribiendo lo anterior le he dado al coco y acabo de ver una cosa, el muestreo así se hace para comprimir y meter todo en un DVD, en tema de transmisión es bueno ya que son menos datos para digitalizar y con lo cual transmitir , pero ¿porque digitalizar valores de Y, pudiendo digitalizar de U o V, o de U y V alternadas y así después sacarlo todo?, esto ultimo lo estoy "pensando en voz alta", aquí me quedo por hoy, tengo la cabeza como un bombo después del coñazo que he soltado, mañana pensare en esto ultimo, si alguien lo ve claro que lo comunique.

Estwald:

Yo también pienso que las fotos son para vender la moto y que lo que los científicos quieren son datos de las sondas.Sobre el tema del color y el B/N arriba puedes leer como lo llevo. Espero respuesta constructiva.

Don pelayo:

Justo con este tema no utilizo el buscador de google, mas bien desempolvo apuntes ya que el tema es espesito(no se si me explico), el caso no es fijarse en quien te lo dice, el caso es leer lo que te dicen, pensar sobre ello y sacar conclusiones, si un loco te dice que 2+2=4 sigue siendo cierto aunque este loco, y no estoy diciendo que este loco. Por cierto me han abducido, me han llevado a marte, he estado delante del Curiosity y mañana por la mañana sale mi culo en primer plano en todos los periodicos...
Philip J Fry escribió:Jose Murcia:

No es lo mismo tener una imagen en el ordenador y desaturarla, que claro que te va a ocupar menos, pero en tu caso la imagen no la tienes que transmitir, cuando tienes que mandarla la imagen sufre un proceso de codificación para comprimirla y la modulas para mandarla. Esto es otra cosa. Entre TV analogía y digital los fundamentos para mandar señales es el mismo, hoy en deia digitalizas una señal analógica para mandarla y luego la pasas a analógico para representara por pantalla

Realk:

Lo que dices de perder calidad de imagen es correcto, es algo normal cuando tienes un limitado ancho de banda.
Por un lado tienes la Y(luminancia), R,G,B. En cada pixel tienes esos tres LED y la Y indica el valor de luz que tiene que tener cada pixel.
Una imagen RGB máxima calidad tendría un muestreo 4:4:4 se manda toda la información de cada pixel.
La formula de la señal de lumunancia es:

Y=0.299R+0.587G+0.114B

Como G es la que mas ocupa se mandan las diferencias de (R-Y) y (G-Y), que se llamarian U y V, siendo:

(R-Y)+Y=R
(B-Y)+Y=G

Normalmente se manda U y V solo, y con eso se consigue toda la información.
No es que se mande solo la luminancia, o solo las componentes de color. Se digitaliza directamente la resta. Es un numero, lo bueno es lo que se puede sacar de ese numero, en vez de mandar un numero que solo nos diga la luminancia, mandamos otro que nos pueda dar más cosas mejor.
Los CCD de las cámaras captan toda la información, depende de lo que se haga luego con ella.
Hasta el punto que ni siquiera el DVD viene con toda la información. Un muestreo 4:2:2 significa que mandas toda información de luminancia, y la mitad de color (U y V), y un muestreo 4:2:0 manda toda la info de luz y una de color (V o U), este ultimo creo que es el formato MPEG-1

Escribiendo lo anterior le he dado al coco y acabo de ver una cosa, el muestreo así se hace para comprimir y meter todo en un DVD, en tema de transmisión es bueno ya que son menos datos para digitalizar y con lo cual transmitir , pero ¿porque digitalizar valores de Y, pudiendo digitalizar de U o V, o de U y V alternadas y así después sacarlo todo?, esto ultimo lo estoy "pensando en voz alta", aquí me quedo por hoy, tengo la cabeza como un bombo después del coñazo que he soltado, mañana pensare en esto ultimo, si alguien lo ve claro que lo comunique.

Estwald:

Yo también pienso que las fotos son para vender la moto y que lo que los científicos quieren son datos de las sondas.Sobre el tema del color y el B/N arriba puedes leer como lo llevo. Espero respuesta constructiva.

Don pelayo:

Justo con este tema no utilizo el buscador de google, mas bien desempolvo apuntes ya que el tema es espesito(no se si me explico), el caso no es fijarse en quien te lo dice, el caso es leer lo que te dicen, pensar sobre ello y sacar conclusiones, si un loco te dice que 2+2=4 sigue siendo cierto aunque este loco, y no estoy diciendo que este loco. Por cierto me han abducido, me han llevado a marte, he estado delante del Curiosity y mañana por la mañana sale mi culo en primer plano en todos los periodicos...


En serio, tío, estás desconocido. Me da la sensación de que todos nuestros rifi rafes en el hilo de OVNIs hayan sido un sueño, o puro trolleo, o que te confundo con otro usuario... sea como sea, la conversación me parece muy interesante.
Elelegido escribió:
Dracarys escribió:Foto de la sonda MRO localizando el paracaídas y demás:

Imagen


Menudo ejemplo, ahí, enguarranando to marte }:/

Que en un planeta del tamaño de marte haya un par de aparatos por ahí tirados...ya ves tu.
Además hasta más noticia el planeta está totalmente muerto, no creo que le importe mucho.

PD: En la foto se puede ver la buena hostia que se pegó la grúa XD
donde se puede seguir los futuros movimientos del MSL Curiosity???? (si puede ser en spanish mejor).
supongo que esta es del aterrizaje, es fantástica e imagino que ya la habrá puesto alguien antes

Imagen
Hilo muy interesante y currado. Lo tendré en favoritos.

Saludos.
kulebra escribió:donde se puede seguir los futuros movimientos del MSL Curiosity???? (si puede ser en spanish mejor).


A Opportunity la seguía por aquí.

http://mars.jpl.nasa.gov/msl/

(en su apatado correspondiente, se entiende. Esa es la página principal de Curiosity).
Philip J Fry escribió:Estwald:

Yo también pienso que las fotos son para vender la moto y que lo que los científicos quieren son datos de las sondas.Sobre el tema del color y el B/N arriba puedes leer como lo llevo. Espero respuesta constructiva.


La respuesta mejor que te puedo dar es que una imagen RGB de 24 bits convertida en otra YUV de 24 bits no son la misma: la segunda tiene pérdida al aplicar las conversiones (por lógica). El truco práctico del formato es que por ejemplo, lo puedes organizar de forma que si divides la imagen en pequeños mosaicos de 2x2 píxeles, compartirían el valor de crominancia todos ellos para diferentes valores de luminancia (es decir, tendrías que almacenar 2x2 Y + 1 U + 1 V) y en cierta forma, ya tienes un nivel de compresión (por ejemplo, si tienes una imagen RGB de 384x288 píxeles y 8 bits por componente, ocuparía 331776 bytes mientras que usando YUV de esta forma a 8 bits también, ocuparía 165888 bytes. Es un ahorro interesante pero a costa de perder calidad en color y sigue ocupando más que si envías la imagen en B/N)

Esto que describo es típico de JPEG-MPEG que a su vez aplican su sistema de compresión y no vamos a descubrir ahora la diferencia de tamaño de datos entre una imagen RAW y otra en formato JPEG.

¿Que por que no lo usan?. Pues chico, en realidad no tengo ni idea de si lo están usando o no o tienen previsto usarlo: habrá imágenes que tomen en alta resolución que no puedan comprimir por falta de proceso/memoria o que simplemente, no quieran comprimir de esa forma o no les sea prioritario. Tampoco es raro que procesen aquí las imágenes que no tienen por qué venir en condiciones óptimas de origen y lo que está claro es que fotografías de Marte ya tenemos, sigue siendo igual de rojizo y lo que han mandado allí es un laboratorio muy sofisticado que tiene tareas mas importantes que realizar.

Pero está claro que las imágenes se pueden comprimir, evidentemente.
Philip J Fry está baneado por "utilizar clon para saltarse baneo temporal"
Estwald escribió:
Philip J Fry escribió:Estwald:

Yo también pienso que las fotos son para vender la moto y que lo que los científicos quieren son datos de las sondas.Sobre el tema del color y el B/N arriba puedes leer como lo llevo. Espero respuesta constructiva.


La respuesta mejor que te puedo dar es que una imagen RGB de 24 bits convertida en otra YUV de 24 bits no son la misma: la segunda tiene pérdida al aplicar las conversiones (por lógica). El truco práctico del formato es que por ejemplo, lo puedes organizar de forma que si divides la imagen en pequeños mosaicos de 2x2 píxeles, compartirían el valor de crominancia todos ellos para diferentes valores de luminancia (es decir, tendrías que almacenar 2x2 Y + 1 U + 1 V) y en cierta forma, ya tienes un nivel de compresión (por ejemplo, si tienes una imagen RGB de 384x288 píxeles y 8 bits por componente, ocuparía 331776 bytes mientras que usando YUV de esta forma a 8 bits también, ocuparía 165888 bytes. Es un ahorro interesante pero a costa de perder calidad en color y sigue ocupando más que si envías la imagen en B/N)

Esto que describo es típico de JPEG-MPEG que a su vez aplican su sistema de compresión y no vamos a descubrir ahora la diferencia de tamaño de datos entre una imagen RAW y otra en formato JPEG.

¿Que por que no lo usan?. Pues chico, en realidad no tengo ni idea de si lo están usando o no o tienen previsto usarlo: habrá imágenes que tomen en alta resolución que no puedan comprimir por falta de proceso/memoria o que simplemente, no quieran comprimir de esa forma o no les sea prioritario. Tampoco es raro que procesen aquí las imágenes que no tienen por qué venir en condiciones óptimas de origen y lo que está claro es que fotografías de Marte ya tenemos, sigue siendo igual de rojizo y lo que han mandado allí es un laboratorio muy sofisticado que tiene tareas mas importantes que realizar.

Pero está claro que las imágenes se pueden comprimir, evidentemente.



Una pregunta, si digitalizando U y V puedes sacar las componentes de color y la luminancia con las formulas "tipicas" ¿donde se produce la perdida?¿no se recupera la señal al completo?.(creo que la perdida se pierde en la digitalización).
Por otro lado, y esto se contradice con lo que yo decía en un principio, pienso que si se digitaliza la imagen eliminando el muestreo de crominancia y lo dejas en 4:0:0, mandas la imagen en B/N utilizando menos bits. Ellos toman la medida de suprimir toda la info de color para tener la info de luz al 100%. En vez de hacer un 80% 20%.
Lo que si tengo claro es que las imágenes en color llegaran mas adelante, como hasta ahora.Veremos lo que nos deparan.


Don pelayo:

Sigo siendo el mismo, no me ha cambiado nadie ni me han abducido, pero dentro del amplisimo tema espacial,ovnis etc, cambio de punto de vista dependiendo de lo que se hable en concreto. Eso si, en lineas generales te puedes imaginar que pienso que se ocultan muchas cosas a la opinión publica. Aunque ese es otro tema.
PD: Al final no han publicado mi foto delante del Curiosity [alien]

Soy el mismo de siempre,
Deberían de mandar al ejecutivo del gobierno para allá y que no vuelvan más a la tierra, a ver si establacen un acuerdo económico con los "marcianos" para que compren deuda terrícola como la española. [fumando]
Philip J Fry escribió:

Una pregunta, si digitalizando U y V puedes sacar las componentes de color y la luminancia con las formulas "tipicas" ¿donde se produce la perdida?¿no se recupera la señal al completo?.(creo que la perdida se pierde en la digitalización).


Bueno, eso es sencillo: por que se dan dos problemas, uno de falta de precisión (en 8 bits puedes almacenar un número de 0 a 255 o desde -128 a 127 enteros y aquí hay decimales implicados que no se pueden representar de ninguna manera (ni usando coma fija, evidentemente), luego se pierden) y el otro es de rango (puedes obtener números que exceden del rango apropiado y que hay que limitar).

De todas maneras, piensa otra cosa: si yo cojo una matriz de 2x2 píxeles y hago que compartan la misma crominancia, en muchos casos alteraré el color ya sea ligeramente o bastante (de hecho, tendrás que ajustarlo de alguna manera para obtener una crominancia promedio). Pero bueno, nos alejamos un poco del tema del hilo XD

En la wikipedia: http://es.wikipedia.org/wiki/YUV puedes ver cómo aplican funciones para limitar el rango de salida al usar enteros con coma fija, por si te interesa, pero vamos, que tampoco es el fin del mundo lo de la pérdida (solo que si luego vas a tener que retocar la imagen por otro tipo de problemas, lo lógico es que uses una compresión sin pérdida o ninguna compresión)
El “Spirit” y el “Opportunity” usan el sistema de compresión ICER, supongo que el "Curiosity" también usa ese sistema de compresión, por lo visto es parecido al JPEG.

Fuente : http://en.wikipedia.org/wiki/ICER

Saludos.
Philip J Fry escribió:
Estwald escribió:
Philip J Fry escribió:Estwald:

Yo también pienso que las fotos son para vender la moto y que lo que los científicos quieren son datos de las sondas.Sobre el tema del color y el B/N arriba puedes leer como lo llevo. Espero respuesta constructiva.


La respuesta mejor que te puedo dar es que una imagen RGB de 24 bits convertida en otra YUV de 24 bits no son la misma: la segunda tiene pérdida al aplicar las conversiones (por lógica). El truco práctico del formato es que por ejemplo, lo puedes organizar de forma que si divides la imagen en pequeños mosaicos de 2x2 píxeles, compartirían el valor de crominancia todos ellos para diferentes valores de luminancia (es decir, tendrías que almacenar 2x2 Y + 1 U + 1 V) y en cierta forma, ya tienes un nivel de compresión (por ejemplo, si tienes una imagen RGB de 384x288 píxeles y 8 bits por componente, ocuparía 331776 bytes mientras que usando YUV de esta forma a 8 bits también, ocuparía 165888 bytes. Es un ahorro interesante pero a costa de perder calidad en color y sigue ocupando más que si envías la imagen en B/N)

Esto que describo es típico de JPEG-MPEG que a su vez aplican su sistema de compresión y no vamos a descubrir ahora la diferencia de tamaño de datos entre una imagen RAW y otra en formato JPEG.

¿Que por que no lo usan?. Pues chico, en realidad no tengo ni idea de si lo están usando o no o tienen previsto usarlo: habrá imágenes que tomen en alta resolución que no puedan comprimir por falta de proceso/memoria o que simplemente, no quieran comprimir de esa forma o no les sea prioritario. Tampoco es raro que procesen aquí las imágenes que no tienen por qué venir en condiciones óptimas de origen y lo que está claro es que fotografías de Marte ya tenemos, sigue siendo igual de rojizo y lo que han mandado allí es un laboratorio muy sofisticado que tiene tareas mas importantes que realizar.

Pero está claro que las imágenes se pueden comprimir, evidentemente.



Una pregunta, si digitalizando U y V puedes sacar las componentes de color y la luminancia con las formulas "tipicas" ¿donde se produce la perdida?¿no se recupera la señal al completo?.(creo que la perdida se pierde en la digitalización).
Por otro lado, y esto se contradice con lo que yo decía en un principio, pienso que si se digitaliza la imagen eliminando el muestreo de crominancia y lo dejas en 4:0:0, mandas la imagen en B/N utilizando menos bits. Ellos toman la medida de suprimir toda la info de color para tener la info de luz al 100%. En vez de hacer un 80% 20%.
Lo que si tengo claro es que las imágenes en color llegaran mas adelante, como hasta ahora.Veremos lo que nos deparan.



Por mi parte el tratado del color solo lo conozco a nivel "photoshop", y solo basándome en eso presupongo que los valores son Luminancia, color y saturación. Seguro que me equivoco y que es otra cosa, pero bajo mi percepción, siempre te falta un dato, por lo que la imagen obtenida nunca será real.


Y = 0,299 R + 0,587 G + 0,114 B
U = 0,492 (B - Y)
= -0,147 R - 0,289 G + 0,436 B
V = 0,877 (R - Y)
= 0,615 R - 0,515 G - 0,100 B

Según esto, puedes calcular la luminancia si tienes más información. Es decir, puedes calcular a partir de U y de V el valor de Y siempre y cuando tengas el valor de de B o de R, pero sin ellos no se puede calcular.
Lo que si que creo que podría ser posible es un modelo HSL, obviando la saturación y enviando solo H-L. Poniendo un valor constante de S podríamos crear una imagen a falso color, ya que la saturación no sería correcta, pero que se vería medianamente bien. Supongo que el método al que te refieres es algo similar, ¿o me equivoco?
He encontrado este blog con algo de información en español sobre el curiosity, incluso la primera foto en 3D.

http://www.ungeologoenapuros.es/especia ... -en-marte/
Primera foto en 3D?

Imagen

No se si sera fake viene de esta fuente http://fishki.net/comment.php?id=120190#/ que aparte tiene un video simulado en 3D con el aterrizaje con una calidad y unos detalles increibles...

y mas imagenes que seguro que habeis puesto ya como:

Imagen
912 respuestas