kurtsik escribió:
Lo de la resolucion yo opto por resolucion para la resolucion

y tamaño de imagen para lo otro.
Pues me parece muy bien.
kurtsik escribió:
Lo de la profundidad de color creo que no se puede interpretar asi, no hay espacio aqui. Tal y como yo lo veo la profundidad de color define cuantos matices de color puede tomar un punto fisico, a mas profundidad de color menos probabilidades de moire, el ejemplo mas claro son los GIFs.
Que estábamos hablando del espacio de color no de la profundidad

. De la profundidad no había dicho ni Pamplona
kurtsik escribió:
Lo de la perdida de datos. Si no hubiera perdida de datos se podria desacer la conversion y no es asi, si conviertes de uno mayor 4000 y pico tonos a 256 hay perdida. Se puede ver comparando el tamaño de un tif a 16 bits y uno de 8.
Aquí sigo discrepando un poco. No es lo mismo que pasar de 16 a 8 bits. En este caso hay una compresión que necesariamente lleva a pérdida por falta de resolución. Lo que ocurre al cambiar de espacio es que puede haber falta de concordancia en los colores. Vamos, sí que puede haber una pérdida de información porque no se puede traducir con fidelidad pero la expresión "pérdida de datos" lleva a error, en mi opinión.
Alex Garai escribió:
tan sóo comentar que el sensor no es una matriz de ternas (ya nos gustaría). Sólo hay un fotodiodo por cada pixel (aprox.) que únicamente es sensible a la luz y no a los colores. Sobre la mitad de los sensores se ponen filtros verdes y sobre 1/4 rojos y el otro 1/4 azules.
dpreview escribió:
each pixel measures only one primary color, while the other two colors are "estimated" based on the surrounding pixels via software (cada píxel mide sólo un color primario, mientras que los otros dos colores se estiman a partir de los píxeles vecinos por software)
¡Anda coño!