No sé, pero muy muy zoquete habría que ser para perder información o cambiarla por el hecho de usar más bits de los especificados por un estándar. Es decir, si srgb es de 8 bits (que no lo sé), usar 16 solo debería implicar añadir ceros por la izquierda. Y por mucho que los quites y pongas no debería pasar nada.
Otra cosa es que un estándar admita trabajar con 8 ó 16 bits. En ese caso, cuando pasas de más bits a menos se producirían truncamientos de los decimales perdiendo lógicamente resolución. Pero, por eso, ese cambio lo hacemos al final una sola vez ¿no?
Y otra cosa quizás sea lo que hagan los programas en sus procesados. Si yo tengo una capa con un foto srgb (8 bits) y mis capas de ajuste y le digo al programa de edición que trabaje con 16 bits, quiero pensar que los cálculos matemáticos que eso implica los hagan trabajando con 16 bits con lo que esos cálculos tendrían menos error.
Pero, como siempre, estoy elucubrando...
|