Con su permiso
Ahi va la primera parte del asunto, es un glosario que pretende delimitar una serie de conceptos que manejamos habitualmente.
Como os decia en el anterior mensaje no os cortes de poner o quitar lo que mejor os parezca, lo de las imagenes explicativas tambien molaria mogollon por que aclaran bastante los conceptos.
Bueno, ahi va:
-
Archivo RAW, se suele definir al sensor de la camara como un contador de electrones y el archivo RAW es precisamente una lista con los resultados de ese conteo. Los RAWs no son archivos de imagen y no se le puede atibuir ninguna de las caracteristicas de estos como color, resolucion y demas. Lo que vemos cuando los previsualizamos suele ser un pequeño JPG que incrusta la camara generado en base a los parametros que tengamos configurados, o bien
, una interpretación que la propia cámara realiza sobre el RAW. Los histogramas que se muestran estan basados en este JPG con lo que su fiabilidad es basicamente orientativa.
Al no ser formatos estándar, los programas informáticos de visualización no suelen interpretarlos, salvo algunos que incluyen librerías específicas para interpretar determinados RAW. Por eso, es prácticamente obligatorio convertirlos a formatos estándar (JPG, TIFF, etc).-
Imagen digital, es una trama de puntos de color (pixels) distribuidos de manera regular a lo largo de una matriz bidimensional. Cuentas mas filas y columnas tenga esta matriz mayor detalle tendra la imagen y mayor sera su peso (MB).
-
Modos de imagen, existen diferentes tecnicas o modos para generar una imagen: RGB, CieLAB, CMYK, ... . Todos ellos (todos los que conozco) se componen de diferentes capas monocromaticas que combinadas
de manera aditiva (unos tonos se suman a otros) y representando cada una uno de los colores primarios muestran los diferentes colores.
Cada una de estas técnicas extraen distintos parámetros de color (3 ó 4) de tal forma que la combinación posterior de éstos proporciona el color inicial. Se podría hablar de qué representan estos parámetros y cuándo se usa un formato u otro.-
Formatos de imagen, se han definido unos cuantos formatos de imagen para las diferentes funciones que esta puedan tener, existen los nativos de los programas de procesado que guardan atributos necesarios en el procesado como capas, historico de acciones, ... (XCF en Gimp, PSD en photoshop). Otros que guardan la imagen sin perdida de datos como el
BMP (sin compresión) TIFF
(con compresión). Y otros pensados para ser el resultado final en los que la imagen, generalmente, tiene perdida de datos (lo que redunda en un menor peso) como el PNG, JPG, GIF, ... .
-
Atributos de la imagen:
-
Resolucion, es la relacion entre los puntos que tiene una imagen en una medida de espacio. Cuantos mas puntos tenga una imagen, con mas definicion representara los elementos que aparezcan.
Solo Tiene
más sentido en el mundo fisico, por ejemplo a la hora de imprimir.
Las cámaras actuales tienen más puntos que los que habitualmente usamos en nuestras pantallas, con lo que para la visualización en pantalla no suele haber falta de resolución. Sin embargo, una alta resolución, nos puede permitir recortes de la foto (ampliación de una parte de ella) sin pérdidas apreciables de calidad. -
Tamaño de imagen, relacion entre los pixeles de ancho y alto de una imagen, se suele hablar de megapixels de una imagen.
Solo tiene sentido en el mundo digital. Todo el rato estamos en ese mundo ¿no? -
Peso del archivo, hace referencia al espacio que ocupa un archivo de imagen en el disco duro.
-
Profundidad de color, para la codificacion del color disponemos de una cantidad limitada de espacio por tono: 256 niveles en imagenes de 8 bits y 4095 en imagenes de 16 bits (realmente son 12 bits de profundidad de color). De cuantos mas tonos dispongamos mas files seran los colores y mas suaves las transiciones (se evita el posterizado).
Parece admitido que el ojo humano no es capaz de distinguir mas alla de 256 niveles de color.
-
Color en digital, en las imagenes digitales los colores no existen como tales, son una cofificacion que segun algunos parametros como el perfil que asignemos se representan en el dispositivo de salida como un color determinado.
-
Espacio de color: son las diferentes formas de codificar el color. Unos son mas amplios (pueden representar mas tonos) que otros, pero no todos los dispositivos seran capaces de representar todos esos tonos. Los mas conocidos (al menos por mi) son de menos a mas amplitud: sRGB, adobeRGB, Prophoto.
Estos se asignan al convertir la señal del sensor en archivo de imagen.
Hay perdida de datosPodría apreciarse cambios en algunas tonalidades por convertir de uno a otro.
Escoger un espacio de color más amplio tiene la ventaja obvia de poder representar una mayor "espacio" de color (valga la redundancia) pero, como contrapartida, los "saltos" de un color a otro serán mayores. Si podemos, por ejemplo, codificar 16 millones de colores, la diferencia entre éstos será mayor si están dispersos por un espacio grande.-
Perfil de color:todos los dispositivos (pantalla, impresora, ...) desvian en mayor o menos medida los colores, los perfiles (pefilar un dispositivo) permiten corregir esa desviacion. El objetibo de esto generalmente es que lo que vemos por pantalla sea un fiel reflejo de lo que obtendremos en el soporte final.
-
Sensor: aqui estaria bien una explicacion exaustiva de lo que es.
A mi bola: Básicamente es una matriz de ternas -RGB, Iniciales de Rojo (Red), Verde (Green), y Azul (Blue) en inglés- de sensores (una terna por cada píxel). Cada uno de estos sensores proporciona una señal analógica representando el nivel de rojo verde o azul del punto captado por esa terna. Estos millones de señales analógicas se digitalizan (convertidor analógico digital) y, a partir de ese momento, todo el tratamiento será digital. Cuando aumentamos el ISO de la imagen, estamos obligando a amplificar estas señales analógicas (de muy bajo valor, precisamente porque se supone que hay poca luz), para que el convertidor pueda utilizar todo su rango dinámico. Cuando amplificamos una señal analógica, también amplificamos el ruido que le acompaña. Si el nivel de este ruido es "parecido" al nivel de la señal (recordemos, otra vez, que hay poca luz) amplificaremos el ruido a niveles parecidos a la señal y será muy difícil discriminar el uno de la otra..
-
Filtro de paso bajo óptico: los sensores de las camaras estan hechos de matrices de fotodiodos (captadores/contadores de luz), cada uno de ellos mide la luz en una pequeñisima parte de la imagen, ademas solo captan la luz de una determinada longitud de onda (color). De esta manera la "imagen" conseguida no es uniforme, esta compuesta de pixeles intercalados que representan cada uno de los colores primarios.
Para evitar que a la hora de convertir esa imagen salgan dientes de sierra, moire y darle una apariencia mas natural los fabricantes han colocado un filtro de paso bajo delante de los sensores. El efecto no deseado de esto es que las imagenes resultan ligeramente "desenfocadas", por eso es casi imprescindible enfocar las imagenes digitales
, es decir, aplicar un filtro paso alto digital que compense el filtro paso bajo óptico.