Índice del artículo

 

3- La imagen digital

Tras la captación de la intensidad lumínica y la información de color y su posterior conversión en lenguaje informático, lo que tenemos es un archivo digital que debe ser interpretado por un programa que nos mostrará ese código en forma de una imagen.

Esta imagen está compuesta por una multitud de pequeños cuadrados, los píxeles, que contienen la información de luz y color correspondiente al lugar que ocupan en el rectángulo de la fotografía.

3.1- Resolución

La cantidad total de píxeles que contenga ese rectángulo es la llamada resolución de imagen. Si nuestra fotografía tiene 3000 x 2000 píxeles – 6 millones de píxeles o 6 Megapíxeles (Mp) – se trata de un valor absoluto mientras no decidamos modificarlo en el software de tratamiento de imagen. Este número total de píxeles, sin embargo, puede distribuirse con mayor o menor densidad en un espacio determinado, lo que nos producirá una variación en las medidas físicas de la fotografía. El modo habitual de representar este segundo valor es en píxeles por pulgada (ppi, en sus siglas en inglés que no hay que confundir con dpi, que son puntos por pulgada). La densidad de píxeles, o resolución de salida, se establece para cada imagen en función del uso a que esté destinada: por ejemplo, la resolución de una fotografía para pantalla o web es de 72 ppi, mientras que para impresión suele oscilar entre 250 y 300 ppi.

3.2- Profundidad de color

Los datos captados por el sensor digital se escriben en la memoria de la cámara por medio de bits, y puesto que un bit sólo puede tener dos estados – 0 y 1, esta es la base del lenguaje informático binario – si un píxel utiliza un bit para mostrar la información de color, únicamente alcanzará a representar el blanco y el negro. Está claro, entonces, que a más bits por píxel mayor gama de tonos tendrá la imagen.

Si tenemos 2 bits – profundidad – por píxel, obtendremos cuatro estados. 8 bits proporcionan 256 tonos y si tenemos en cuenta que cada uno de los píxeles de un CCD o CMOS se encarga de uno de los tres colores primarios RGB tendremos que multiplicar los 8 bits por cada uno de estos tres colores. Es decir, que una imagen digital normal, producida en una cámara, está formada a partir de la combinación de tonos rojo, verde y azul captada a una profundidad de color de 24 bits totales (8x3).

Y 24 bits de profundidad de color representan los famosos 16,7 millones de colores que muestran los monitores de ordenador, gracias a la tecnología empleada por las tarjetas gráficas actuales.

No obstante, algunas cámaras digitales de gama alta son capaces de ir más allá y captar imágenes a 12 bits por color (36 totales) o 16 bits por color (48 totales), y aunque nosotros no podemos distinguir más de los 16,7 millones de colores que produce una profundidad de 24 bits, y que muchos programas de tratamiento de imagen son incapaces de mostrar imágenes con más bits de color, es deseable disponer de la información extra que conseguimos con 36 o 48 bits, particularmente si vamos a someter a nuestras fotografías a procesos de interpolación o ajustes en el color.

Hay que añadir que existen pocas aplicaciones de tratamiento de imagen que permitan manejar 48 bits de profundidad (Photoshop, por ejemplo), y que una vez modificada una imagen habrá que transformarla a 24 bits, dependiendo de su destino final.

3.3- Rango dinámico

Dicho en pocas palabras, el rango dinámico valora la diferencia de brillo o densidad que se encuentra en una misma imagen, oscilando entre el valor 0 del blanco puro y el 4 del negro. Si no disponemos de suficiente rango dinámico, que es la diferencia entre los valores máximo y mínimo que es capaz de producir la cámara, perderemos detalle en la imagen, en especial en las zonas de sombra.

Las especificaciones de las cámaras digitales casi nunca contienen información acerca del rango dinámico de éstas – es una característica del sensor – pero éste es un valor que tiene tanta importancia, si no más, que el número total de píxeles de resolución de CCD.

3.4- Ruido de imagen

Como ya hemos visto, existen diversos factores capaces de alterar el funcionamiento del sensor en el proceso de captación, lo que nos lleva a una pérdida visible de contraste y a percibir en las zonas oscuras el efecto “nieve”. Un CCD o CMOS de alta calidad producirá menos ruido que otro inferior, de la misma forma que el tamaño del píxel influye en la aparición o no del blooming.

En casos extremos, es posible hasta cierto punto eliminar algo de ruido por medio de software de tratamiento, pero lo mejor es disponer desde el principio de imágenes que estén exentas de interferencias.

Usamos cookies para mejorar su experiencia de navegación. Más detalles en el enlace: To find out more about the cookies we use and how to delete them, see our privacy policy.

I accept cookies from this site.

EU Cookie Directive Module Information