«Teoría de la imagen digital»

Espacios de color: sRGB vs Adobe RGB

Este artículo tiene el objetivo de resolver unas cuántas dudas que solemos hacernos en fotografía respecto al espacio de color, o por lo menos, preguntas que yo me he hecho en el pasado: ¿qué espacio de color configuro en la cámara? ¿importa lo que configuremos si disparamos en RAW? ¿con qué espacio debemos trabajar en el revelado RAW a la hora de exportar a JPG?.

Antes de nada, mi intención no es sentar cátedra con este artículo, y me temo que las respuestas que voy a dar aquí no vienen de lo que estudié en la carrera, sino de la experiencia y de la teoría publicada en las innumerables páginas que hablan de este tema y que me vi obligado a curiosear cuando me hice estas preguntas.

¿Qué es un espacio de color?

Ya vimos en un artículo anterior lo que eran los modelos de color. Ahora es el turno del espacio de color, así que, para empezar, ¿qué es un espacio de color?. Un espacio de color está basado, generalmente, en un modelo de color, y define o incluye un subconjunto de colores dentro de los que se pueden generar a partir de las mezclas de los colores primarios que define el modelo de color.

Nuestras cámaras nos suelen permitir trabajar con dos espacios de color, Adobe RGB y sRGB, ambos basados en el modelo de color RGB, e incluyen un número de colores limitado dentro de todos los colores que se pueden formar mediante la mezcla de los primarios de RGB.

De ambos, Adobe RGB es un espacio con más colores que sRGB, aunque ninguno llega a representar toda la gama RGB completa. Entraría más a detallar cada uno de esos espacios, el número de colores visibles, los porcentajes de color visible que incluye cada uno, hablaría del espacio LAB, etc, pero para eso ya hay muchas más fuentes y explicarlo no va a aportar nada a la decisión de qué espacio de color utilizar para configurar la cámara y para trabajar en el revelador del RAW.

Un apunte más sobre estos espacios. Adobe RGB se definió para ajustarse mejor a la gama de color que puede generarse en una copia en papel a través de pigmentos en el modelo CMYK, así que Adobe RGB se suele utilizar para impresión, y sRGB es el espacio con el que trabajan la mayoría de monitores de gama baja y media, por tanto, sRGB en principio parece una buena elección para ver nuestras imágenes en el ordenador. Pero veamos más porque no todo es tan estricto y más bien para tomar la decisión tenemos que aplicar la lógica difusa.

RAW y el espacio de color

El primer dilema suele ser si debemos configurar la cámara con el espacio de color sRGB o el espacio Adobe RGB. Esta discusión sólo aplicará si hemos configurado la cámara para que genere un JPG (o TIFF en algunos modelos).

Si disparamos sólo en RAW, da igual el valor que configuremos, ya que el RAW es información en bruto y no hay conversión alguna a espacio de color. El parámetro sólo va a servir al programa de revelado para saber en qué espacio generar la imagen JPG o TIFF cuando hayamos procesado el RAW. Lo mismo que la temperatura de color. Aquí tenemos otra ventaja del RAW, el espacio de color es una decisión del revelado del RAW y no de la toma, lo mismo que la temperatura de color o que la profundidad del color en bits, eso sí, limitada como máximo a los 16 bits del RAW.

En el caso de Lightroom, y dependiendo de la cámara, incluso se ignora esta configuración, que quedará determinada por el perfil de exportación a JPG en el programa y no lo que venga indicado en el RAW, si es que el formato RAW del fabricante de la cámara en cuestión lo incluye como parámetro de la toma.

Como conclusión, el espacio de color configurado en la cámara es indiferente si disparamos en RAW.

JPG y el espacio de color

En cambio, si generamos y trabajamos en JPG directamente en desde la cámara, el procesador de imagen de ésta va a convertir el RAW a JPG, y aquí sí va a generar el JPG en el espacio de color que tengamos configurado. Si configuramos sRGB, estaremos limitando la gama de color, y si sólo disparamos en JPG, perderemos color irremediablemente en esa fotografía. Pero aquí, de nuevo, tenemos que aplicar la lógica difusa a la hora de decidir si es bueno o no para nosotros. Lo vamos a ver más abajo.

¿Cómo se verá un JPG con espacio Adobe RGB en un monitor?

Si generamos en cámara un JPG con Adobe RGB, «perfecto» para llevar al laboratorio de impresión que soporte ese espacio, pero, ¿cómo se verá en un monitor?, es más, ¿cómo lo habremos visto en el monitor a la hora de editarlo?. Si nuestro monitor trabaja en Adobe RGB, se verá adecuadamente y veremos casi todo el espacio de color representado en pantalla, por lo que haremos ajustes con fidelidad a lo que vamos a exportar a JPG en ese espacio de color.

Esto significa que veremos en pantalla casi toda la gama de color que va a imprimirse en la copia en papel . Digo casi todo el espacio porque no hay aún en el mercado monitores Adobe RGB que soporten todo el espacio Adobe RGB, los hay con unos porcentajes muy aproximados pero no al 100%, o al menos no lo he visto en ningún catálogo.

¿Y si visualizamos la imagen Adobe RGB en un monitor sRGB?

Decía «perfecto» entre comillas, porque si nuestro monitor trabaja en sRGB la cosa es distinta. Lo primero que nos preguntamos es: ¿cómo se verá en un monitor sRGB una fotografía JPG generada con Adobe RGB? ¿con muy mala calidad?. La respuesta necesita otra pregunta, o un matiz, que es: depende del monitor del ordenador con el que hayamos visto el RAW y generado el JPG en el espacio Adobe RGB.

Si lo hemos hecho con un monitor sRGB, según mi experiencia real, no hay diferencia a la hora de verlo en pantalla, ya que la imagen siempre la hemos visto limitada al espacio de nuestro monitor, el sRGB. En cambio, si lo hemos hecho con un monitor Adobe RGB, sí que vamos a notar la diferencia al verlo en un monitor sRGB, ya que la imagen va a sufrir un mapeo en la gama de color para ajustarse a sRGB, aunque esto también depende de la propia imagen y la cantidad de zonas de color de la imagen que se salen de la gama sRGB lo suficiente como para notarlo.

Además, también depende del software con el que visualizamos la imagen y su capacidad de realizar el mapeo entre ambos espacios de mejor o peor forma. Aunque tengamos un monitor Adobe RGB, si generamos un JPG en Adobe RGB y lo abrimos en ese mismo ordenador con un navegador, que sólo «habla» sRGB, y no sabe realizar el mapeo correctamente, veremos las cosas distintas.

¿Cuál es el problema de trabajar con Adobe RGB si no tenemos un monitor que lo soporte?

Casi ya estaba dicho o insinuado más arriba. El problema de trabajar con el espacio Adobe RGB en un monitor que sólo llega a sRGB nos lo encontraríamos si llevásemos ese JPG generado con el espacio Adobe RGB a imprimir a un laboratorio que soporte Adobe RGB.

El JPG con Adobe RGB lo vamos a ver en el monitor sRGB de una manera, con la paleta más reducida, y al imprimirlo en el laboratorio el resultado, que va a ser otro, será impredecible. Es decir, no habremos visto la imagen en pantalla con la misma gama de color de la impresión y lo que saldrá será un resultado a ciegas.

Ese resultado que vamos a obtener a ciegas en papel puede ser grato o no. Grato por superar la calidad de lo que habíamos visto (más detalle, mejores degradados,…), o no grata porque pueden aparecer detalles que no habíamos visto y que no deseábamos, o que aparezcan colores intermedios que no habíamos visto o que quedan más saturados y que no nos gustan una vez impresa la copia.

Por tanto, si nuestro monitor es sRGB, al trabajar con el espacio sRGB, lo que vemos se acercará más a lo que va a imprimirse en papel, lo cual es una ventaja. Como desventaja, perdemos o destruimos información en el JPG (más gama de color), pero ganamos en control y fidelidad sobre lo que luego vamos a ver impreso en una copia en papel.

Lo bueno, como siempre, es disparar en RAW, tener toda la información en bruto y luego al revelar y generar el JPG, decidir el espacio de color en función de nuestro equipo (monitor) y el destino que vamos a dar al JPG. Así, nunca vamos a perder información, que conservaremos siempre en el RAW.

¿Cómo ven otras personas nuestros JPG Adobe RGB?

Esta pregunta también es importante. Aunque generemos el JPG en Adobe RGB porque nuestro monitor lo es, tenemos que tener en cuenta si queremos publicar el JPG para que lo vean otros en su navegador y si queremos ver en el nuestro lo que van a ver los demás en su propio ordenador.

Como decía antes, los navegadores sólo soportan sRGB y no hacen ningún tipo de mapeo, por lo que si el destino del JPG es publicarlo en web, tendríamos que generar el JPG en sRGB y así ver el resultado de la misma forma que lo verá el resto en su ordenador a través de la web, independientemente del tipo de espacio de color que soporte nuestro monitor.

En realidad, hay algo que complica más esto, ya que cada navegador implementa el espacio de color con diferencias, por lo que una imagen vista en un navegador concreto no tiene por qué verse igual en otro navegador distinto.

Conclusión Adobe RGB vs sRGB

Por tanto, si tenemos monitor Adobe RGB, podemos generar un JPG en Adobe RGB para llevar a imprimir y no perdemos gama de color. Y si queremos generar un JPG para publicar en la web, lo tendremos que hacer con el espacio sRGB para que podamos ver y comprobar cómo lo verán los demás.

Y si tenemos un monitor sRGB, será mejor generar ambos JPG (para papel y para web) en sRGB, porque así tenemos fidelidad al ver en nuestro monitor lo que luego van a ver los demás y lo que luego va a pasar a papel. Habremos perdido gama de color, pero nunca la hemos podido ver en nuestro monitor sRGB, por lo que no debería importarnos (si seguimos conservando el RAW para un futuro).

¿Tenemos asegurada la fidelidad al generar un JPG generado con el espacio sRGB si trabajamos con un monitor sRGB?

Aquí interviene de nuevo la lógica difusa, depende. Si nuestro monitor es de gama baja o media tampoco va a soportar al 100% el espacio sRGB, por lo que la gama que incluye el JPG que hemos generado en ese espacio tampoco llegamos a verla como es en realidad, y si el laboratorio sí se ajusta al 100%, lo que saldrá en papel también será un resultado incierto que nunca habremos visto en nuestro monitor.

Las cosas ya están suficientemente liadas, pero para liarlas aún más, además del espacio de color del monitor, la calibración del color del monitor es otra variable que también va a influir en la fidelidad de uno y otro.

Un último detalle

Hay una diferencia entre ambos espacios, lógica aunque poco importante. Como Adobe RGB es un espacio capaz de representar más colores, esto no sale gratis en el tamaño del archivo, es decir, el JPG que incluya más información (más colores) pesará más, aunque una diferencia mínima y debería importarnos bien poco.

Profundidad de color: 8 y 16 bits

Hoy toca hablar de la profundidad de color a la que suelen trabajar los programas de edición y que también viene condicionada por el formato de imagen digital que elegimos.

Las dos profundidades de color más habituales son 8 y 16 bits, pero ¿qué significa la profundidad y cómo afecta a la imagen? Vamos a ver la explicación ayudados del modelo de color RGB que vimos en el artículo anterior en el que hablábamos de los tres canales o colores básicos que define este modelo: rojo, verde, azul.

Profundidad de color de 8 bits

La profundidad a 8 bits la solemos ver en los programas de edición como valores desde el 0 al 255 para cada color primario del modelo RGB (rojo, verde azul). Un pixel con valor R – 0, G – 255, B – 0 se interpreta como un verde puro, y en pantalla se muestra porque de los tres LEDs que forman el píxel, el rojo, al tener valor 0, está apagado, el verde, al tener 255, el valor máximo, estaría encendido a su máxima intensidad, y el azul, también a 0, estaría completamente apagado.

Por cierto, la escala de 0 a 255 no es casual, aquí interviene el concepto de bit y de byte. El byte es el orden de magnitud que nos permite recoger esa escala de 0 a 255, y un byte equivale a 8 bits. Esto nos indica que la profundidad de color es de 8 bits. Si trabajamos con 8 bits de profundidad de color, estaríamos hablando de que utilizamos 8 bits para representar cada uno de los tres canales (rojo, verde, azul).

¿Por qué el 8 y qué tiene que ver con 255? Los 8 bits en binario nos indican cuántos valores utilizamos para representar un número y hasta qué máximo podemos llegar, y llevado a LEDs, cuántas intensidades distintas podríamos obtener, es decir, la amplitud de la gama de colores. 8 bits en binario permiten representar 2^8 (2 elevado a 8) valores, es decir, 256 valores (del 0 al 255) para cada color primario.

Por no entrar mucho en detalles, los que no conozcan el sistema binario, éste se basa en un dígito de dos valores, 0 y 1. Otros sistemas comunes son el octal (valores del dígito del 0 al 8), decimal, que es el más habitual, con valores de un dígito entre 0 y 9, y el hexadecimal, con valores del 0 al 9, además de la A a la F. Así, nuestro sistema decimal habitual representa el «diez» como 10, ya que no tiene un dígito para representar ese número. En cambio, en hexadecimal podemos representarlo con un dígito, la A. Y en binario, la cosa se reduce aún más, con un dígito podemos representar el cero con 0 y el uno con 1, pero ¿y el dos?, pues siguiendo el mismo ejemplo que con el diez, tenemos que pasar a representarlo con dos dígitos, así, el dos se representa con 10 en binario.

Tomando los 8 bits, el rojo podría tomar valor de 0 (apagado) a 255 (rojo de máxima intensidad), el verde también de 0 a 255 y el azul lo mismo. Así, un pixel RGB=0,0,0 representa al negro, RGB=0,0,255 representa un pixel azul, RGB=255,255,0 representa el amarillo puro (mezclando rojo y verde), RGB=255,0,255 representa el magenta (mezclando rojo y azul). Hablo de cero a doscientos cincuenta y cinco en decimal como 0 a 255, pero en binario hablamos de 00000000 a 11111111, de ahí el 8, tenemos 8 dígitos en binario para representar el valor máximo, es decir, 8 bits.

Si en lugar de utilizar valores máximos 255, utilizamos valores inferiores, obtendríamos colores menos puros (es decir, menos saturados). Por ejemplo, RGB=192,192,0 correspondería a un amarillo pero más grisáceo (menos saturado).

Los grises siempre se formarían con el mismo valor para los tres canales. RGB=10,10,10 sería un gris muy oscuro, RGB=200,200,200 sería un gris muy claro.

Los 8 bits por canal nos permitirán representar un píxel con 8×3 = 24 bits por píxel. Así, 2^24=16.777.216 colores posibles, incluyendo negro, blanco y grises. Estamos hablando de unos 16 millones de colores en total para los 8 bits por canal (lo que se llama true color).

Hay programas de edición como Gimp que trabajan con 8 bits por canal, lo que significa que nos permiten ver una fotografía y editarla con un máximo de 16 millones de colores posibles.

Profundidad de color de 16 bits

Si tuviésemos 16 bits por canal, que son dos bytes, tendríamos 2^16, es decir, 65536 valores (del 0 al 65535 en sistema decimal) para cada uno de los tres canales (en binario tendríamos 16 ceros a 16 unos). Así, con una profundidad de color de 16 bits, en RGB, cada color primario podría tomar 65536 valores, y combinados, generar una gama de color de 16×3=48 bits por píxel, lo que se traduce en 2^48=2E14, unos 282 millones de millones de colores (282 billones de colores).

Así que esta es la ventaja del RAW sobre el JPG directo de cámara, el RAW capta valores en ese rango de 16 bits por canal, y si sólo trabajamos en JPG en cámara, el procesador de imagen de la cámara convierte los valores a 8 bits, perdiendo capacidad de representación de más colores en el archivo de la imagen digital. Es decir, JPG está limitado a 8 bits por canal.

¿Y perdemos mucho? Pues el RAW con sus 16 bits es un buen negativo con información de color que no va a poder verse en pantalla (excepto pantallas de gran calidad y con una tarjeta gráfica a la altura) pero esa información sí nos será útil para generar una copia en papel, aunque esto también tiene sus problemas, como veremos en un artículo dedicado al espacio de color.

¿Por qué no vamos a ver todos los colores de la gama de los 16 bits del RAW en pantalla? Tanto los monitores como las gráficas limitan lo que puede representarse con un ordenador. Nuestra gráfica normalmente trabaja a 32 bits por píxel, que se corresponde con 4 bytes (8 bits x 4), de esos 4 bytes, 3 representan el color (los 3 x 8 = 24 bits), y el byte restante el canal alfa de transparencia (para vídeo, 3D, etc). Por tanto, con nuestro monitor y gráfica estándar, veremos en pantalla 2^24 = 16 millones de colores y no los 282 billones de colores que podemos obtener con la profundidad de 16 bit por canal del RAW (48 bits en total por píxel).

Modelos de color (RGB, CMYK, HSV/HSL)

Continuando esta serie de artículos sobre imagen digital, hoy toca hablar de los modelos de color. El objetivo será ver la diferencia entre los distintos modelos, entender mejor el modelo HSL, que es el que utilizamos al revelar una imagen digital desde un RAW.

El modelo RGB nos servirá en un próximo artículo para entender las diferencias entre profundidad de color de 8 y 16 bits, y en otro artículo, para entender lo que son y qué diferencias hay entre espacios de color.

Como siempre, hablaremos en términos de radiación electromagnética y espectro visible, aquellos que describía en el primer artículo.

¿Qué es un modelo de color?

Un modelo de color establece un conjunto de colores primarios a partir de los que, mediante mezclas, se pueden obtener otros colores hasta cubrir todo el espectro visible, además del propio blanco, negro y grises, y aún más. Por ejemplo, hay colores, como el marrón o el magenta, que no están presentes en el espectro visible, y es nuestro cerebro el que lo interpreta a partir de la combinación de ondas con diferentes longitudes.

Los modelos de color más comunes son RGB (utilizado en monitores) y CMYK (utilizado para impresión), que veremos más adelante.

Modelos aditivos y sustractivos

Hay dos tipos de modelos de color, los aditivos y los sustractivos. Un modelo aditivo se basa en la adición o mezcla de los colores básicos como forma para obtener el blanco.

Un modelo sustractivo se basa en la mezcla de los colores primarios de dicho modelo para «sustraer la luz», es decir, para obtener el negro, que como comentábamos en el artículo de la luz, es la ausencia de luz.

Si recordamos del primer artículo, cuando empleamos el término «color» en realidad nos referimos al «matiz» o «croma». Y junto a los colores también tenemos los tres casos especiales: el blanco, el negro y los grises.

Modelo RGB

Volviendo a los modelos de color más habituales en fotografía, el modelo RGB define como colores primarios el rojo, el verde y el azul. La combinación de los tres genera blanco. La ausencia de los tres genera negro. Las diferentes mezclas entre ellos representarían toda la gama de color. De nuevo, los grises se representarían con diferentes intensidades de cada color, pero siempre los tres con el mismo valor.

El modelo RBG se utiliza cuando se representa color mediante haces de luz (pantallas o monitores). Un pixel en un monitor se representaría mediante tres subpíxeles o células: una roja, una verde y una azul, correspondiendo cada una a un LED o diodo emisor de luz del respectivo color.

Si los tres diodos están apagados, obtendríamos el negro. Si están encendidos a diferentes intensidades, obtendríamos colores, si están todos encendidos con la misma intensidad y al máximo, tendríamos el blanco, y si la intensidad es menor pero igual en los tres diodos, obtendríamos grises.

Modelo CMYK

Es un modelo sustractivo y se utiliza en impresión a partir de pigmentos de tres colores básicos: C – cian, M – magenta y Y – amarillo. La K viene del negro, ya que la combinación de los tres anteriores produce un negro poco puro, de ahí que se añada al modelo un pigmento negro puro. Al contrario que en RGB, donde el negro es la ausencia de luz, en CMYK el blanco se representa aquí como ausencia de pigmentos.

Los colores intermedios se producen a partir de la mezcla en distintas proporciones de los pigmentos base.

Hay una relación entre los modelos RGB y CMYK, ya que con la mezcla a igual parte de cada uno de los colores básicos de un modelo obtenemos los primarios del otro.

En RGB (rojo, verde, azul):

  • Rojo y verde en iguales proporciones: obtenemos amarillo – Y de CMYK
  • Rojo y azul en iguales proporciones: obtenemos el magenta – M
  • Verde y azul en iguales proporciones: obtenemos el cian – C

En CMYK (cian, magenta, amarillo):

  • Cian y magenta en igual proporción: obtenemos el azul
  • Cian y amarillo en igual proporción: obtenemos el verde
  • Magenta y amarillo en igual proporción: obtenemos el rojo

Modelo HSV y HSL

Estos modelos incluyen otros dos parámetros adicionales al matiz o croma para obtener el color, que son la saturación (en ambos) y el valor (en HSV) o la luminosidad o tono (en HSL). De ahí sus siglas: HSL (H – hue o matiz, S – saturation o saturación, L – luminosity o luminosidad/tono), HSV (idem excepto V de value o valor).

La diferencia entre HSV y HSL es que en HSV la saturación va del color puro al blanco, y en HSL la saturación va del color puro al gris medio, y el tono, en HSV va desde el negro al color, y en HSL va desde el negro al blanco. De ahí que HSL sea el que se utiliza más comúnmente en fotografía.

Lightroom, que se basa en HSL, dispone de controles para alterar H – matiz, S – saturación y L – Tono para los siguientes colores: rojo, naranja, amarillo, verde, cian, azul, violeta y magenta.

Siguiendo con Lightroom, éste nos permite fijar la saturación entre gris y color puro para esos 8 colores. Respecto al matiz, nos permite virar los 8 colores a los adyacentes que comentaba en el artículo de luz y color, por ejemplo, para el rojo, desde magenta a naranja.

Por último, respecto al tono, Lightroom nos permite oscurecer cada uno de esos 8 colores hasta el negro, o bien aclararlo hasta llegar al blanco.

Si utilizásemos un programa basado en HSV, el control del matiz sería similar, el control de la saturación nos permitiría llevar un matiz dado a su expresión más pura, o bajar su saturación hasta llegar el blanco, raro, ¿verdad?. Y respecto al tono, nos permitiría para un matiz dado, bajar su tono hasta el negro o subirlo hasta el color puro, también raro, ¿verdad?.

¿Cuál es el origen de la hora dorada, la hora azul y el cinturón de venus?

Aunque supone desviarse un poco más de esta serie de artículos técnicos sobre imágenes digitales, hoy vamos a hablar del origen de tres fenómenos de luz que apreciamos bastante en fotografía de paisaje y que llamamos «hora dorada», «hora azul» y «cinturón de venus».

Sabemos cuándo se producen, y si no, lo veremos aquí, pero ¿qué los provoca? ¿qué explicación hay detrás de cada uno?.

La culpable de estos tres fenómenos es la dispersión de la luz. En el artículo anterior, necesario para entender estos fenómenos, explicaba qué es la luz y qué es el color, hablaba del espectro electromagnético visible y comentaba que la luz es radiación electromagnética cuya longitud de onda está comprendida en el rango de ese espectro visible, y que el color es la interpretación de nuestro cerebro a cada longitud de onda. Además, comentaba que la luz blanca es la mezcla de todas las ondas del espectro visible, es decir, es la radiación que se propaga en una misma dirección a través de ondas con todas las longitudes comprendidas en el espectro visible.

Así pues, la luz viaja en forma de ondas por el espacio y atraviesa la atmósfera hasta llegar a nuestros ojos, o hasta chocar contra elementos y reflejarse para llegar a nuestros ojos, lo que posibilita que veamos lo que nos rodea.

Al atravesar la atmósfera y sufrir dispersión por refracción, las ondas de la luz blanca (distintos colores) cambian de dirección y se separan. Al separarse las diferentes ondas (diferentes colores), la luz con menor frecuencia de onda sufre menos esta dispersión, y la que más frecuencia de onda posee, sufre más dispersión.

El rojo, naranja y amarillo tienen menor frecuencia de onda (por ese orden), el violeta, el azul y el verde tienen la mayor frecuencia de onda (también por ese orden), por tanto, al dispersarse la luz blanca por refracción, la luz roja, naranja y amarilla sufren menos la dispersión (se desvía menos de su dirección original), y el violeta, azul y verde la sufren más.

Hora dorada

Esto explica por qué al atardecer o al amanecer, momentos a los que llamamos hora dorada, vemos la luz más rojiza o anaranjada o de un cálido amarillo, porque al estar el sol en un ángulo bajo, los rayos nos llegan atravesando más atmósfera y sufren más dispersión por refracción, viéndose menos afectadas las radiaciones con longitud de onda del rojo-naranja-amarillo, y por tanto, llegando hasta nosotros con mayor intensidad.

Y como las radiaciones con mayor frecuencia (violeta, azul, verde) se ven más afectadas por la dispersión por refracción, nos llega menos radiación de estos colores, que quedan más dispersos en la atmósfera, y por eso no vemos estos matices más fríos durante la hora dorada.

Crepúsculo o la hora azul

En cambio, cuando el sol se oculta y comienza el crepúsculo civil, lo que llamamos hora azul, la luz violeta, azul y verde, que es la que tiene una frecuencia de onda mayor y se ve más afectada por la dispersión, rebota en la atmósfera y es la que domina todo.

La luz roja, naranja y amarilla, al no dispersarse y rebotar en la atmósfera, no logra llegar hasta nuestra vista una vez que el sol se ha ocultado.

Cinturón de venus

Una excepción a esto, y que se da durante un breve momento al comenzar el crepúsculo, es el cinturón de venus.

El cinturón de venus es una franja rosada que se puede ver en dirección contraria de la puesta de sol y franqueada por abajo con una banda de azul más oscuro (la sombra de la tierra) y por arriba otra banda de azul más claro (luz dispersa que antes he comentado).

La banda rosada se forma con los últimos rayos de sol casi directos. Las ondas correspondientes al rojo de esta última luz casi directa sufren una leve dispersión por refracción, haciendo que la luz rojiza se curve y se concentre en esa banda. La intensidad de esa luz roja tan suave por la dispersión se mezcla con el azul que domina ya toda la hora azul, y al mezclarse el rojo con el azul intenso hace que la banda tome ese matiz rosado.

Sombra de la tierra

La sombra de la tierra es la banda azul que hay por debajo del cinturón de venus, y se forma porque la luz blanca que llega del sol es tapada por la tierra, y en dirección contraria lo que vemos en esa banda es ausencia de luz directa, es decir, vemos sombra.

Un ejemplo del cinturón de venus

En esta fotografía, realizada en el crepúsculo tras el atardecer, podemos ver un leve cinturón de venus. Debajo podemos ver la banda azul que forma la sombra de la tierra.

Lagunilla del Yelmo, otoño 2013

Lagunilla del Yelmo, otoño 2013

Hay ocasiones en las que podemos confundirnos. En la siguiente fotografía hay una banda rosada, pero esta vez la cámara apunta al sol. En este caso, que es un amanecer, la banda no es el cinturón de venus sino las nubes y la bruma del mar pintada por los primeros rayos de sol, también mezclados con el azul que aún domina todo hasta que el sol se eleve más.

Maro, amanecer de verano, 2013

Maro, amanecer de verano, 2013

Un ejemplo de la hora dorada

En esta otra fotografía podemos ver un atardecer en el que el sol ya está bajo y la luz cálida amarilla lo domina todo.

Pantano de Santillana #7

Pantano de Santillana #7

En la siguiente fotografía de un amanecer en el que la cámara apunta al sol, podemos ver que aún hay mucha luz azul del crepúsculo, pero los rayos cálidos del sol ya van dibujando una franja sobre el horizonte.

Frío caliente

Frío caliente

¿Qué es la luz? ¿qué es el color? El espectro visible

Como ya decía en mi artículo previo, lo primero que quería recoger sobre teoría básica para entender imágenes digitales era una definición de la luz y del color. Espero llegar a hacerlo con este artículo.

¿Qué es la luz?

Para hablar del color primero hay que entender qué es o a qué llamamos luz. Curiosa pregunta, ¿verdad?, intenta pensar tu respuesta antes de seguir leyendo, ¿cómo explicarías qué es la luz?.

La luz no es más que la radiación electromagnética que emite un objeto, bien porque la genera (sol, fuego, filamento incandescente, cuerpo fluorescente o cualquier otro elemento similar o derivado), o bien porque la refleja.

Los cuerpos incandescentes generan luz

Ya creo que es llegar mucho más allá, pero por no dejarlo sin respuesta, la explicación básica de por qué el sol, el fuego, las bombillas, y en general cualquier cuerpo incandescente genera nuestra querida luz, además de generar radiación térmica, es que la alta temperatura provoca reacciones en las partículas de los átomos de dichos cuerpos y dicha reacción termina liberando una radiación electromagnética que se emite tanto en ondas visibles como no visibles por nuestros ojos. De esto justo vamos a hablar a continuación. Así que estos cuerpos nos dan calor y nos iluminan (qué poético).

Para los aún más curiosos sobre temas de física, hablando de ondas visibles y no visibles y del espectro que comento a continuación pero generado por una estrella diferente a nuestro sol, echad un vistazo a «Las líneas de Pickering-Fowler» que José Manuel Morales, mi compi de trabajo y antiguamente de la Universidad de Granada, comenta en su blog de física El zombi de Schrödinger.

Espectro visible

Siguiendo con los tecnicismos, la radiación electromagnética es una combinación de campos magnéticos y eléctricos que se propagan a través del espacio, transportando energía de un lugar a otro. Es decir, lo que vemos no es más que energía que nos llega de un objeto que la irradia. Y nuestros ojos actúan como receptores de movimientos de cargas eléctricas que llegan a ellos mediante ondas.

La radicación se emite pues mediante ondas, y una onda tiene una determinada longitud. De toda radiación electromagnética que emiten los objetos, denominamos luz a la que es visible, es decir, la que pueden captar nuestros ojos y nuestra mente traduce a información. Aquí es donde entra en juego el espectro visible, que no es más que la radiación electromagnética que nuestro ojo es capaz de percibir por tener una longitud de onda en un rango o espectro concreto.

Por tanto, aunque nos llega radiación con cualquier longitud de onda, la que nuestro ojo es capaz de ver es la que denominamos luz. El rango de longitudes de onda que somos capaces de ver es lo que llamamos espectro visible, más concretamente, espectro electromagnético visible.

¿Qué es el color?

El color no es más es la percepción en nuestro ojo de una radiación electromagnética con una determinada longitud de onda y cómo la interpreta nuestro cerebro traduciéndola a un color u otro.

Como vimos antes, el espectro visible es el rango de radiación electromagnética que podemos ver y que incluye la radiación emitida con una longitud de onda que va desde 400nm a 700nm (aproximadamente, ya que algunos perciben longitudes con un espectro algo más amplio tanto arriba como abajo).

La longitud de onda más baja corresponde al violeta, y la longitud de onda más larga corresponde al rojo. La longitud de onda junto a su velocidad determina la frecuencia de cada onda y cuando más longitud tenga una onda, menor será su frecuencia. De ahí que si hablamos en términos de frecuencia de onda en el espectro visible, el rojo es la radiación electromagnética que menor frecuencia tiene (baja frecuencia), y el violeta es la radiación que más frecuencia tiene (alta frecuencia).

Por tanto, en estos términos, la radiación que hay con menor frecuencia que el rojo (más baja que el rojo, es decir, radiación más abajo que el rojo en el espectro medido en frecuencias) recibe el nombre de luz infrarroja. Y la radiación que hay más allá (más alta) que la violeta recibe el nombre de ultra violeta. Estas radiaciones son las que nuestro ojo no es capaz de captar.

Los seis colores del espectro visible

Si nos centramos en el espectro visible, tenemos radiación con longitud de onda que representa los siguientes seis colores, mejor llamados matices o croma (de menor a mayor longitud de onda, de mayor a menor frecuencia de onda): violeta, azul, verde, amarillo, naranja y rojo. Y entre cada uno sus transiciones o mezclas.

Espectro visible

Espectro visible

Sobre si los colores básicos del espectro visible son seis o siete hay mucha literatura. En origen, Newton incluía un séptimo color entre el azul y el violeta llamado «índigo», también denominado añil. Las teorías más modernas dejan el espectro en los seis colores que comentaba antes. De la clasificación de siete colores, relacionada con el arcoíris, viene su representación y la famosa bandera.

Blanco y negro

Además de estos seis colores, también tenemos que incluir el blanco y el negro, que aunque comúnmente los denominamos colores, en realidad no son colores que se correspondan con radiación con una determinada longitud de onda. El negro no es luz, sino su ausencia, por tanto, si vemos un objeto de color negro, estaríamos hablando de un objeto que no refleja la luz que se proyecta sobre él.

Y sobre el blanco, tampoco sería exactamente un color, de hecho, es acromático, y al contario que el negro, es la máxima claridad. Estaríamos hablando de la combinación de los seis colores anteriores, es decir, la combinación de todas las radiaciones de longitud de onda pertenecientes al espectro visible.

Por qué vemos los objetos de color

El sol, como todas las estrellas, emite luz blanca. Cuando la luz blanca choca en los objetos que vemos, una parte se absorbe y otra se refleja. Un objeto que vemos de un color concreto, por ejemplo azul, no es más que un objeto que refleja sólo las radiaciones con longitud de onda que vemos como azul y absorbe todas las radiaciones con longitud de onda correspondientes a los cinco colores restantes. Es decir, el objeto refleja las ondas con longitud correspondiente al azul, nuestro ojo capta esas longitudes y nuestro cerebro la convierte en lo que interpretamos como azul.

El resto de colores puros seguirían el mismo patrón de absorción y reflexión, y las mezclas o matices intermedios consistirían en varias longitudes de onda reflejadas con diferentes intensidades.

Grises

La gama de grises sería una escala situada entre el negro (ausencia de luz) y el blanco (máxima luminosidad). Es acromático y está compuesto, al igual que el blanco, de todas las longitudes de onda.

Los objetos que percibimos como grises absorben cierta cantidad de luz blanca y reflejan radiaciones de todas las longitudes de onda y no sólo de unas en concreto, por eso, la luz que reflejan deja de ser blanca pero no toma un matiz o croma determinado, sigue siendo blanca pero con menor luminosidad, es decir, gris. Los objetos que vemos más grises absorben más luz, y los que vemos menos grises, absorben menos luz.

En fotografía, el gris medio es aquel en el que el objeto de dicho «color» absorbe el 82% de la luz que recibe y sólo refleja el 18% restante.

Rueda de color o círculo cromático

Partiendo de estos seis colores del espectro visible vamos a llegar a la rueda de color o círculo cromático que vemos más frecuentemente en fotografía y al concepto de los colores adyacentes y complementarios.

Si estas radiaciones o colores los llevamos a una rueda juntando los extremos de este espectro o banda, tendremos lo siguiente:

Rueda de color

Rueda de color

Con esta rueda ahora podemos ver lo que significan e implican los colores adyacentes y los opuestos o complementarios. Los adyacentes de un color son los colores que están a uno y otro de sus lados en la rueda. Y ¿qué significan para nosotros en fotografía estos adyacentes? Son los matices a los que puede virar un color dado si lo mezclamos con el siguiente adyacente (podemos denominarlos adyacentes secundarios). Por ejemplo, el rojo puro tiene como adyacentes secundarios el amarillo y el azul. Si lo mezclamos con amarillo, su matiz va virando del rojo puro al adyacente inmediato, es decir, el naranja. Si lo mezclamos con el azul, su matiz va virando al violeta, que es su adyacente inmediato. Esto es lo que obtenemos con los controles de matiz que suelen venir incorporados en los reveladores RAW.

Como podemos ver en la rueda y en la banda del espectro visible, los adyacentes de cada color del espectro son:

  • Violeta: rojo en un lado y azul en el otro
  • Azul: violeta a un lado y verde al otro
  • Verde: azul a un lado y amarillo al otro
  • Amarillo: verde a un lado y rojo al otro
  • Naranja: amarillo a un lado y rojo al otro
  • Rojo: amarillo a un lado y violeta al otro

Utilizando estos adyacentes, los matices a los que virarían los colores son (intentaré utilizar unos nombres de colores intermedios más o menos estándar, si es que existen o los conozco):

  • Violeta: magenta si mezclamos con rojo, añil o índigo si mezclamos con azul.
  • Azul: añil o índigo si mezclamos con violeta, cian si mezclamos con verde.
  • Verde: cian si mezclamos con verde, lima si mezclamos con amarillo.
  • Amarillo: lima si mezclamos con verde, ocre amarillento o bien ocre anaranjado o amarillo anaranjado (no hay un nombre que sepa exactamente para este color intermedio) si mezclamos con naranja.
  • Naranja: el antes comentado si mezclamos con amarillo, rojo anaranjado o naranja rojizo (tampoco existe o conozco un nombre para este color intermedio) si lo mezclamos con rojo.
  • Rojo: idem si lo mezclamos con naranja, magenta si lo mezclamos con violeta.

Además de que los adyacentes determinan los matices a los que puede variar un color cuando lo mezclamos con su siguiente adyacente, el uso en fotografía de una paleta de colores adyacentes se traduce en una armonía visual, una fotografía que no tiene tensión visual.

Los opuestos los podemos ver mejor en la rueda con las flechas que he incluido, son los que caen en el lado contrario, y en este caso coinciden con el modelo de color RYB:

  • Violeta – amarillo
  • Azul – Naranja
  • Verde – Rojo

Y que sean opuestos implica, fotográfica y visualmente, que van a contrastar más cuando los veamos juntos en una fotografía o en una ilustración, creando dinamismo y tensión visual.

Tono y saturación

Hasta ahora hemos visto lo que es el matiz o croma. Nos queda ver qué son las otras variables relacionadas con el color que utilizamos en fotografía. Los tres conceptos (matiz, tono y saturación) son los que en otro artículo utilizaremos para explicar los modelos de color, y en especial el modelo HSL (hue – matriz, saturation – saturación, lightness – luminosidad, luminancia o tono), donde la saturación la expresaremos entre matiz puro en un extremo y gris medio en el otro.

El tono es un concepto que depende del modelo en el que se representa. En fotografía lo entendemos mejor como una escala entre el negro y el blanco, que es la que sigue el modelo HSL, por eso he escogido ese modelo para un futuro artículo.

La saturación también depende del modelo, de nuevo, es en el modelo HSL donde mejor encaja con el entendimiento general en fotografía, que es una escala de valores comprendidos entre el matiz o croma puro (el color puro) y el gris medio.

Sobre el tono, hay una explicación muy curiosa que me encontré en el libro «El fotógrafo completo» de Tom Ang y que me costó entender. En la introducción da una definición de lo que llama «las dimensiones de la fotografía», indicando que nuestro estilo visual está basado en, al menos, siete dimensiones. Esas dimensiones yo las entiendo más como variables a las que damos un valor u otro para hacer una fotografía con nuestro propio estilo. Una de esas dimensiones indica que es la tonalidad. Y aquí viene lo curioso, lo explica indicando que en un extremo de la tonalidad tenemos el blanco y negro y en el otro un solo tono y no millones de tonos. En realidad está hablando del contraste. Según nuestro estilo y la foto que queremos obtener, podemos llegar en un extremo a jugar con el contraste hasta el máximo, obteniendo una fotografía donde las sombras y negros se irían hasta el negro profundo, y los blancos y altas luces se irían al blanco. Obtendríamos una imagen en dos «colores», blanco y negro (que no grises, es decir, no habría grises ni colores más o menos saturados, sólo píxeles o puntos blancos y negros). Si os imagináis el ying y el yang, esa sería una fotografía (o mejor dicho ilustración) que sólo emplea blanco y negro. Os comento que esos máximos y mínimos serían teóricos, con esto me refiero a que no vais a encontrar escalas o controles de contraste en los reveladores o editores que jueguen con esos dos extremos. Hablando de imagen digital, teóricamente aplicaríamos un algoritmo que, a partir de un valor pivote o un umbral, tome todos los píxeles por debajo de ese umbral y los lleve al negro, y los píxeles con valor igual o por encima de ese umbral los lleve a blanco.

Por otra parte, en el extremo opuesto de la dimensión que explica Tom Ang, si reducimos el contraste al mínimo, estamos transformando todos los píxeles, tanto negros y sombras como blancos y altas luces a un solo valor, bien un gris medio, un blanco o un negro. La única imagen posible entonces es un lienzo completamente gris, blanco o negro.

Si tenéis oportunidad de haceros con el libro, os comento que para mí fue interesante ver cómo muestra la forma en que trabajan profesionales de cada una de las temáticas de fotografía.

Teoría básica para entender cómo funcionan las imágenes digitales

Con esta entrada me he animado a publicar una serie de artículos sobre conceptos teóricos que ayuden a entender cómo funcionan las imágenes digitales y cuáles son sus bases. Como siempre, el objeto de este blog es dejar por escrito mis reflexiones, mis ideas y mis conocimientos sobre fotografía y sobre técnica, fundamentalmente para sintetizarlos y ordenar las ideas en mi cabeza al redactarlos, y ya de paso, dejarlo por escrito para todos y ayudar a quien quiera echarles un vistazo.

Seguramente más de uno se sorprenda de hasta dónde puede llegar un blog de fotografía como éste, pero la explicación a todo esto viene de algo que mi mujer definía así: «cada vez que te pones con algo parece que fueses a hacer un máster». Lo que traduzco en que mi curiosidad a veces me llega a dar miedo.

De dónde vienen mis conocimientos técnicos

Lo que pretendo escribir en estos artículos viene fundamentalmente de dos sitios, primero, de lo que recuerdo de mis tiempos de carrera universitaria, y segundo, de todo aquello que leo en los libros que cada día van haciendo crecer más y más mi biblioteca y en las múltiples páginas que pueblan Internet.

Visión robótica

Sonará raro, pero mi primer contacto con la teoría de la imagen viene de una asignatura llamada «Visión Robótica». Es curioso que sea ahora, con un hobby, con el que esté sacando más partido a lo que estudié en esta asignatura, entre muchas cosas que incluía: elementos de percepción visual, espacios de color, formatos de almacenamiento de imagen digital, histograma (tipos, transformaciones), operaciones con píxeles, filtros (los famosos paso bajo y paso alto mediante la transformada de Fourier), detección de fronteras y reconocimiento de patrones, y un largo etcétera.

¿Y qué tiene que ver el mundo de los robots con la fotografía? En realidad se relacionan a través de la imagen digital, más concretamente, a través del procesamiento de la imagen digital. La visión robótica abarca, por lo menos en aquella asignatura, la captación y procesamiento de imágenes digitales. Como decía antes, aplicaciones particulares podrían ser la capacidad de una máquina de ver y de reconocer objetos. Ésta se produce a través de algoritmos que toman la imagen y determinan las fronteras o contornos de los objetos que hay en la imagen. Una vez determinados los contornos, su forma se compara con las formas almacenadas en una base de datos del sistema de reconocimiento visual (la parte del susodicho robot que tiene visión) y cuando encuentra una coincidencia, establece el tipo de objeto que «sabe» que es, es decir, si la base de datos tiene almacenado el contorno de un coche y el robot ve un coche, tras simplificar la imagen y obtener el contorno y determinar que coincide con esa entrada en la base de datos, determinará que es un coche.

¿Tiene aplicaciones prácticas? Bastantes. Por ejemplo, un sistema de seguridad perimetral en un edificio o en el hogar podría detectar por barreras infrarrojas o microondas que alguien se está moviendo ahí fuera, y un sistema de visión robótica integrado en el sistema de seguridad sería el encargado de verificar si se trata de una persona, de un pájaro o de un perro, y generar una alarma sólo en el caso de tratarse de una persona. Útil en una finca en el campo para evitar falsas alarmas, ¿verdad?.

Bueno, del mundo de la robótica creo que ya está bien para ser éste un blog de fotografía.

Una extensa biblioteca de fotografía

El segundo origen de toda la información que me gustaría reflejar en esta serie de artículos es más cercano a lo que nos gusta. Libros y libros de todos los temas que abarca la fotografía: composición, técnicas de exposición, libros generales, libros más específicos, de autores como Michael Freeman, Bryan Peterson, Eduardo Momeñe, nuestro José B. Ruiz, y un largo etcétera. A éstos les sumo, aunque poco o nada técnicos y más artísticos (como a mí me gusta más), porfolios de fotografía de grandes autores como Ansel Adams, Edward Weston, Edward Curtis, Koudelka, Galen Rowell, Sebastiao Salgado, y otro largo etcétera.

¿Qué pretendo recoger en esta serie de artículos?

Para empezar, lo más básico de la fotografía: qué es en realidad la luz. Antes de leerlo, ¿sabríais dar una explicación de qué es la luz?.

En ese mismo artículo, ya que están muy relacionados los dos conceptos, me gustaría hablar del color, vuelta a la pregunta básica, ¿qué es el color? ¿cómo lo explicarías? Piénsalo antes de leer el artículo.

Ese primer artículo es la base de la fotografía, ya que, recordemos, su significado es «escribir con luz».

En un siguiente artículo, encadenando lo que habremos visto sobre luz y color, me gustaría hablar de cuatro fenómenos que a los fotógrafos de paisaje nos suele gustar recoger: la hora dorada, la hora azul, el cinturón de venus y la sombra de la tierra. Trataré de recoger una explicación con mis palabras de lo que significan y qué hay detrás de ellos.

Más adelante, en otro artículo, me gustaría hablar de los modelos de color más comunes que existen (RGB, CYMK, HSV y HSL), intentando establecer una relación con la luz. Sobre los modelos de color, en ese artículo me gustaría centrarme en el modelo RGB como base de la imagen en el monitor, el modelo CYMK como base de la imagen en papel y el modelo HSL, que creo que es el más adecuado para hablar de reveladores RAW y editores de imagen y así explicar los controles más básicos que tenemos a nuestro alcance en ellos.

Hablando de controles de los reveladores, también intentaré explicar un tema que a mí me parecía confuso al principio y mezclaba equivocadamente: qué es la temperatura de color y porqué al mover este control obtenemos lo que nos parece un resultado inverso. Trataré de explicar que la temperatura de color no tiene nada que ver, o más bien sigue el orden inverso a nuestra clasificación de colores cálidos y colores fríos, y de dónde viene el uso de la palabra «temperatura» cuando hablamos de color.

Luego intentaré ir explicando conceptos ya más tangibles y relacionados con la fotografía, y en algunos casos mejor dicho, con la imagen digital o la fotografía digital: histograma, medición de la luz y exposición, técnica básica de cálculo de iluminación con flash y con linterna en paisaje, la luz polarizada y el filtro polarizador, y otro más largo etcétera.

Bueno, pues por hoy ya está bien, mucho texto sólo para decir lo que me gustaría hacer, esperemos que no quede en el cuento de la lechera.

Una vez más, si has soportado esta verborrea hasta aquí, muchas gracias.

Artículos