Mes: abril 2014

Espacios de color: sRGB vs Adobe RGB

Este artículo tiene el objetivo de resolver unas cuántas dudas que solemos hacernos en fotografía respecto al espacio de color, o por lo menos, preguntas que yo me he hecho en el pasado: ¿qué espacio de color configuro en la cámara? ¿importa lo que configuremos si disparamos en RAW? ¿con qué espacio debemos trabajar en el revelado RAW a la hora de exportar a JPG?.

Antes de nada, mi intención no es sentar cátedra con este artículo, y me temo que las respuestas que voy a dar aquí no vienen de lo que estudié en la carrera, sino de la experiencia y de la teoría publicada en las innumerables páginas que hablan de este tema y que me vi obligado a curiosear cuando me hice estas preguntas.

¿Qué es un espacio de color?

Ya vimos en un artículo anterior lo que eran los modelos de color. Ahora es el turno del espacio de color, así que, para empezar, ¿qué es un espacio de color?. Un espacio de color está basado, generalmente, en un modelo de color, y define o incluye un subconjunto de colores dentro de los que se pueden generar a partir de las mezclas de los colores primarios que define el modelo de color.

Nuestras cámaras nos suelen permitir trabajar con dos espacios de color, Adobe RGB y sRGB, ambos basados en el modelo de color RGB, e incluyen un número de colores limitado dentro de todos los colores que se pueden formar mediante la mezcla de los primarios de RGB.

De ambos, Adobe RGB es un espacio con más colores que sRGB, aunque ninguno llega a representar toda la gama RGB completa. Entraría más a detallar cada uno de esos espacios, el número de colores visibles, los porcentajes de color visible que incluye cada uno, hablaría del espacio LAB, etc, pero para eso ya hay muchas más fuentes y explicarlo no va a aportar nada a la decisión de qué espacio de color utilizar para configurar la cámara y para trabajar en el revelador del RAW.

Un apunte más sobre estos espacios. Adobe RGB se definió para ajustarse mejor a la gama de color que puede generarse en una copia en papel a través de pigmentos en el modelo CMYK, así que Adobe RGB se suele utilizar para impresión, y sRGB es el espacio con el que trabajan la mayoría de monitores de gama baja y media, por tanto, sRGB en principio parece una buena elección para ver nuestras imágenes en el ordenador. Pero veamos más porque no todo es tan estricto y más bien para tomar la decisión tenemos que aplicar la lógica difusa.

RAW y el espacio de color

El primer dilema suele ser si debemos configurar la cámara con el espacio de color sRGB o el espacio Adobe RGB. Esta discusión sólo aplicará si hemos configurado la cámara para que genere un JPG (o TIFF en algunos modelos).

Si disparamos sólo en RAW, da igual el valor que configuremos, ya que el RAW es información en bruto y no hay conversión alguna a espacio de color. El parámetro sólo va a servir al programa de revelado para saber en qué espacio generar la imagen JPG o TIFF cuando hayamos procesado el RAW. Lo mismo que la temperatura de color. Aquí tenemos otra ventaja del RAW, el espacio de color es una decisión del revelado del RAW y no de la toma, lo mismo que la temperatura de color o que la profundidad del color en bits, eso sí, limitada como máximo a los 16 bits del RAW.

En el caso de Lightroom, y dependiendo de la cámara, incluso se ignora esta configuración, que quedará determinada por el perfil de exportación a JPG en el programa y no lo que venga indicado en el RAW, si es que el formato RAW del fabricante de la cámara en cuestión lo incluye como parámetro de la toma.

Como conclusión, el espacio de color configurado en la cámara es indiferente si disparamos en RAW.

JPG y el espacio de color

En cambio, si generamos y trabajamos en JPG directamente en desde la cámara, el procesador de imagen de ésta va a convertir el RAW a JPG, y aquí sí va a generar el JPG en el espacio de color que tengamos configurado. Si configuramos sRGB, estaremos limitando la gama de color, y si sólo disparamos en JPG, perderemos color irremediablemente en esa fotografía. Pero aquí, de nuevo, tenemos que aplicar la lógica difusa a la hora de decidir si es bueno o no para nosotros. Lo vamos a ver más abajo.

¿Cómo se verá un JPG con espacio Adobe RGB en un monitor?

Si generamos en cámara un JPG con Adobe RGB, “perfecto” para llevar al laboratorio de impresión que soporte ese espacio, pero, ¿cómo se verá en un monitor?, es más, ¿cómo lo habremos visto en el monitor a la hora de editarlo?. Si nuestro monitor trabaja en Adobe RGB, se verá adecuadamente y veremos casi todo el espacio de color representado en pantalla, por lo que haremos ajustes con fidelidad a lo que vamos a exportar a JPG en ese espacio de color.

Esto significa que veremos en pantalla casi toda la gama de color que va a imprimirse en la copia en papel . Digo casi todo el espacio porque no hay aún en el mercado monitores Adobe RGB que soporten todo el espacio Adobe RGB, los hay con unos porcentajes muy aproximados pero no al 100%, o al menos no lo he visto en ningún catálogo.

¿Y si visualizamos la imagen Adobe RGB en un monitor sRGB?

Decía “perfecto” entre comillas, porque si nuestro monitor trabaja en sRGB la cosa es distinta. Lo primero que nos preguntamos es: ¿cómo se verá en un monitor sRGB una fotografía JPG generada con Adobe RGB? ¿con muy mala calidad?. La respuesta necesita otra pregunta, o un matiz, que es: depende del monitor del ordenador con el que hayamos visto el RAW y generado el JPG en el espacio Adobe RGB.

Si lo hemos hecho con un monitor sRGB, según mi experiencia real, no hay diferencia a la hora de verlo en pantalla, ya que la imagen siempre la hemos visto limitada al espacio de nuestro monitor, el sRGB. En cambio, si lo hemos hecho con un monitor Adobe RGB, sí que vamos a notar la diferencia al verlo en un monitor sRGB, ya que la imagen va a sufrir un mapeo en la gama de color para ajustarse a sRGB, aunque esto también depende de la propia imagen y la cantidad de zonas de color de la imagen que se salen de la gama sRGB lo suficiente como para notarlo.

Además, también depende del software con el que visualizamos la imagen y su capacidad de realizar el mapeo entre ambos espacios de mejor o peor forma. Aunque tengamos un monitor Adobe RGB, si generamos un JPG en Adobe RGB y lo abrimos en ese mismo ordenador con un navegador, que sólo “habla” sRGB, y no sabe realizar el mapeo correctamente, veremos las cosas distintas.

¿Cuál es el problema de trabajar con Adobe RGB si no tenemos un monitor que lo soporte?

Casi ya estaba dicho o insinuado más arriba. El problema de trabajar con el espacio Adobe RGB en un monitor que sólo llega a sRGB nos lo encontraríamos si llevásemos ese JPG generado con el espacio Adobe RGB a imprimir a un laboratorio que soporte Adobe RGB.

El JPG con Adobe RGB lo vamos a ver en el monitor sRGB de una manera, con la paleta más reducida, y al imprimirlo en el laboratorio el resultado, que va a ser otro, será impredecible. Es decir, no habremos visto la imagen en pantalla con la misma gama de color de la impresión y lo que saldrá será un resultado a ciegas.

Ese resultado que vamos a obtener a ciegas en papel puede ser grato o no. Grato por superar la calidad de lo que habíamos visto (más detalle, mejores degradados,…), o no grata porque pueden aparecer detalles que no habíamos visto y que no deseábamos, o que aparezcan colores intermedios que no habíamos visto o que quedan más saturados y que no nos gustan una vez impresa la copia.

Por tanto, si nuestro monitor es sRGB, al trabajar con el espacio sRGB, lo que vemos se acercará más a lo que va a imprimirse en papel, lo cual es una ventaja. Como desventaja, perdemos o destruimos información en el JPG (más gama de color), pero ganamos en control y fidelidad sobre lo que luego vamos a ver impreso en una copia en papel.

Lo bueno, como siempre, es disparar en RAW, tener toda la información en bruto y luego al revelar y generar el JPG, decidir el espacio de color en función de nuestro equipo (monitor) y el destino que vamos a dar al JPG. Así, nunca vamos a perder información, que conservaremos siempre en el RAW.

¿Cómo ven otras personas nuestros JPG Adobe RGB?

Esta pregunta también es importante. Aunque generemos el JPG en Adobe RGB porque nuestro monitor lo es, tenemos que tener en cuenta si queremos publicar el JPG para que lo vean otros en su navegador y si queremos ver en el nuestro lo que van a ver los demás en su propio ordenador.

Como decía antes, los navegadores sólo soportan sRGB y no hacen ningún tipo de mapeo, por lo que si el destino del JPG es publicarlo en web, tendríamos que generar el JPG en sRGB y así ver el resultado de la misma forma que lo verá el resto en su ordenador a través de la web, independientemente del tipo de espacio de color que soporte nuestro monitor.

En realidad, hay algo que complica más esto, ya que cada navegador implementa el espacio de color con diferencias, por lo que una imagen vista en un navegador concreto no tiene por qué verse igual en otro navegador distinto.

Conclusión Adobe RGB vs sRGB

Por tanto, si tenemos monitor Adobe RGB, podemos generar un JPG en Adobe RGB para llevar a imprimir y no perdemos gama de color. Y si queremos generar un JPG para publicar en la web, lo tendremos que hacer con el espacio sRGB para que podamos ver y comprobar cómo lo verán los demás.

Y si tenemos un monitor sRGB, será mejor generar ambos JPG (para papel y para web) en sRGB, porque así tenemos fidelidad al ver en nuestro monitor lo que luego van a ver los demás y lo que luego va a pasar a papel. Habremos perdido gama de color, pero nunca la hemos podido ver en nuestro monitor sRGB, por lo que no debería importarnos (si seguimos conservando el RAW para un futuro).

¿Tenemos asegurada la fidelidad al generar un JPG generado con el espacio sRGB si trabajamos con un monitor sRGB?

Aquí interviene de nuevo la lógica difusa, depende. Si nuestro monitor es de gama baja o media tampoco va a soportar al 100% el espacio sRGB, por lo que la gama que incluye el JPG que hemos generado en ese espacio tampoco llegamos a verla como es en realidad, y si el laboratorio sí se ajusta al 100%, lo que saldrá en papel también será un resultado incierto que nunca habremos visto en nuestro monitor.

Las cosas ya están suficientemente liadas, pero para liarlas aún más, además del espacio de color del monitor, la calibración del color del monitor es otra variable que también va a influir en la fidelidad de uno y otro.

Un último detalle

Hay una diferencia entre ambos espacios, lógica aunque poco importante. Como Adobe RGB es un espacio capaz de representar más colores, esto no sale gratis en el tamaño del archivo, es decir, el JPG que incluya más información (más colores) pesará más, aunque una diferencia mínima y debería importarnos bien poco.

Anuncios

Profundidad de color: 8 y 16 bits

Hoy toca hablar de la profundidad de color a la que suelen trabajar los programas de edición y que también viene condicionada por el formato de imagen digital que elegimos.

Las dos profundidades de color más habituales son 8 y 16 bits, pero ¿qué significa la profundidad y cómo afecta a la imagen? Vamos a ver la explicación ayudados del modelo de color RGB que vimos en el artículo anterior en el que hablábamos de los tres canales o colores básicos que define este modelo: rojo, verde, azul.

Profundidad de color de 8 bits

La profundidad a 8 bits la solemos ver en los programas de edición como valores desde el 0 al 255 para cada color primario del modelo RGB (rojo, verde azul). Un pixel con valor R – 0, G – 255, B – 0 se interpreta como un verde puro, y en pantalla se muestra porque de los tres LEDs que forman el píxel, el rojo, al tener valor 0, está apagado, el verde, al tener 255, el valor máximo, estaría encendido a su máxima intensidad, y el azul, también a 0, estaría completamente apagado.

Por cierto, la escala de 0 a 255 no es casual, aquí interviene el concepto de bit y de byte. El byte es el orden de magnitud que nos permite recoger esa escala de 0 a 255, y un byte equivale a 8 bits. Esto nos indica que la profundidad de color es de 8 bits. Si trabajamos con 8 bits de profundidad de color, estaríamos hablando de que utilizamos 8 bits para representar cada uno de los tres canales (rojo, verde, azul).

¿Por qué el 8 y qué tiene que ver con 255? Los 8 bits en binario nos indican cuántos valores utilizamos para representar un número y hasta qué máximo podemos llegar, y llevado a LEDs, cuántas intensidades distintas podríamos obtener, es decir, la amplitud de la gama de colores. 8 bits en binario permiten representar 2^8 (2 elevado a 8) valores, es decir, 256 valores (del 0 al 255) para cada color primario.

Por no entrar mucho en detalles, los que no conozcan el sistema binario, éste se basa en un dígito de dos valores, 0 y 1. Otros sistemas comunes son el octal (valores del dígito del 0 al 8), decimal, que es el más habitual, con valores de un dígito entre 0 y 9, y el hexadecimal, con valores del 0 al 9, además de la A a la F. Así, nuestro sistema decimal habitual representa el “diez” como 10, ya que no tiene un dígito para representar ese número. En cambio, en hexadecimal podemos representarlo con un dígito, la A. Y en binario, la cosa se reduce aún más, con un dígito podemos representar el cero con 0 y el uno con 1, pero ¿y el dos?, pues siguiendo el mismo ejemplo que con el diez, tenemos que pasar a representarlo con dos dígitos, así, el dos se representa con 10 en binario.

Tomando los 8 bits, el rojo podría tomar valor de 0 (apagado) a 255 (rojo de máxima intensidad), el verde también de 0 a 255 y el azul lo mismo. Así, un pixel RGB=0,0,0 representa al negro, RGB=0,0,255 representa un pixel azul, RGB=255,255,0 representa el amarillo puro (mezclando rojo y verde), RGB=255,0,255 representa el magenta (mezclando rojo y azul). Hablo de cero a doscientos cincuenta y cinco en decimal como 0 a 255, pero en binario hablamos de 00000000 a 11111111, de ahí el 8, tenemos 8 dígitos en binario para representar el valor máximo, es decir, 8 bits.

Si en lugar de utilizar valores máximos 255, utilizamos valores inferiores, obtendríamos colores menos puros (es decir, menos saturados). Por ejemplo, RGB=192,192,0 correspondería a un amarillo pero más grisáceo (menos saturado).

Los grises siempre se formarían con el mismo valor para los tres canales. RGB=10,10,10 sería un gris muy oscuro, RGB=200,200,200 sería un gris muy claro.

Los 8 bits por canal nos permitirán representar un píxel con 8×3 = 24 bits por píxel. Así, 2^24=16.777.216 colores posibles, incluyendo negro, blanco y grises. Estamos hablando de unos 16 millones de colores en total para los 8 bits por canal (lo que se llama true color).

Hay programas de edición como Gimp que trabajan con 8 bits por canal, lo que significa que nos permiten ver una fotografía y editarla con un máximo de 16 millones de colores posibles.

Profundidad de color de 16 bits

Si tuviésemos 16 bits por canal, que son dos bytes, tendríamos 2^16, es decir, 65536 valores (del 0 al 65535 en sistema decimal) para cada uno de los tres canales (en binario tendríamos 16 ceros a 16 unos). Así, con una profundidad de color de 16 bits, en RGB, cada color primario podría tomar 65536 valores, y combinados, generar una gama de color de 16×3=48 bits por píxel, lo que se traduce en 2^48=2E14, unos 282 millones de millones de colores (282 billones de colores).

Así que esta es la ventaja del RAW sobre el JPG directo de cámara, el RAW capta valores en ese rango de 16 bits por canal, y si sólo trabajamos en JPG en cámara, el procesador de imagen de la cámara convierte los valores a 8 bits, perdiendo capacidad de representación de más colores en el archivo de la imagen digital. Es decir, JPG está limitado a 8 bits por canal.

¿Y perdemos mucho? Pues el RAW con sus 16 bits es un buen negativo con información de color que no va a poder verse en pantalla (excepto pantallas de gran calidad y con una tarjeta gráfica a la altura) pero esa información sí nos será útil para generar una copia en papel, aunque esto también tiene sus problemas, como veremos en un artículo dedicado al espacio de color.

¿Por qué no vamos a ver todos los colores de la gama de los 16 bits del RAW en pantalla? Tanto los monitores como las gráficas limitan lo que puede representarse con un ordenador. Nuestra gráfica normalmente trabaja a 32 bits por píxel, que se corresponde con 4 bytes (8 bits x 4), de esos 4 bytes, 3 representan el color (los 3 x 8 = 24 bits), y el byte restante el canal alfa de transparencia (para vídeo, 3D, etc). Por tanto, con nuestro monitor y gráfica estándar, veremos en pantalla 2^24 = 16 millones de colores y no los 282 billones de colores que podemos obtener con la profundidad de 16 bit por canal del RAW (48 bits en total por píxel).

Modelos de color (RGB, CMYK, HSV/HSL)

Continuando esta serie de artículos sobre imagen digital, hoy toca hablar de los modelos de color. El objetivo será ver la diferencia entre los distintos modelos, entender mejor el modelo HSL, que es el que utilizamos al revelar una imagen digital desde un RAW.

El modelo RGB nos servirá en un próximo artículo para entender las diferencias entre profundidad de color de 8 y 16 bits, y en otro artículo, para entender lo que son y qué diferencias hay entre espacios de color.

Como siempre, hablaremos en términos de radiación electromagnética y espectro visible, aquellos que describía en el primer artículo.

¿Qué es un modelo de color?

Un modelo de color establece un conjunto de colores primarios a partir de los que, mediante mezclas, se pueden obtener otros colores hasta cubrir todo el espectro visible, además del propio blanco, negro y grises, y aún más. Por ejemplo, hay colores, como el marrón o el magenta, que no están presentes en el espectro visible, y es nuestro cerebro el que lo interpreta a partir de la combinación de ondas con diferentes longitudes.

Los modelos de color más comunes son RGB (utilizado en monitores) y CMYK (utilizado para impresión), que veremos más adelante.

Modelos aditivos y sustractivos

Hay dos tipos de modelos de color, los aditivos y los sustractivos. Un modelo aditivo se basa en la adición o mezcla de los colores básicos como forma para obtener el blanco.

Un modelo sustractivo se basa en la mezcla de los colores primarios de dicho modelo para “sustraer la luz”, es decir, para obtener el negro, que como comentábamos en el artículo de la luz, es la ausencia de luz.

Si recordamos del primer artículo, cuando empleamos el término “color” en realidad nos referimos al “matiz” o “croma”. Y junto a los colores también tenemos los tres casos especiales: el blanco, el negro y los grises.

Modelo RGB

Volviendo a los modelos de color más habituales en fotografía, el modelo RGB define como colores primarios el rojo, el verde y el azul. La combinación de los tres genera blanco. La ausencia de los tres genera negro. Las diferentes mezclas entre ellos representarían toda la gama de color. De nuevo, los grises se representarían con diferentes intensidades de cada color, pero siempre los tres con el mismo valor.

El modelo RBG se utiliza cuando se representa color mediante haces de luz (pantallas o monitores). Un pixel en un monitor se representaría mediante tres subpíxeles o células: una roja, una verde y una azul, correspondiendo cada una a un LED o diodo emisor de luz del respectivo color.

Si los tres diodos están apagados, obtendríamos el negro. Si están encendidos a diferentes intensidades, obtendríamos colores, si están todos encendidos con la misma intensidad y al máximo, tendríamos el blanco, y si la intensidad es menor pero igual en los tres diodos, obtendríamos grises.

Modelo CMYK

Es un modelo sustractivo y se utiliza en impresión a partir de pigmentos de tres colores básicos: C – cian, M – magenta y Y – amarillo. La K viene del negro, ya que la combinación de los tres anteriores produce un negro poco puro, de ahí que se añada al modelo un pigmento negro puro. Al contrario que en RGB, donde el negro es la ausencia de luz, en CMYK el blanco se representa aquí como ausencia de pigmentos.

Los colores intermedios se producen a partir de la mezcla en distintas proporciones de los pigmentos base.

Hay una relación entre los modelos RGB y CMYK, ya que con la mezcla a igual parte de cada uno de los colores básicos de un modelo obtenemos los primarios del otro.

En RGB (rojo, verde, azul):

  • Rojo y verde en iguales proporciones: obtenemos amarillo – Y de CMYK
  • Rojo y azul en iguales proporciones: obtenemos el magenta – M
  • Verde y azul en iguales proporciones: obtenemos el cian – C

En CMYK (cian, magenta, amarillo):

  • Cian y magenta en igual proporción: obtenemos el azul
  • Cian y amarillo en igual proporción: obtenemos el verde
  • Magenta y amarillo en igual proporción: obtenemos el rojo

Modelo HSV y HSL

Estos modelos incluyen otros dos parámetros adicionales al matiz o croma para obtener el color, que son la saturación (en ambos) y el valor (en HSV) o la luminosidad o tono (en HSL). De ahí sus siglas: HSL (H – hue o matiz, S – saturation o saturación, L – luminosity o luminosidad/tono), HSV (idem excepto V de value o valor).

La diferencia entre HSV y HSL es que en HSV la saturación va del color puro al blanco, y en HSL la saturación va del color puro al gris medio, y el tono, en HSV va desde el negro al color, y en HSL va desde el negro al blanco. De ahí que HSL sea el que se utiliza más comúnmente en fotografía.

Lightroom, que se basa en HSL, dispone de controles para alterar H – matiz, S – saturación y L – Tono para los siguientes colores: rojo, naranja, amarillo, verde, cian, azul, violeta y magenta.

Siguiendo con Lightroom, éste nos permite fijar la saturación entre gris y color puro para esos 8 colores. Respecto al matiz, nos permite virar los 8 colores a los adyacentes que comentaba en el artículo de luz y color, por ejemplo, para el rojo, desde magenta a naranja.

Por último, respecto al tono, Lightroom nos permite oscurecer cada uno de esos 8 colores hasta el negro, o bien aclararlo hasta llegar al blanco.

Si utilizásemos un programa basado en HSV, el control del matiz sería similar, el control de la saturación nos permitiría llevar un matiz dado a su expresión más pura, o bajar su saturación hasta llegar el blanco, raro, ¿verdad?. Y respecto al tono, nos permitiría para un matiz dado, bajar su tono hasta el negro o subirlo hasta el color puro, también raro, ¿verdad?.

¿Cuál es el origen de la hora dorada, la hora azul y el cinturón de venus?

Aunque supone desviarse un poco más de esta serie de artículos técnicos sobre imágenes digitales, hoy vamos a hablar del origen de tres fenómenos de luz que apreciamos bastante en fotografía de paisaje y que llamamos “hora dorada”, “hora azul” y “cinturón de venus”.

Sabemos cuándo se producen, y si no, lo veremos aquí, pero ¿qué los provoca? ¿qué explicación hay detrás de cada uno?.

La culpable de estos tres fenómenos es la dispersión de la luz. En el artículo anterior, necesario para entender estos fenómenos, explicaba qué es la luz y qué es el color, hablaba del espectro electromagnético visible y comentaba que la luz es radiación electromagnética cuya longitud de onda está comprendida en el rango de ese espectro visible, y que el color es la interpretación de nuestro cerebro a cada longitud de onda. Además, comentaba que la luz blanca es la mezcla de todas las ondas del espectro visible, es decir, es la radiación que se propaga en una misma dirección a través de ondas con todas las longitudes comprendidas en el espectro visible.

Así pues, la luz viaja en forma de ondas por el espacio y atraviesa la atmósfera hasta llegar a nuestros ojos, o hasta chocar contra elementos y reflejarse para llegar a nuestros ojos, lo que posibilita que veamos lo que nos rodea.

Al atravesar la atmósfera y sufrir dispersión por refracción, las ondas de la luz blanca (distintos colores) cambian de dirección y se separan. Al separarse las diferentes ondas (diferentes colores), la luz con menor frecuencia de onda sufre menos esta dispersión, y la que más frecuencia de onda posee, sufre más dispersión.

El rojo, naranja y amarillo tienen menor frecuencia de onda (por ese orden), el violeta, el azul y el verde tienen la mayor frecuencia de onda (también por ese orden), por tanto, al dispersarse la luz blanca por refracción, la luz roja, naranja y amarilla sufren menos la dispersión (se desvía menos de su dirección original), y el violeta, azul y verde la sufren más.

Hora dorada

Esto explica por qué al atardecer o al amanecer, momentos a los que llamamos hora dorada, vemos la luz más rojiza o anaranjada o de un cálido amarillo, porque al estar el sol en un ángulo bajo, los rayos nos llegan atravesando más atmósfera y sufren más dispersión por refracción, viéndose menos afectadas las radiaciones con longitud de onda del rojo-naranja-amarillo, y por tanto, llegando hasta nosotros con mayor intensidad.

Y como las radiaciones con mayor frecuencia (violeta, azul, verde) se ven más afectadas por la dispersión por refracción, nos llega menos radiación de estos colores, que quedan más dispersos en la atmósfera, y por eso no vemos estos matices más fríos durante la hora dorada.

Crepúsculo o la hora azul

En cambio, cuando el sol se oculta y comienza el crepúsculo civil, lo que llamamos hora azul, la luz violeta, azul y verde, que es la que tiene una frecuencia de onda mayor y se ve más afectada por la dispersión, rebota en la atmósfera y es la que domina todo.

La luz roja, naranja y amarilla, al no dispersarse y rebotar en la atmósfera, no logra llegar hasta nuestra vista una vez que el sol se ha ocultado.

Cinturón de venus

Una excepción a esto, y que se da durante un breve momento al comenzar el crepúsculo, es el cinturón de venus.

El cinturón de venus es una franja rosada que se puede ver en dirección contraria de la puesta de sol y franqueada por abajo con una banda de azul más oscuro (la sombra de la tierra) y por arriba otra banda de azul más claro (luz dispersa que antes he comentado).

La banda rosada se forma con los últimos rayos de sol casi directos. Las ondas correspondientes al rojo de esta última luz casi directa sufren una leve dispersión por refracción, haciendo que la luz rojiza se curve y se concentre en esa banda. La intensidad de esa luz roja tan suave por la dispersión se mezcla con el azul que domina ya toda la hora azul, y al mezclarse el rojo con el azul intenso hace que la banda tome ese matiz rosado.

Sombra de la tierra

La sombra de la tierra es la banda azul que hay por debajo del cinturón de venus, y se forma porque la luz blanca que llega del sol es tapada por la tierra, y en dirección contraria lo que vemos en esa banda es ausencia de luz directa, es decir, vemos sombra.

Un ejemplo del cinturón de venus

En esta fotografía, realizada en el crepúsculo tras el atardecer, podemos ver un leve cinturón de venus. Debajo podemos ver la banda azul que forma la sombra de la tierra.

Lagunilla del Yelmo, otoño 2013

Lagunilla del Yelmo, otoño 2013

Hay ocasiones en las que podemos confundirnos. En la siguiente fotografía hay una banda rosada, pero esta vez la cámara apunta al sol. En este caso, que es un amanecer, la banda no es el cinturón de venus sino las nubes y la bruma del mar pintada por los primeros rayos de sol, también mezclados con el azul que aún domina todo hasta que el sol se eleve más.

Maro, amanecer de verano, 2013

Maro, amanecer de verano, 2013

Un ejemplo de la hora dorada

En esta otra fotografía podemos ver un atardecer en el que el sol ya está bajo y la luz cálida amarilla lo domina todo.

Pantano de Santillana #7

Pantano de Santillana #7

En la siguiente fotografía de un amanecer en el que la cámara apunta al sol, podemos ver que aún hay mucha luz azul del crepúsculo, pero los rayos cálidos del sol ya van dibujando una franja sobre el horizonte.

Frío caliente

Frío caliente

Pico de la Maliciosa, Sierra de Guadarrama, primavera 2014

La Maliciosa #1

La Maliciosa #1

Para mí éste es el pico más fotogénico de toda la Sierra de Guadarrama. Con 2.227 metros de altitud, su nombre proviene de “montaña maliciosa” por lo escarpada y difícil de escalar que es.

Esta fotografía muestra su cara suroeste bajo un ligero manto de nieve de primavera, quien sabe si la última de este año. Las nubes bajas, que han cubierto la Sierra de Guadarrama durante todo el día, van despejándose al atardecer, dejando entreverla por un instante antes de que las últimas luces suaves del crepúsculo se apaguen.

Primer intento

Dos días, mejor dicho, dos sesiones en dos días diferentes me llevaron a esta fotografía. Antes de subir ya tenía en mente dos esquemas con este fondo formado por las suaves diagonales que constituyen las laderas en esas tres capas con pendiente inclinada a la derecha del encuadre. También tenía en mente un primer plano totalmente cubierto de nieve, esperando encontrarme algún arbusto o mata en el primer plano para rellenar con algún motivo la uniformidad de la nieve y crear un diálogo entre el arbusto o mata y el pico en el fondo , pero cuando llegué al lugar ya sólo quedaban varias manchas de nieve intercaladas sobre la hierba, por lo que cambié un poco el esquema visual que tenía en mente.

El primer día, tras una hora y media de subida a pie con la pesada carga que supone todo el equipo, me encontré una espesa capa de niebla que no dejaba ver la montaña, es más, nada a más de cuatro o cinco metros. Una desilusión que pronto se vio calmada cuando decidí dedicarme a jugar con encuadres utilizando la niebla y el aspecto fantasmal de unos árboles solitarios que se dejaban entrever.

La Maliciosa ocultada por las nubes

La Maliciosa ocultada por las nubes

Ese primer día también me acompañó una lluvia persistente con un viento de cara que hizo muy complicado fotografiar, constantemente intentando tapar y secar el objetivo. El viento impedía utilizar un paraguas, de hecho, llevaba uno que quedó maltrecho con la primera ráfaga, además, no llevaba funda de lluvia para la cámara, que aguantó el tipo bastante bien para no estar sellada, al igual que el objetivo gran angular que llevaba puesto.

Como resultado, me pude llevar algo a casa, estas dos fotografías de los guardianes misteriosos entre la niebla que custodiaban a La Maliciosa.

Segundo intento

Fue el segundo día cuando logré hacer la fotografía que tenía en mente. No pude hacerla del todo como había pensado pues la nieve no cubría el primer plano por completo, pero gracias a ello la composición incluye esa línea diagonal que forma la frontera entre hierba y nieve y que se hace eco de las diagonales de las laderas.

Composición

Elegí un encuadre vertical para dar profundidad y simplificar la composición, descartando otros elementos y planos que hubiesen aparecido en un encuadre horizontal. La toma vertical recoge bien el pico en toda su altura y estira el recorrido visual.

Como en un principio tenía previsto, podría haber buscado una mata que cayese en la esquina contraria para marcar un diálogo directo en diagonal entre la mata y el pico que arrancase desde la esquina inferior izquierda, pero en este caso, al encontrarme con poca nieve y esa diagonal opuesta que suponía la frontera entre hierba y nieve , el recorrido visual de ese diálogo entre elementos se habría cruzado con diagonal de la nieve, interfiriendo con esta última y formando una X que no deseaba. Por eso prefiero que la mata, estando en la esquina inferior derecha, sea el punto de arranque de la línea diagonal que forma la nieve y no se crucen recorridos visuales. Así, el recorrido visual que yo hago tiene forma de zig-zag, comenzando por la mata, siguiendo la diagonal de la nieve y acabando en el pico.

Para mí, la presencia de capa de nieve en primer plano era importante, porque permite simplificar y dar uniformidad a la fotografía, además de hacer destacar mejor a la mata a través del contraste de tonos, que de otro modo habría pasado totalmente desapercibida. La verdad es que me cuesta buscar un primer plano en la montaña para recudir la complejidad de elementos si no hay alguna charca, laguna o nieve que lo simplifique.

La diagonal que forma la frontera nieve en primer plano, además de vertebrar el recorrido, divide la fotografía en dos zonas de tonos diferenciadas, claros en el inferior y oscuros en el superior. Aunque en principio podría haber un desequilibrio de peso visual entre zona superior (con más elementos) y zona inferior (más despejada), si nos guiamos por el criterio compositivo que indica que el tono blanco tiene más peso visual que el negro, y que la zona superior también tiene más peso que la zona inferior del encuadre, ambas quedarían compensadas. Además, de esto se encarga la mata aislada, que constituye un punto aislado que tira de la vista hacia abajo para que ésta no quede anclada en la zona superior.

Por supuesto, todos estos criterios dependen de factores culturales, por lo que mi lectura es personal.

Luz

La fotografía está hecha al atardecer, con el sol a la espalda, 45º a la izquierda, pero tapado por las nubes, lo que aporta la suavidad de la luz difusa, creo que así refuerza el aspecto frío de la imagen.

Además, tanto la difusión de la luz como el predominio del blanco de la nieve han hecho que la paleta de color quede bastante reducida, reforzando más aún la frialdad de la escena.

Técnica

Disparada con una apertura de f13. Tanto f11 como f13 son un buen compromiso si queremos obtener una profundidad de campo suficiente sin comprometer en exceso la calidad por la aparición de la difracción. El resto de datos técnicos son: ISO 100, 3.2 segundos de velocidad del obturador, distancia focal 22mm. Balance de blancos automático, medición de exposición puntual forzando el histograma a la derecha tomando como referencia la nieve del primer plano como punto más luminoso de la escena. Enfoque manual calculando hiperfocal.

La distancia focal es importante para dar tamaño y presencia a la montaña. Si hubiese disparado a la mínima distancia focal que tiene el objetivo (10-22mm, equivalente a 16-35mm), es decir, 16mm en formato completo, la montaña habría quedado demasiado pequeña. Por tanto, opté por utilizar una distancia mayor (35mm en formato completo) y alejar la posición de disparo, conservando el tamaño del primer plano a la vez que aumentando el tamaño del fondo.

Otras fotografías de la sesión

Aunque me quedo con ésta por cómo las nubes envuelven a La Maliciosa, durante la sesión pude mostrar este pico de forma más íntima, tal y como podemos ver en las siguientes fotografías que cierran el artículo.