Técnica

Montaña bajo la luz de un amanecer

Siguiendo con la reflexión del artículo anterior sobre la luz, en éste me gustaría enfrentar cara a cara dos momentos diferentes de una misma escena en Sierra Nevada con una composición casi idéntica y demostrar que merece la pena el sacrificio de buscar una luz adecuada; o al menos las sensaciones que podemos tener al contemplar el espectáculo de luz de un amanecer en la montaña.

La primera fotografía es un borrador hecho con el móvil a las 12:30 de la mañana. La luz cenital y blanca resulta bastante aburrida.

La segunda fotografía está hecha al amanecer, justo cuando el sol casi ha despuntando y una suave luz rosada ilumina parte de los raspones, la misma que se proyecta sobre las nubes lejanas a la izquierda.

¿Hablamos de un «alpenglow» o simples rayos solares? La fotografía está hecha unos pocos minutos antes de que el sol se eleve por el horizonte (-1.4 grados) y esa luz no proviene de rayos solares directos sino que en realidad es un resplandor rosado. Por tanto, sí se trata de un «alpenglow». ¿Y de dónde viene exactamente? Es el resplandor de la luz que había a mi espalda, la de la siguiente fotografía, que está hecha un minuto después que la anterior. En ésta otra el sol tampoco se ha elevado y está a -1.2 grados (podré decirlo con esa exactitud siempre y cuando el reloj de mi cámara no esté muy dislocado).

Es todo un espectáculo ver cómo ese resplandor rosado —el cinturón de venus o arco anticrepuscular— va cambiando al elevarse el sol. Si miramos hacia el punto antisolar (de espaldas a la salida del sol), cuando éste está más bajo el resplandor rosado se proyectará sobre las nubes más altas. Según vaya ascendiendo el sol, el resplandor rosado irá bajando, las nubes altas se irán destiñendo y volviéndose grises, y las más bajas se teñirán de rosa. Así hasta llegar a tocar las cimas de las montañas, que será el momento en el que veamos ese «alpenglow». Cuando el sol supere el horizonte (se eleve por encima de los cero grados), el cinturón de venus desaparecerá y habrá comenzado la «hora dorada», cambiando la luz de la escena de un rosa delicado a un dorado intenso.

Más fotografías del amanecer en Luces de primavera en Río Seco.

Ingredientes de una fotografía

Hace un mes que no escribo y hace mucho más que no salgo a fotografiar. Otoño apático que a mí por ahora no me ha inspirado mucho, seguramente porque se está pareciendo más a un aburrido verano —hablando en sentido fotográfico— que a la época mágica que debería ser. Nada de nieblas que envuelven el paisaje de misterio, ni rastro de amaneceres donde la luz cálida choca contra la neblina y se dispersa creando un velo dorado. Y lo peor de todo, los árboles están perdiendo ya sus hojas sin haber mostrado apenas una tímida fiesta de color.

El «buen tiempo común» saca a la gente a la calle, y a mí también me gusta disfrutarlo; pero disfruto más en la naturaleza si hay «buen tiempo fotográfico», por lo menos el que yo entiendo así. Hace pocos días daba un paseo en la montaña bajo una intensa lluvia y así es como disfrutaba de verdad.

Mientras sigue este «buen tiempo común» seguiré aprovechando momentos para estar más en casa y leer, repasar mis libros de fotografía y dar una nueva vuelta a mi archivo. En uno de esos momentos estaba archivando bocetos de los que suelo tomar con el móvil y he visto una fotografía de Mónsul. Al ver el boceto y la fotografía acabada se me ha ocurrido escribir este breve artículo sobre luz y composición, los dos ingredientes básicos —más bien únicos— de una fotografía.

El boceto es el siguiente. Lo hice la tarde anterior, cuando la luz era aún dura, de hecho es un contraluz. No me suele gustar mucho hacer fotografías a contraluz, así que tomé el boceto para echarle un vistazo después de la cena y pensar cómo haría la foto al amanecer del día siguiente (al final casi idéntica). La composición está más apretada que en la foto final, y la razón es técnica, el móvil no permite más angular y detrás había una pared que no me permitía abarcar más separándome de la escena.

En la fotografía final (más abajo) la luz es suave, el sol estaba a mi espalda y además no había superado el horizonte.

¿Qué lleva de una a otra? La luz. El boceto está tomado a la hora en la que estaba allí, una buena hora para pasar un día de playa pero algo menos para fotografiar (según lo que queramos). Y para conseguir esa luz: paciencia —además de sacrificio— y técnica.

Paciencia porque tendría que volver muchas veces y muy temprano para lograr una luz aún mejor, lo que depende de muchos factores, como las nubes o la época. Las nubes, y sobre todo las corrientes de aire ascendentes provocadas por los cambios de temperatura, porque elevan partículas que van a filtrar la luz del sol, potenciando así el color. La época por la posición del sol y la trayectoria de elevación; en función de ésta, los rayos tendrán que atravesar más o menos atmósfera y la luz se filtrará mostrándose de una manera más mágica o más anodina. Sacrificio porque hay que levantarse temprano y pasar frío, o perderse la hora de la cena durante un viaje en el que supone que vas a descansar y a pasártelo bien.

Y técnica porque la luz hay que aprender a manejarla y captarla, hay que aprender a ver como lo hace una cámara y a entender sus limitaciones a la hora de registrar la luz (el rango dinámico y la latitud de la película) y sus limitaciones a la hora de plasmar en dos dimensiones una escena en tres dimensiones (algo que a simple vista —tres dimensiones— nos parece interesante, puede dejar de serlo al captarlo la cámara —dos dimensiones—, teniendo que buscar separación de las distintas capas por cambios de tono entre ellas).

Además de luz, el otro ingrediente es la composición: elegir la disposición de los elementos, dónde colocar los bordes del encuadre para encerrar la escena y elegir sujetos que atraigan. Todo puede estar muy bien colocado pero no decir nada si el sujeto es realmente feo.

¿Qué diferencias compositivas hay entre el boceto y la fotografía final? Simplicidad: para reflejar calma utilicé un filtro neutro de seis pasos, eso me permitió convertir el agua en un plato casi liso; mi objetivo principal al hacerlo era simplificar la escena eliminando oleaje y no recargando la composición con una textura rugosa en el mar.

¿Otra diferencia? Aire en los bordes del encuadre. Un plano más abierto ha permitido dar aire al promontorio —mejor separación de éste con los bordes del encuadre, tanto lados como superior— y no crear una sensación de agobio. Este tipo de sensaciones «feas» suelen denominarse «tensión visual» porque el ojo percibe algo que molesta y se distrae con ello.

Otra diferencia, aunque no tan notable, es el recorrido visual, cómo he elegido el cañón de agua para que guíe la mirada hacia el fondo; en el boceto el cañón, además de que es poco perceptible por falta de luz en el primer plano, apunta casi al borde izquierdo del encuadre, y casi saca la mirada de la fotografía.

Y una última diferencia, equilibrio entre primer plano y fondo. Siempre hablamos de equilibrio simétrico y asimétrico pensando en una balanza de peso visual izquierda-derecha pero nos olvidamos del equilibrio en tres dimensiones, el de profundidad, equilibrio entre primer plano y fondo. Un objeto distante pesa más —en términos visuales— que uno cercano. Por tanto, si un objeto en primer plano es más pequeño comparándolo con un objeto en el fondo, el primero pesará menos visualmente. En la composición hay un diálogo entre dos elementos principales: el cañón de agua en primer plano y la peineta en el fondo. En el boceto están en desequilibrio porque la peineta ha quedado demasiado grande respecto al cañón, por lo que éste último pasa bastante desapercibido y la vista se va directamente a la peineta por su mayor tamaño y por estar en el fondo —además, a ello contribuye que está poco iluminado—. En la fotografía final, al utilizar un gran angular, he conseguido reducir el tamaño del promontorio respecto al cañón de agua, así la composición ha quedado más equilibrada.

Espacios de color: sRGB vs Adobe RGB

Este artículo tiene el objetivo de resolver unas cuántas dudas que solemos hacernos en fotografía respecto al espacio de color, o por lo menos, preguntas que yo me he hecho en el pasado: ¿qué espacio de color configuro en la cámara? ¿importa lo que configuremos si disparamos en RAW? ¿con qué espacio debemos trabajar en el revelado RAW a la hora de exportar a JPG?.

Antes de nada, mi intención no es sentar cátedra con este artículo, y me temo que las respuestas que voy a dar aquí no vienen de lo que estudié en la carrera, sino de la experiencia y de la teoría publicada en las innumerables páginas que hablan de este tema y que me vi obligado a curiosear cuando me hice estas preguntas.

¿Qué es un espacio de color?

Ya vimos en un artículo anterior lo que eran los modelos de color. Ahora es el turno del espacio de color, así que, para empezar, ¿qué es un espacio de color?. Un espacio de color está basado, generalmente, en un modelo de color, y define o incluye un subconjunto de colores dentro de los que se pueden generar a partir de las mezclas de los colores primarios que define el modelo de color.

Nuestras cámaras nos suelen permitir trabajar con dos espacios de color, Adobe RGB y sRGB, ambos basados en el modelo de color RGB, e incluyen un número de colores limitado dentro de todos los colores que se pueden formar mediante la mezcla de los primarios de RGB.

De ambos, Adobe RGB es un espacio con más colores que sRGB, aunque ninguno llega a representar toda la gama RGB completa. Entraría más a detallar cada uno de esos espacios, el número de colores visibles, los porcentajes de color visible que incluye cada uno, hablaría del espacio LAB, etc, pero para eso ya hay muchas más fuentes y explicarlo no va a aportar nada a la decisión de qué espacio de color utilizar para configurar la cámara y para trabajar en el revelador del RAW.

Un apunte más sobre estos espacios. Adobe RGB se definió para ajustarse mejor a la gama de color que puede generarse en una copia en papel a través de pigmentos en el modelo CMYK, así que Adobe RGB se suele utilizar para impresión, y sRGB es el espacio con el que trabajan la mayoría de monitores de gama baja y media, por tanto, sRGB en principio parece una buena elección para ver nuestras imágenes en el ordenador. Pero veamos más porque no todo es tan estricto y más bien para tomar la decisión tenemos que aplicar la lógica difusa.

RAW y el espacio de color

El primer dilema suele ser si debemos configurar la cámara con el espacio de color sRGB o el espacio Adobe RGB. Esta discusión sólo aplicará si hemos configurado la cámara para que genere un JPG (o TIFF en algunos modelos).

Si disparamos sólo en RAW, da igual el valor que configuremos, ya que el RAW es información en bruto y no hay conversión alguna a espacio de color. El parámetro sólo va a servir al programa de revelado para saber en qué espacio generar la imagen JPG o TIFF cuando hayamos procesado el RAW. Lo mismo que la temperatura de color. Aquí tenemos otra ventaja del RAW, el espacio de color es una decisión del revelado del RAW y no de la toma, lo mismo que la temperatura de color o que la profundidad del color en bits, eso sí, limitada como máximo a los 16 bits del RAW.

En el caso de Lightroom, y dependiendo de la cámara, incluso se ignora esta configuración, que quedará determinada por el perfil de exportación a JPG en el programa y no lo que venga indicado en el RAW, si es que el formato RAW del fabricante de la cámara en cuestión lo incluye como parámetro de la toma.

Como conclusión, el espacio de color configurado en la cámara es indiferente si disparamos en RAW.

JPG y el espacio de color

En cambio, si generamos y trabajamos en JPG directamente en desde la cámara, el procesador de imagen de ésta va a convertir el RAW a JPG, y aquí sí va a generar el JPG en el espacio de color que tengamos configurado. Si configuramos sRGB, estaremos limitando la gama de color, y si sólo disparamos en JPG, perderemos color irremediablemente en esa fotografía. Pero aquí, de nuevo, tenemos que aplicar la lógica difusa a la hora de decidir si es bueno o no para nosotros. Lo vamos a ver más abajo.

¿Cómo se verá un JPG con espacio Adobe RGB en un monitor?

Si generamos en cámara un JPG con Adobe RGB, «perfecto» para llevar al laboratorio de impresión que soporte ese espacio, pero, ¿cómo se verá en un monitor?, es más, ¿cómo lo habremos visto en el monitor a la hora de editarlo?. Si nuestro monitor trabaja en Adobe RGB, se verá adecuadamente y veremos casi todo el espacio de color representado en pantalla, por lo que haremos ajustes con fidelidad a lo que vamos a exportar a JPG en ese espacio de color.

Esto significa que veremos en pantalla casi toda la gama de color que va a imprimirse en la copia en papel . Digo casi todo el espacio porque no hay aún en el mercado monitores Adobe RGB que soporten todo el espacio Adobe RGB, los hay con unos porcentajes muy aproximados pero no al 100%, o al menos no lo he visto en ningún catálogo.

¿Y si visualizamos la imagen Adobe RGB en un monitor sRGB?

Decía «perfecto» entre comillas, porque si nuestro monitor trabaja en sRGB la cosa es distinta. Lo primero que nos preguntamos es: ¿cómo se verá en un monitor sRGB una fotografía JPG generada con Adobe RGB? ¿con muy mala calidad?. La respuesta necesita otra pregunta, o un matiz, que es: depende del monitor del ordenador con el que hayamos visto el RAW y generado el JPG en el espacio Adobe RGB.

Si lo hemos hecho con un monitor sRGB, según mi experiencia real, no hay diferencia a la hora de verlo en pantalla, ya que la imagen siempre la hemos visto limitada al espacio de nuestro monitor, el sRGB. En cambio, si lo hemos hecho con un monitor Adobe RGB, sí que vamos a notar la diferencia al verlo en un monitor sRGB, ya que la imagen va a sufrir un mapeo en la gama de color para ajustarse a sRGB, aunque esto también depende de la propia imagen y la cantidad de zonas de color de la imagen que se salen de la gama sRGB lo suficiente como para notarlo.

Además, también depende del software con el que visualizamos la imagen y su capacidad de realizar el mapeo entre ambos espacios de mejor o peor forma. Aunque tengamos un monitor Adobe RGB, si generamos un JPG en Adobe RGB y lo abrimos en ese mismo ordenador con un navegador, que sólo «habla» sRGB, y no sabe realizar el mapeo correctamente, veremos las cosas distintas.

¿Cuál es el problema de trabajar con Adobe RGB si no tenemos un monitor que lo soporte?

Casi ya estaba dicho o insinuado más arriba. El problema de trabajar con el espacio Adobe RGB en un monitor que sólo llega a sRGB nos lo encontraríamos si llevásemos ese JPG generado con el espacio Adobe RGB a imprimir a un laboratorio que soporte Adobe RGB.

El JPG con Adobe RGB lo vamos a ver en el monitor sRGB de una manera, con la paleta más reducida, y al imprimirlo en el laboratorio el resultado, que va a ser otro, será impredecible. Es decir, no habremos visto la imagen en pantalla con la misma gama de color de la impresión y lo que saldrá será un resultado a ciegas.

Ese resultado que vamos a obtener a ciegas en papel puede ser grato o no. Grato por superar la calidad de lo que habíamos visto (más detalle, mejores degradados,…), o no grata porque pueden aparecer detalles que no habíamos visto y que no deseábamos, o que aparezcan colores intermedios que no habíamos visto o que quedan más saturados y que no nos gustan una vez impresa la copia.

Por tanto, si nuestro monitor es sRGB, al trabajar con el espacio sRGB, lo que vemos se acercará más a lo que va a imprimirse en papel, lo cual es una ventaja. Como desventaja, perdemos o destruimos información en el JPG (más gama de color), pero ganamos en control y fidelidad sobre lo que luego vamos a ver impreso en una copia en papel.

Lo bueno, como siempre, es disparar en RAW, tener toda la información en bruto y luego al revelar y generar el JPG, decidir el espacio de color en función de nuestro equipo (monitor) y el destino que vamos a dar al JPG. Así, nunca vamos a perder información, que conservaremos siempre en el RAW.

¿Cómo ven otras personas nuestros JPG Adobe RGB?

Esta pregunta también es importante. Aunque generemos el JPG en Adobe RGB porque nuestro monitor lo es, tenemos que tener en cuenta si queremos publicar el JPG para que lo vean otros en su navegador y si queremos ver en el nuestro lo que van a ver los demás en su propio ordenador.

Como decía antes, los navegadores sólo soportan sRGB y no hacen ningún tipo de mapeo, por lo que si el destino del JPG es publicarlo en web, tendríamos que generar el JPG en sRGB y así ver el resultado de la misma forma que lo verá el resto en su ordenador a través de la web, independientemente del tipo de espacio de color que soporte nuestro monitor.

En realidad, hay algo que complica más esto, ya que cada navegador implementa el espacio de color con diferencias, por lo que una imagen vista en un navegador concreto no tiene por qué verse igual en otro navegador distinto.

Conclusión Adobe RGB vs sRGB

Por tanto, si tenemos monitor Adobe RGB, podemos generar un JPG en Adobe RGB para llevar a imprimir y no perdemos gama de color. Y si queremos generar un JPG para publicar en la web, lo tendremos que hacer con el espacio sRGB para que podamos ver y comprobar cómo lo verán los demás.

Y si tenemos un monitor sRGB, será mejor generar ambos JPG (para papel y para web) en sRGB, porque así tenemos fidelidad al ver en nuestro monitor lo que luego van a ver los demás y lo que luego va a pasar a papel. Habremos perdido gama de color, pero nunca la hemos podido ver en nuestro monitor sRGB, por lo que no debería importarnos (si seguimos conservando el RAW para un futuro).

¿Tenemos asegurada la fidelidad al generar un JPG generado con el espacio sRGB si trabajamos con un monitor sRGB?

Aquí interviene de nuevo la lógica difusa, depende. Si nuestro monitor es de gama baja o media tampoco va a soportar al 100% el espacio sRGB, por lo que la gama que incluye el JPG que hemos generado en ese espacio tampoco llegamos a verla como es en realidad, y si el laboratorio sí se ajusta al 100%, lo que saldrá en papel también será un resultado incierto que nunca habremos visto en nuestro monitor.

Las cosas ya están suficientemente liadas, pero para liarlas aún más, además del espacio de color del monitor, la calibración del color del monitor es otra variable que también va a influir en la fidelidad de uno y otro.

Un último detalle

Hay una diferencia entre ambos espacios, lógica aunque poco importante. Como Adobe RGB es un espacio capaz de representar más colores, esto no sale gratis en el tamaño del archivo, es decir, el JPG que incluya más información (más colores) pesará más, aunque una diferencia mínima y debería importarnos bien poco.

Profundidad de color: 8 y 16 bits

Hoy toca hablar de la profundidad de color a la que suelen trabajar los programas de edición y que también viene condicionada por el formato de imagen digital que elegimos.

Las dos profundidades de color más habituales son 8 y 16 bits, pero ¿qué significa la profundidad y cómo afecta a la imagen? Vamos a ver la explicación ayudados del modelo de color RGB que vimos en el artículo anterior en el que hablábamos de los tres canales o colores básicos que define este modelo: rojo, verde, azul.

Profundidad de color de 8 bits

La profundidad a 8 bits la solemos ver en los programas de edición como valores desde el 0 al 255 para cada color primario del modelo RGB (rojo, verde azul). Un pixel con valor R – 0, G – 255, B – 0 se interpreta como un verde puro, y en pantalla se muestra porque de los tres LEDs que forman el píxel, el rojo, al tener valor 0, está apagado, el verde, al tener 255, el valor máximo, estaría encendido a su máxima intensidad, y el azul, también a 0, estaría completamente apagado.

Por cierto, la escala de 0 a 255 no es casual, aquí interviene el concepto de bit y de byte. El byte es el orden de magnitud que nos permite recoger esa escala de 0 a 255, y un byte equivale a 8 bits. Esto nos indica que la profundidad de color es de 8 bits. Si trabajamos con 8 bits de profundidad de color, estaríamos hablando de que utilizamos 8 bits para representar cada uno de los tres canales (rojo, verde, azul).

¿Por qué el 8 y qué tiene que ver con 255? Los 8 bits en binario nos indican cuántos valores utilizamos para representar un número y hasta qué máximo podemos llegar, y llevado a LEDs, cuántas intensidades distintas podríamos obtener, es decir, la amplitud de la gama de colores. 8 bits en binario permiten representar 2^8 (2 elevado a 8) valores, es decir, 256 valores (del 0 al 255) para cada color primario.

Por no entrar mucho en detalles, los que no conozcan el sistema binario, éste se basa en un dígito de dos valores, 0 y 1. Otros sistemas comunes son el octal (valores del dígito del 0 al 8), decimal, que es el más habitual, con valores de un dígito entre 0 y 9, y el hexadecimal, con valores del 0 al 9, además de la A a la F. Así, nuestro sistema decimal habitual representa el «diez» como 10, ya que no tiene un dígito para representar ese número. En cambio, en hexadecimal podemos representarlo con un dígito, la A. Y en binario, la cosa se reduce aún más, con un dígito podemos representar el cero con 0 y el uno con 1, pero ¿y el dos?, pues siguiendo el mismo ejemplo que con el diez, tenemos que pasar a representarlo con dos dígitos, así, el dos se representa con 10 en binario.

Tomando los 8 bits, el rojo podría tomar valor de 0 (apagado) a 255 (rojo de máxima intensidad), el verde también de 0 a 255 y el azul lo mismo. Así, un pixel RGB=0,0,0 representa al negro, RGB=0,0,255 representa un pixel azul, RGB=255,255,0 representa el amarillo puro (mezclando rojo y verde), RGB=255,0,255 representa el magenta (mezclando rojo y azul). Hablo de cero a doscientos cincuenta y cinco en decimal como 0 a 255, pero en binario hablamos de 00000000 a 11111111, de ahí el 8, tenemos 8 dígitos en binario para representar el valor máximo, es decir, 8 bits.

Si en lugar de utilizar valores máximos 255, utilizamos valores inferiores, obtendríamos colores menos puros (es decir, menos saturados). Por ejemplo, RGB=192,192,0 correspondería a un amarillo pero más grisáceo (menos saturado).

Los grises siempre se formarían con el mismo valor para los tres canales. RGB=10,10,10 sería un gris muy oscuro, RGB=200,200,200 sería un gris muy claro.

Los 8 bits por canal nos permitirán representar un píxel con 8×3 = 24 bits por píxel. Así, 2^24=16.777.216 colores posibles, incluyendo negro, blanco y grises. Estamos hablando de unos 16 millones de colores en total para los 8 bits por canal (lo que se llama true color).

Hay programas de edición como Gimp que trabajan con 8 bits por canal, lo que significa que nos permiten ver una fotografía y editarla con un máximo de 16 millones de colores posibles.

Profundidad de color de 16 bits

Si tuviésemos 16 bits por canal, que son dos bytes, tendríamos 2^16, es decir, 65536 valores (del 0 al 65535 en sistema decimal) para cada uno de los tres canales (en binario tendríamos 16 ceros a 16 unos). Así, con una profundidad de color de 16 bits, en RGB, cada color primario podría tomar 65536 valores, y combinados, generar una gama de color de 16×3=48 bits por píxel, lo que se traduce en 2^48=2E14, unos 282 millones de millones de colores (282 billones de colores).

Así que esta es la ventaja del RAW sobre el JPG directo de cámara, el RAW capta valores en ese rango de 16 bits por canal, y si sólo trabajamos en JPG en cámara, el procesador de imagen de la cámara convierte los valores a 8 bits, perdiendo capacidad de representación de más colores en el archivo de la imagen digital. Es decir, JPG está limitado a 8 bits por canal.

¿Y perdemos mucho? Pues el RAW con sus 16 bits es un buen negativo con información de color que no va a poder verse en pantalla (excepto pantallas de gran calidad y con una tarjeta gráfica a la altura) pero esa información sí nos será útil para generar una copia en papel, aunque esto también tiene sus problemas, como veremos en un artículo dedicado al espacio de color.

¿Por qué no vamos a ver todos los colores de la gama de los 16 bits del RAW en pantalla? Tanto los monitores como las gráficas limitan lo que puede representarse con un ordenador. Nuestra gráfica normalmente trabaja a 32 bits por píxel, que se corresponde con 4 bytes (8 bits x 4), de esos 4 bytes, 3 representan el color (los 3 x 8 = 24 bits), y el byte restante el canal alfa de transparencia (para vídeo, 3D, etc). Por tanto, con nuestro monitor y gráfica estándar, veremos en pantalla 2^24 = 16 millones de colores y no los 282 billones de colores que podemos obtener con la profundidad de 16 bit por canal del RAW (48 bits en total por píxel).

Modelos de color (RGB, CMYK, HSV/HSL)

Continuando esta serie de artículos sobre imagen digital, hoy toca hablar de los modelos de color. El objetivo será ver la diferencia entre los distintos modelos, entender mejor el modelo HSL, que es el que utilizamos al revelar una imagen digital desde un RAW.

El modelo RGB nos servirá en un próximo artículo para entender las diferencias entre profundidad de color de 8 y 16 bits, y en otro artículo, para entender lo que son y qué diferencias hay entre espacios de color.

Como siempre, hablaremos en términos de radiación electromagnética y espectro visible, aquellos que describía en el primer artículo.

¿Qué es un modelo de color?

Un modelo de color establece un conjunto de colores primarios a partir de los que, mediante mezclas, se pueden obtener otros colores hasta cubrir todo el espectro visible, además del propio blanco, negro y grises, y aún más. Por ejemplo, hay colores, como el marrón o el magenta, que no están presentes en el espectro visible, y es nuestro cerebro el que lo interpreta a partir de la combinación de ondas con diferentes longitudes.

Los modelos de color más comunes son RGB (utilizado en monitores) y CMYK (utilizado para impresión), que veremos más adelante.

Modelos aditivos y sustractivos

Hay dos tipos de modelos de color, los aditivos y los sustractivos. Un modelo aditivo se basa en la adición o mezcla de los colores básicos como forma para obtener el blanco.

Un modelo sustractivo se basa en la mezcla de los colores primarios de dicho modelo para «sustraer la luz», es decir, para obtener el negro, que como comentábamos en el artículo de la luz, es la ausencia de luz.

Si recordamos del primer artículo, cuando empleamos el término «color» en realidad nos referimos al «matiz» o «croma». Y junto a los colores también tenemos los tres casos especiales: el blanco, el negro y los grises.

Modelo RGB

Volviendo a los modelos de color más habituales en fotografía, el modelo RGB define como colores primarios el rojo, el verde y el azul. La combinación de los tres genera blanco. La ausencia de los tres genera negro. Las diferentes mezclas entre ellos representarían toda la gama de color. De nuevo, los grises se representarían con diferentes intensidades de cada color, pero siempre los tres con el mismo valor.

El modelo RBG se utiliza cuando se representa color mediante haces de luz (pantallas o monitores). Un pixel en un monitor se representaría mediante tres subpíxeles o células: una roja, una verde y una azul, correspondiendo cada una a un LED o diodo emisor de luz del respectivo color.

Si los tres diodos están apagados, obtendríamos el negro. Si están encendidos a diferentes intensidades, obtendríamos colores, si están todos encendidos con la misma intensidad y al máximo, tendríamos el blanco, y si la intensidad es menor pero igual en los tres diodos, obtendríamos grises.

Modelo CMYK

Es un modelo sustractivo y se utiliza en impresión a partir de pigmentos de tres colores básicos: C – cian, M – magenta y Y – amarillo. La K viene del negro, ya que la combinación de los tres anteriores produce un negro poco puro, de ahí que se añada al modelo un pigmento negro puro. Al contrario que en RGB, donde el negro es la ausencia de luz, en CMYK el blanco se representa aquí como ausencia de pigmentos.

Los colores intermedios se producen a partir de la mezcla en distintas proporciones de los pigmentos base.

Hay una relación entre los modelos RGB y CMYK, ya que con la mezcla a igual parte de cada uno de los colores básicos de un modelo obtenemos los primarios del otro.

En RGB (rojo, verde, azul):

  • Rojo y verde en iguales proporciones: obtenemos amarillo – Y de CMYK
  • Rojo y azul en iguales proporciones: obtenemos el magenta – M
  • Verde y azul en iguales proporciones: obtenemos el cian – C

En CMYK (cian, magenta, amarillo):

  • Cian y magenta en igual proporción: obtenemos el azul
  • Cian y amarillo en igual proporción: obtenemos el verde
  • Magenta y amarillo en igual proporción: obtenemos el rojo

Modelo HSV y HSL

Estos modelos incluyen otros dos parámetros adicionales al matiz o croma para obtener el color, que son la saturación (en ambos) y el valor (en HSV) o la luminosidad o tono (en HSL). De ahí sus siglas: HSL (H – hue o matiz, S – saturation o saturación, L – luminosity o luminosidad/tono), HSV (idem excepto V de value o valor).

La diferencia entre HSV y HSL es que en HSV la saturación va del color puro al blanco, y en HSL la saturación va del color puro al gris medio, y el tono, en HSV va desde el negro al color, y en HSL va desde el negro al blanco. De ahí que HSL sea el que se utiliza más comúnmente en fotografía.

Lightroom, que se basa en HSL, dispone de controles para alterar H – matiz, S – saturación y L – Tono para los siguientes colores: rojo, naranja, amarillo, verde, cian, azul, violeta y magenta.

Siguiendo con Lightroom, éste nos permite fijar la saturación entre gris y color puro para esos 8 colores. Respecto al matiz, nos permite virar los 8 colores a los adyacentes que comentaba en el artículo de luz y color, por ejemplo, para el rojo, desde magenta a naranja.

Por último, respecto al tono, Lightroom nos permite oscurecer cada uno de esos 8 colores hasta el negro, o bien aclararlo hasta llegar al blanco.

Si utilizásemos un programa basado en HSV, el control del matiz sería similar, el control de la saturación nos permitiría llevar un matiz dado a su expresión más pura, o bajar su saturación hasta llegar el blanco, raro, ¿verdad?. Y respecto al tono, nos permitiría para un matiz dado, bajar su tono hasta el negro o subirlo hasta el color puro, también raro, ¿verdad?.

¿Cuál es el origen de la hora dorada, la hora azul y el cinturón de venus?

Aunque supone desviarse un poco más de esta serie de artículos técnicos sobre imágenes digitales, hoy vamos a hablar del origen de tres fenómenos de luz que apreciamos bastante en fotografía de paisaje y que llamamos «hora dorada», «hora azul» y «cinturón de venus».

Sabemos cuándo se producen, y si no, lo veremos aquí, pero ¿qué los provoca? ¿qué explicación hay detrás de cada uno?.

La culpable de estos tres fenómenos es la dispersión de la luz. En el artículo anterior, necesario para entender estos fenómenos, explicaba qué es la luz y qué es el color, hablaba del espectro electromagnético visible y comentaba que la luz es radiación electromagnética cuya longitud de onda está comprendida en el rango de ese espectro visible, y que el color es la interpretación de nuestro cerebro a cada longitud de onda. Además, comentaba que la luz blanca es la mezcla de todas las ondas del espectro visible, es decir, es la radiación que se propaga en una misma dirección a través de ondas con todas las longitudes comprendidas en el espectro visible.

Así pues, la luz viaja en forma de ondas por el espacio y atraviesa la atmósfera hasta llegar a nuestros ojos, o hasta chocar contra elementos y reflejarse para llegar a nuestros ojos, lo que posibilita que veamos lo que nos rodea.

Al atravesar la atmósfera y sufrir dispersión por refracción, las ondas de la luz blanca (distintos colores) cambian de dirección y se separan. Al separarse las diferentes ondas (diferentes colores), la luz con menor frecuencia de onda sufre menos esta dispersión, y la que más frecuencia de onda posee, sufre más dispersión.

El rojo, naranja y amarillo tienen menor frecuencia de onda (por ese orden), el violeta, el azul y el verde tienen la mayor frecuencia de onda (también por ese orden), por tanto, al dispersarse la luz blanca por refracción, la luz roja, naranja y amarilla sufren menos la dispersión (se desvía menos de su dirección original), y el violeta, azul y verde la sufren más.

Hora dorada

Esto explica por qué al atardecer o al amanecer, momentos a los que llamamos hora dorada, vemos la luz más rojiza o anaranjada o de un cálido amarillo, porque al estar el sol en un ángulo bajo, los rayos nos llegan atravesando más atmósfera y sufren más dispersión por refracción, viéndose menos afectadas las radiaciones con longitud de onda del rojo-naranja-amarillo, y por tanto, llegando hasta nosotros con mayor intensidad.

Y como las radiaciones con mayor frecuencia (violeta, azul, verde) se ven más afectadas por la dispersión por refracción, nos llega menos radiación de estos colores, que quedan más dispersos en la atmósfera, y por eso no vemos estos matices más fríos durante la hora dorada.

Crepúsculo o la hora azul

En cambio, cuando el sol se oculta y comienza el crepúsculo civil, lo que llamamos hora azul, la luz violeta, azul y verde, que es la que tiene una frecuencia de onda mayor y se ve más afectada por la dispersión, rebota en la atmósfera y es la que domina todo.

La luz roja, naranja y amarilla, al no dispersarse y rebotar en la atmósfera, no logra llegar hasta nuestra vista una vez que el sol se ha ocultado.

Cinturón de venus

Una excepción a esto, y que se da durante un breve momento al comenzar el crepúsculo, es el cinturón de venus.

El cinturón de venus es una franja rosada que se puede ver en dirección contraria de la puesta de sol y franqueada por abajo con una banda de azul más oscuro (la sombra de la tierra) y por arriba otra banda de azul más claro (luz dispersa que antes he comentado).

La banda rosada se forma con los últimos rayos de sol casi directos. Las ondas correspondientes al rojo de esta última luz casi directa sufren una leve dispersión por refracción, haciendo que la luz rojiza se curve y se concentre en esa banda. La intensidad de esa luz roja tan suave por la dispersión se mezcla con el azul que domina ya toda la hora azul, y al mezclarse el rojo con el azul intenso hace que la banda tome ese matiz rosado.

Sombra de la tierra

La sombra de la tierra es la banda azul que hay por debajo del cinturón de venus, y se forma porque la luz blanca que llega del sol es tapada por la tierra, y en dirección contraria lo que vemos en esa banda es ausencia de luz directa, es decir, vemos sombra.

Un ejemplo del cinturón de venus

En esta fotografía, realizada en el crepúsculo tras el atardecer, podemos ver un leve cinturón de venus. Debajo podemos ver la banda azul que forma la sombra de la tierra.

Lagunilla del Yelmo, otoño 2013

Lagunilla del Yelmo, otoño 2013

Hay ocasiones en las que podemos confundirnos. En la siguiente fotografía hay una banda rosada, pero esta vez la cámara apunta al sol. En este caso, que es un amanecer, la banda no es el cinturón de venus sino las nubes y la bruma del mar pintada por los primeros rayos de sol, también mezclados con el azul que aún domina todo hasta que el sol se eleve más.

Maro, amanecer de verano, 2013

Maro, amanecer de verano, 2013

Un ejemplo de la hora dorada

En esta otra fotografía podemos ver un atardecer en el que el sol ya está bajo y la luz cálida amarilla lo domina todo.

Pantano de Santillana #7

Pantano de Santillana #7

En la siguiente fotografía de un amanecer en el que la cámara apunta al sol, podemos ver que aún hay mucha luz azul del crepúsculo, pero los rayos cálidos del sol ya van dibujando una franja sobre el horizonte.

Frío caliente

Frío caliente

¿Qué es la luz? ¿qué es el color? El espectro visible

Como ya decía en mi artículo previo, lo primero que quería recoger sobre teoría básica para entender imágenes digitales era una definición de la luz y del color. Espero llegar a hacerlo con este artículo.

¿Qué es la luz?

Para hablar del color primero hay que entender qué es o a qué llamamos luz. Curiosa pregunta, ¿verdad?, intenta pensar tu respuesta antes de seguir leyendo, ¿cómo explicarías qué es la luz?.

La luz no es más que la radiación electromagnética que emite un objeto, bien porque la genera (sol, fuego, filamento incandescente, cuerpo fluorescente o cualquier otro elemento similar o derivado), o bien porque la refleja.

Los cuerpos incandescentes generan luz

Ya creo que es llegar mucho más allá, pero por no dejarlo sin respuesta, la explicación básica de por qué el sol, el fuego, las bombillas, y en general cualquier cuerpo incandescente genera nuestra querida luz, además de generar radiación térmica, es que la alta temperatura provoca reacciones en las partículas de los átomos de dichos cuerpos y dicha reacción termina liberando una radiación electromagnética que se emite tanto en ondas visibles como no visibles por nuestros ojos. De esto justo vamos a hablar a continuación. Así que estos cuerpos nos dan calor y nos iluminan (qué poético).

Para los aún más curiosos sobre temas de física, hablando de ondas visibles y no visibles y del espectro que comento a continuación pero generado por una estrella diferente a nuestro sol, echad un vistazo a «Las líneas de Pickering-Fowler» que José Manuel Morales, mi compi de trabajo y antiguamente de la Universidad de Granada, comenta en su blog de física El zombi de Schrödinger.

Espectro visible

Siguiendo con los tecnicismos, la radiación electromagnética es una combinación de campos magnéticos y eléctricos que se propagan a través del espacio, transportando energía de un lugar a otro. Es decir, lo que vemos no es más que energía que nos llega de un objeto que la irradia. Y nuestros ojos actúan como receptores de movimientos de cargas eléctricas que llegan a ellos mediante ondas.

La radicación se emite pues mediante ondas, y una onda tiene una determinada longitud. De toda radiación electromagnética que emiten los objetos, denominamos luz a la que es visible, es decir, la que pueden captar nuestros ojos y nuestra mente traduce a información. Aquí es donde entra en juego el espectro visible, que no es más que la radiación electromagnética que nuestro ojo es capaz de percibir por tener una longitud de onda en un rango o espectro concreto.

Por tanto, aunque nos llega radiación con cualquier longitud de onda, la que nuestro ojo es capaz de ver es la que denominamos luz. El rango de longitudes de onda que somos capaces de ver es lo que llamamos espectro visible, más concretamente, espectro electromagnético visible.

¿Qué es el color?

El color no es más es la percepción en nuestro ojo de una radiación electromagnética con una determinada longitud de onda y cómo la interpreta nuestro cerebro traduciéndola a un color u otro.

Como vimos antes, el espectro visible es el rango de radiación electromagnética que podemos ver y que incluye la radiación emitida con una longitud de onda que va desde 400nm a 700nm (aproximadamente, ya que algunos perciben longitudes con un espectro algo más amplio tanto arriba como abajo).

La longitud de onda más baja corresponde al violeta, y la longitud de onda más larga corresponde al rojo. La longitud de onda junto a su velocidad determina la frecuencia de cada onda y cuando más longitud tenga una onda, menor será su frecuencia. De ahí que si hablamos en términos de frecuencia de onda en el espectro visible, el rojo es la radiación electromagnética que menor frecuencia tiene (baja frecuencia), y el violeta es la radiación que más frecuencia tiene (alta frecuencia).

Por tanto, en estos términos, la radiación que hay con menor frecuencia que el rojo (más baja que el rojo, es decir, radiación más abajo que el rojo en el espectro medido en frecuencias) recibe el nombre de luz infrarroja. Y la radiación que hay más allá (más alta) que la violeta recibe el nombre de ultra violeta. Estas radiaciones son las que nuestro ojo no es capaz de captar.

Los seis colores del espectro visible

Si nos centramos en el espectro visible, tenemos radiación con longitud de onda que representa los siguientes seis colores, mejor llamados matices o croma (de menor a mayor longitud de onda, de mayor a menor frecuencia de onda): violeta, azul, verde, amarillo, naranja y rojo. Y entre cada uno sus transiciones o mezclas.

Espectro visible

Espectro visible

Sobre si los colores básicos del espectro visible son seis o siete hay mucha literatura. En origen, Newton incluía un séptimo color entre el azul y el violeta llamado «índigo», también denominado añil. Las teorías más modernas dejan el espectro en los seis colores que comentaba antes. De la clasificación de siete colores, relacionada con el arcoíris, viene su representación y la famosa bandera.

Blanco y negro

Además de estos seis colores, también tenemos que incluir el blanco y el negro, que aunque comúnmente los denominamos colores, en realidad no son colores que se correspondan con radiación con una determinada longitud de onda. El negro no es luz, sino su ausencia, por tanto, si vemos un objeto de color negro, estaríamos hablando de un objeto que no refleja la luz que se proyecta sobre él.

Y sobre el blanco, tampoco sería exactamente un color, de hecho, es acromático, y al contario que el negro, es la máxima claridad. Estaríamos hablando de la combinación de los seis colores anteriores, es decir, la combinación de todas las radiaciones de longitud de onda pertenecientes al espectro visible.

Por qué vemos los objetos de color

El sol, como todas las estrellas, emite luz blanca. Cuando la luz blanca choca en los objetos que vemos, una parte se absorbe y otra se refleja. Un objeto que vemos de un color concreto, por ejemplo azul, no es más que un objeto que refleja sólo las radiaciones con longitud de onda que vemos como azul y absorbe todas las radiaciones con longitud de onda correspondientes a los cinco colores restantes. Es decir, el objeto refleja las ondas con longitud correspondiente al azul, nuestro ojo capta esas longitudes y nuestro cerebro la convierte en lo que interpretamos como azul.

El resto de colores puros seguirían el mismo patrón de absorción y reflexión, y las mezclas o matices intermedios consistirían en varias longitudes de onda reflejadas con diferentes intensidades.

Grises

La gama de grises sería una escala situada entre el negro (ausencia de luz) y el blanco (máxima luminosidad). Es acromático y está compuesto, al igual que el blanco, de todas las longitudes de onda.

Los objetos que percibimos como grises absorben cierta cantidad de luz blanca y reflejan radiaciones de todas las longitudes de onda y no sólo de unas en concreto, por eso, la luz que reflejan deja de ser blanca pero no toma un matiz o croma determinado, sigue siendo blanca pero con menor luminosidad, es decir, gris. Los objetos que vemos más grises absorben más luz, y los que vemos menos grises, absorben menos luz.

En fotografía, el gris medio es aquel en el que el objeto de dicho «color» absorbe el 82% de la luz que recibe y sólo refleja el 18% restante.

Rueda de color o círculo cromático

Partiendo de estos seis colores del espectro visible vamos a llegar a la rueda de color o círculo cromático que vemos más frecuentemente en fotografía y al concepto de los colores adyacentes y complementarios.

Si estas radiaciones o colores los llevamos a una rueda juntando los extremos de este espectro o banda, tendremos lo siguiente:

Rueda de color

Rueda de color

Con esta rueda ahora podemos ver lo que significan e implican los colores adyacentes y los opuestos o complementarios. Los adyacentes de un color son los colores que están a uno y otro de sus lados en la rueda. Y ¿qué significan para nosotros en fotografía estos adyacentes? Son los matices a los que puede virar un color dado si lo mezclamos con el siguiente adyacente (podemos denominarlos adyacentes secundarios). Por ejemplo, el rojo puro tiene como adyacentes secundarios el amarillo y el azul. Si lo mezclamos con amarillo, su matiz va virando del rojo puro al adyacente inmediato, es decir, el naranja. Si lo mezclamos con el azul, su matiz va virando al violeta, que es su adyacente inmediato. Esto es lo que obtenemos con los controles de matiz que suelen venir incorporados en los reveladores RAW.

Como podemos ver en la rueda y en la banda del espectro visible, los adyacentes de cada color del espectro son:

  • Violeta: rojo en un lado y azul en el otro
  • Azul: violeta a un lado y verde al otro
  • Verde: azul a un lado y amarillo al otro
  • Amarillo: verde a un lado y rojo al otro
  • Naranja: amarillo a un lado y rojo al otro
  • Rojo: amarillo a un lado y violeta al otro

Utilizando estos adyacentes, los matices a los que virarían los colores son (intentaré utilizar unos nombres de colores intermedios más o menos estándar, si es que existen o los conozco):

  • Violeta: magenta si mezclamos con rojo, añil o índigo si mezclamos con azul.
  • Azul: añil o índigo si mezclamos con violeta, cian si mezclamos con verde.
  • Verde: cian si mezclamos con verde, lima si mezclamos con amarillo.
  • Amarillo: lima si mezclamos con verde, ocre amarillento o bien ocre anaranjado o amarillo anaranjado (no hay un nombre que sepa exactamente para este color intermedio) si mezclamos con naranja.
  • Naranja: el antes comentado si mezclamos con amarillo, rojo anaranjado o naranja rojizo (tampoco existe o conozco un nombre para este color intermedio) si lo mezclamos con rojo.
  • Rojo: idem si lo mezclamos con naranja, magenta si lo mezclamos con violeta.

Además de que los adyacentes determinan los matices a los que puede variar un color cuando lo mezclamos con su siguiente adyacente, el uso en fotografía de una paleta de colores adyacentes se traduce en una armonía visual, una fotografía que no tiene tensión visual.

Los opuestos los podemos ver mejor en la rueda con las flechas que he incluido, son los que caen en el lado contrario, y en este caso coinciden con el modelo de color RYB:

  • Violeta – amarillo
  • Azul – Naranja
  • Verde – Rojo

Y que sean opuestos implica, fotográfica y visualmente, que van a contrastar más cuando los veamos juntos en una fotografía o en una ilustración, creando dinamismo y tensión visual.

Tono y saturación

Hasta ahora hemos visto lo que es el matiz o croma. Nos queda ver qué son las otras variables relacionadas con el color que utilizamos en fotografía. Los tres conceptos (matiz, tono y saturación) son los que en otro artículo utilizaremos para explicar los modelos de color, y en especial el modelo HSL (hue – matriz, saturation – saturación, lightness – luminosidad, luminancia o tono), donde la saturación la expresaremos entre matiz puro en un extremo y gris medio en el otro.

El tono es un concepto que depende del modelo en el que se representa. En fotografía lo entendemos mejor como una escala entre el negro y el blanco, que es la que sigue el modelo HSL, por eso he escogido ese modelo para un futuro artículo.

La saturación también depende del modelo, de nuevo, es en el modelo HSL donde mejor encaja con el entendimiento general en fotografía, que es una escala de valores comprendidos entre el matiz o croma puro (el color puro) y el gris medio.

Sobre el tono, hay una explicación muy curiosa que me encontré en el libro «El fotógrafo completo» de Tom Ang y que me costó entender. En la introducción da una definición de lo que llama «las dimensiones de la fotografía», indicando que nuestro estilo visual está basado en, al menos, siete dimensiones. Esas dimensiones yo las entiendo más como variables a las que damos un valor u otro para hacer una fotografía con nuestro propio estilo. Una de esas dimensiones indica que es la tonalidad. Y aquí viene lo curioso, lo explica indicando que en un extremo de la tonalidad tenemos el blanco y negro y en el otro un solo tono y no millones de tonos. En realidad está hablando del contraste. Según nuestro estilo y la foto que queremos obtener, podemos llegar en un extremo a jugar con el contraste hasta el máximo, obteniendo una fotografía donde las sombras y negros se irían hasta el negro profundo, y los blancos y altas luces se irían al blanco. Obtendríamos una imagen en dos «colores», blanco y negro (que no grises, es decir, no habría grises ni colores más o menos saturados, sólo píxeles o puntos blancos y negros). Si os imagináis el ying y el yang, esa sería una fotografía (o mejor dicho ilustración) que sólo emplea blanco y negro. Os comento que esos máximos y mínimos serían teóricos, con esto me refiero a que no vais a encontrar escalas o controles de contraste en los reveladores o editores que jueguen con esos dos extremos. Hablando de imagen digital, teóricamente aplicaríamos un algoritmo que, a partir de un valor pivote o un umbral, tome todos los píxeles por debajo de ese umbral y los lleve al negro, y los píxeles con valor igual o por encima de ese umbral los lleve a blanco.

Por otra parte, en el extremo opuesto de la dimensión que explica Tom Ang, si reducimos el contraste al mínimo, estamos transformando todos los píxeles, tanto negros y sombras como blancos y altas luces a un solo valor, bien un gris medio, un blanco o un negro. La única imagen posible entonces es un lienzo completamente gris, blanco o negro.

Si tenéis oportunidad de haceros con el libro, os comento que para mí fue interesante ver cómo muestra la forma en que trabajan profesionales de cada una de las temáticas de fotografía.

Teoría básica para entender cómo funcionan las imágenes digitales

Con esta entrada me he animado a publicar una serie de artículos sobre conceptos teóricos que ayuden a entender cómo funcionan las imágenes digitales y cuáles son sus bases. Como siempre, el objeto de este blog es dejar por escrito mis reflexiones, mis ideas y mis conocimientos sobre fotografía y sobre técnica, fundamentalmente para sintetizarlos y ordenar las ideas en mi cabeza al redactarlos, y ya de paso, dejarlo por escrito para todos y ayudar a quien quiera echarles un vistazo.

Seguramente más de uno se sorprenda de hasta dónde puede llegar un blog de fotografía como éste, pero la explicación a todo esto viene de algo que mi mujer definía así: «cada vez que te pones con algo parece que fueses a hacer un máster». Lo que traduzco en que mi curiosidad a veces me llega a dar miedo.

De dónde vienen mis conocimientos técnicos

Lo que pretendo escribir en estos artículos viene fundamentalmente de dos sitios, primero, de lo que recuerdo de mis tiempos de carrera universitaria, y segundo, de todo aquello que leo en los libros que cada día van haciendo crecer más y más mi biblioteca y en las múltiples páginas que pueblan Internet.

Visión robótica

Sonará raro, pero mi primer contacto con la teoría de la imagen viene de una asignatura llamada «Visión Robótica». Es curioso que sea ahora, con un hobby, con el que esté sacando más partido a lo que estudié en esta asignatura, entre muchas cosas que incluía: elementos de percepción visual, espacios de color, formatos de almacenamiento de imagen digital, histograma (tipos, transformaciones), operaciones con píxeles, filtros (los famosos paso bajo y paso alto mediante la transformada de Fourier), detección de fronteras y reconocimiento de patrones, y un largo etcétera.

¿Y qué tiene que ver el mundo de los robots con la fotografía? En realidad se relacionan a través de la imagen digital, más concretamente, a través del procesamiento de la imagen digital. La visión robótica abarca, por lo menos en aquella asignatura, la captación y procesamiento de imágenes digitales. Como decía antes, aplicaciones particulares podrían ser la capacidad de una máquina de ver y de reconocer objetos. Ésta se produce a través de algoritmos que toman la imagen y determinan las fronteras o contornos de los objetos que hay en la imagen. Una vez determinados los contornos, su forma se compara con las formas almacenadas en una base de datos del sistema de reconocimiento visual (la parte del susodicho robot que tiene visión) y cuando encuentra una coincidencia, establece el tipo de objeto que «sabe» que es, es decir, si la base de datos tiene almacenado el contorno de un coche y el robot ve un coche, tras simplificar la imagen y obtener el contorno y determinar que coincide con esa entrada en la base de datos, determinará que es un coche.

¿Tiene aplicaciones prácticas? Bastantes. Por ejemplo, un sistema de seguridad perimetral en un edificio o en el hogar podría detectar por barreras infrarrojas o microondas que alguien se está moviendo ahí fuera, y un sistema de visión robótica integrado en el sistema de seguridad sería el encargado de verificar si se trata de una persona, de un pájaro o de un perro, y generar una alarma sólo en el caso de tratarse de una persona. Útil en una finca en el campo para evitar falsas alarmas, ¿verdad?.

Bueno, del mundo de la robótica creo que ya está bien para ser éste un blog de fotografía.

Una extensa biblioteca de fotografía

El segundo origen de toda la información que me gustaría reflejar en esta serie de artículos es más cercano a lo que nos gusta. Libros y libros de todos los temas que abarca la fotografía: composición, técnicas de exposición, libros generales, libros más específicos, de autores como Michael Freeman, Bryan Peterson, Eduardo Momeñe, nuestro José B. Ruiz, y un largo etcétera. A éstos les sumo, aunque poco o nada técnicos y más artísticos (como a mí me gusta más), porfolios de fotografía de grandes autores como Ansel Adams, Edward Weston, Edward Curtis, Koudelka, Galen Rowell, Sebastiao Salgado, y otro largo etcétera.

¿Qué pretendo recoger en esta serie de artículos?

Para empezar, lo más básico de la fotografía: qué es en realidad la luz. Antes de leerlo, ¿sabríais dar una explicación de qué es la luz?.

En ese mismo artículo, ya que están muy relacionados los dos conceptos, me gustaría hablar del color, vuelta a la pregunta básica, ¿qué es el color? ¿cómo lo explicarías? Piénsalo antes de leer el artículo.

Ese primer artículo es la base de la fotografía, ya que, recordemos, su significado es «escribir con luz».

En un siguiente artículo, encadenando lo que habremos visto sobre luz y color, me gustaría hablar de cuatro fenómenos que a los fotógrafos de paisaje nos suele gustar recoger: la hora dorada, la hora azul, el cinturón de venus y la sombra de la tierra. Trataré de recoger una explicación con mis palabras de lo que significan y qué hay detrás de ellos.

Más adelante, en otro artículo, me gustaría hablar de los modelos de color más comunes que existen (RGB, CYMK, HSV y HSL), intentando establecer una relación con la luz. Sobre los modelos de color, en ese artículo me gustaría centrarme en el modelo RGB como base de la imagen en el monitor, el modelo CYMK como base de la imagen en papel y el modelo HSL, que creo que es el más adecuado para hablar de reveladores RAW y editores de imagen y así explicar los controles más básicos que tenemos a nuestro alcance en ellos.

Hablando de controles de los reveladores, también intentaré explicar un tema que a mí me parecía confuso al principio y mezclaba equivocadamente: qué es la temperatura de color y porqué al mover este control obtenemos lo que nos parece un resultado inverso. Trataré de explicar que la temperatura de color no tiene nada que ver, o más bien sigue el orden inverso a nuestra clasificación de colores cálidos y colores fríos, y de dónde viene el uso de la palabra «temperatura» cuando hablamos de color.

Luego intentaré ir explicando conceptos ya más tangibles y relacionados con la fotografía, y en algunos casos mejor dicho, con la imagen digital o la fotografía digital: histograma, medición de la luz y exposición, técnica básica de cálculo de iluminación con flash y con linterna en paisaje, la luz polarizada y el filtro polarizador, y otro más largo etcétera.

Bueno, pues por hoy ya está bien, mucho texto sólo para decir lo que me gustaría hacer, esperemos que no quede en el cuento de la lechera.

Una vez más, si has soportado esta verborrea hasta aquí, muchas gracias.

Artículos

Revelado en Lightroom vs Digital Photo Professional

Seguro que luego me arrepiento y no me perdono haber empezado mi blog de fotografía con verborrea tecnológica en lugar de cuestiones filosóficas o artísticas que son las que realmente me interesan en fotografía, pero éste es un tema que siempre me ha resultado curioso y al que nunca he hecho mucho caso. Y es raro, porque cuando estudié mi carrera universitaria, la asignatura que más me gustó y a la que dediqué más atención trataba de procesamiento de imágenes.

Curiosamente en aquella época la llamaban “Visión robótica”, pero poco tenía que ver con la electrónica, trataba de algoritmos de procesamiento de imágenes digitales, aún recuerdo con pavor lo que supuso implementar la transformada de Fourier con un algoritmo que se utiliza para detección de fronteras para reconocer formas y también para suavizar imágenes o realzar bordes (ni más ni menos que los famosos filtros de paso bajo y alto en versión digital – no óptica). Por aquel entonces utilizábamos un formato de imagen que empleaba la NASA para tomar imágenes del espacio, creo que era FITS, pero mi memoria selectiva ha hecho estragos y no estoy seguro.

Al grano. Me he encontrado con cierta frecuencia en blogs y video-tutoriales el tema de la calidad del revelado en programas de los propios fabricantes de cámaras sobre los programas de terceros (Adobe, etc) y he decidido hacer una pequeña prueba.

El problema y la causa: formato propietario

Lo que he leído en esos blogs y páginas es que los programas de fabricantes superan en nitidez y en capacidad de comunicación con la cámara a los programas desarrollados por terceros.

¿De dónde viene todo esto? Pues en realidad ésto se debe a que el RAW no es un formato estándar, sino que cada fabricante tiene su formato RAW propietario, en el caso de Canon, que conozco algo más, su formato es CR2. Y propietario significa que cada fabricante es dueño y señor de su especificación y hace público el formato como más le conviene.

Intuyo que la explicación que hay detrás de la supuesta mejor calidad de revelado de los programas de los propios fabricantes sobre los de terceros está en que los fabricantes tienen acceso a más información del RAW, información que no debe estar publicada, es decir, los fabricantes publican cierta parte de la especificación de su formato, que es la que pueden utilizar los terceros, y se reservan el privilegio de acceder a otra parte de la información que el RAW genera y no la hacen pública. Este es el motivo por el que el revelador del fabricante se comporta, a simple vista, mejor que los reveladores de terceros, ya que es capaz de tener acceso a más información de la fotografía que la cámara ha generado y, por tanto, a hacer una interpretación mejor de ella.

Digo supuesto porque, en mi opinión, y tras las pruebas que he podido hacer en varias ocasiones, no he visto una calidad significativa de unos sobre otros, sino más bien, una comodidad y rapidez de ajustes para poder mostrar y revelar la fotografía a partir de datos por defecto que ya venían prefijados en la cámara.

Así que, como conclusión, lo que he visto es que los programas de los fabricantes, nada más abrir la fotografía, se ajustan más a lo que la cámara ha tomado porque tienen acceso a más parámetros de ajuste de la cámara en el fichero RAW, mientras que los terceros parten con un ajuste más general y, por tanto, requieren más esfuerzo de ajuste para conseguir un mismo resultado.

Un sencillo ejemplo

Para ver todo esto, nada mejor que mostrarlo con un sencillo ejemplo.

He elegido una fotografía que tomé en una de las escapadas en mis vacaciones de Navidad a Sierra Nevada, esa montaña, antaño siempre blanca y ahora bastante perjudicada por el calentamiento del globo, que ha formado parte de las vistas de mi infancia hasta que hace ya bastantes años me llegó la condena del destierro y tuve que expatriarme de Granada.

Mi cámara es Canon, así que utilizo el programa propietario de este fabricante, Digital Photo Professional (DPP). Además, para este ejemplo he utilizado mi revelador favorito, Adobe Lightroom (LR) versión 4.x.

El objetivo que me he propuesto con él es verificar si existe tal diferencia de calidad y si es así, si ésta es muy notable.

Con este blog no es que pretenda hacer grandes análisis fastuosos dignos de publicación en una revista científica, se trata de una pequeña prueba para verificar la diferencia utilizando una fotografía de propósito general. No cabe duda de que una prueba exhaustiva con diferentes fotografías hechas con diferentes parámetros de exposición (ISO’s bajas, medias y altas) y diferentes niveles de iluminación y rangos tonales sería ideal y podría demostrar resultados diferentes en cada caso, pero no es el objetivo de este blog, ni tampoco me gano la vida con la fotografía como para preocuparme por la calidad en la impresión de gran formato, así que no es plan de echarle meses a un asunto como éste.

Puestas las bases del ejemplo, parece que DPP parte con ventaja respecto a LR, veamos si es cierto y hasta qué punto.

Comenzando con el balance de blancos

Comienzo abriendo el archivo RAW original en LR.

(LR, sin ajustes posteriores, 5750K matiz +14)

Como vemos, en la zona de ajustes, encima del selector de temperatura, tenemos “EB: Como se ha tomado”. Esto significa que LR estaría tomando la temperatura de color que fijó la cámara cuando tomé la fotografía (el balance de blancos casi siempre lo tengo fijado en automático en la cámara). Podemos ver que el matiz que aplica LR es 14 y la temperatura es 5750K.

En cuanto a enfoque, LR por defecto ya aplica un ligero enfoque al abrir la fotografía (cantidad=25, radio=1.0, detalle=25, máscara=0) tal y como podemos ver en la siguiente imagen que os muestro aquí.

(parámetros de enfoque en LR)

Ahora abrimos la misma fotografía en DPP.

(DPP, sin ajustes posteriores, temperatura automática y resto de parámetros tomados de la cámara)

(DPP, sin ajustes posteriores, temperatura automática y resto de parámetros tomados de la cámara)

La diferencia entre DPP y LR en principio es clara. El RAW abierto en LR se ve más amarillento que en DPP. Esto se debe a lo que comentaba al principio de este artículo, hay información de la toma en el RAW que ha grabado la cámara a la que LR no es capaz de acceder por no estar publicada toda la especificación del formato. También podría ser por encriptación de ciertos datos, no estoy seguro de una u otra causa.

Volviendo al ejemplo, ¿qué es lo que está pasando? pues varias cosas. La primera podría ser que LR no está sabiendo interpretar muy bien el balance de blancos ajustado automáticamente por la cámara, pero parece que éste no es el problema. Lo demuestra la siguiente imagen, para conseguir acercarme al matiz amarillento que tiene la nieve en LR he tenido que subir en DPP la temperatura de color a 7300K, y aún me quedaba algo de recorrido para llegar hasta el matiz amarillo que tiene en LR.

(matiz de la nieve similar para una temperatura en LR de 5750K y en DPP de 7300K)

(matiz de la nieve similar para una temperatura en LR de 5750K y en DPP de 7300K)

Pero la interpretación de la temperatura de color de la cámara no es en realidad el problema, o no es el origen del problema pero sí una consecuencia. Al subir la temperatura en DPP a 7300k, como vemos, hemos equiparado el matiz de la nieve entre DPP y LR, pero hemos fastidiado el matiz del precioso cielo azul horriblemente raso que hacía ese día en Sierra Nevada, además, a diferentes temperaturas, en LR (5750K +13m), el cielo tiende más a púrpura. Y sobre todo, lo que queremos, al menos yo, es tener el blanco en nieve que está revelando DPP y no el amarillento que está revelando LR a 5750K.

Además, dudo que la temperatura automática que fijase la cámara fuese 7300K, estamos hablando de un día soleado, que suele tener unos 5500K y, en el peor de los casos, la nieve suele engañar a la cámara bajándola y azulando la foto, no a la inversa. Por tanto, partiré de la suposición de que la temperatura que debe haber fijado la cámara en balance automático es aproximadamente 5500K, o mejor aún, los 5750K que ha fijado LR al abrir la foto.

(Fotografía completa en DPP con temperatura ajustada a 7300K)

(Fotografía completa en DPP con temperatura ajustada a 7300K)

Estilos de imagen (Picture Styles)

Descartando el problema con la lectura del balance de blancos en LR, el tema parece estar en realidad en los estilos de imagen que aplica Canon en cámara y que luego guarda en el archivo RAW y que son: (en inglés – Picture Style: Landscape, Neutral, Faithful, Monochrome, en español – Estilo de imagen: Paisaje, Neutro, Fiel, Monocromo).

Éstos aplican modificaciones a la fotografía, siempre como ajustes guardados en el RAW y no como valores pixel a pixel, y forman parte de esa información no documentada a la que terceros ajenos a Canon no tienen acceso, como en este caso Adobe.

Así pues, cada vez que abrimos una fotografía en LR, éste aplica un estilo de imagen por defecto, que en la configuración de fábrica de LR suele ser “Adobe Standard” tal y como vemos en la imagen de la barra de revelado de LR.

(Ajuste de Estilo de Imagen en LR a “Adobe Standard”)

(Ajuste de Estilo de Imagen en LR a “Adobe Standard”)

Aunque Adobe no puede saber a priori qué estilo se configuró en la cámara al hacer la fotografía al no tener acceso a ese dato en el RAW, sí puede emular esos estilos de imagen a posteriori, así que, aunque no lo aplique por defecto al cargar la fotografía y aplique el “Adobe Standard”, luego, si queremos acercarnos más a DPP, podemos cambiarlo manualmente en LR.

En nuestro ejemplo, como sé que el estilo es «Fiel» (Faithful en inglés) porque es el que tengo configurado en cámara siempre, he cambiado el estilo en LR y así obtenemos el resultado de la imagen que muestro.

(Fotografía completa con ajuste de Estilo de Imagen en LR a “Camera Faithful”)

(Fotografía completa con ajuste de Estilo de Imagen en LR a “Camera Faithful”)

Como vemos, ahora nos hemos acercado en el matiz del azul en LR al ajuste DPP a 7300K. ¿Y qué ha pasado en LR al cambiar este Estilo de Imagen? Pues que LR ha subido la temperatura a 5950 y ha bajado el matiz a +13.

(Ajuste de temperatura ha subido de 5750 a 5950 en LR al cambiar estilo de imagen a Fiel)

(Ajuste de temperatura ha subido de 5750 a 5950 en LR al cambiar estilo de imagen a Fiel)

Muy bien, ahora tenemos un azul similar y un blanco en la nieve también similar, con diferentes temperaturas, uno a 5950K (LR) y otro a 7300K (DPP), pero un blanco en nieve bastante amarillento y con una temperatura lejos de la ligera dominante azulada del ajuste que DPP leyó de la cámara y que era “Balance de blancos automático”.

Para nuestra desgracia, Canon no quiere mostrarnos en la barra de información de DPP la temperatura exacta que ha fijado la cámara estando el balance configurado en automático, lo cual sería una ayuda (creo que otras cámaras superiores sí muestran la información precisa de temperatura).

Intentando igualar el balance de blancos y obtener un blanco más puro

Nuestro objetivo ahora es obtener el mismo matiz de azul y el mismo blanco en la nieve en ambos programas, pero un blanco no amarillento y a la temperatura original que fijó la cámara en automático. Así que, una vez fijado el estilo fiel en LR, tenemos que hacer algún ajuste en el balance de blancos para acercarnos a los matices de color de DPP a “balance automático”. Para ello, trasteando en LR con el selector de temperatura, he bajado hasta los 4700K para acércame en LR al blanco de DPP en automático. Con éste valor, ahora ambos conservan el mismo matiz del blanco pero diferente azul (menudo mareo).

(Comparativa de detalle entre LR a 4700K en estilo fiel y DPP a “balance automático”)

(Comparativa de detalle entre LR a 4700K en estilo fiel y DPP a “balance automático”)

¿Por qué he bajado tanto la temperatura en LR si sospecho que la cámara la debe haber fijado entre 5500K y 5700K? Pues porque me interesa equilibrar blancos y luego ir jugando con la calibración de color de la cámara en LR para acercarme en el matiz azul, ya que lo veo más fácil.

Así, una vez bajada hasta 4700K he ido haciendo esos ligeros ajustes en el control Matiz de LR y en los ajustes de color de calibración de la cámara, con un tedioso proceso de prueba y error hasta que he conseguido acercarme pero no llegar, poniendo una temperatura de 4700K, matiz +10 y calibración de la cámara a saturación de primario verde -40 y saturación de primario azul a +45.

(Fotografía en LR con 4700K de temperatura y ajuste de matiz a +10 y de calibración de la cámara que más se acerca a DPP)

(Fotografía en LR con 4700K de temperatura y ajuste de matiz a +10 y de calibración de la cámara que más se acerca a DPP)

Conclusión respecto al balance de blancos de LR vs DPP

Al cambiar el estilo de imagen en LR para igualarlo al que utilicé al tomar la fotografía, en DPP la imagen sigue sin ser la misma, sólo consigo acercarme en LR si bajo la temperatura a 4700K, por lo que todo me hace pensar que realmente LR no está sabiendo qué temperatura de color eligió la cámara al disparar, o bien, más probable, Adobe no ha conseguido acercarse en los estilos de imagen a los del fabricante (Canon).

Creo que los resultados obtenidos en el balance de blancos después de todo este esfuerzo tampoco marcan ninguna diferencia significativa y que en este punto, LR, a pesar de no poder tratar los parámetros del archivo RAW que están ocultos, no obtiene resultados que lo desmerezcan. Simplemente ajustando el estilo de imagen en LR al mismo valor que tenemos en cámara ya obtenemos un resultado perfectamente válido, si es que no nos gusta el estilo “Adobe Standard” (es cuestión de gustos, entre ellos, hasta qué punto queremos acercarnos a la supuesta realidad de la cámara, que no es más que software, o dar un toque más personal).

Diferencias en la nitidez o enfoque

La verdad es que no me considero ninguna autoridad en esto y hay mucho escrito sobre las máscaras de enfoque para web y enfoque para impresión, pero sí he trasteado tanto DPP como LR bastante como para poder compararlos.

En cuanto a nitidez del revelado RAW, se ha comentado mucho acerca de la nitidez superior que aporta DPP respecto a terceros (también aplica al software de otros fabricantes). Sí es verdad que, a simple vista, un sencillo ajuste del selector “Nitidez” de DPP logra resultados que sorprenden, pero claro, la diferencia inicial respecto a LR es que DPP no aplica ningún enfoque al cargar el RAW inicialmente, por lo que un simple ajuste se hace muy llamativo.

Vayamos de nuevo con nuestro ejemplo. En DPP, he ajustado la máscara de enfoque con fuerza 8, radio 5 y umbral 2 y en la pestaña RGB he ajustado la nitidez a 60. La diferencia de nitidez respecto al RAW en bruto sin ningún tipo de enfoque es notable (si hay alguna duda: izquierda con enfoque y derecha por defecto).

(Comparativa entre fotografía con ajustes de nitidez de DPP vs apertura con valores por defectos en DPP)

(Comparativa entre fotografía con ajustes de nitidez de DPP vs apertura con valores por defecto en DPP)

Pero lo importante, ¿qué podemos obtener en LR en cuanto a nitidez?, ¿supera DPP a LR tanto como para que tengamos que descartar a LR como revelador RAW? yo creo que la diferencia no lo justifica, por lo menos hasta donde he podido trastear y con las fotos y la cámara que tengo.

Vamos a verlo con nuestro ejemplo. Como podemos ver en la imagen que muestra los tres ajustes de enfoque en LR, en el central, he ajustado la cantidad de enfoque a 75 (bastante alta), el radio a 1.4 y el detalle a 22. Como esto hace subir mucho el ruido, luego he aplicado una reducción de ruido de 55 con detalle 30. Los ajustes de ruido de color los he dejado porque esta foto no tiene este tipo de ruido.

Para poder comparar he dejado a la izquierda los ajustes de enfoque por defecto que aplica LR, en el centro mis ajustes, y a la derecha, el resultado quitando cualquier ajuste de enfoque de LR.

(Comparativa de resultados de los ajustes de LR)

(Comparativa de resultados de los ajustes de LR)

Para mi gusto queda con un poco de ruido en una vista al 100%, pero no molesta para ver en una pantalla de ordenador a menor tamaño. Otra cuestión sería, si es que es apreciable, cómo se aprecia ese ruido en una impresión en un formato de cierto tamaño. Tengo en casa algunas impresiones en tamaño A3 y no veo diferencias. Aunque la zona en la que me he centrado no tiene fronteras marcadas, en LR podría subir la máscara, que es un parámetro que, al elevarlo, concentra el algoritmo de enfoque en los bordes o fronteras, cuanto más se suba, más se concentrará en los bordes de objetos, dejando intactos (no aplicando enfoque) a cielos y superficies uniformes.

Lo que sí creo es que el enfoque en DPP vs LR es subjetivo, pues el salto de enfoque cero a cualquier leve enfoque en DPP es muy llamativo, no así en LR, ya que como partimos de un enfoque hecho por éste nada más abrir el RAW, no notamos tanta diferencia y eso es lo que nos puede conducir a pensar que DPP maneja mejor la máscara de enfoque.

Conclusión respecto al enfoque de LR vs DPP

Ahora toca comparar los resultados que obtuve en DPP con los que he obtenido en LR. En la siguiente imagen, a la izquierda el ajuste de enfoque con DPP, a la derecha, el ajuste con LR. Habrá alguno más purista, pero yo no veo que haya un resultado aplastante de DPP sobre LR, sí mejor, pero no significativo, y no en la nitidez en sí sino en el ruido.

(Comparativa de enfoque de DPP y LR)

(Comparativa de enfoque de DPP y LR)

Ajustando más detalle de enfoque, p.e. 40, LR se acerca más a DPP, pero sube el ruido. Así que con esta prueba sí que puedo decir que DPP maneja mejor el ruido, es decir, al incrementar la nitidez, DPP genera menos ruido que LR, pero tampoco para quitar el sueño.

Viendo este tema, es justo decir que quizá, si estamos revelando una fotografía que tiene un ruido notable, lo mejor será dejar la tarea de revelado a DPP (hmmm…, creo que ya tengo tema para una futura entrada: diferencias de revelado DPP vs LR en fotografías con mucho ruido, ya veremos).

Con DPP, en cuanto a precisión de los ajustes del enfoque, todo es mucho más rápido y fácil, aunque lo subas y subas, maneja el ruido tan bien que los micro-ajustes para encontrar el equilibrio con el ruido no se hacen nada tediosos como sí sucede en LR. En cambio, la interfaz de LR es muy superior y facilita mucho los ajustes por lo ordenado que tiene sus paneles, por no hablar de las capacidades de gestión de nuestro archivo fotográfico.

Aberración cromática

Por último, no quería dejar la prueba sin echar un vistazo al manejo de la aberración cromática. Por suerte para redactar esta entrada pero no para la calidad de mi fotografía, a mi objetivo le gusta jugar con los colores en los bordes y mostrarme bonitas aberraciones cromáticas.

Las podemos ver en las siguientes imágenes, mi objetivo es muy generoso y me las da de las dos formas, tanto verdes como magentas. Quizá en esta fotografía no se muestren en todo su esplendor, pero en situaciones de mayor contraste de luz se muestran bastante acusadas.

En las muestras que pongo aquí, en el borde de la nieve sobre el ojo que muestra el riachuelo podemos ver el matiz verde que me ha regalado el objetivo. Y en el borde de las rocas del fondo podemos ver la aberración cromática magenta.

(Aberración cromática verde en DPP)

(Aberración cromática verde en DPP)

(Aberración cromática magenta en DPP)

(Aberración cromática magenta en DPP)

Tranquilos si no notáis nada, ahora vemos cómo las corrigen tanto DPP como LR y se notará la diferencia.

Para quitarla, en DPP, he aplicado un valor de 67 en aberración, y un 70 en iluminación periférica. El resultado se nota, tanto en el verde como en el magenta.

(Aberración cromática verde corregida en DPP)

(Aberración cromática verde corregida en DPP)

(Aberración cromática magenta corregida en DPP)

(Aberración cromática magenta corregida en DPP)

Ahora es el turno de LR, nos vamos hasta “Correcciones de lente” y pulsamos “Color”, marcamos “Quitar aberración cromática” y ya está, el resultado es que LR elimina ambas aberraciones y muy bien, no tiene nada que envidiar a DPP.

(Aberración cromática verde corregida en LR)

(Aberración cromática verde corregida en LR)

(Aberración cromática magenta corregida en LR)

(Aberración cromática magenta corregida en LR)

Conclusión final

Como conclusión final, siempre bajo mi experiencia y mi punto de vista, mis gustos y mi equipo fotográfico, y a falta de añadir esa prueba (que haré) con fotografías con mucho ruido (desgraciadamente tengo bastantes aunque muchas no se han salvado de la quema), LR, a pesar de no tener acceso a toda la información que tiene el fichero RAW de Canon y su desventaja en el control de ruido, es un buen revelador RAW que poco tiene que envidiar a DPP.