• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Cómo tomar mejores fotos con su teléfono inteligente, gracias a la fotografía computacional

    Una larga exposición de estelas de luz del Tower Bridge de Londres, filmado en iPhone8Plus usando la aplicación NightCap. Crédito:Rob Layton, Autor proporcionado

    Cada vez que toma una foto con su teléfono inteligente, según la marca y el modelo, puede realizar más de un billón de operaciones solo para esa imagen.

    Sí, espera que realice las funciones habituales de autoenfoque / autoexposición que son el sello distintivo de la fotografía de apuntar y disparar.

    Pero su teléfono también puede capturar y apilar varios marcos (a veces incluso antes de presionar el botón), captura las partes más brillantes y oscuras de la escena, promediar y fusionar exposiciones, y renderice su composición en un mapa tridimensional para desenfocar artificialmente el fondo.

    El término para esto es fotografía computacional, lo que básicamente significa que la captura de imágenes se realiza a través de una serie de procesos digitales en lugar de puramente ópticos. El ajuste y la manipulación de la imagen se realizan en tiempo real, y en la camara, en lugar de en postproducción utilizando cualquier software de edición.

    La fotografía computacional agiliza la producción de imágenes para que todo:captura, edición y entrega:se puede hacer en el teléfono, con gran parte del trabajo pesado hecho mientras se toma la fotografía.

    ¿Un teléfono inteligente o una cámara?

    Lo que esto significa para el usuario cotidiano es que su teléfono inteligente ahora rivaliza, y en muchos casos supera, Cámaras DSLR caras. La capacidad de crear fotografías de aspecto profesional está en la palma de su mano.

    Fotografía con poca luz tomada con iPhone 8 Plus. Crédito:Rob Layton

    Empecé en la fotografía hace más de 30 años con el cine, cuartos oscuros, una bolsa llena de cámaras y lentes, y luego el inevitable cambio a las DSLR (con réflex digital de lente única, la luz viaja a través de la lente hasta un espejo [el reflejo] que envía la imagen al visor y se levanta cuando se dispara el obturador para que el sensor de imagen capture la imagen).

    Pero mi fotografía ahora se hace exclusivamente con un iPhone, porque es más barato y siempre conmigo. Tengo dos lentes accesorias, dos plataformas (una para el agua, el otro por tierra), un trípode y un montón de aplicaciones de fotografía.

    Son las aplicaciones las que a menudo son el motor de la fotografía computacional de teléfonos inteligentes. Piense en ello como un coche caliente. Las aplicaciones son complementos personalizados que aprovechan y mejoran el rendimiento del motor existente. Y, como en las carreras de coches, los mejores complementos generalmente terminan en producción en masa.

    Ese ciertamente parece ser el caso del iPhone X de Apple. Ha mejorado la fotografía computacional a través de sus avances en el rendimiento con poca luz, HDR inteligente (alto rango dinámico) y profundidad de campo artificial:este es posiblemente el mejor teléfono con cámara del mercado en este momento.

    Hace unos meses ese título lo ostentaba el Huawei P20 Pro. Antes del Huawei probablemente fue el Pixel 2 de Google, hasta que salió el Pixel 3.

    Las estrellas son discernibles en esta imagen que demuestra que la astrofotografía es posible en un teléfono inteligente. Crédito:Rob Layton

    La cuestión es, los fabricantes se están adelantando unos a otros en la carrera por ser la mejor cámara de teléfono inteligente en una sociedad obsesionada con la imagen (¿cuándo fue la última vez que vio un teléfono inteligente comercializado como teléfono?).

    Los fabricantes de teléfonos están tirando de la alfombra debajo de los fabricantes de cámaras tradicionales. Es un poco como la dinámica entre los periódicos y los medios digitales:los periódicos tienen el legado de calidad y confianza, pero los medios digitales están respondiendo mejor y más rápido a las demandas del mercado. También lo son los fabricantes de teléfonos inteligentes.

    Entonces, ahora, Las principales áreas de la fotografía computacional de teléfonos inteligentes que puede emplear para obtener mejores fotografías son:modo retrato; HDR inteligente; poca luz y larga exposición.

    Modo retrato

    Las cámaras convencionales usan lentes largos y grandes aperturas (aberturas para la luz) para desenfocar el fondo y enfatizar el sujeto. Los teléfonos inteligentes tienen distancias focales pequeñas y aperturas fijas, por lo que la solución es computacional, si su dispositivo tiene más de una cámara trasera (algunos, incluido el Huawei, tener tres).

    Una imagen en modo retrato que muestra el mapa de profundidad 3-D generado para controlar el bokeh (desenfoque). Crédito:Rob Layton

    Funciona usando ambas cámaras para capturar dos imágenes (una gran angular, el otro teleobjetivo) que se fusionan. Su teléfono mira ambas imágenes y determina un mapa de profundidad:la distancia entre los objetos en la imagen general. Los objetos y áreas enteras se pueden difuminar artificialmente en puntos precisos, dependiendo de dónde residan en ese mapa de profundidad.

    Así es como funciona el modo retrato. Varias aplicaciones de edición y cámara de terceros permiten un ajuste preciso para que pueda determinar exactamente cuánto y dónde colocar el bokeh (la parte borrosa de la imagen, también conocido como profundidad de campo).

    Aparte de lo que ya está en un teléfono inteligente, (iOS) aplicaciones para esto incluyen Focos, Haluro ProCam6, Cuarto oscuro.

    Las aplicaciones de Android son más difíciles de recomendar porque es un campo de juego desigual en este momento. Muchos desarrolladores optan por seguir con Apple porque es un entorno estandarizado. Dicho eso puede probar la cámara de Google o la cámara abierta

    Este retrato de un joven arquero de arco largo fue filmado con la aplicación Halide, el fondo borroso en la aplicación Focos, y edición final realizada en Lightroom CC para dispositivos móviles. Observe que la cuerda del arco desaparece en áreas de bajo contraste en el mapa de profundidad, mostrando limitaciones en una tecnología aún no perfeccionada. Crédito:Rob Layton

    HDR inteligente

    El ojo humano puede percibir un contraste mucho mayor que las cámaras. Para traer más detalles de luces y sombras a su foto (el rango dinámico), HDR (alto rango dinámico) es una función estándar en la mayoría de los teléfonos inteligentes más nuevos.

    Se basa en una técnica de fotografía tradicional mediante la cual se exponen varios fotogramas desde las sombras hasta las luces y luego se fusionan. El rendimiento de esto depende de la velocidad del sensor de su teléfono y del ISP (procesador de señal de imagen).

    También hay disponibles varias aplicaciones HDR, algunos de los cuales tomarán hasta 100 fotogramas de una sola escena, pero es posible que deba mantener el teléfono fijo para evitar que se vea borroso. Prueba (iOS) Hydra, Cámara ProHDRx o (Android) Pro HDR.

    HDR expone los detalles de las sombras y las luces para ampliar el rango dinámico. Crédito:Rob Layton

    Exposición prolongada y con poca luz

    Los teléfonos inteligentes tienen pequeños sensores de imagen y profundidad de píxeles, así que luchan con poca luz. La tendencia computacional entre desarrolladores y fabricantes es tomar múltiples exposiciones, apilarlos uno encima del otro, y luego promediar la pila para reducir el ruido (los píxeles aleatorios que escapan de los sensores).

    Es una técnica tradicional (y manual) en Photoshop que ahora es automática en los teléfonos inteligentes y es una evolución de HDR. Así es como Google Pixel 3 y Huawei P20 ven tan bien en la oscuridad.

    También significa que las exposiciones prolongadas se pueden tomar a la luz del día (prohibitivo con una DSLR o una película) sin riesgo de sobreexposición de la imagen.

    En una aplicación como NightCap (Android, prueba la cámara FV-5), las exposiciones largas son un proceso promediado, como esta (imagen de arriba) exposición de tres segundos de nubes de tormenta pasando por una torre de reloj.

    Una exposición de tres segundos de nubes de tormenta pasajeras al mediodía, hecho posible a través de la computación. Crédito:Rob Layton

    Estelas de luz como la imagen principal (arriba) del Tower Bridge de Londres y estas imágenes (abajo) del centro de San Francisco y un giro de fuego son un proceso aditivo para capturar los aspectos más destacados emergentes.

    Un trípode es esencial a menos que utilice la aplicación de edición gratuita de Adobe Lightroom (iOS y Android), que tiene una cámara muy buena con una función de exposición prolongada que agrega alineación automática a su apilamiento de imágenes.

    Se puede realizar una exposición prolongada en la aplicación de cámara nativa del iPhone tocando el botón de modo en vivo. El iPhone graba antes de presionar el obturador, por lo que debe mantener la cámara estable antes y después de tomar la fotografía. Luego, en la aplicación Fotos, deslice la imagen hacia arriba para revelar cuatro modos:En vivo, Círculo, Rebote y larga exposición.

    La clave para una fotografía exitosa con teléfonos inteligentes es comprender no solo lo que puede hacer su teléfono, pero también sus limitaciones, como la distancia focal óptica verdadera (aunque este dispositivo de Light lo desafía). Sin embargo, los avances en la fotografía computacional están haciendo de este un espacio dinámico y atractivo.

    Vale la pena recordar también, que los teléfonos inteligentes son solo una herramienta, y la fotografía computacional, la tecnología que impulsa la herramienta. Este viejo adagio todavía suena cierto:es el fotógrafo quien toma la fotografía, no la cámara. Eso sí, la toma se está volviendo mucho más fácil.

    Feliz chasquido.

    • El modo Light Trails se utilizó para capturar el tráfico que pasaba en esta larga exposición del centro de San Francisco. Crédito:Rob Layton

    • El modo Light Trails se utilizó para capturar este giro de fuego en Burleigh Heads en Gold Coast. Crédito:Rob Layton

    • Una exposición prolongada realizada con el modo de foto en vivo del iPhone. Crédito:Rob Layton

    • Se utilizó una carcasa submarina para iPhone (AxisGo de Aquatech) para capturar esta imagen de un padre y una hija nadando en el océano. Crédito:Rob Layton

    Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.




    © Ciencia https://es.scienceaq.com