¿Son falsas las increíbles tomas de la luna del Samsung Galaxy S23 Ultra? Lo probamos nosotros mismos

Space Zoom de Samsung está bajo fuego nuevamente por “falsificar” fotos de la luna capturadas por el Galaxy S23 Ultra. Esto no es nada nuevo, Space Zoom debutó en el Galaxy S20 Ultra en 2020 y se destacó de inmediato por su increíble zoom de 100x que produce imágenes nítidas de la luna a la par (o mejor que) con telescopios o cámaras mucho más caras.

La última ronda de controversia comenzó en Reddit, con una publicación del usuario ‘ibreakphotos’ que intenta demostrar que el software de Samsung está aplicando datos a estas tomas de la luna que no están presentes en el momento de la captura. Como disfruto de la astrofotografía móvil, quería echar un vistazo más de cerca a estas nuevas afirmaciones y aclarar parte de la confusión que las rodea.

No es la luna (tiro).

Un problema con esta controversia es definir exactamente lo que constituye disparos a la luna “falsos”. Samsung está aplicando inteligencia artificial y aprendizaje automático (ML) a las imágenes de Space Zoom para producir fotos nítidas de la luna. Ese punto no está en disputa.

En una inmersión profunda anterior en Space Zoom by Input en 2021, esto se cubrió ampliamente. Samsung dijo que la función de Identificador de escena utiliza la Luna basada en el entrenamiento del modelo de IA y luego reduce el desenfoque, el ruido y aplica el procesamiento de Super Resolución a múltiples capturas como el procesamiento HDR. Por lo que vale, Input finalmente concluyó que Samsung no estaba “falsificando” las imágenes de la luna.

La afirmación de ibreakphotos en su reciente hilo de Reddit es que Samsung está aplicando texturas a las imágenes que no son capturadas por el teléfono. Probaron esto usando una imagen de baja resolución (170 x 170 píxeles) de la luna y usando un desenfoque gaussiano para eliminar casi todos los detalles de la toma antes de apagar todas las luces y tomar una foto con Space Zoom. A continuación se muestra una mirada de lado a lado de la fuente y el resultado final que publicaron.

Por supuesto, este es un resultado sorprendente y ciertamente respaldaría las afirmaciones hechas en el hilo, ya que sería imposible que el teléfono resolviera el detalle que se muestra a la derecha de la imagen de la izquierda. Sin embargo, no tuve suerte al recrear estos resultados usando la misma imagen original, y más de media docena de colegas también intentaron y no lograron acercarse a este resultado. Hay una muestra de lado a lado debajo, como puede ver, es un poco menos borrosa que la original en el mejor de los casos.

Eso no significa necesariamente que estén mintiendo sobre sus resultados, pero no hemos podido replicarlos. No tenemos todas las variables en sus pruebas, así que tal vez algo esté mal. ¿Tenemos la misma versión de One UI y software de cámara que Samsung? ¿Nuestras habitaciones son ligeramente más luminosas o más oscuras que las de ellos? ¿Acabamos de aplicar la misma cantidad de desenfoque gaussiano a la imagen? ¿Podría el monitor en sí mismo hacer una diferencia en el resultado?

Solo puedo decir que en mis pruebas y las de mis colegas, una luna tenue permanece tenue. En última instancia, creo que la pregunta más importante que esto plantea es cuánta mejora de IA crees que es aceptable antes de que una foto sea “falsificada”.

¿Dónde está la línea entre “real” y “falso” con la fotografía mejorada por IA?

En los últimos años la fotografía móvil se ha visto completamente transformada por la fotografía computacional o AI y ML. Básicamente, Google construyó el Pixel sobre él y cada teléfono produjo imágenes que excedieron con creces lo que cabría esperar en función de su hardware. Ahora, todos los fabricantes de conjuntos de chips móviles se enfocan mucho en el rendimiento de la IA para mejorar y acelerar la capacidad de nuestros teléfonos para producir excelentes imágenes (entre innumerables otras tareas impulsadas por la IA).

Funciones como el modo de retrato le brindan resultados que en realidad no suceden en la cámara. ¿Te importa que el desenfoque sea artificial si te da una foto bonita que quieres compartir? ¿Es falso?”

¿Qué pasa con los modos HDR o los modos nocturnos? Las múltiples imágenes se capturan y combinan juntas, de nuevo, si la toma es más cercana a lo que querías capturar, ¿no es ese el objetivo final?

Yendo más allá, ¿qué pasa con Magic Eraser de Google? Estás borrando por completo aspectos de la foto que tomaste, pero probablemente te deje con un resultado que te gusta más.

Ahora puedo entender que hay usuarios que quieren capturar una foto exactamente como la vieron sin adornos. El experto en Raw de Samsung es lo que estás buscando.

Sin embargo, la mayoría de los usuarios solo toman fotos de su vida y del mundo que los rodea y lo mejor de tener una gran cámara en su teléfono es que siempre la tienen y pueden capturar la mejor foto de manera confiable en el menor tiempo posible.

Por lo que he visto y lo que he podido reproducir, Samsung está aplicando en gran medida mejoras de IA a las fotos de la Luna sin reemplazarlas por completo. Si lo consideras “falso” o no, depende de ti.

Publicaciones Similares