diciembre 26, 2024

Telecentro di Bologna e dell'Emilia-Romagna

Manténgase al tanto de las últimas novedades de España sobre el terreno

La herramienta de cambio de rostro de Google Pixel genera controversia sobre la manipulación de la IA

La herramienta de cambio de rostro de Google Pixel genera controversia sobre la manipulación de la IA

Fuente de imagen, imágenes falsas

Comenta la foto,

Nunca es fácil que todos luzcan bien al tomar una foto grupal

La cámara nunca miente. Excepto, por supuesto, que sucede, y parece suceder con más frecuencia cada día que pasa.

En la era de los teléfonos inteligentes, los ajustes digitales rápidos para mejorar las imágenes se han vuelto comunes, desde mejorar los colores hasta ajustar los niveles de luz.

Ahora, una nueva generación de herramientas para teléfonos inteligentes impulsadas por inteligencia artificial (IA) se suma al debate sobre lo que significa fotografiar la realidad.

Los últimos teléfonos inteligentes de Google lanzados la semana pasada, Pixel 8 y Pixel 8 Pro, van un paso más allá que los dispositivos de otras compañías. Utilizan inteligencia artificial para ayudar a cambiar las expresiones de las personas en las fotografías.

Es una experiencia que todos hemos tenido: hay una persona en una foto grupal que aparta la mirada de la cámara o no sonríe. Los teléfonos de Google ahora pueden buscar en sus fotos para mezclar y combinar expresiones anteriores, utilizando el aprendizaje automático para dibujar un emoticón a partir de una imagen diferente en una foto. Google lo llama Mejor Toma.

Los dispositivos también permiten a los usuarios borrar, mover y cambiar el tamaño de elementos no deseados en una imagen (desde personas hasta edificios) “llenando” el espacio restante con el llamado Editor Mágico. Esto utiliza lo que se conoce como aprendizaje profundo, que es un poderoso algoritmo de inteligencia artificial que determina qué texturas deben llenar un vacío analizando los píxeles circundantes que puede ver, utilizando el conocimiento que ha adquirido de millones de otras imágenes.

No es necesario tomar las fotografías en el dispositivo. Con Pixel 8 Pro, puedes aplicar lo que se llama Magic Editor o Best Take a cualquier foto de tu biblioteca de Google Photos.

«Malo y aterrador»

Para algunos observadores, esto plantea nuevas preguntas sobre cómo se toman las imágenes.

Andrew Pearsall, fotógrafo profesional y profesor titular de periodismo en la Universidad de Gales del Sur, está de acuerdo en que manipular la inteligencia artificial conlleva riesgos.

«La simple manipulación, incluso por razones estéticas, puede llevarnos por un camino oscuro», afirmó.

Dijo que los riesgos son mayores para quienes usan la IA en contextos profesionales, pero hay implicaciones que todos deberían considerar.

“Hay que tener mucho cuidado con ‘¿Cuándo cruzas la línea?’”

«Es muy inquietante ahora que puedes tomar una foto y eliminar algo instantáneamente en tu teléfono. Creo que nos estamos moviendo hacia una especie de mundo falso».

En declaraciones a la BBC, Isaac Reynolds de Google, que dirige el equipo que desarrolla sistemas de cámaras en los teléfonos inteligentes de la empresa, dijo que la empresa se toma en serio las consideraciones éticas de su tecnología de consumo.

Se apresuró a señalar que características como Best Take no eran nada «falso».

Comenta la foto,

Esta imagen fue editada con AI Magic Editor de Google para cambiar la posición y el tamaño de las personas en primer plano.

La calidad de la cámara y el software son clave para una empresa que compite con Samsung, Apple y otras, y estas funciones de IA se consideran un punto de venta único.

Todos los críticos que expresaron inquietudes sobre la tecnología elogiaron la calidad de imagen del sistema de cámara.

«Finalmente puedes obtener esa toma en la que todos miran como tú quieres que se vean, y eso es algo que no has podido hacer con la cámara de ningún teléfono inteligente, ni con ninguna cámara, por un tiempo», dijo Reynolds.

“Si hay una copia [of the photo you’ve taken] Donde esta persona sonríe, te lo mostraré. «Pero si no hay una versión en la que sonrían, entonces sí, no la verás», explicó.

Para Reynolds, la imagen final se convierte en “una representación del momento”. En otras palabras, es posible que ese momento específico no haya sucedido, pero es la imagen que querías que sucediera la que se creó a partir de múltiples momentos reales.

«La gente no quiere la realidad»

El profesor Rafal Mantioc, experto en gráficos y pantallas de la Universidad de Cambridge, dijo que era importante recordar que el uso de la inteligencia artificial en los teléfonos inteligentes no era para hacer que las imágenes parecieran reales.

«La gente no quiere capturar la realidad», dijo. «Quieren tomar fotografías hermosas. Todo el proceso de procesamiento de imágenes en los teléfonos inteligentes tiene como objetivo producir fotografías atractivas, no fotografías reales».

Las limitaciones físicas de los teléfonos inteligentes significan que dependen del aprendizaje automático para “completar” información que no está en la imagen.

Esto ayuda a mejorar el zoom, mejorar fotografías con poca luz y, en el caso de la función Magic Editor de Google, agregar elementos a fotografías que nunca estuvieron allí o intercambiar elementos de otras fotos, como reemplazar un ceño fruncido con una sonrisa.

La manipulación de imágenes no es nada nuevo, es tan antigua como la forma de arte misma. Pero nunca ha sido tan fácil ampliar la escala gracias a la IA.

A principios de este año Samsung ha sido criticado Por la forma en que utilizó algoritmos de aprendizaje profundo para mejorar la calidad de las fotografías tomadas de la luna con sus teléfonos inteligentes. Las pruebas encontraron que no importa qué tan mala fuera la foto que tomaste inicialmente, siempre te daba una foto utilizable.

En otras palabras, tu foto de la luna no era necesariamente una foto de la luna que estabas mirando.

La compañía reconoció las críticas y dijo que estaba trabajando para «reducir cualquier posible confusión que pueda ocurrir entre tomar una fotografía de la luna real y una fotografía de la luna».

Con respecto a la nueva tecnología de Google, Reynolds dice que la compañía está agregando metadatos a sus fotografías (la huella digital de la imagen) utilizando un estándar de la industria para indicar cuándo se ha utilizado IA.

«Es una cuestión de la que hablamos internamente. Y lo hemos hablado extensamente. Porque hemos estado trabajando en esto durante años. Es una conversación y escuchamos lo que dicen nuestros usuarios», dice. .

Google confía claramente en que los usuarios estarán de acuerdo, ya que las funciones de inteligencia artificial de sus nuevos teléfonos son el centro de su campaña publicitaria.

Entonces, ¿existe una línea que Google no cruzará cuando se trata de manipulación de imágenes?

Reynolds dijo que el debate sobre el uso de la inteligencia artificial ha sido tan matizado que no se puede simplemente señalar una línea en la arena y decir que está demasiado lejos.

«Cuanto más profundizas en la creación de funciones, empiezas a darte cuenta de que la fuente es una especie de simplificación excesiva de lo que termina siendo una decisión muy difícil función por función», dice.

Si bien estas nuevas tecnologías plantean consideraciones éticas sobre qué es la realidad y qué no lo es, el profesor Mantioc dijo que también debemos tener en cuenta las limitaciones impuestas a nuestros ojos.

«El hecho de que veamos imágenes nítidas en color se debe a que nuestro cerebro puede reconstruir información e inferir incluso la información faltante», dijo.

«Entonces, uno podría quejarse de que las cámaras hacen cosas falsas, pero el cerebro humano en realidad hace lo mismo de una manera diferente».