Noticias

Fotos con «acta de nacimiento». La industria contraataca a las deepfakes

En un mundo donde la frontera entre lo real y lo generado por Inteligencia Artificial es cada vez más difusa, la industria de la fotografía implementa soluciones radicales desde el hardware, como la integración de mecanismos de verificación directamente en sus dispositivos para garantizar la autenticidad del contenido digital desde su origen.

Un «acta de nacimiento» para cada fotografía La estrategia central para combatir la desinformación consiste en otorgar a cada archivo una identidad rastreable. De acuerdo con Angelo Marconi, gerente de Sony Latam, el objetivo es que las fotos, al ser capturadas, «queden con un acta de nacimiento». Este sistema permite que, si una imagen es editada posteriormente en programas como Photoshop y luego transferida a terceros, cualquier receptor pueda «ver todas las modificaciones» que se le realizaron a través de la metadata. Además, entrega bases más sólidas para combatir las deepfakes hechas con IA.

Esta iniciativa no es un esfuerzo aislado, sino que forma parte de la Coalition for Content Provenance and Authenticity (C2PA), un comité donde participan gigantes como Sony, Canon o Samsung, entre otros fabricantes para establecer estándares globales. Para la industria, este paso es fundamental porque «proteger al consumidor de las imágenes que está consumiendo» se ha vuelto una prioridad, especialmente en sectores críticos como el periodismo de noticias y el documental. Informe sobre Amenazas de Datos 2026 de Thales, apuntan que casi el 60% de las empresas sufrieron ataques impulsados por deepfakes y se trata de un problema que crece con una alta velocidad. Según datos del Reporte de Identidad de Fraude 2025-2026 de Sumsub, el fraude con deepfakes registró un incremento interanual de 484% en México. “Hoy los atacantes son más sofisticados, más rápidos y cuentan con tecnologías que hace unos años parecían exclusivas de agencias de inteligencia. Los deepfakes y el robo de identidad sintética son parte de la ecuación”, comenta Miguel González, country manager de Sumsub México.

Tecnología contra el fraude visual Una de las innovaciones más recientes para combatir este problema desde el origen la lanzó Sony. Se trata de un algoritmo integrado en sus cámaras de última generación, como la recién anunciada Sony Alpha 7V, capaz de distinguir si una fotografía fue tomada en un entorno real o si es la captura de una imagen proyectada en una pantalla.

Con esta tecnología, la cámara es capaz de «medir la profundidad de campo y saber si es algo en 2D o 3D», utilizando un algoritmo entre el sensor y el lente, detalla Marconi, quien resalta que se trata de innovaciones que irán llegando a más dispositivos con el tiempo. Si alguien intentara fotografiar una imagen generada por IA en un televisor para hacerla pasar por real, la cámara detectaría la falta de profundidad física, detalla el vocero, lo que bloquea la posibilidad de engañar al sistema sobre la procedencia del «disparo». Esta tecnología ya no es una promesa a futuro, pues se está extendiendo a otros equipos, no solo de Sony, sino de la C2PA, así como al formato de video. La meta es que tanto los medios de comunicación como el «consumidor de a pie» puedan verificar si el contenido fue generado o alterado por IA a través de las plataformas vinculadas al C2PA. Desde la perspectiva de Marconi, este avance responde a una necesidad ética y de mercado. «Para nosotros la transparencia es clave», señala, enfatizando que no basta con lanzar productos al mercado, sino que es necesario proteger la integridad de la obra de los artistas y la confianza de los usuarios.

China es un referente en el etiquetado de imágenes con IA Aunque esta medida es por parte de empresas, a nivel de gobierno ya hay países ejecutando sistemas de verificación de IA. Uno de los más importantes es China, que desde septiembre del año pasado se convirtió en el primer país en hacer obligatoria la identificación clara de todos los contenidos generados con IA. La normativa, impulsada por la Administración del Ciberespacio de China (CAC) y otros ministerios, establece que cualquier texto, imagen, audio, video o entorno virtual producido por algoritmos debe llevar un etiquetado que advierta a los usuarios de su origen artificial. Este “etiquetado frontal” puede tomar varias formas desde un aviso textual que indique “generado por IA”, hasta iconos visibles, marcas gráficas en las imágenes, o incluso mensajes de audio que acompañen un clip. Junto a esta señal perceptible, la ley también exige una segunda capa de identificación oculta para el usuario, incrustada en los metadatos de los archivos, con claves estandarizadas o marcas de agua digitales. Los proveedores de servicios de generación de IA deben aplicar estas marcas desde el origen, mientras que las plataformas de redes sociales y distribución tienen la obligación de verificar los contenidos y añadir etiquetas si detectan que no las tienen. Incluso los usuarios que publiquen materiales creados con IA deben declararlos en el proceso de carga. De no hacerlo, se enfrentan a sanciones por manipulación o falsificación de etiquetas. Hasta las tiendas de aplicaciones tienen un papel que cumplir, pues solo se comercializarán apps que demuestren mecanismos para cumplir con las normas.

]]>

Powered by WPeMatico

Gustavo Genez

Informático de corazón y apasionado por la tecnología. La misión de este blog es llegar a los usuarios y profesionales con información y trucos acerca de la Seguridad Informática.

This website stores cookies on your computer. These cookies are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to to opt-out of any future tracking, a cookie will be setup in your browser to remember this choice for one year.

Accept or Deny