La IA generativa permite producir montones y montones de imágenes y palabras con gran rapidez. Estaría bien que hubiera alguna forma de distinguir de forma fiable los contenidos generados por IA de los generados por humanos. Ayudaría a la gente a evitar interminables discusiones con bots en Internet o a creer lo que pretende mostrar una imagen falsa. Una propuesta común es que las grandes empresas incorporen marcas de agua en los resultados de sus IA. Por ejemplo, esto podría implicar tomar una imagen y cambiar sutilmente muchos píxeles de forma indetectable a simple vista pero detectable para un programa informático. O cambiar palabras por sinónimos de forma predecible para que el significado no cambie, pero un programa pueda determinar fácilmente que el texto ha sido generado por una IA.

Por desgracia, es poco probable que los sistemas de marcas de agua funcionen. Hasta ahora, la mayoría han resultado fáciles de eliminar, y es probable que los esquemas futuros tengan problemas similares.

Un tipo de marca de agua ya es habitual en las imágenes digitales. Los sitios web de imágenes de archivo suelen superponer texto a las imágenes, lo que las inutiliza para su publicación. Este tipo de marca de agua es visible y un poco difícil de eliminar, ya que requiere algunos conocimientos de edición fotográfica.

Las imágenes también pueden tener metadatos adjuntos por una cámara o un programa de procesamiento de imágenes, incluyendo información como la fecha, hora y lugar en que se tomó una fotografía, los ajustes de la cámara o el creador de una imagen. Estos metadatos son discretos, pero se pueden ver fácilmente con los programas habituales. También se eliminan fácilmente de un archivo. Por ejemplo, las redes sociales suelen eliminar automáticamente los metadatos cuando se suben imágenes, tanto para evitar que la gente revele accidentalmente su ubicación como para ahorrar espacio de almacenamiento.

Una marca de agua útil para imágenes producidas por IA necesitaría dos propiedades:

  • Tendría que seguir siendo detectable después de recortar, girar o editar una imagen de diversas formas (robustez).
  • No podría ser visible, como la marca de agua de las muestras de imágenes de archivo, porque las imágenes resultantes no serían de mucha utilidad para nadie.

Una técnica sencilla consiste en manipular los bits menos perceptibles de una imagen. Por ejemplo, para un observador humano, estos dos cuadrados tienen el mismo tono:

Pero para un ordenador es obvio que se diferencian en un solo bit: #93c47d vs 93c57d. Cada píxel de una imagen está representado por un número determinado de bits, y algunos de ellos marcan una diferencia perceptiva mayor que otros. Al manipular los bits menos importantes, un programa de marca de agua puede crear un patrón que los espectadores no verán, pero sí un programa de detección de marcas de agua. Si ese patrón se repite en toda la imagen, la marca de agua es incluso resistente al recorte. Sin embargo, este método tiene un claro defecto: girar o cambiar el tamaño de la imagen puede destruir accidentalmente la marca de agua.

Existen propuestas de marcas de agua más sofisticadas y resistentes a una mayor variedad de ediciones comunes. Sin embargo, las propuestas de marcas de agua con IA deben superar un reto más difícil. Deben ser robustas frente a alguien que conozca la marca de agua y quiera eliminarla. La persona que quiere eliminar una marca de agua no se limita a las ediciones comunes, sino que puede manipular directamente el archivo de imagen. Por ejemplo, si una marca de agua está codificada en los bits menos importantes de una imagen, alguien podría eliminarla simplemente poniendo todos los bits menos importantes a 0, o a un valor aleatorio (1 o 0), o a un valor predicho automáticamente, basándose en los píxeles vecinos. Al igual que ocurre al añadir una marca de agua, al eliminarla se obtiene una imagen básicamente idéntica a la original, al menos para el ojo humano.

Abordando el problema desde la dirección opuesta, algunas empresas están trabajando en formas de demostrar que una imagen procede de una cámara ("autenticidad del contenido"). En lugar de marcar las imágenes generadas por IA, añaden metadatos a las imágenes generadas por la cámara y utilizan firmas criptográficas para demostrar que los metadatos son auténticos. Este enfoque es más viable que el de poner marcas de agua a las imágenes generadas por IA, ya que no hay incentivos para eliminar la marca. De hecho, existe el incentivo contrario: los editores querrían mantener estos metadatos porque ayudan a establecer que sus imágenes son "reales". Pero sigue siendo un sistema endiabladamente complicado, ya que la cadena de verificabilidad tiene que mantenerse a través de todo el software utilizado para editar las fotos. Y la mayoría de las cámaras nunca producen estos metadatos, lo que significa que su ausencia no puede utilizarse para demostrar que una fotografía es falsa.

Comparando la marca de agua con la autenticidad del contenido, la marca de agua pretende identificar o marcar (algunas) imágenes falsas; la autenticidad del contenido pretende identificar o marcar (algunas) imágenes reales. Ninguno de los dos enfoques es exhaustivo, ya que la mayoría de las imágenes de Internet no tendrán ni marca de agua ni metadatos de autenticidad del contenido.

Marca de Agua Autenticidad de contenido
Imagenes IA Marcado Sin Marcar
(Algunas) imágenes de cámara Sin marcar Marcado
Todo lo demás Sin marcar Sin marcar

 

Marcas de agua basadas en texto

El problema de las marcas de agua es aún más difícil para la IA generativa basada en texto. Se pueden idear técnicas similares. Por ejemplo, una IA podría aumentar la probabilidad de ciertas palabras, dotándose de un sutil estilo textual que pasaría desapercibido la mayor parte del tiempo, pero que podría ser reconocido por un programa con acceso a la lista de palabras. Se trataría de una versión informática de la determinación de la autoría de los doce ensayos controvertidos de The Federalist Papers mediante el análisis de las palabras elegidas habitualmente por Madison y Hamilton.

Pero crear una marca de agua textual indeleble es una tarea mucho más difícil que distinguir a Hamilton de Madison, ya que la marca de agua debe ser resistente a que alguien modifique el texto intentando eliminarla. Cualquier marca de agua que se base en la elección de las palabras será probablemente vencida por una cierta reformulación del texto. Esa nueva redacción podría incluso ser realizada por una IA alternativa, quizá menos sofisticada que la que generó el texto original, pero no sujeta al requisito de la marca de agua.

También está el problema de sí las herramientas para detectar el texto con marca de agua son públicas o secretas. Poner a disposición del público las herramientas de detección supone una ventaja para quienes quieren eliminar la marca de agua, porque pueden editar repetidamente su texto o imagen hasta que la herramienta de detección dé el visto bueno. Pero mantenerlas en secreto las hace mucho menos útiles, porque cada solicitud de detección debe enviarse a la empresa que ha creado la marca de agua. Esto podría obligar a la gente a compartir comunicaciones privadas si quieren comprobar si hay una marca de agua. Y dificultaría los intentos de las redes sociales de etiquetar automáticamente contenidos generados por IA a gran escala, ya que tendrían que pasar cada publicación por las grandes empresas de IA.

Dado que el texto generado por las IA actuales no lleva marca de agua, han aparecido servicios como GPTZero y TurnItIn, que afirman ser capaces de detectar de todos modos el contenido generado por IA. Estas herramientas de detección son tan imprecisas que resultan peligrosas, y ya han dado lugar a falsas acusaciones de plagio.

Por último, si la marca de agua de la IA pretende evitar las campañas de desinformación patrocinadas por Estados, es importante tener en cuenta que esos Estados pueden desarrollar fácilmente IA generativa moderna, y probablemente lo hagan en un futuro próximo. Es poco probable que una campaña de desinformación patrocinada por un Estado sea tan educada como para poner marcas de agua en sus resultados.

La marca de agua en los contenidos generados por inteligencia artificial es una solución fácil para el espinoso problema de la desinformación. Y las marcas de agua pueden ser útiles para comprender los contenidos compartidos cuando no hay intención de engañar. Pero la investigación sobre las marcas de agua para la IA no ha hecho más que empezar y, aunque no hay razones de peso para creer que vaya a tener éxito, las hay para pensar que acabará fracasando.