OpenAI, un actor clave en el juego de la IA, anunció una serie de acciones destinadas a interceptar su uso malicioso. El futuro año electoral en Estados Unidos es una motivación para estas acciones. OpenAI está experimentando con un clasificador de procedencia de imágenes, que debería ayudar a garantizar la integridad del proceso electoral.
Las imágenes generadas por IA envuelven el mundo de los medios visuales. Esta tendencia tiene un inmenso potencial, para bien o para mal, y OpenAI es uno de los nombres más destacados en este campo. La empresa es responsable de Chat GPT, Dall-E y mucho más. El año 2024 puede perfilarse como uno de los más influyentes en materia de IA, pero también es un año electoral en Estados Unidos. A medida que las imágenes generadas por IA se vuelven más accesibles y menos distinguibles de las imágenes auténticas basadas en fotones, están surgiendo inconvenientes. Por mucho que los algoritmos generativos contribuyan a la democratización de la narración visual, plantean una gran amenaza con respecto a la autenticidad de la información visual.
Perspectivas de OpenAI para 2024
En una publicación reciente de blog, la compañía aclaró algunas de sus tácticas y estrategias para combatir la conducta fraudulenta que circula en torno a las elecciones. La empresa promete crear nuevas herramientas que intentarán evitar la suplantación de identidad (no tuvieron tanto éxito el año pasado con la herramienta que se suponía identificaría la escritura por IA, que se cerró silenciosamente). El abuso de la persuasión personalizada también está en la hoja de ruta mientras la compañía intenta determinar qué tan potentes pueden ser sus herramientas en este campo. Estas acciones son mayoritariamente relevantes en el ámbito de los contenidos escritos.
OpenAI – ¿qué pasa con las imágenes generadas?
OpenAI afirma que están trabajando en detectar la procedencia de imágenes. La empresa ha unido fuerzas con la Coalición para la Procedencia y Autenticidad del Contenido (C2PA). Nuestros lectores leales tal vez recuerden la iniciativa, tratada en varios artículos y que incluye a algunos actores clave en el negocio cinematográfico como Adobe, Canon, Nikon, Sony, Leica, entre otros. Leica fue la primera en lanzar una cámara que cumplía con las directrices de la iniciativa, la M11-P. Sony pronto se unirá a la lucha con varias cámaras existentes.
Este esfuerzo debería dar como resultado algún tipo de información de autenticación impresa en cada archivo que se origine en la aplicación de generación de imágenes Dall-E.
Clasificador de procedencia Dall-E
Otro frente, un poco más innovador y posiblemente más interesante, es el clasificador de procedencia Dall-E. Esta herramienta se encuentra sólo en su etapa experimental, pero una vez completada debería tener el poder de identificar imágenes generadas por Dall-E. Aún no está claro hasta qué punto podrá hacerlo. Además, en esta etapa ningún otro generador de imágenes es propenso a la identificación, pero si este tipo de clasificador funciona, puede tener un impacto significativo en el campo.
Un largo camino por delante
Aunque estas medidas parecen sólo una gota en el océano, apuntan a una tendencia que puede (y en mi opinión debería) cobrar cierto impulso. Se requiere un nivel de autenticidad para tomar decisiones informadas, y éstas son el núcleo de la sociedad en la que deseo vivir.
¿Crees que este tipo de iniciativas pueden cambiar el rumbo de las noticias falsas basadas en imágenes generadas por IA? ¿Considerarías comprar una cámara que admita estas medidas? Cuéntanos tu opinión en los comentarios.
Crédito de la imagen destacada: generada por IA con MidJourney por CineD.