La propagación de deepfakes en redes sociales está creciendo como un problema creciente debido al avance de la inteligencia artificial.
Según el informe “State of Deepfakes 2021” de Home Security Heroes, la proliferación de videos falsos y engañosos generados con IA aumentó hasta un 550% entre 2019 y 2023. Ante esta tendencia preocupante, varias empresas especializadas en inteligencia artificial han desarrollado herramientas para detectar imágenes y videos creados artificialmente, como lo ha hecho OpenAI.
La empresa liderada por Sam Altman anunció el desarrollo de una herramienta para detectar imágenes generadas por su propia inteligencia artificial generativa, DALL-E3. Según OpenAI, esta herramienta es capaz de identificar imágenes generadas por su IA con al menos un 98% de precisión.
Inicialmente, esta herramienta será probada en un grupo selecto de científicos, investigadores y organizaciones periodísticas sin fines de lucro. OpenAI destaca la importancia de establecer estándares para compartir información sobre la creación de contenido digital, lo que ayudará a aclarar su origen en diversas situaciones.
Aunque se ha anunciado que la eficacia de la herramienta es del 98%, será necesario esperar la opinión de expertos para validar su utilidad. OpenAI también planea integrar esta herramienta en Sora cuando se lance oficialmente, lo que representa un paso significativo en la lucha contra la propagación de deepfakes.