Estás leyendo la publicación: La nueva herramienta de OpenAI puede detectar imágenes de IA falsas, pero hay un problema
Las imágenes generadas por inteligencia artificial (IA) han causado mucha consternación en los últimos meses, y es comprensible que la gente esté preocupada de que puedan usarse para difundir información errónea y engañar al público. Ahora, OpenAI, el fabricante de ChatGPT, aparentemente está trabajando en una herramienta que puede detectar imágenes generadas por IA con un 99% de precisión.
Según Bloomberg, la herramienta de OpenAI está diseñada para eliminar imágenes creadas por usuarios creadas por su propio generador de imágenes Dall-E 3. En su intervención en el evento Tech Live del Wall Street Journal, Mira Murati, directora de tecnología de OpenAI, afirmó que la herramienta es “99% confiable”. Si bien la tecnología se está probando internamente, aún no hay una fecha de lanzamiento.
Si es tan preciso como afirma OpenAI, puede ofrecer al público el conocimiento de que las imágenes que está viendo son genuinas o generadas por IA. Aún así, OpenAI no pareció revelar cómo esta herramienta alertará a las personas sobre las imágenes de IA, ya sea mediante una marca de agua, una advertencia de texto u otra cosa.
Vale la pena señalar que la herramienta solo está diseñada para detectar imágenes de Dall-E y es posible que no pueda detectar falsificaciones generadas por servicios rivales como Midjourney, Stable Diffusion y Adobe Firefly. Eso podría limitar su utilidad en el gran esquema de las cosas, pero cualquier cosa que pueda resaltar imágenes falsas podría tener un impacto positivo.
Desarrollo continuo
OpenAI ha lanzado herramientas en el pasado diseñadas para detectar contenido elaborado por sus propios chatbots y generadores. A principios de 2023, la compañía lanzó una herramienta que, según afirmaba, podía detectar texto creado por ChatGPT, pero fue retirada unos meses después después de que OpenAI admitiera que era muy inexacta.
Además de la nueva herramienta de detección de imágenes, OpenAI también discutió los intentos de la compañía de reducir la tendencia de ChatGPT a “alucinar” o soltar información sin sentido e inventada. “Hemos avanzado mucho en el tema de las alucinaciones con GPT-4, pero no estamos donde necesitamos estar”, dijo Murati, sugiriendo que se trabaje en GPT-5, la continuación de GPT-4. El modelo que sustenta ChatGPT está en marcha.
En marzo de 2023, una serie de líderes tecnológicos firmaron una carta abierta pidiendo a OpenAI que suspendiera el trabajo en algo más poderoso que GPT-4, o correría el riesgo de “profundos riesgos para la sociedad y la humanidad”. Parece que la petición ha caído en saco roto.
Queda por ver si la nueva herramienta de OpenAI será más efectiva que su último esfuerzo, que fue cancelado debido a su falta de confiabilidad. Lo que es seguro es que el trabajo de desarrollo continúa a un ritmo rápido, a pesar de los riesgos obvios.