Estás leyendo la publicación: Incluso OpenAI ha dejado de intentar detectar el plagio de ChatGPT
OpenAI, el creador del popular chatbot de inteligencia artificial (IA) ChatGPT, cerró la herramienta que desarrolló para detectar contenido creado por IA en lugar de humanos. La herramienta, denominada AI Classifier, se cerró apenas seis meses después de su lanzamiento debido a su “baja tasa de precisión”. OpenAI dijo.
Dado que ChatGPT y los servicios rivales se han disparado en popularidad, ha habido un rechazo concertado de varios grupos preocupados por las consecuencias del uso desenfrenado de la IA. Por un lado, los educadores se han sentido particularmente preocupados por la posibilidad de que los estudiantes utilicen ChatGPT para escribir sus ensayos y tareas y luego hacerlos pasar como propios.
El Clasificador de IA de OpenAI fue un intento de disipar los temores de estos y otros grupos. La idea era poder determinar si un texto fue escrito por un humano o por un chatbot de IA, brindando a las personas una herramienta para evaluar a los estudiantes de manera justa y combatir la desinformación.
Sin embargo, incluso desde el principio, OpenAI no parecía tener mucha confianza en su herramienta. En una publicación de blog que anunciaba la herramienta, OpenAI declaró que “Nuestro clasificador no es completamente confiable”, y señaló que identificó correctamente textos escritos por IA de un “conjunto de desafíos” solo el 26% de las veces.
La decisión de abandonar la herramienta no recibió mucha fanfarria y OpenAI no ha publicado una publicación dedicada en su sitio web. En cambio, la empresa tiene actualizó la publicación que reveló el Clasificador AI, afirmando que “el clasificador AI ya no está disponible debido a su baja tasa de precisión”.
La actualización continúa: “Estamos trabajando para incorporar comentarios y actualmente estamos investigando técnicas de procedencia más efectivas para el texto, y nos hemos comprometido a desarrollar e implementar mecanismos que permitan a los usuarios comprender si el contenido de audio o visual es generado por IA”.
Se necesitan mejores herramientas
AI Classifier no es la única herramienta que se ha desarrollado para detectar contenido creado por IA, ya que rivales como GPTZero existen y seguirán operando, a pesar de la decisión de OpenAI.
Los intentos anteriores de identificar la escritura de IA han fracasado espectacularmente. Por ejemplo, en mayo de 2023, un profesor reprobó por error a toda su clase después de recurrir a ChatGPT para detectar plagio en los trabajos de sus alumnos. No hace falta decir que ChatGPT se equivocó gravemente, al igual que el profesor.
Es motivo de preocupación que incluso OpenAI admita que no puede percibir adecuadamente el plagio creado por su propio chatbot. Llega en un momento de creciente ansiedad sobre el potencial destructivo de los chatbots de IA y exige una suspensión temporal del desarrollo en este campo. Si la IA tiene tanto impacto como algunas personas predicen, el mundo necesitará herramientas más potentes que el fallido Clasificador de IA de OpenAI.