ChatGPT pronto podrá moderar contenido ilegal en sitios como Facebook

Estás leyendo la publicación: ChatGPT pronto podrá moderar contenido ilegal en sitios como Facebook

GPT-4, el modelo de lenguaje grande (LLM) que impulsa ChatGPT Plus, pronto podría asumir un nuevo papel como moderador en línea, vigilando foros y redes sociales en busca de contenido nefasto que no debería ver la luz del día. Eso es según un nueva publicación de blog del desarrollador de ChatGPT OpenAI, que dice que esto podría ofrecer “una visión más positiva del futuro de las plataformas digitales”.

Al utilizar inteligencia artificial (IA) en lugar de moderadores humanos, OpenAI dice que GPT-4 puede implementar “iteraciones mucho más rápidas en cambios de políticas, reduciendo el ciclo de meses a horas”. Además de eso, “GPT-4 también es capaz de interpretar reglas y matices en documentación extensa de políticas de contenido y adaptarse instantáneamente a las actualizaciones de políticas, lo que resulta en un etiquetado más consistente”, afirma OpenAI.

Rolf van Root / Unsplash

Por ejemplo, la publicación del blog explica que los equipos de moderación podrían asignar etiquetas al contenido para explicar si cae dentro o fuera de las reglas de una plataforma determinada. Luego, GPT-4 podría tomar el mismo conjunto de datos y asignar sus propias etiquetas, sin conocer las respuestas de antemano.

Luego, los moderadores podrían comparar los dos conjuntos de etiquetas y utilizar cualquier discrepancia para reducir la confusión y agregar aclaraciones a sus reglas. En otras palabras, GPT-4 podría actuar como un usuario cotidiano y evaluar si las reglas tienen sentido.

El costo humano

AbiertoAI

En este momento, la moderación del contenido en varios sitios web la realizan humanos, lo que los expone regularmente a contenido potencialmente ilegal, violento o dañino. Hemos visto repetidamente el terrible precio que la moderación de contenido puede cobrarle a las personas, con Facebook pagando 52 millones de dólares a moderadores que padecían trastorno de estrés postraumático debido a los traumas de su trabajo.

🔥 Recomendado:  Cómo comprar nombres de dominio de BigRock (paso a paso)

Reducir la carga de los moderadores humanos podría ayudar a mejorar sus condiciones de trabajo y, dado que las IA como GPT-4 son inmunes al tipo de estrés mental que los humanos sienten cuando manejan contenido problemático, podrían implementarse sin preocuparse por el agotamiento y el trastorno de estrés postraumático.

Sin embargo, plantea la cuestión de si el uso de la IA de esta manera daría lugar a la pérdida de puestos de trabajo. La moderación de contenido no siempre es un trabajo divertido, pero es un trabajo de todos modos, y si GPT-4 reemplaza a los humanos en esta área, probablemente existirá la preocupación de que los antiguos moderadores de contenido simplemente sean despedidos en lugar de reasignados a otras funciones.

OpenAI no menciona esta posibilidad en su publicación de blog, y eso realmente es algo que las plataformas de contenido deben decidir. Pero puede que no sirva de mucho para disipar los temores de que las grandes empresas implementen la IA simplemente como una medida de ahorro de costos, sin preocuparse por las consecuencias posteriores.

Aún así, si la IA puede reducir o eliminar la devastación mental que enfrentan los equipos con exceso de trabajo y subestimados que moderan el contenido en los sitios web utilizados por miles de millones de personas todos los días, todo esto podría tener algo de bueno. Queda por ver si esto se verá atenuado por despidos igualmente devastadores.