Estás leyendo la publicación: OpenAI presenta su último enfoque para garantizar la seguridad de la IA
Después de enfrentar preocupaciones con respecto a la seguridad y la privacidad y luego de investigaciones recientes en algunos países europeos, OpenAI ha liberado una publicación de blog que describe el enfoque mejorado de la empresa en materia de seguridad.
OpenAI se compromete a realizar pruebas rigurosas, contratar a expertos externos para obtener comentarios antes de lanzar cualquier sistema nuevo y trabajar con los gobiernos para determinar el mejor enfoque para las regulaciones de IA.
Anteriormente, la empresa pasó más de seis meses trabajando en la seguridad y alineación de su último modelo, GPT-4, antes de lanzarlo públicamente. Para garantizar la seguridad de su nuevo modelo de lenguaje, GPT-4, OpenAI contrató a un equipo de más de 50 expertos: especialistas en seguridad, ética y políticas de IA, incluidos investigadores e ingenieros.
“Cricialmente, creemos que la sociedad debe tener tiempo para actualizarse y adaptarse a una IA cada vez más capaz, y que todos los que se ven afectados por esta tecnología deben tener una voz importante en cómo se desarrolla la IA”.
escribió OpenAI.
Enfoque de OpenAI en la seguridad y privacidad de los niños
Italia prohibió ChatGPT, citando como una de las razones que OpenAI no pudo verificar la edad de sus usuarios, a pesar de estar diseñado para personas mayores de 13 años. Un enfoque crítico de los esfuerzos de seguridad de la compañía se ha desplazado hacia la protección de los niños mediante la implementación de opciones de verificación de edad, que OpenAI ahora está explorando, especialmente porque las herramientas de IA están destinadas a personas mayores de 18 años o mayores de 13 años con la aprobación de los padres.
La empresa prohíbe estrictamente la generación de contenido de odio, acosador, violento o para adultos, y GPT-4 ya tiene un 82 % menos de probabilidad de responder a las solicitudes de contenido no permitido en comparación con GPT-3.5.
OpenAI ha establecido un sistema robusto para monitorear el abuso y espera que GPT-4 esté disponible para más personas con el tiempo. La empresa trabaja con desarrolladores en mitigaciones de seguridad personalizadas, como Khan Academy, una organización sin fines de lucro, y está trabajando en funciones que permitan estándares más estrictos para los resultados del modelo.
Mejorar la privacidad es otro aspecto de seguridad en el que se está enfocando OpenAI, especialmente después de la reciente violaciones de datos. Los grandes modelos lingüísticos de la empresa de inteligencia artificial se entrenan en una enorme cantidad de texto que incluye contenido disponible para el público, contenido con licencia y contenido generado por revisores humanos; utiliza datos para hacer que los modelos de IA sean más útiles para las personas.
OpenAI está tomando medidas para proteger la privacidad de las personas mediante la eliminación de información personal de sus datos de capacitación, el ajuste de modelos para rechazar solicitudes de información personal y la eliminación de información personal de sus sistemas a pedido. Esto reduce la posibilidad de que los modelos de IA generen respuestas que incluyan información personal.
El enfoque de OpenAI para abordar las preocupaciones de seguridad de la IA es investigar mitigaciones efectivas y técnicas de alineación y probarlas contra el abuso en el mundo real. También se compromete a ser cada vez más cauteloso al crear y desplegar modelos más capaces y mejorar las precauciones de seguridad. La gobernanza eficaz del desarrollo y despliegue de la IA es esencial para garantizar la seguridad, lo que requiere innovación técnica e institucional.
Leer más: