ChatGPT tiene sus ojos en sus datos

Estás leyendo la publicación: ChatGPT tiene sus ojos en sus datos

Recientemente, los ingenieros del grupo Semiconductor de Samsung filtraron inadvertidamente información crítica mientras usaban ChatGPT para corregir rápidamente errores en su código fuente. En poco menos de un mes, se registraron tres incidentes de empleados que filtraron información confidencial a través de la herramienta.

En uno de los incidentes, un empleado le pidió a ChatGPT que optimizara las secuencias de prueba para identificar fallas en los chips. En otro caso, un empleado usó la herramienta para crear una presentación a partir de sus notas de reunión.

Coincidentemente, las filtraciones se informaron solo tres semanas después de que Samsung levantara una prohibición anterior sobre los empleados que usaban ChatGPT por temores en torno a este mismo problema. Samsung ahora ha advertido a sus empleados que no usen el chatbot dado que es obvio que los esfuerzos para recuperar los datos que ya se han recopilado serían en vano.

Aunque el chatbot puede aumentar la eficiencia y, a su vez, ahorrar y optimizar numerosos recursos, existen grandes riesgos cuando se trata de compartir datos que han salido a la luz recientemente. Estos riesgos no se limitan a filtraciones intencionales o infracciones cibernéticas, sino que también podrían derivarse del uso de estas herramientas por parte de los empleados.

error de datosd

Recientemente, un error filtró información de los usuarios de ChatGPT, incluidos detalles de su historial de chat, así como sus datos personales y de facturación. El 20 de marzo, durante un corte de energía de 9 horas de ChatGPT, también notificó al 1.2% de sus clientes que otro cliente podría haber visto su información de facturación, incluidos el nombre y apellido, la dirección de facturación, el tipo de tarjeta de crédito, los datos de vencimiento de la tarjeta de crédito y también los últimos cuatro dígitos de su tarjeta de crédito.

🔥 Recomendado:  21 consejos de pandas que todo científico de datos debe saber: hacia la IA

Una investigación interna realizada por OpenAI reveló más tarde que un error en la biblioteca de código abierto del cliente de Redis, redis-py, fue el responsable de la filtración.

El CEO y cofundador de OpenAI, Sam Altman, tuiteó: “Tuvimos un problema importante en ChatGPT debido a un error en una biblioteca de código abierto, para el cual se lanzó una solución y acabamos de terminar de validar.

“(Un) pequeño porcentaje de usuarios pudo ver los títulos del historial de conversaciones de otros usuarios”, agregó.

Incluso con su suscripción premium para ChatGPT Plus, OpenAI dijo que ya no almacenaría los datos de los usuarios para entrenar el modelo pero, para que eso suceda, los usuarios tendrían que optar por no participar. Además, los datos se eliminarían solo después de un mes.

Por lo tanto, los datos que ingresa a ChatGPT se guardan en los servidores de OpenAI y pueden usarse para su beneficio, “para desarrollar nuevos programas y servicios” en sus propias palabras; o para pasarlo a Microsoft.

El flujo de incidentes genera una alarma sobre los riesgos que conlleva la eficiencia que dichas herramientas ayudan a lograr, y la pregunta evidente es cómo mitigar los peligros potenciales de usarlas en un lugar de trabajo que generalmente trata con datos confidenciales.

¿Regulación o prohibición?

ChatGPT recibió una prohibición temporal en Italia el mes pasado debido a que el chatbot no cumple con el Reglamento General de Protección de Datos de la UE, que garantiza el “derecho al olvido”. Actualmente, no existe un sistema para que las personas soliciten la eliminación de sus datos de un sistema de aprendizaje automático una vez que se haya utilizado para entrenar el modelo.

🔥 Recomendado:  iPhone de primera generación subastado por mucho más que un iPhone 14

La semana pasada, el gobierno indio también dijo que evaluó las preocupaciones éticas relacionadas con la IA, como el sesgo y la privacidad, mientras tomaba medidas para desarrollar un marco sólido para las regulaciones en el espacio de la IA, pero aún no tiene planes de introducir leyes.

Sin embargo, OpenAI, a su vez, ha puesto la responsabilidad en las empresas para abordar estas situaciones. Por ejemplo, Samsung ahora ha optado por desarrollar su propia IA interna para uso interno de los empleados, al tiempo que limita la longitud de las indicaciones de ChatGPT de los empleados a un kilobyte o 1024 caracteres de texto.

Otra alternativa para que las empresas se mantengan alejadas de este dilema es usar la API de ChatGPT en lugar de la herramienta. La API es un servicio comercial, por lo que OpenAI no puede acceder a los datos que ingrese. También puede optar por no participar activamente en el seguimiento de datos a través de un formulario que OpenAI ha incluido en sus términos de servicios.

Pero esencialmente, a otras empresas no les ha quedado más remedio que elaborar sus propias políticas y pautas para protegerse de otra fuga de datos.