Estás leyendo la publicación: Para evitar la fuga de datos, las grandes empresas tecnológicas están restringiendo el uso de chatbots de IA para su personal
El tiempo se acaba mientras los gobiernos y las comunidades tecnológicas de todo el mundo debaten las políticas de IA. La principal preocupación es mantener a la humanidad a salvo de la desinformación y todos los riesgos que implica.
Y la discusión se está volviendo candente ahora que los temores están relacionados con la privacidad de los datos. ¿Ha pensado alguna vez en los riesgos de compartir su información mediante ChatGPT, Bard u otros chatbots de IA?
Si aún no lo ha hecho, es posible que aún no sepa que los gigantes tecnológicos han estado tomando medidas serias para evitar la fuga de información.
A principios de mayo, Samsung notificó a su personal sobre una nueva política interna que restringía las herramientas de inteligencia artificial en los dispositivos que se ejecutan en sus redes, luego de que se filtraran accidentalmente datos confidenciales a ChatGPT.
“”, dijo un portavoz de Samsung a TechCrunch.
Y también explicaron que la empresa restringirá temporalmente el uso de la IA generativa a través de los dispositivos de la empresa hasta que estén listas las medidas de seguridad.
Otro gigante que adoptó una acción similar fue Apple. De acuerdo con la WSJ, el rival de Samsung también está preocupado por la filtración de datos confidenciales. Por lo tanto, sus restricciones incluyen ChatGPT, así como algunas herramientas de inteligencia artificial utilizadas para escribir código mientras desarrollan una tecnología similar.
Incluso a principios de este año, un abogado de Amazon instó a los empleados a no compartir ninguna información o código con los chatbots de IA, luego de que la empresa encontrara respuestas de ChatGPT similares a los datos internos de Amazon.
Además de las grandes tecnológicas, bancos como Bank of America y Deutsche Bank también están implementando internamente medidas restrictivas para evitar la fuga de información financiera.
Y la lista sigue creciendo. ¡Adivina qué! Incluso Google se unió.
¿Incluso tú Google?
Según fuentes anónimas de Reuters, la semana pasada Alphabet Inc. (matriz de Google) aconsejó a sus empleados que no ingresaran información confidencial en los chatbots de IA. Irónicamente, esto incluye su propia IA, Bard, que se lanzó en los EE. UU. en marzo pasado y está en proceso de implementación en otros 180 países en 40 idiomas.
La decisión de Google se debe al descubrimiento de los investigadores de que los chatbots pueden reproducir los datos ingresados a través de millones de avisos, poniéndolos a disposición de los revisores humanos.
Alphabet advirtió a sus ingenieros que eviten insertar código en los chatbots, ya que la IA puede reproducirlos, lo que podría generar una fuga de datos confidenciales de su tecnología. Sin mencionar, favorecer a su competidor de IA, ChatGPT.
Google confirma que tiene la intención de ser transparente sobre las limitaciones de su tecnología y actualizó el aviso de privacidad instando a los usuarios
100k+ cuentas de ChatGPT en Dark Web Marketplace
Otro factor que podría generar exposición de datos confidenciales es que, a medida que los chatbots de IA se vuelven cada vez más populares, los empleados de todo el mundo los adoptan para optimizar sus rutinas. La mayor parte del tiempo sin ningún tipo de cautela o supervisión.
Ayer Grupo-IB, un líder mundial en soluciones de ciberseguridad con sede en Singapur, informó que encontraron más de 100 000 cuentas de ChatGPT comprometidas e infectadas con credenciales guardadas en sus registros. Esta información robada se comercializa en mercados ilícitos de la web oscura desde el año pasado. Destacaron que, de forma predeterminada, ChatGPT almacena el historial de consultas y respuestas de IA, y la falta de atención esencial está exponiendo a muchas empresas y sus empleados.
Los gobiernos impulsan las regulaciones
No solo las empresas temen la fuga de información por parte de la IA. En marzo, después de identificar una violación de datos en OpenAI que permite a los usuarios ver los títulos de las conversaciones de otros usuarios con ChatGPT, Italia ordenó a OpenAi que dejara de procesar los datos de los usuarios italianos.
El error fue confirmado en marzo por OpenAi. dijo Sam Altman en su cuenta de Twitter En ese tiempo.
El Reino Unido publicó en su página web oficial Se lanzó un libro blanco de IA para impulsar la innovación responsable y la confianza pública considerando estos cinco principios:
- seguridad, protección y robustez;
- transparencia y explicabilidad;
- justicia;
- rendición de cuentas y gobernanza;
- y impugnabilidad y reparación.
Como podemos ver, a medida que la IA se vuelve más presente en nuestras vidas, especialmente a la velocidad a la que ocurre, surgen naturalmente nuevas preocupaciones. Las medidas de seguridad se vuelven necesarias mientras los desarrolladores trabajan para reducir los peligros sin comprometer la evolución de lo que ya reconocemos como un gran paso hacia el futuro.