21 de noviembre de 2024

ChatGPT: riesgos y medidas que las organizaciones deben comprender

Escucha este Artículo

Desde su lanzamiento inicial a fines de 2022, la herramienta de generación de texto impulsada por IA conocida como ChatGPT ha experimentado tasas de adopción rápidas tanto por parte de organizaciones como de usuarios individuales. Sin embargo, su última función, conocida como Enlaces Compartidos, conlleva un riesgo potencial con relación a la divulgación “no intencional” de información confidencial.

La función de enlace compartido de ChatGPT

Esta nueva función que OpenAI presentó el 24 de mayo de 2023, le permite a los usuarios compartir sus conversaciones con otros a través de la generación de una URL única para tener una conversación en particular. Compartir esta URL proporciona a otras personas el acceso a la conversación, donde también pueden contribuir y opinar.

La función es especialmente útil cuando se comparten diálogos extensos o indicaciones útiles, y ofrece una alternativa más eficiente para distribuir capturas de pantalla.

Divulgación pública a través de enlaces compartidos

Esta característica ha encontrado un amplio uso en las plataformas de redes sociales, donde los usuarios comparten conversaciones interesantes con ChatGPT. Desde Trend Micro, se visualizaron diferentes casos de divulgación no intencional en donde se deja entre ver información delicada como datos personales, un ejemplo, son aquellas personas que usan esta herramienta para revisar o crear su currículum.

Si bien este podría ser un uso efectivo de ChatGPT, compartir estas interacciones públicamente plantea ciertas preocupaciones. Para las personas, el alcance de la información compartida puede ser una cuestión de discreción personal. Sin embargo, ¿qué sucede si un empleado comparte información relacionada con el trabajo sin darse cuenta?, en este escenario la responsabilidad de la persona va más allá y pone en duda la responsabilidad de toda la organización.

Hasta el momento, esta práctica función carece de un mecanismo de control de acceso, por lo que cualquier persona que obtenga la URL compartida puede acceder a su contenido, incluso aquellos que se encuentran fuera de la audiencia prevista. En consecuencia, OpenAI aconseja no compartir información confidencial a través de esta función. Además, sin un análisis de acceso, es imposible rastrear a los usuarios que han accedido a la URL o incluso cuántas veces se ha accedido.

Medidas recomendadas para los usuarios

Para mitigar estos riesgos, tanto las personas como las organizaciones deben tener en cuenta lo siguiente al utilizar la función de enlaces compartidos de ChatGPT:

  • Conciencia de riesgo: comprenda los riesgos inherentes relacionados con la función. Cualquier persona con la URL del enlace compartido puede acceder a su contenido. Los usuarios también deben ser conscientes de que los enlaces pueden terminar con terceros no deseados por varias razones.
  • Políticas y pautas: establezca políticas y pautas claras sobre qué información se puede ingresar en ChatGPT y qué se debe evitar. Esto debe incluir pautas sobre el uso de la función Shared Link y otras precauciones necesarias.
  • Educación y capacitación: la capacitación regular sobre seguridad de la información puede ayudar a crear conciencia entre los empleados y evitar la fuga de información. La capacitación debe incluir escenarios de riesgo específicos y lecciones de casos reales.
  • Monitoreo y respuesta: considere tecnologías como el filtrado de URL y la detección de transmisión de información confidencial para el monitoreo proactivo y el cumplimiento de las políticas y pautas establecidas. Es necesaria una respuesta rápida en caso de acceso inapropiado o fuga de información.

En conclusión, la función de enlace compartido de ChatGPT, puede tener sus ventajas y desventajas, pero sus riesgos inherentes y las precauciones necesarias para garantizar la seguridad del usuario deben ser prioridad. En una era en la que la adopción de la tecnología de IA afecta directamente la competitividad empresarial, es esencial comprender y administrar dichas características para proteger adecuadamente la información. Al hacerlo, las organizaciones pueden aprovechar los beneficios de la IA mientras mitigan de manera eficiente los riesgos de fuga de información.