Investigación

ChatGPT: los chatbots ayudan a los empleados, pero amenazan a las empresas

Burro de carga

Hace unos meses, ChatGPT y otros chatbots basados en grandes modelos de lenguaje (LLM) eran una novedad. Los usuarios se divertían componiendo poemas y letras al estilo de artistas famosos (que a Nick Cave, por ejemplo, no le gustaron nada), los investigadores discutían si debían empezar a volar centros de datos antes de que la super IA provocara un apocalipsis y los expertos en seguridad trataban de convencer a un terco chatbot para que les diera instrucciones sobre cómo pinchar teléfonos y robar automóviles.

Para muchos, ChatGPT se ha convertido en un potenciador indispensable de la productividad en el trabajo. Cuando el servicio deja de estar disponible los medios de comunicación hacen amplio eco, y los usuarios se quejan en las redes sociales cuando se producen cortes que los obligan a volver a usar el cerebro. Esta tecnología se está convirtiendo en algo habitual, y su incapacidad para satisfacer las crecientes demandas de la gente ha provocado quejas de que los chatbots se vuelven más tontos con el tiempo. Si observamos un gráfico de la popularidad de la consulta ChatGPT en las tendencias de Google, podemos concluir con cierto grado de certeza que la gente busca ayuda de un chatbot sobre todo los días laborables, es decir, que lo más probable es que se lo use para cuestiones relacionadas con el trabajo.

Tendencia de popularidad de la consulta “ChatGPT”, 01.04.2023-30.09.2023, fuente: Google Trends, datos del 06.10.2023 (descargar)

Los datos de diferentes investigaciones respaldan que los chatbots se utilizan activamente con fines laborales. Según una encuesta de Kaspersky a ciudadanos rusos, el 11% de los encuestados ha utilizado o utiliza chatbots y casi el 30% está seguro de que dejarán a muchos sin trabajo en el futuro. Otros dos de nuestros estudios mostraron que en Bélgica, el 50% de los oficinistas recurren a ChatGPT y en el Reino Unido, el 65%. Entre estos últimos, el 58% utiliza chatbots para ahorrar tiempo (por ejemplo, para redactar breves actas de reuniones, destacar la idea principal de un texto, etc.); el 56%, para redactar nuevos textos, mejorar el estilo y la gramática, así como para la traducción y el 35% para la analítica, como estudios de tendencias. Los programadores que escriben códigos utilizando ChatGPT fueron el 16%.

En cualquier caso, el hecho de que los chatbots se utilicen activamente en las empresas plantea la siguiente pregunta: ¿hasta qué punto es seguro confiarles los datos corporativos? En este artículo, analizamos la configuración y las políticas de privacidad de los chatbots basados en grandes modelos lingüísticos para comprender cómo recopilan y almacenan la información de los diálogos, y cómo los trabajadores de oficina que los utilizan pueden proteger o poner en peligro los datos de empresas y clientes.

Posibles amenazas a la privacidad

La mayoría de los chatbots basados en LLM, como ChatGPT, Microsoft Bing Chat, Google Bard, Anthropic Claude y otros, son servicios que funcionan en la nube. El usuario crea una cuenta y obtiene así acceso al bot. La red neuronal, al ser un sistema que consume muchos recursos, se ejecuta en el lado del proveedor, por lo que el propietario del servicio tiene acceso a los diálogos del usuario con el chatbot. Además, muchos servicios permiten guardar el historial de chat en el servidor para que el usuario pueda consultarlo más tarde.

Dicho esto, en el estudio del Reino Unido mencionado, el 11% de los encuestados que utilizaban ChatGPT en el trabajo afirmaron que habían compartido documentos internos o datos corporativos con un chatbot y que no creían que fuera malo hacerlo. Otro 17% afirmó que, aunque le parecía arriesgado, seguía utilizando información confidencial de la empresa en las conversaciones con los chatbots.

Dada la sensibilidad de los datos que los usuarios comparten con los chatbots, merece la pena determinar las posibles amenazas a la privacidad de esos datos. En el caso de modelos lingüísticos de gran tamaño, la información transmitida al bot puede verse afectada en varios casos:

  • Fuga de datos por el proveedor de Internet o hackeo. Aunque los operadores de los grandes chatbots son grandes empresas con una reputación bien ganada, en teoría podrían ser víctimas de hackeo o filtraciones involuntarias. Por ejemplo, en marzo se produjo un incidente en el que los usuarios de ChatGPT pudieron ver algunos mensajes de los chats de otros usuarios.
  • Fuga de datos a través del chatbot. En teoría, el diálogo entre los usuarios y el chatbot podría pasar a formar parte del corpus de datos que podría usarse para entrenar las siguientes versiones del modelo. Dado que los grandes modelos lingüísticos son propensos a la llamada memorización involuntaria, es decir, a memorizar secuencias únicas como números de teléfono, que no mejoran la calidad del modelo sino que crean riesgos para la privacidad, los datos que pasen al corpus de entrenamiento pueden ser extraídos del modelo por otros usuarios de forma intencionada o involuntaria.
  • Negligencia en la prestación de servicios. Esto es cierto ante todo en países donde los servicios oficiales como ChatGPT están bloqueados y los usuarios acceden a ellos a través de clientes no oficiales en forma de programas, sitios web y bots de mensajería. El intermediario puede conservar todo el historial de correspondencia y reservarse el derecho a utilizarlo para sus propios fines, y el cliente puede incluso resultar ser malintencionado.
  • Hackeo de cuentas. Por último, la seguridad de las cuentas es una cuestión importante. Aunque un empleado sólo utilice el cliente oficial, la seguridad de los diálogos que pueda contener información sensible suele quedar en manos de su propietario, al igual que la información que entra en el diálogo con el chatbot. Los atacantes pueden acceder a las cuentas de los empleados, y a los datos que estas contienen, mediante ataques de phishing o uso de credenciales robadas, por ejemplo.

La amenaza del hackeo de cuentas no es hipotética. Los expertos de Kaspersky Digital Footprint Intelligence encuentran con regularidad mensajes en foros cerrados (incluso en la darknet) sobre la venta de acceso a cuentas de chatbot:

La captura de pantalla anterior informa de la venta por cuarenta dólares de una cuenta corporativa a una empresa que paga por una suscripción a ChatGPT y acceso a la API. A veces, los atacantes venden cuentas más baratas o incluso las regalan, pero sin ninguna garantía de que la cuenta tenga una suscripción activa:

Traducción de la captura de pantalla

Otros [PARA TODOS] Reparto de cuentas de Open AI / Chat GPT (hay posibilidades de obtener una que tenga suscripción)
Basta con que pongas un +
hay posibilidades de obtener una que tenga suscripción
¿Te tocó una no válida? Escribe + de nuevo en 5 minutos
50% de válidas
¿No puedes entrar al sitio? Entra con VPN
Puede haber “ocultos” vacíos sin cuentas. No te desanimes y pide de nuevo en 5 minutos (el soft ####### se está normalizando).
Formato: Anuncios correo:contraseña
Patrocinador del reparto

Los hackers dan a los compradores instrucciones sobre cómo utilizar la cuenta pirateada: por ejemplo, recomiendan no tocar los chats de sus propietarios y borrar sus diálogos inmediatamente después de comunicarse con el chatbot.

Como resultado de dicha compra, el atacante no sólo obtiene acceso gratuito al recurso de pago, sino también a todos los chats de la cuenta hackeada.

La privacidad de los datos preocupa a las empresas. Así, Samsung Corporation prohibió en mayo a sus empleados utilizar ChatGPT, según informes de los medios. En el Reino Unido, nuestra encuesta reveló que alrededor del uno por ciento de los usuarios se ha enfrentado a una prohibición total de ChatGPT en el trabajo, y dos tercios de las empresas ya han introducido algún tipo de política sobre el uso de IA generativa en el lugar de trabajo, aunque el 24 por ciento de los encuestados no creía que fuera suficiente clara o exhaustiva. Para proteger de forma competente su empresa frente a las amenazas a la privacidad sin abandonar los chatbots como herramienta, primero se debe analizar los riesgos relevantes para cada servicio en particular.

Cómo gestionan los datos de los usuarios los distintos chatbots

Hay una regla muy sencilla, pero que poca gente cumple al utilizar cualquier servicio en línea: antes de registrarse en un sistema nuevo, hay que darle aunque sea una lectura rápida a su política de privacidad. Por lo general, los servicios confiables no sólo especifican en este documento qué información recolectan y cómo la utilizan, sino que también estipulan los derechos de los usuarios en relación a los datos recolectados. Esta información es útil para todo aquel que decida confiar cualquier dato a un servicio.

Para entender hasta qué punto son ciertas las afirmaciones de que los chatbots aprenden de las consultas enviadas por el usuario, si es cierto que almacenan toda la correspondencia y hasta qué punto es peligroso utilizar este tipo de asistentes en el trabajo, tomamos varios servicios de chatbots populares basados en grandes modelos de lenguaje (ChatGPT, ChatGPT API, Anthropic Claude, Bing Chat, Bing Chat Enterprise, You. com, Google Bard y Genius App de Alloy Studios), analizamos sus políticas de privacidad y comprobamos en qué grado puede el usuario proteger sus cuentas en cada uno de ellos.

Del lado del usuario: autenticación de dos factores e historial de comunicaciones

Entre las opciones de privacidad disponibles para el usuario, nos interesaban más que todo dos cosas:

  • si el servicio almacena los diálogos con el chatbot en la cuenta;
  • cómo puede el usuario proteger su cuenta del hackeo.

Una de las formas básicas de proteger las cuentas de cualquier servicio en línea es usar la autenticación de dos factores (2FA). Mientras que en la mayoría de los servicios el primer factor es una contraseña, el segundo puede ser un código de un solo uso que se envía por SMS o correo electrónico o se genera en una aplicación especial, o bien un mecanismo mucho más complejo, como una clave digital en un soporte físico. La presencia de la autenticación de dos factores en el servicio y su implementación es un indicador importante de hasta qué punto el proveedor se preocupa por la seguridad de los datos de los usuarios.

En Bing Chat y Google Bard, para chatear con el chatbot es necesario iniciar sesión con una cuenta de Microsoft o Google, según el caso. En consecuencia, la seguridad de la correspondencia con un chatbot por parte del usuario depende de lo protegidas que tenga sus cuentas en estos servicios globales. Ambas empresas ofrecen todas las herramientas necesarias para que los usuarios puedan proteger las cuentas de los piratas informáticos: autenticación de dos factores con la posibilidad de recibir el segundo factor de varias maneras (generar un código en la aplicación, recibirlo en SMS, etc.), la posibilidad de ver el historial de actividad y administrar los dispositivos conectados a la cuenta.

Google Bard almacena el historial de comunicaciones en la cuenta, pero también ofrece la posibilidad de personalizarlo y eliminarlo. En la página de ayuda hay instrucciones sobre cómo hacerlo. Bing Chat también guarda un historial de los diálogos. Se puede encontrar la respuesta a la pregunta de cómo eliminar y personalizar el historial de chat de Bing en el sitio de Microsoft Community.

Al usar la aplicación Genius de Alloy Studios, no es necesario iniciar sesión en la aplicación, pero solo se puede acceder al historial de chat del chatbot desde un dispositivo con una AppleID que cuente con una suscripción. Por lo tanto, como la AppleID está protegida, también lo está el acceso a las solicitudes al chatbot. La aplicación Genius permite eliminar cualquier peligro directamente en la interfaz de la aplicación.

ChatGPT de OpenAI le da al usuario la opción de almacenar el historial de diálogos y permitir que el modelo aprenda de él, o de no almacenarlo ni permitirlo. Y este es un solo ajuste. Es decir, no se puede elegir una opción flexible, como mantener los chats, pero no permitir que se utilicen para el aprendizaje. En cuanto a 2FA en ChatGPT, al principio de nuestra investigación esta opción estaba presente en la configuración, pero después de algún tiempo, por alguna razón, la posibilidad de proteger la cuenta con autenticación de dos factores desapareció.

Para iniciar sesión en You.com, hay que proporcionar una dirección de correo electrónico a la que se enviará un código de inicio de sesión de un solo uso. Claude (Anthropic) tiene el mismo sistema. No hay otros factores de autenticación en estos servicios, lo que significa que si capturan el correo electrónico, a los atacantes les será fácil acceder a la cuenta. You.com mantiene un historial de comunicación con el chatbot, pero con grandes advertencias. El modo privado se puede activar en la interfaz del chatbot. En la página de Política de privacidad se afirma lo siguiente: Private mode: no data collection. Period (“Modo privado: no se recogen datos. Punto”). Claude también conserva un historial de los diálogos. La página support.anthropic.com tiene la respuesta a cómo eliminarlo.

Del lado de los proveedores: entrenamiento de los modelos usando las solicitudes y las respuestas de los chatbots.

Uno de los graves riesgos del uso de chatbots es la filtración de datos personales al corpus de entrenamiento del propio bot. Imagine que necesita evaluar una nueva idea de producto, por ejemplo, y utiliza un chatbot para hacerlo, al que proporciona una descripción completa de la idea como entrada para hacer una evaluación más precisa. Si el sistema utiliza las consultas para el preaprendizaje, su idea pasa al corpus de entrenamiento y otra persona interesada en un tema similar puede recibir como respuesta una descripción completa o parcial de su producto. Aunque el servicio anonimice los datos antes de añadirlos al corpus de entrenamiento, esto no garantiza la protección contra filtraciones, ya que el propio texto de entrada tiene valor intelectual. Por eso, antes de empezar a utilizar cualquier chatbot, merece la pena investigar si aprende de sus consultas y si esto puede evitarse.

Los desarrolladores de chatbot honrados especifican en sus políticas de privacidad información sobre el uso de datos para el entrenamiento de modelos. Por ejemplo, OpenAI utiliza el contenido que el usuario proporciona para mejorar el servicio, pero da la opción de no facilitar la información.

As noted above, we may use Content you provide us to improve our Services, for example to train the models that power ChatGPT See here for instructions on how you can opt out of our use of your Content to train our models.
(“Como se ha indicado anteriormente, podemos utilizar el contenido que nos proporciona para mejorar nuestros servicios, por ejemplo, para entrenar los modelos subyacentes a ChatGPT. Aquí encontrará instrucciones sobre cómo optar por que no se utilicen sus contenidos para el entrenamiento de modelos”).

Debe entenderse que toda la correspondencia con el bot enviada antes de que en los ajustes se prohibiera el uso de los datos se incluirá en los materiales para reentrenar el modelo. Cita:

You can switch off training in ChatGPT settings (under Data Controls) to turn off training for any conversations created while training is disabled or you can submit this form. Once you opt out, new conversations will not be used to train our models.
(“Puede desactivar el entrenamiento en los ajustes de ChatGPT (sección Data Controls) para que el modelo no se entrene con los mensajes enviados mientras el entrenamiento esté desactivado, o puede rellenar este formulario. Una vez que rechazado el entrenamiento del modelo, los nuevos mensajes no se utilizarán para este fin”).

OpenAI tiene reglas diferentes cuando se trata de empresas y usuarios de API. Aquí es al revés, hasta que el usuario no permita que el modelo se entrene con los datos que proporciona, no se los utilizará.

No. We do not use your ChatGPT Enterprise or API data, inputs, and outputs for training our models.
(“No. No utilizamos su datos de ChatGPT Enterprise o API, o datos de entrada o salida para entrenar nuestros modelos”).

Bing Chat y Bing Chat Enterprise hacen un tratamiento similar de los datos de los usuarios. En el documento The new Bing: Our approach to responsible AI (“El nuevo Bing: nuestro enfoque responsable hacia la IA”) se afirma:

Microsoft also provides its users with robust tools to exercise their rights over their personal data. For data that is collected by the new Bing, including through user queries and prompts, the Microsoft privacy dashboard provides authenticated (signed in) users with tools to exercise their data subject rights, including by providing users with the ability to view, export, and delete stored conversation history.
(“Microsoft también proporciona a sus usuarios herramientas sólidas para ejercer sus derechos sobre sus datos personales. En el caso de los datos que el nuevo Bing recopila, incluso a través de consultas y solicitudes de los usuarios, el panel de privacidad de Microsoft proporciona a los usuarios autenticados (con sesión iniciada) herramientas para ejercer sus derechos como sujetos de datos, incluida la posibilidad de ver, exportar y eliminar el historial de conversaciones almacenado”).

Por lo tanto, sí, el chat de Bing recopila y analiza las consultas de los usuarios. En cuanto al uso de los datos, el documento afirma lo siguiente:

“More information about the personal data that Bing collects, how it is used, and how it is stored and deleted is available in the Microsoft Privacy Statement“.
(“Para más información sobre los datos personales que recoge Bing, cómo se utilizan y cómo se almacenan y eliminan, consulte la Declaración de privacidad de Microsoft”).

En el enlace se puede encontrar una lista de fines de la recopilación de datos, uno de los cuales es “mejorar y desarrollar nuestros productos”, lo que en el caso de un chatbot puede interpretarse como entrenamiento del modelo.

En cuanto a Bing Chat Enterprise, esto es lo que dice la sección Privacidad y protección (Privacy and protections):

Because Microsoft doesn’t retain prompts and responses, they can’t be used as part of a training set for the underlying large language model.
(Dado que Microsoft no conserva las preguntas y respuestas, no pueden utilizarse como parte de un conjunto de entrenamiento para el modelo LLM subyacente).

El chatbot de otro gigante informático, Google Bard, también señala que recoge las consultas de los usuarios para mejorar los modelos existentes y entrenar otros nuevos. En la página Notas sobre privacidad de Bard se indica explícitamente:

Google recoge tus conversaciones con Bard, información relacionada con el uso del producto, información sobre tu ubicación y tus comentarios. Google utiliza estos datos de acuerdo con nuestra Política de Privacidad para ofrecer, mejorar y desarrollar productos, servicios y tecnologías de aprendizaje automático de Google, incluidos los productos empresariales de Google como Google Cloud.

El chatbot Claude (Anthropic) también recoge datos de los usuarios, pero los anonimiza. En la página de Privacidad y Asuntos Legales, la respuesta a la pregunta “¿Cómo utilizan los datos personales en la formación de modelos?” dice:

We train our models using data from three sources:<…>3. Data that our users or crowd workers provide.
(“Entrenamos nuestros modelos con datos procedentes de tres fuentes:<…>3. Datos proporcionados por nuestros usuarios o crowd workers”),

En el mismo documento también se especifica:

And before we train on Prompt and Output data, we take reasonable efforts to de-identify it in accordance with data minimization principles.
(“Y antes de entrenar los datos de Prompt y Output, hacemos esfuerzos razonables para desidentificarlos de acuerdo con los principios de minimización de datos”).

You.com, como ya hemos dicho, tiene dos modalidades: privada y estándar. En la privada, si nos atenemos a la información de la política de privacidad de la empresa, no se recoge ningún dato. El modo estándar recoge cualquier información sobre las interacciones con el servicio. El texto no dice explícitamente que se recopilan las consultas, pero tampoco lo refuta.

Information We Collect in Standard Mode. <…> Usage Information. To help us understand how you use our Services and to help us improve them, we automatically receive information about your interactions with our Services, like the pages or other content you view, and the dates and times of your visits. Private mode differs significantly from this as described above.
(“La información que recopilamos en el modo Estándar. <…> Información de uso. Para comprender cómo utiliza nuestros servicios y mejorarlos, recibimos automáticamente información sobre sus interacciones con nuestros servicios, como qué páginas y otros contenidos ve, en qué fechas y a qué horas utiliza nuestros servicios. El modo privado es significativamente diferente, como se ha descrito antes”).

Dado que los datos recogidos se utilizan para mejorar el servicio, no puede excluirse que los modelos se entrenen con ellos. En la sección How We Use the Information We Collect in Standard mode (“Cómo utilizamos la infomación que recopilamos en el modo estándar”), también se indica: To provide, maintain, improve, and enhance our Services; (“para proporcionar, mantener, mejorar y ampliar nuestros Servicios”).

El servicio Genius de Alloy Studios tampoco da una respuesta clara a la cuestión de recopilación de consultas y su uso para el entrenamiento de modelos. En la política de privacidad utiliza un lenguaje estandarizado sin ningún detalle sobre el tema de interés:

We collect certain information that your mobile device sends when you use our services<…> as well as information about your use of our services through your device.
(“Recopilamos cierta información que su dispositivo móvil envía cuando utiliza nuestros servicios<…> así como información sobre el uso que hace de nuestros servicios a través de su dispositivo”).

Esta redacción puede sugerir que el servicio recoge los textos de las solicitudes al chatbot, pero no podemos afirmarlo de forma inequívoca. En cuanto al uso de la información mencionada, la política de privacidad de la empresa establece lo siguiente:

We use the information we collect to provide our services, to respond to inquiries, to personalize and improve our services and your experiences when you use our services.
(“Utilizamos la información que recopilamos para prestar nuestros servicios, responder a consultas, personalizar y mejorar nuestros servicios y su experiencia cuando utiliza nuestros servicios”).

La conclusión, como hemos visto, es que las soluciones para empresas suelen ser bastante seguras. En el segmento B2B, los requisitos de seguridad y privacidad son mayores, al igual que los riesgos de fuga de información corporativa. En consecuencia, el entorno en el que se utilizan, recopilan, almacenan y procesan los datos tiene una actitud más seria respecto a la protección de datos que en el segmento B2C. Las soluciones B2B consideradas no guardan el historial de comunicación de forma predeterminada y, en algunos casos, las solicitudes no se envían en absoluto a los servidores de la empresa que presta el servicio, ya que el chatbot se despliega en la red del cliente.

En cuanto a los chatbots personalizados, lamentablemente no son adecuados para tareas en las que no se pueden analizar datos corporativos internos o confidenciales. Algunos permiten establecer una configuración de privacidad estricta o elegir un modo privado, pero incluso éstas tienen algunos riesgos. Por ejemplo, un empleado puede olvidar un ajuste o restablecerlo sin darse cuenta. Sin embargo, no existe un control centralizado de las cuentas de usuario. Es más beneficioso para un empresario adquirir una solución empresarial, en vez de sufrir una fuga de información confidencial si los empleados utilizan un chatbot por su cuenta “por debajo de la mesa”. Y es que los empleados lo harán.

Derechos de los usuarios en relación con los datos personales

Analizamos qué herramientas se ofrecen a los usuarios para protegerse del acceso no autorizado a sus datos, qué se puede hacer con el historial de comunicación de un chatbot y si las empresas de desarrollo están realmente entrenando sus modelos con los datos de los usuarios. Ahora vamos a entender qué derechos tienen los usuarios con respecto a la información que proporcionan al chatbot.

Este tipo de información suele encontrarse en la página de política de privacidad, en el apartado “Sus derechos” o similar. Al analizar esta sección, hay que prestar atención a que lo hagan de conformidad con los requisitos del Reglamento Europeo de Protección de Datos (RGPD) sobre cómo debe presentarse la información y qué derechos deben concederse a los usuarios (recogidos en el capítulo 3). Aunque viva fuera de la UE y el RGPD no lo proteja, el cumplimiento de la normativa indica la integridad del servicio.

Uno de los principales requisitos del RGPD para la presentación de información sobre los derechos de los usuarios es la transparencia, la comprensibilidad y una forma accesible de descripción. La propia lista de derechos necesarios incluye el derecho de rectificación, supresión y recuperación de los datos personales recogidos, así como el derecho a rechazar el tratamiento de la información personal. El derecho a la supresión de datos es uno de los más útiles de esta lista. En particular, puede resultar útil cuando el usuario ya no necesita el servicio.

Prácticamente todas las empresas analizadas citan los derechos de los usuarios en sus políticas de privacidad de forma bastante transparente y legible. OpenAI pone de esta información en el punto 4. Your rights (“Sus derechos”). La empresa le permite obtener, eliminar y rectificar los datos, limitar su tratamiento y rechazarlo por completo. Claude (Anthropic) tiene los derechos de usuario descritos en el punto 5. Rights and Choices (“Derechos y opciones”). Entre ellos se incluye el derecho a saber qué información recopila la empresa, acceder a ella, rectificarla, eliminarla y negarse a facilitar datos. Microsoft Bing Chat tiene bastante información en la sección How to access and control your personal data (“Cómo acceder y controlar sus datos personales”) sobre cómo y dónde corregir o eliminar datos, pero lamentablemente no hay una lista clara de los derechos de los usuarios según el GDPR. Google ofrece instrucciones detalladas sobre cómo, dónde y qué puede hacer con sus datos en su página Privacy & Terms (“Privacidad y condiciones“), en las secciones Your privacy controls (“Tus controles de privacidad”) y Exporting and deleting your information (“Exportación y eliminación de tu información”).

You.com no tiene una sección especial con una lista de derechos de usuario. El único lugar donde se mencionan de alguna manera es al final de How We Use the Information We Collect in Standard mode (“Cómo utilizamos la información que recopilamos en el modo Estándar”):

You are in control of your information:
You can unsubscribe from our promotional emails via the link provided in the emails. Even if you opt-out of receiving promotional messages from us, you will continue to receive administrative messages from us.
You can request the deletion of your user profile and all data associated to it by emailing us at legal@you.com.
(“Usted controla su información:
Puede darse de baja de nuestro boletín promocional utilizando el enlace que figura en los correos electrónicos. Aunque decida no recibir mensajes promocionales, seguirá recibiendo mensajes administrativos.
Puede solicitar la eliminación de su perfil de usuario y datos asociados enviando un correo electrónico a legal@you.com”)

La política de privacidad de Genius no menciona en absoluto los derechos de los usuarios.

Cabe señalar que la mención de los derechos de los usuarios en la política de privacidad del servicio no garantiza su respeto. Las opciones reales dependen de la jurisdicción en la que se encuentre y de cómo proteja sus datos la legislación local. Sin embargo, como hemos mencionado anteriormente, el cumplimiento de normas como el RGPD puede indicar en cualquier caso la fiabilidad del servicio.

Conclusión

Hemos analizado las principales amenazas asociadas al uso de los chatbots modernos basados en grandes modelos lingüísticos para resolver tareas laborales. Dejamos en claro que el riesgo de fuga de datos sensibles es mayor cuando los empleados utilizan cuentas personales en el trabajo.

Esto significa que la concienciación del personal sobre los riesgos del uso de chatbots está pasando a un primer plano para las empresas. Por un lado, los empleados deben entender qué datos son confidenciales, secretos comerciales o información personal y por qué no deben utilizarse en la comunicación con un chatbot. Por otro lado, la empresa debe tener normas claras para gestionar estos servicios, si es que están permitidos. Por último, pero no por ello menos importante, hay que ser conscientes de los posibles ataques de phishing que podrían aprovecharse de la popularidad del tema de la IA generativa.

Lo ideal sería que si una empresa ve las ventajas de que su personal acceda a interfaces conversacionales, debería utilizar una solución empresarial con un mecanismo claro de almacenamiento de datos y la capacidad de administrarlos de forma centralizada. Si se deja en manos de los empleados el uso de chatbots y la protección de cuentas, la empresa podría acabar sufriendo filtraciones de datos debido a la gran variedad de políticas de privacidad y niveles de seguridad de las cuentas. Para impedir que los empleados, para fines laborales y por iniciativa propia recurran a un chatbot que no sea de confianza, puede utilizar una solución de seguridad con una función de análisis de servicios de nube. Nuestra solución Kaspersky Endpoint Security Cloud incluye la opción Cloud Discovery que le permite administrar los servicios de nube y evaluar los riesgos asociados con su uso.

ChatGPT: los chatbots ayudan a los empleados, pero amenazan a las empresas

Su dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

 

Informes

MosaicRegressor: acechando en las sombras de UEFI

Encontramos una imagen de firmware de la UEFI infectada con un implante malicioso, es el objeto de esta investigación. Hasta donde sabemos, este es el segundo caso conocido en que se ha detectado un firmware malicioso de la UEFI usado por un actor de amenazas.

Dark Tequila Añejo

Dark Tequila es una compleja campaña maliciosa que tiene por objetivo a los usuarios ubicados en México, con el propósito principal de robar información financiera, así como credenciales de acceso a sitios populares que van desde versionado de código fuente a cuentas de almacenamiento de archivos en línea y de registro de dominios web.

Suscríbete a nuestros correos electrónicos semanales

Las investigaciones más recientes en tu bandeja de entrada