Noticias

Expertos advierten que introducir datos personales en ChatGPT implica perder el control sobre ellos

A la hora de interactuar con el ‘chatbot’, el usuario introduce una petición y, tras ello, el modelo ajusta su respuesta en función de lo solicitado

Expertos advierten que introducir datos personales en ChatGPT implica perder el control sobre ellos (Richard Drew/AP)

PUBLICIDAD

Expertos en ciberseguridad han advertido a los usuarios de que al introducir información y datos personales en asistentes de Inteligencia Artificial (IA) generativa como ChatGPT, estos quedan registrados y pueden ser reutilizados para continuar entrenando la aplicación, por lo que implica “perder el control sobre ellos” y enfrentarse a consecuencias de privacidad.

PUBLICIDAD

Actualmente, existen diversas tecnologías de IA generativa que los usuarios utilizan de forma habitual para llevar a cabo distintas tareas, tanto en el entorno personal como en el laboral.

PUBLICIDAD

También puedes leer: ¿OpenAI creó una IA potencialmente riesgosa para la humanidad? Sí, es una posibilidad

Por ejemplo, permite realizar una búsqueda precisa de información, redactar textos en distintos formatos, traducir relatos a diversos idiomas, comparar productos y realizar recomendaciones.

Algunas de las herramientas más conocidas en este sector son los asistentes conversacionales ChatGPT, desarrollado por OpenAI, que ha alcanzado más de 100 millones de usuarios semanales activos en menos de un año, y Bard, por parte de Google.

En este sentido, los expertos de la compañía de ciberseguridad Secure&IT han advertido sobre las posibles consecuencias de introducir información y datos personales en las interacciones con este tipo de asistentes, que pueden registrar dichos datos para continuar entrenando la IA y, por tanto, perder el control de sobre la información personal.

Así, tal y como ha explicado la consultora legal TIC de Secure&IT, Natalia Patiño, en un comunicado, para poder utilizar correctamente ChatGPT se ha de tener en cuenta que se trata de una herramienta que “facilita o complementa” la labor humana, pero que, sin embargo, “no la sustituye”.

En este marco, ha puntualizado que “no se trata de una herramienta infalible” y que, de cara a evitar riesgos, “su uso debería verificarse siempre”. Asimismo, también ha hecho hincapié en que no se trata de una tecnología capaz de razonar, sino que sus respuestas están vinculadas a los datos con los que ha sido entrenada previamente.

Aprendizaje por transferencia

Con todo ello, desde Secure&IT han explicado que ChatGPT funciona utilizando una técnica de aprendizaje a la que se refieren como “aprendizaje por transferencia”. Esto es, un entrenamiento basado en un conjunto de datos a gran escala que, a su vez, utiliza los resultados para continuar entrenando al modelo de aprendizaje.

De esta forma, a la hora de interactuar con el ‘chatbot’, el usuario introduce una petición y, tras ello, el modelo ajusta su respuesta en función de lo solicitado por el usuario y los datos contextuales que haya aportado. Gracias a este sistema, el asistente es capaz de generar respuestas cada vez más precisas y que se asemejan a cómo respondería un humano.

Sin embargo, los expertos han subrayado que, en el proceso detallado, las herramientas de IA utilizan “todos los datos que los usuarios introducen” y, además, dichos datos quedan registrados y pueden ser reutilizados. Por ello, se ha de pensar en qué información se está compartiendo con el ‘chatbot’, y si dichos datos son personales.

Según Patiño, “la introducción de datos personales y, en general, de información confidencial, implica perder el control sobre esos datos e informaciones”. Así, en cuanto a datos personales, se ha referido a toda información relacionada con una persona física “identificada o identificable”.

Asimismo, tal y como ha aconsejado, los usuarios deben evitar introducir datos directamente identificables, así como los datos que “de forma indirecta puedan llevar a la identificación. Es muy importante no incluir este tipo de información en las consultas, sobre todo, teniendo en cuenta que actualmente los chats basados en IA son, en general, muy opacos”, ha matizado Patiño.

PUBLICIDAD

Tags


Lo Último