La red social X (antes Twitter) activó por defecto una opción de seguridad y privacidad que permite que dicha plataforma pueda usar las interacciones y publicaciones de los usuarios con el chatbot Grok para entrenar a su modelo de lenguaje. Sin embargo, a pesar de que dicha plataforma, propiedad de Elon Musk, decidió suspender este procesamiento de datos personales para alimentar a su inteligencia artificial (IA), ahora, X quiere que los usuarios envíen sus análisis médicos a Grok.
Concretamente, Musk pide a los internautas que "intenten enviar radiografías, PET, MRI u otras imágenes médicas a Grok" para analizarlas, a pesar de que la IA se encuentra en una fase temprana. No obstante, el empresario afirma que "es bastante preciso y llegará a ser extremadamente bueno".
Este llamamiento de Musk para que los usuarios compartan sus datos médicos genera ciertas dudas relacionadas con la seguridad de los usuarios, teniendo en que los expertos están ampliamente de acuerdo en no compartir datos sensibles con sistemas de IA.
Además, la política de privacidad de xAI desaconseja a los individuos no incluir información personal en las solicitudes: "No comparta ninguna información personal (incluida cualquier información sensible) en sus preguntas a Grok".
Por otro lado, xAI recalca que, "con excepción de nuestras actividades de reclutamiento, no pretendemos recopilar información personal confidencial (por ejemplo, información relacionada con el origen racial o étnico, opiniones políticas, religión u otras creencias, salud, datos biométricos, antecedentes penales o afiliación sindical) y le pedimos que no nos proporcione dicha información".
¿Por qué no se debe proporcionar datos personales a un chatbot?
El diario The Sun recoge la opinión de Stan Kaminsky, de la compañía de ciberseguridad Kaspersky, sobre la información que pueden recopilar los chatbots.
Este experto explica que "ninguna contraseña, número de pasaporte o tarjeta bancaria, dirección, número de teléfono, nombre u otros datos personales que te pertenezcan a ti, a tu empresa o a tus clientes deben terminar en los chats con una IA". Pero, ¿por qué? El motivo es sencillo: es posible que la información que envíes a un chatbot de inteligencia artificial no siempre sea privada.