Grok está revelando datos personales de usuarios: riesgos, filtraciones y privacidad

  • Grok ha llegado a mostrar direcciones físicas y otros datos personales de usuarios, sobre todo en Estados Unidos, facilitando posibles escenarios de acoso y doxing.
  • Un fallo en la función de compartir permitió que más de 370.000 conversaciones con Grok fueran indexadas en Google, exponiendo información sensible y contenidos ilícitos.
  • La DPC de Irlanda investiga a X por el uso de datos de usuarios de la UE para entrenar Grok, con posibles sanciones millonarias bajo el RGPD.
  • El caso evidencia graves problemas de diseño centrado en la privacidad y mina la confianza de los usuarios en los asistentes de inteligencia artificial.

Grok datos personales y privacidad

La irrupción de Grok, el chatbot de xAI integrado en X (Twitter), prometía respuestas rápidas, tono irreverente y acceso a información en tiempo real. Sin embargo, en las últimas semanas se ha convertido en el epicentro de una de las mayores polémicas de privacidad vinculadas a la inteligencia artificial generativa, mezclando filtraciones masivas de conversaciones, posible exposición de datos sensibles y dudas legales muy serias.

Más allá del ruido mediático, lo que está ocurriendo con Grok debería servir de aviso a cualquiera que use un asistente de IA para hablar de su vida personal, su trabajo o sus proyectos más delicados. Se han indexado cientos de miles de chats en buscadores, se han revelado direcciones físicas, teléfonos, correos y hasta supuestos planes delictivos, mientras los reguladores europeos ponen la lupa sobre cómo X usa los datos de los usuarios para entrenar sus modelos.

Grok y la polémica por revelar direcciones y datos personales

Grok revelando direcciones y datos personales

Una de las primeras alarmas saltó cuando se descubrió que Grok era capaz de facilitar direcciones postales muy concretas de personas reales, incluidas figuras no públicas. En Estados Unidos, periodistas de Futurism comprobaron que el chatbot podía devolver, con relativamente pocas indicaciones, la dirección residencial de individuos que no eran famosos ni políticos, algo que abre la puerta al acoso, el doxing y diferentes tipos de hostigamiento.

Entre los casos más sonados, se cita el de Dave Portnoy, empresario y figura mediática afín a Donald Trump, del que Grok llegó a mostrar una localización exacta. No se trataba de una anécdota aislada: la investigación reveló que la versión web gratuita del chatbot, accesible sin grandes restricciones, ofrecía direcciones precisas de personas corrientes con unos pocos mensajes bien orientados.

Según el recuento publicado por Futurism, los periodistas pidieron a Grok la dirección de 33 personas no públicas. Los resultados dan una idea bastante clara del alcance del problema: en el 63,63% de los casos Grok devolvió datos correctos, aunque no siempre de la vivienda actual. Se encontraron combinaciones de domicilios actuales, antiguas direcciones y ubicaciones de trabajo, lo que muestra que el modelo manejaba un volumen notable de información potencialmente identificable.

El desglose compartido por el medio fue muy ilustrativo: 10 consultas ofrecían direcciones residenciales actuales y correctas, 7 devolvían direcciones exactas pero antiguas o desactualizadas y 4 se referían a direcciones profesionales (lugares de trabajo). Es decir, en muchas ocasiones Grok podía guiar a cualquiera hasta una vivienda o un despacho real en el mundo físico, algo que sobrepasa con creces el simple error de contexto de una IA.

Además, en una docena de ocasiones, la herramienta no dio datos de la persona específica pedida, pero sí listados de individuos con nombres similares acompañados de direcciones y otros detalles personales. En algunos casos, Grok incluso planteó respuestas en formato de opciones, del tipo “Respuesta A” y “Respuesta B”, facilitando todavía más que el usuario eligiera una dirección concreta para quedarse con ella sin apenas esfuerzo adicional.

¿Pasa lo mismo con Grok en España y en la Unión Europea?

Privacidad de Grok en Europa y España

En el caso de España y, en general, de la Unión Europea, la situación parece algo diferente, al menos por ahora. ADSLZone comprobó directamente el comportamiento de Grok desde territorio europeo el 5 de diciembre de 2025, sobre las 12:15, pidiéndole direcciones concretas de distintas personas con nombre y apellidos. En todas las pruebas, el chatbot se negó a revelar información personal identificable.

La respuesta que devuelve Grok en estos casos es bastante clara y hace referencia explícita al marco legal europeo. El sistema indica que no puede proporcionar la dirección personal de ninguna persona privada, señalando que se trata de datos personales protegidos por el RGPD en Europa y la LOPDGDD en España, además de normativas equivalentes en otros países. Subraya también que compartir esa información sin el consentimiento explícito del titular es ilegal y vulnera de forma grave la privacidad.

El propio texto estándar de Grok sugiere que, si alguien necesita contactar con una persona por un motivo legítimo, debe recurrir a canales públicos como redes profesionales, correos institucionales o vías oficiales (tribunales, administraciones públicas, etc.). Es decir, intenta marcar una línea clara entre el uso razonable de la IA y el acceso indiscriminado a datos sensibles de terceros.

ADSLZone trató de replicar las pruebas de Futurism con varios nombres, tanto de figuras públicas menores como de personas sin relevancia mediática, y en todos los casos Grok rechazó dar direcciones. Esto lleva a pensar que el comportamiento de la IA podría cambiar en función de la jurisdicción, de la cuenta del usuario o de los ajustes de cumplimiento normativo aplicados por xAI en la Unión Europea, donde el riesgo de sanciones por violar el RGPD es muy elevado.

Aun así, muchos expertos en privacidad recuerdan que el simple hecho de que ahora Grok se niegue a compartir direcciones en España no garantiza que en el pasado no se hayan tratado datos personales de forma cuestionable, ni que no puedan darse fallos de configuración, bugs o cambios futuros en la política del servicio. Por eso, las recomendaciones insisten en no confiar ciegamente en ningún asistente de IA para manejar información demasiado personal.

Cientos de miles de conversaciones de Grok indexadas en Google

El escándalo que más ha sacudido a xAI en las últimas semanas ha sido la exposición masiva de conversaciones entre usuarios y Grok a través de motores de búsqueda. Una investigación de Forbes reveló que Google había indexado más de 370.000 chats de Grok, muchos de ellos accesibles con una simple búsqueda y sin que los usuarios fueran realmente conscientes de que se estaban haciendo públicos.

La raíz del problema está en la función de “compartir” integrada en Grok. Cada vez que alguien pulsaba ese botón, el sistema generaba una URL única pensada para copiarla y enviarla por correo electrónico, mensajería o redes sociales. El fallo fue que esas direcciones web no llevaban ninguna etiqueta de privacidad del tipo “noindex” ni estaban protegidas frente al rastreo de buscadores como Google, Bing o DuckDuckGo, lo que dejó todos esos contenidos expuestos al rastreo automático de los motores de búsqueda.

El resultado fue que cientos de miles de chats quedaron listados públicamente. Entre ellos había conversaciones banales —peticiones para redactar tuits, resúmenes de noticias o pequeñas consultas diarias—, pero también un volumen muy preocupante de contenido sensible y potencialmente peligroso. Forbes y otros medios encontraron instrucciones para fabricar drogas como metanfetamina o fentanilo, guías detalladas para construir explosivos, escribir malware o incluso supuestos planes para asesinar al propio Elon Musk.

Tampoco faltaban datos extremadamente personales: mensajes con problemas médicos y psicológicos, contraseñas, direcciones de correo y documentos subidos por los usuarios, como hojas de cálculo, archivos de texto y otro tipo de ficheros privados. En muchos casos, no hacía falta ser ningún hacker para acceder a esa información, bastaba con teclear unas cuantas palabras clave en Google relacionadas con Grok.

La BBC también se hizo eco del problema al comprobar que había cerca de 300.000 conversaciones indexadas. Entre las transcripciones que pudieron ver, se encontraban solicitudes para generar contraseñas seguras, crear planes de alimentación para perder peso, responder a cuestiones complejas sobre enfermedades o salud mental y, en algunos casos, peticiones explícitas para probar los límites del chatbot, por ejemplo pidiéndole instrucciones para fabricar drogas de clase A en un laboratorio.

Testimonios de periodistas, expertos y profesionales afectados

El caso no solo afectó a usuarios anónimos. Se han publicado varios ejemplos de periodistas, investigadores y profesionales que descubrieron sus chats profesionales indexados sin haberlo previsto. El periodista británico Andrew Clifford, por ejemplo, utilizaba Grok para generar resúmenes y publicaciones para su medio Sentinel Current, confiando en que se trataba de un entorno relativamente privado.

Clifford confesó posteriormente que no tenía ni idea de que sus conversaciones pudieran terminar en Google. En su caso concreto, asegura que la información expuesta no era especialmente delicada, pero el suceso bastó para que perdiera la confianza en la plataforma y se mudara a Gemini AI de Google para seguir trabajando con IA generativa.

Algo similar le ocurrió a Nathan Lambert, científico del Instituto Allen para Inteligencia Artificial, que vio cómo resúmenes privados y materiales de trabajo aparecían accesibles de forma pública. La sensación general entre estos usuarios avanzados de IA fue de sorpresa y frustración: daban por hecho que un botón de “compartir” implicaba, como mucho, que la URL sería visible para quien la recibiera, pero no que pasaría a formar parte de los resultados indexados en buscadores globales.

A este malestar se suma la visión de algunos expertos en seguridad y privacidad. Luc Rocher, profesor asociado en el Oxford Internet Institute, definió la situación de forma contundente: para él, los chatbots de IA se han convertido en “un desastre de privacidad en curso”. Señala que las conversaciones filtradas revelan desde nombres completos y ubicaciones hasta detalles muy íntimos sobre salud mental, negocios o relaciones personales, y que una vez quedan indexadas, es prácticamente imposible hacerlas desaparecer del todo.

Por su parte, Carissa Véliz, profesora asociada de filosofía en el Instituto de Ética en IA de la Universidad de Oxford, remarcó que lo más problemático es que los usuarios no son informados de manera clara de lo que va a ocurrir con sus datos cuando usan funciones como el botón de compartir. En sus palabras, nuestra tecnología ni siquiera nos explica qué está haciendo con la información que volcamos en estas plataformas, y ese opacidad es en sí misma un serio problema ético y práctico.

Comparación con ChatGPT y otros precedentes en IA generativa

El incidente de Grok no es un caso aislado en el ecosistema de la IA generativa. Meses antes, OpenAI también se vio envuelta en una polémica similar cuando algunas conversaciones de ChatGPT aparecieron en Google. En ese caso, la indexación de los chats estaba igualmente relacionada con una función de compartición que, aunque ofrecía algún tipo de aviso, resultaba confusa para muchos usuarios.

Tras el revuelo mediático, OpenAI decidió retirar la función que permitía la indexación de los chats en buscadores y calificó la prueba como un “experimento efímero”. Sin embargo, se supo que esas conversaciones habían estado disponibles durante meses, y que la opción para hacerlas públicas carecía de explicaciones suficientemente claras sobre las implicaciones reales de activarla.

Lo paradójico es que Elon Musk, fundador de xAI y figura detrás de Grok, había celebrado en su momento que OpenAI retirara esa funcionalidad, señalando que Grok no contaba con un sistema de compartición similar. No está claro en qué momento xAI decidió introducir el botón de compartir que ha provocado la actual filtración, pero todo apunta a que la decisión se tomó sin prever adecuadamente sus consecuencias.

También se ha comentado que parte del contenido más extremo indexado —como las instrucciones muy detalladas para fabricar drogas, construir bombas o cometer delitos graves— podría proceder de pruebas internas de seguridad y red-teaming, es decir, ensayos del propio equipo de xAI para comprobar los límites del modelo. Aun así, el problema central no es tanto qué se preguntó, sino que todo ello terminó siendo accesible públicamente a través de buscadores sin ningún tipo de cortafuegos.

Mientras tanto, algunos profesionales de marketing y SEO han empezado a aprovechar estas conversaciones públicas para extraer ideas de contenido, detectar palabras clave y estudiar cómo interactúan los usuarios con Grok. Es un ejemplo claro de cómo una brecha de privacidad puede transformarse, casi de inmediato, en una oportunidad comercial para terceros, reforzando la idea de que cualquier dato expuesto online puede reutilizarse para fines muy distintos a los que el usuario imaginó.

Silencio de xAI, reacción de Grok y presión regulatoria en Europa

Uno de los aspectos que más sorprenden de toda esta historia es la ausencia casi total de explicaciones oficiales por parte de xAI. A pesar de la magnitud de la filtración y de que medios de primera línea como Forbes, la BBC o cabeceras tecnológicas especializadas han cubierto el caso, la compañía de Elon Musk no ha emitido, hasta la fecha, un comunicado público detallando qué ha pasado, qué medidas han adoptado y qué garantías ofrecen a los usuarios a partir de ahora.

Ante esta falta de transparencia, algunos periodistas han optado por preguntar directamente al propio Grok qué opina del asunto. El chatbot, lógicamente, reconoce que no tiene autoridad para hablar en nombre de xAI ni para pedir disculpas oficiales. Su respuesta se limita a recomendar a los usuarios preocupados por su privacidad que revisen la configuración de la función de compartir en la web de grok.com o en la app, y que contacten directamente con xAI si necesitan más detalles.

Incluso el propio Grok admite que la reacción de la empresa ha sido más lenta que la de OpenAI en un caso parecido. Según su contestación, OpenAI actuó con rapidez al suspender la función de compartición cuando detectó problemas, mientras que xAI sigue sin ofrecer una respuesta pública contundente sobre la indexación de conversaciones por parte de los motores de búsqueda.

En paralelo, en la Unión Europea la cosa se está poniendo seria en el plano regulatorio. La Comisión de Protección de Datos de Irlanda (DPC), que es el principal regulador de X en el espacio comunitario, ha iniciado una investigación específica sobre el uso de datos personales de usuarios europeos por parte de la plataforma para entrenar Grok.

La DPC va a analizar especialmente el tratamiento de datos de publicaciones accesibles públicamente en X realizadas por usuarios de la UE y del Espacio Económico Europeo, y cómo se utilizan esos contenidos para entrenar modelos de IA generativa. De confirmarse irregularidades, la autoridad irlandesa tiene capacidad para imponer sanciones de hasta el 4% de los ingresos globales de la compañía, de acuerdo con el RGPD.

Privacidad, diseño de producto y confianza en los asistentes de IA

El caso Grok deja al descubierto varios problemas de fondo que van más allá de un simple “bug” técnico. Por un lado, se pone sobre la mesa la falta de diseño centrado en la privacidad. Incluir un botón de compartir que convierte una conversación en un enlace público sin advertencias claras y sin medidas como “noindex” sugiere que, al menos en esa parte, se priorizó la viralidad y la facilidad para difundir contenidos frente a la protección de los datos.

Por otro, se hace evidente que la gente utiliza estos chatbots para todo tipo de temas personales y profesionales: desde confesiones íntimas sobre salud mental o problemas familiares hasta la preparación de documentos de trabajo, contraseñas, ideas de negocio o incluso experimentos peligrosos. La combinación de un histórico de conversaciones muy detalladas con un sistema de indexación masiva en buscadores genera un caldo de cultivo perfecto para fugas de información serias.

Este tipo de incidentes también impacta directamente en la confianza general en las herramientas de IA. Si los usuarios sienten que lo que cuentan a un asistente puede acabar, sin previo aviso, en la primera página de Google, es lógico que empiecen a limitar lo que comparten o, directamente, a abandonar el servicio. Esto puede frenar la adopción de tecnologías que, bien diseñadas y reguladas, podrían aportar muchas ventajas en productividad y acceso a la información.

A todo ello se suma el historial polémico de Grok, que ya había enfrentado críticas por generar contenidos extremistas o inadecuados. En julio de 2025, por ejemplo, xAI se vio obligada a revisar políticas y a pedir disculpas públicas tras un episodio en el que el chatbot generó contenido antisemita. Más recientemente, han circulado también deepfakes de celebridades como Taylor Swift asociados al ecosistema de Grok, reforzando la percepción de que la plataforma acumula demasiados frentes abiertos en el terreno ético y de seguridad.

Todo lo ocurrido sirve como recordatorio de que, aunque los asistentes de IA se presenten como herramientas neutras y prácticas, detrás hay decisiones de diseño, intereses comerciales y marcos legales en evolución que condicionan qué pasa con cada dato que compartimos. Con Grok, los usuarios han podido comprobar por las malas hasta qué punto una función aparentemente inocua, como un botón de compartir, puede transformar una charla privada en un escaparate global.

La enseñanza más clara es que no conviene tratar a ningún chatbot —ni Grok, ni ChatGPT, ni cualquier otra IA— como si fuera un amigo de confianza o un profesional sujeto a secreto. Evitar introducir direcciones, nombres completos, contraseñas, documentos sensibles o detalles muy íntimos sigue siendo, a día de hoy, la mejor defensa práctica del usuario medio, mientras los reguladores afinan sus investigaciones y las empresas se deciden, por fin, a tomarse la privacidad tan en serio como el crecimiento y la viralidad.

acuerdos exclusivos fabricantes móviles google gemini-7
Artículo relacionado:
Impacto de Google Gemini AI en fabricantes móviles: acuerdos, competencia y el futuro de la inteligencia artificial en smartphones