Un millón de personas a la semana le cuentan sus problemas de salud mental a ChatGPT. No a un psicólogo. No a un amigo de confianza. A una inteligencia artificial que almacena cada palabra que le escribes.
Este dato no es un titular sensacionalista. Lo reveló Zoe Hitzig, investigadora de OpenAI durante dos años, en un artículo publicado en The New York Times el 10 de febrero de 2026, el mismo día en que presentó su dimisión. ¿El motivo? Según ella, OpenAI está siguiendo exactamente el mismo camino que Facebook: primero recopilar datos, después monetizarlos con publicidad.
Y no exagera. El mismo día que Hitzig dimitió, OpenAI comenzó a probar anuncios dentro de ChatGPT. Su precio: 60 dólares por cada mil impresiones, el triple de lo que cobra Meta. ¿De dónde sale ese valor tan alto? De la cantidad y la calidad de los datos que tú, voluntariamente, le entregas cada vez que chateas.
Hitzig lo resume en una frase que debería hacerte pensar: “ChatGPT ha generado un archivo sin precedentes de sinceridad humana.”
Pero que no cunda el pánico. La inteligencia artificial es una herramienta increíblemente útil y no se trata de dejar de usarla, sino de aprender a usarla con cabeza. Igual que no le darías las llaves de tu casa a un desconocido, hay ciertas cosas que nunca deberías compartir con ninguna IA. Vamos a ver cuáles son.
Por qué ChatGPT no es un diario privado
Antes de entrar en la lista, necesitas entender algo fundamental: cuando escribes en ChatGPT, tus conversaciones no desaparecen al cerrar la ventana. OpenAI las almacena y puede utilizarlas para entrenar sus futuros modelos de inteligencia artificial. Esto significa que lo que le cuentas hoy podría influir en las respuestas que la IA le da a millones de personas mañana.
Y no es solo OpenAI. Google Gemini, Claude, Copilot y cualquier otra IA conversacional tienen políticas similares. Tus conversaciones pueden ser:
- Almacenadas en servidores durante meses o años
- Revisadas por empleados humanos para mejorar la calidad del servicio
- Utilizadas para entrenar las siguientes versiones del modelo
- Expuestas en filtraciones de datos (ya ha ocurrido: en marzo de 2023, un fallo de ChatGPT permitió que algunos usuarios vieran conversaciones de otros)
Dicho esto, la IA también tiene usos legítimos y seguros. La clave está en saber qué puedes compartir y qué no. Piensa en ello como la diferencia entre hablar en voz alta en un café abarrotado o en la intimidad de tu casa: no todo se puede decir en cualquier sitio.
1. Problemas de salud mental y datos médicos reales
Es el dato más impactante del artículo de Hitzig: un millón de personas cada semana usan ChatGPT como si fuera su terapeuta. Le cuentan sus miedos, sus traumas, sus pensamientos más oscuros.
Es comprensible. ChatGPT no juzga, está disponible a las tres de la mañana y no cobra 80 euros la sesión. Pero hay un problema enorme: esa confesión íntima queda registrada en un servidor, vinculada a tu cuenta, y no está protegida por el secreto profesional que sí tiene un médico o un psicólogo.
Lo que nunca debes compartir con una IA:
- Diagnósticos médicos concretos con tu nombre
- Medicación que tomas y dosis
- Resultados de análisis o pruebas médicas
- Historial de enfermedades de tu familia
- Pensamientos suicidas o autolesivos (busca ayuda profesional: Teléfono de la Esperanza 717 003 717)
Lo que sí puedes hacer: Preguntar sobre síntomas de forma genérica, sin identificarte. “¿Cuáles son los efectos secundarios del ibuprofeno?” es muy diferente a “Tomo 600 mg de ibuprofeno tres veces al día porque me diagnosticaron X y además estoy tomando Y.”
2. Datos bancarios, contraseñas y números de cuenta
Puede parecer obvio, pero más gente de la que imaginas le pide a ChatGPT que le ayude con gestiones bancarias pegando directamente sus datos financieros. “Revísame este extracto bancario”, “¿Es normal esta comisión de mi cuenta 1234-5678…?”, “Ayúdame a reclamar este cargo de mi tarjeta terminada en 4521.”
Cada uno de esos datos queda almacenado. Y si alguna vez hay una filtración de datos de OpenAI (o de cualquier otra plataforma de IA), tus datos financieros estarán expuestos. Es exactamente el mismo riesgo que cuando los ciberdelincuentes crean webs de phishing bancario para robarte las credenciales, solo que aquí eres tú quien se los entrega voluntariamente.
Lo que nunca debes compartir con una IA:
- Números de cuenta bancaria o IBAN
- Números de tarjeta de crédito o débito
- Contraseñas de banca online
- PINs de tarjetas
- Extractos bancarios con tus datos visibles
- Códigos de verificación SMS del banco
Lo que sí puedes hacer: Preguntar cómo funciona una comisión bancaria en general, pedir que te explique un concepto financiero o que te ayude a redactar una reclamación borrando previamente todos tus datos reales.
3. Problemas legales con nombres y apellidos reales
“Estoy pensando en denunciar a mi jefe Juan García López por acoso laboral, ¿qué pasos debo seguir?” Esa frase, aparentemente inocente, acaba de vincular un nombre real con una acusación grave en los servidores de una empresa tecnológica.
Cada vez más personas utilizan ChatGPT como asesor legal. Y no está mal buscar orientación general, pero el problema aparece cuando incluyes nombres reales, DNIs, direcciones y detalles específicos de casos legales.
Lo que nunca debes compartir con una IA:
- Nombres y apellidos de personas implicadas en un conflicto legal
- Números de DNI, NIE o pasaporte
- Detalles de denuncias en curso
- Documentos legales escaneados (contratos, sentencias)
- Confesiones o admisiones de culpabilidad
- Datos de menores implicados en procedimientos judiciales
Lo que sí puedes hacer: Preguntar de forma genérica: “¿Cuáles son los pasos para denunciar acoso laboral en España?” es perfectamente seguro. Incluir nombres, fechas y detalles específicos no lo es.
4. Dirección, documentos de identidad y datos de menores
Tu dirección postal, tu número de DNI, tu fecha de nacimiento exacta… Son los datos que los ciberdelincuentes necesitan para suplantar tu identidad. Y si se los das a una IA, estás creando una copia digital de tu identidad en un servidor sobre el que no tienes control.
Si quieres saber más sobre cómo los estafadores utilizan datos personales para distintos tipos de fraude, consulta nuestra guía completa anti-estafas 2026, donde repasamos las técnicas más habituales y cómo protegerte de cada una.
Pero hay un caso que merece especial atención: los datos de menores. Muchos padres y madres usan ChatGPT para cosas relacionadas con sus hijos: “Mi hijo Pablo, de 8 años, que va al colegio X en Madrid, tiene dificultades con las matemáticas, ¿cómo puedo ayudarle?” Sin mala intención, acabas de compartir el nombre, edad, colegio y ciudad de tu hijo con una empresa tecnológica.
Lo que nunca debes compartir con una IA:
- Dirección postal completa
- Número de DNI, NIE o pasaporte
- Fecha de nacimiento exacta (tuya o de familiares)
- Nombre completo de menores
- Colegio, actividades extraescolares o rutinas de tus hijos
- Documentos de identidad escaneados o fotografiados
Lo que sí puedes hacer: Usar datos ficticios. Si necesitas ayuda con una carta formal que incluye tu dirección, escribe “Calle Ejemplo, 123” y sustituyes después. Si consultas sobre educación infantil, omite nombres y colegios concretos.
5. Fotos personales o capturas con información sensible
Con la llegada de las funciones de visión de ChatGPT y otras IA, cada vez más usuarios suben fotos directamente a la conversación. “Analiza esta foto de mi receta médica”, “¿Qué pone en esta carta del banco que no entiendo?”, “Mira esta captura de mi app del banco, ¿es normal este cobro?”
Cada imagen que subes queda almacenada igual que el texto. Y una foto puede contener mucha más información de la que crees: metadatos con la ubicación GPS donde se tomó, nombres, direcciones, números de cuenta, firmas, matrículas de coche, caras de personas que no han dado su consentimiento…
Esto es especialmente delicado cuando se cruza con estafas reales. Por ejemplo, si alguien te envía un código QR sospechoso y tú subes la imagen a ChatGPT para que lo analice, podrías estar exponiéndote sin necesidad. Para verificar códigos QR sospechosos, es mucho más seguro usar herramientas específicas como las que explicamos en nuestro artículo sobre QRishing y estafas con códigos QR.
Lo que nunca debes subir a una IA:
- Fotos de documentos de identidad (DNI, pasaporte, carné de conducir)
- Capturas de pantalla de apps bancarias
- Fotos de recetas médicas o informes clínicos
- Imágenes con matrículas de vehículos visibles
- Fotos de menores
- Capturas de conversaciones privadas con datos personales visibles
- Fotos de contratos o documentos legales
Lo que sí puedes hacer: Si necesitas que la IA analice un documento, borra o tapa todos los datos personales antes de subirlo. Usa la herramienta de edición de tu móvil para difuminar nombres, números y cualquier dato identificativo.
La regla de oro para usar IA de forma segura
Si te quedas con una sola idea de este artículo, que sea esta: antes de escribir algo en ChatGPT (o en cualquier IA), pregúntate si publicarías eso mismo en tu perfil de Instagram. Si la respuesta es no, tampoco deberías escribirlo en un chat de inteligencia artificial.
Porque la realidad es que no sabes quién puede acabar viendo esa información: empleados de la empresa que revisan conversaciones, futuros modelos de IA entrenados con tus datos, o ciberdelincuentes si hay una filtración.
Y si recibes un enlace o un mensaje sospechoso que quieres verificar, no lo pegues directamente en ChatGPT con todo el contexto personal. Usa herramientas diseñadas específicamente para eso. Verifica si un enlace es seguro antes de hacer clic, usando analizadores que no almacenan tus datos personales.
Cómo configurar ChatGPT para proteger tu privacidad
Si vas a seguir usando ChatGPT (y deberías, porque es una herramienta muy útil cuando se usa bien), al menos configúralo correctamente:
- Desactiva el historial de chat: Ve a Ajustes > Controles de datos > Mejorar el modelo para todos. Desactívalo. Tus conversaciones ya no se usarán para entrenar la IA
- Usa chats temporales: La opción de “Chat temporal” no guarda la conversación una vez la cierras
- Revisa y borra conversaciones antiguas: Si en el pasado compartiste datos sensibles, elimina esas conversaciones
- No vincules cuentas de terceros: Evita conectar tu cuenta de Google, tu calendario o tu email a ChatGPT
- Usa la versión de navegador en modo incógnito: Para consultas especialmente sensibles
El contexto importa: por qué esto es urgente ahora
La dimisión de Zoe Hitzig no es un caso aislado. Es una señal de alarma de alguien que estuvo dentro y vio hacia dónde van las cosas. Su comparación con Facebook no es casual: recuerda que Facebook también empezó como una herramienta útil y gratuita. Después vinieron los anuncios, la segmentación por datos personales, Cambridge Analytica y la mayor crisis de privacidad de la historia de internet.
OpenAI ya está cobrando 60 dólares por cada mil impresiones de anuncios, tres veces más que Meta. ¿Por qué pueden cobrar tanto? Porque la información que tú le das a ChatGPT es increíblemente íntima y valiosa. Mucho más que un like en Instagram o una búsqueda en Google. Le cuentas tus miedos, tus enfermedades, tus problemas económicos. Eso vale oro para los anunciantes.
Pero la solución no es dejar de usar inteligencia artificial. Es usarla de forma inteligente.
Protégete con BeValk
Usar herramientas de IA con precaución es solo una parte de tu seguridad digital. Los ciberdelincuentes aprovechan todos los canales posibles para obtener tus datos, desde emails de phishing hasta enlaces fraudulentos en redes sociales.
BeValk te ayuda a mantener tu seguridad digital bajo control:
- Analizador de enlaces: Antes de hacer clic en cualquier enlace sospechoso, pégalo en BeValk y obtén un veredicto instantáneo. Sin compartir tus datos personales con nadie
- Consulta con MarIA: Nuestra IA de ciberseguridad te orienta sobre amenazas sin almacenar tu información personal
- Alertas de estafas: Recibe avisos sobre las últimas técnicas de los ciberdelincuentes que circulan en España
- Protección proactiva: Te avisamos antes de que caigas, no después
Descarga BeValk para iOS y Android y toma el control de tu seguridad digital.
Última actualización: febrero 2026
