Las cinco preguntas a ChatGPT que los piratas cibernéticos podrían usar para robar su información personal
Evite comprometer sus datos al usar la inteligencia artificial.

PUBLICIDAD
En un contexto donde la inteligencia artificial (IA) ha transformado la manera en que millones de personas acceden a información, se comunican y resuelven problemas, expertos en seguridad digital advierten sobre los riesgos de formular ciertas preguntas a herramientas como ChatGPT.
De acuerdo con los expertos, algunas consultas pueden generar respuestas inexactas, poner en riesgo la privacidad del usuario o exponer datos sensibles a terceros no autorizados.
Advertencia sobre el uso de la IA
Aunque ChatGPT de OpenAI ha ganado popularidad por su facilidad de uso y su capacidad para generar textos, resolver dudas o programar, no todas las preguntas son seguras ni apropiadas. Una compañía especializada en ciberseguridad identificó cinco tipos de preguntas que deberían evitarse por razones éticas, de seguridad y eficacia.
Relacionadas
Camilo Gutiérrez Amaya, jefe del laboratorio de investigación de ESET Latinoamérica explicó a ‘Semana’ que compartir información personal o sensible puede tener consecuencias si una cuenta es comprometida por ciberdelincuentes: “Si un ciberdelincuente consigue acceder a una cuenta, tendrá acceso a toda la información que se comparta con la herramienta”.
Preguntas que implican compartir información confidencial o personal
Nunca se deben compartir datos como nombres, direcciones, números de teléfono, correos electrónicos, contraseñas, cuentas bancarias o números de seguridad social con ChatGPT.
Aunque parezca una conversación privada, la herramienta no opera en un entorno cifrado de extremo a extremo y la información podría ser usada de forma indebida si es comprometida.
Información corporativa o empresarial
La recomendación se extiende a los empleados que utilizan IA en su trabajo. Compartir reportes financieros, estrategias comerciales o detalles de clientes podría poner en riesgo datos corporativos, ya que la IA no distingue automáticamente entre información pública y privada.
Consultas sobre salud, asesoría legal o financiera
Según ‘The Times of India’, uno de cada cinco estadounidenses ha buscado consejo médico en un chatbot, y una encuesta de Tebra mostró que cerca del 25 por ciento preferiría estas herramientas frente a la terapia tradicional.
No obstante, los expertos advierten que ChatGPT no reemplaza a médicos, abogados ni asesores financieros. El riesgo radica en que la IA no tiene acceso al contexto completo ni capacidad de análisis clínico o legal, lo que puede conducir a decisiones erradas.
Preguntas que exigen juicios, opiniones o emociones
ChatGPT puede simular una conversación empática, pero no posee conciencia ni sentimientos. Preguntar cosas como “¿Qué harías tú?” o “¿Te parezco interesante?” puede generar respuestas estructuradas, pero no auténticas, lo que puede llevar a malinterpretaciones.
Decisiones personales importantes
Las decisiones trascendentales sobre salud mental, relaciones personales o trayectorias profesionales no deberían basarse exclusivamente en las respuestas de una IA.
Según expertos, estas situaciones requieren un análisis que considere tanto datos objetivos como elementos emocionales y subjetivos.
Riesgo de exposición y almacenamiento
Otro aspecto señalado por ‘The Times of India’ es que las conversaciones con IA pueden almacenarse y no siempre están protegidas contra el acceso externo. Esto significa que cualquier información compartida, incluso en chats temporales, puede eventualmente ser recuperada o utilizada sin el conocimiento del usuario.
De este modo, las herramientas de inteligencia artificial pueden ser útiles para organizar ideas o acceder a información general, pero su uso debe ser cuidadoso y consciente. Evitar compartir datos sensibles o buscar asesoría especializada en temas complejos es clave para usar la IA de forma segura y responsable.