ChatGPT se ha convertido en una herramienta indispensable para millones de usuarios que buscan respuestas rápidas, redacción de textos, corrección de código, análisis médicos y hasta consejos para dormir a un niño. Sin embargo, detrás de esta útil inteligencia artificial de OpenAI, existen riesgos asociados a la privacidad de los datos personales.
A pesar de que los usuarios pueden ajustar la configuración para limitar el uso de sus datos, muchos desconocen estas opciones. ¿El resultado? Una gran cantidad de información sensible podría estar quedando registrada. ¿Qué datos nunca deberías compartir con ChatGPT? Aquí te lo contamos.
¿Qué información no deberías ingresar en ChatGPT?
Según especialistas en ciberseguridad, existen 5 tipos de información que jamás deberías compartir con un chatbot de IA como ChatGPT. Estos datos podrían ser utilizados sin consentimiento, almacenarse accidentalmente o exponerse a errores del sistema o ciberataques.
1. Datos personales identificativos
Evita introducir información como:
Aunque algunos sistemas intentan censurar estos datos, no hay garantía total de privacidad.
2. Información médica privada
Los resultados de análisis o diagnósticos pueden contener datos sensibles. Como los chatbots no están sujetos a leyes sanitarias estrictas, lo ideal es eliminar cualquier elemento identificativo antes de compartir esta información.
3. Datos financieros
Nunca compartas:
Una filtración accidental podría tener graves consecuencias económicas.
4. Información empresarial o confidencial
Muchos trabajadores usan ChatGPT para redactar correos o revisar código. Sin embargo, esto puede derivar en la exposición de:
5. Contraseñas y credenciales
Nunca uses ChatGPT como almacén de contraseñas o nombres de usuario. En su lugar, utiliza gestores de contraseñas profesionales y cifrados.
Puedes seguir toda la actualidad visitando Official Press o en nuestras redes sociales: Facebook, Twitter o Instagram y también puedes suscribirte a nuestro canal de WhatsApp.