Lección 2 de 9
Privacidad y Soberanía de Datos: Lo Que Nadie Te Cuenta
- Entendé los riesgos reales de privacidad al usar IA en la nube y cómo la IA local te da soberanía total sobre tus datos.
- Cerrar la lección con una validación práctica en el quiz (5 preguntas).
- Llevarte recursos listos para usar después de la clase (2).
Cómo sacarle valor rápido
- 1Mira o revisa la lección tomando nota de casos de uso para tu trabajo.
- 2Resume la idea principal en una frase propia antes de pasar al quiz.
- 3Guarda los recursos y aplica una acción concreta antes de avanzar a la siguiente lección.
Estás viendo una lección de muestra
Guarda tu progreso, desbloquea el resto del curso y continúa con más rutas de IA en español desde Acceso Total.
Privacidad y Soberanía de Datos: Lo Que Nadie Te Cuenta
Privacidad y Soberanía de Datos
¿Leíste los términos de servicio de ChatGPT? ¿Sabés exactamente qué pasa con cada prompt que enviás? La soberanía de datos no es un concepto abstracto: es la diferencia entre que tus secretos comerciales estén en tu disco o en un servidor en Virginia.
Objetivos de Aprendizaje
- ✓ Entender qué pasa realmente con tus datos al usar IA en la nube
- ✓ Conocer las regulaciones de privacidad relevantes (GDPR, ley argentina)
- ✓ Evaluar el riesgo de data leakage en diferentes escenarios
- ✓ Implementar una estrategia de IA que respete la privacidad de tus usuarios
Desarrollo
1. Qué Pasa Con Tus Datos en la Nube
Cuando enviás un prompt a cualquier servicio de IA en la nube, ocurre una cadena de eventos que rara vez se explica claramente. Tu texto viaja encriptado hasta el servidor del proveedor, se desencripta para procesarse, el modelo genera una respuesta, y tanto tu input como el output se almacenan en logs del servidor.
Las políticas de retención varían. OpenAI almacena datos de la API por 30 días por defecto. Anthropic tiene políticas similares. Google puede retener datos más tiempo dependiendo del servicio. Pero el punto clave es: una vez que tus datos salen de tu máquina, perdés el control sobre ellos.
El riesgo no es solo teórico. En marzo de 2023, Samsung prohibió ChatGPT después de que empleados filtraran código fuente propietario a través de prompts. En 2024, múltiples firmas legales enfrentaron problemas regulatorios por procesar documentos de clientes en servicios de IA sin consentimiento explícito. Estos no son casos hipotéticos; son precedentes reales.
2. El Marco Legal: GDPR, Ley Argentina y Más
Si trabajás con datos de terceros (clientes, pacientes, usuarios), la cuestión legal es concreta:
- GDPR (Europa): Exige que el procesamiento de datos personales tenga base legal, propósito específico y que los datos no se transfieran fuera de la UE sin garantías. Usar ChatGPT con datos de ciudadanos europeos puede ser una violación directa.
- Ley 25.326 (Argentina): La Ley de Protección de Datos Personales requiere consentimiento informado para el tratamiento de datos personales y establece responsabilidad del titular de la base de datos.
- HIPAA (EEUU - Salud): Prohíbe compartir información médica protegida con servicios que no sean Business Associates certificados. Ningún servicio de IA público tiene certificación HIPAA completa para prompts libres.
- SOC 2 / ISO 27001: Si tu empresa tiene estas certificaciones, usar IA en la nube sin controles documentados puede invalidar tu compliance.
Con IA local, todo este problema desaparece. Si el modelo corre en tu máquina y los datos nunca salen de tu infraestructura, no hay transferencia de datos a terceros, no hay retención en servidores ajenos, y el compliance se simplifica enormemente.
3. Data Leakage: El Riesgo Invisible
El data leakage (fuga de datos) a través de IA es un riesgo que muchas organizaciones subestiman. No se trata solo de que el proveedor lea tus datos. Existen vectores más sutiles:
Vectores de Data Leakage en IA Cloud:
- Training data extraction: Modelos entrenados con tus datos pueden memorizar y reproducir información sensible en respuestas a otros usuarios
- Prompt injection: Atacantes pueden diseñar prompts que extraigan datos de contextos previos en sistemas con memoria
- Log access: Empleados del proveedor o atacantes que comprometan sus sistemas pueden acceder a logs de conversaciones
- Metadata leakage: Incluso sin leer el contenido, patrones de uso revelan información sobre tu negocio
Con un modelo local, estos vectores simplemente no existen. No hay servidor externo que comprometer, no hay logs en la nube, y el modelo no se reentrena con tus datos a menos que vos explícitamente lo hagas.
4. Estrategia Práctica: El Modelo Híbrido
La estrategia más inteligente no es abandonar la nube completamente, sino implementar un modelo híbrido basado en la sensibilidad de los datos:
NIVEL 1 - Datos Públicos: → Nube (ChatGPT/Claude): contenido marketing, ideas generales, código open source NIVEL 2 - Datos Internos: → Local (Ollama/LM Studio): código propietario, documentación interna, análisis de negocio NIVEL 3 - Datos Sensibles: → Local con air-gap: datos de clientes, información médica, contratos, datos financieros NIVEL 4 - Datos Críticos: → Local + encriptado: secretos comerciales, propiedad intelectual clave, datos regulados
Ejemplos Prácticos
Caso Real: Startup Fintech en Buenos Aires
Una fintech argentina que procesa datos bancarios de usuarios implementó Ollama con Llama 3.1 en sus servidores internos para el análisis de transacciones sospechosas. Antes usaban la API de GPT-4 y tenían que anonimizar cada registro antes de enviarlo, un proceso que tomaba más tiempo que el análisis mismo. Con el modelo local, procesan los datos crudos directamente, ahorrando horas de trabajo diario y eliminando el riesgo de que datos financieros salgan de su infraestructura.
Pro Tip
Creá una política interna de clasificación de datos para IA. Definí claramente qué tipo de datos pueden ir a servicios cloud y cuáles deben procesarse exclusivamente en local. Documentalo, compartilo con tu equipo, y hacelo cumplir. Es mucho más fácil prevenir una fuga de datos que lidiar con las consecuencias legales y reputacionales.
Puntos Clave
- Tus datos en servicios de IA cloud se almacenan en servidores externos y pueden usarse para reentrenamiento
- Regulaciones como GDPR y la ley argentina de datos personales aplican al uso de IA con datos de terceros
- El data leakage a través de IA tiene múltiples vectores: training extraction, prompt injection, log access
- La IA local elimina completamente el riesgo de fuga de datos a terceros
- El enfoque híbrido (local para sensible, nube para público) es la estrategia más práctica
Qué te conviene retener de esta lección
- Esta lección forma parte de una ruta práctica dentro de LLMs Locales: Ollama, LM Studio y Privacidad Total.
- El quiz te ayuda a validar si ya entendiste el concepto y si puedes aplicarlo sin depender de la lección.
- Si esta muestra te resulta útil, el resto del curso sigue la misma lógica: explicación clara, aplicación práctica y progresión guiada.
Qué hacer después
Volver al mapa del curso
Revisa el resto de módulos y decide si esta ruta encaja con tu objetivo inmediato.
Ver curso →
Comparar Acceso Total
Si quieres avanzar más allá de una sola lección, compara el acceso completo al catálogo.
Ver planes →
Explorar más cursos
Conecta esta lección con otras rutas de IA en español para trabajo real.
Ir al catálogo →
Recursos de la lección
Quiz: Privacidad y Soberanía de Datos
Pregunta 1 de 5
¿Qué empresa prohibió ChatGPT después de que empleados filtraran código propietario?
Crear una cuenta te permite retomar esta lección, desbloquear el curso completo y continuar con otras rutas.
Anterior
La Revolución de la IA Local: Tu Máquina, Tus Reglas
Siguiente
Costos Reales: IA Local vs APIs en la Nube
Convierte esta lección en una ruta completa
Sigue con el resto del curso, guarda progreso y conecta esta lección con más cursos prácticos para trabajo real.