Regístrese en IntraMed y conecte con profesionales de la salud de toda Latinoamérica.
CONTEXT DEGRADATION Y CONTEXT POLLUTION: CÓMO HACER QUE TU IA NO PIERDA EL HILO
Los LLMs tienen una ventana de contexto: todo lo que escribís y te responden entra en una memoria temporal con límite. Cuando se llena, comprime o descarta información. Resultado: respuestas imprecisas o contradictorias.
PROBLEMAS COMUNES
→ Acumulación sin propósito: múltiples temas en un mismo chat contaminan el contexto.
→ Contradicciones internas: si primero decís "función renal normal" y después pegás una creatinina de 3.2, el modelo queda atrapado entre dos verdades.
→ Instrucciones diluidas: lo que indicaste al inicio pierde peso a medida que la conversación crece.
CONSEJOS PRÁCTICOS
→ Tema nuevo = chat nuevo
→ Si un caso se extiende, pedí un resumen, abrí chat nuevo y pegalo ahí
→ Al actualizar datos, aclaralo: "Labs día 3, reemplazan los previos"
→ Repetí instrucciones clave periódicamente
→ No pegues guías completas, extraé lo relevante
→ Después de 15-20 intercambios, asumí que la calidad bajó
La herramienta es poderosa, pero la calidad del output depende de la higiene del input.
Todos los derechos reservados
Copyright 1997-2026