Análisis
Fine-Tuning Strategies: SFT y Low-Rank Adaptation (LoRA) en LLMs
Análisis técnico de la adaptación de Large Language Models (LLMs) mediante Supervised Fine-Tuning (SFT) y Parameter-Efficient Fine-Tuning (PEFT). Implementación de LoRA para la reducción de requerimientos de VRAM y preservación de pesos pre-entrenados frente al catastrophic forgetting.