7.0. LoRA Improvements in fine-tuning
Last updated
Last updated
L'uso di LoRA riduce notevolmente il calcolo necessario per fine-tunare modelli già addestrati.
LoRA rende possibile il fine-tuning di grandi modelli in modo efficiente cambiando solo una piccola parte del modello. Riduce il numero di parametri che devi addestrare, risparmiando memoria e risorse computazionali. Questo perché:
Riduce il Numero di Parametri Allenabili: Invece di aggiornare l'intera matrice dei pesi nel modello, LoRA divide la matrice dei pesi in due matrici più piccole (chiamate A e B). Questo rende l'addestramento più veloce e richiede meno memoria perché devono essere aggiornati meno parametri.
Questo perché, invece di calcolare l'aggiornamento completo dei pesi di uno strato (matrice), lo approssima a un prodotto di 2 matrici più piccole riducendo l'aggiornamento da calcolare:\
2. **Mantiene Invariati i Pesi del Modello Originale**: LoRA ti consente di mantenere i pesi del modello originale invariati e aggiorna solo le **nuove piccole matrici** (A e B). Questo è utile perché significa che la conoscenza originale del modello è preservata e modifichi solo ciò che è necessario. 3. **Fine-Tuning Efficiente per Compiti Specifici**: Quando vuoi adattare il modello a un **nuovo compito**, puoi semplicemente addestrare le **piccole matrici LoRA** (A e B) lasciando il resto del modello com'è. Questo è **molto più efficiente** rispetto a riaddestrare l'intero modello. 4. **Efficienza di Archiviazione**: Dopo il fine-tuning, invece di salvare un **nuovo modello intero** per ogni compito, devi solo memorizzare le **matrici LoRA**, che sono molto piccole rispetto all'intero modello. Questo rende più facile adattare il modello a molti compiti senza utilizzare troppo spazio di archiviazione.
Per implementare LoraLayers invece di quelli Lineari durante un fine-tuning, questo codice è proposto qui https://github.com/rasbt/LLMs-from-scratch/blob/main/appendix-E/01_main-chapter-code/appendix-E.ipynb: