Non c'è due senza tre

Ho lavorato alla creazione dei checkpoint italiano per permettere di fare fine tuning. Quindi finalmente ieri ho avviato un processo di fine-tuning basato sul modello Leonardo, dando vita a Giorgio in meno di 24 ore.

I risultati ottenuti sono promettenti, ma ancora lontani dagli obiettivi prefissati. Ho osservato una curiosa anomalia: i modelli generano risposte incomprensibili quando si tratta di frasi brevi come "Ciao!" o "Vieni qui". Al contrario, riescono a gestire correttamente testi di maggiore lunghezza.

Tale comportamento è probabilmente dovuto alla natura del dataset utilizzato per il training. è qualcosa su cui devo indagare prima di continuare.

Trovate un anteprima della voce nella pagina del progetto

Bye

K.