In questo corso, adatto anche ai principianti, esploreremo alcune delle tecniche e dei concetti più avanzati di Prompt Engineering per sfruttare al meglio i risultati ottenuti in output da un Large Language Model (LLM).
Scopriremo come è possibile analizzare le risposte date in output da un modello nell'ottica di migliorare i prompt in base alle capacità del modello e alle risposte che si vogliono ottenere.
Comprende un'analisi critica delle prestazioni dei modelli linguistici e delle tecniche di miglioramento, come la valutazione delle risposte a prompt specifici, il confronto con riferimenti attendibili e l'inter-annotator agreement.
Vengono esplorate tecniche di perfezionamento iterativo, data augmentation e suggerimento attivo per ottimizzare i modelli.
Piattaforme come Huggingface ed OpenAssistant vengono utilizzate nel corso per lavorare online con i LLM.
Tra gli argomenti trattati troviamo:
N-shot prompting: Questo approccio consente agli LLM di apprendere da un numero limitato di esempi, migliorando la loro capacità di generalizzare e generare risposte significative.
Catena di pensieri (CoT): Gli LLM seguono una serie di passaggi autoconsistenti, simili ai processi di pensiero umani, per fornire risposte più elaborate.
Generated knowledge prompting: Sfruttando le conoscenze preesistenti nei LLM, si ottengono risposte approfondite e accurate, utili per attività di ricerca di informazioni.
Directed stimulus prompting: Fornendo indicazioni specifiche nei prompt, è possibile guidare gli LLM a generare risposte personalizzate e mirate.
Comprende una parte finale hands-on che si concentra sull'applicazione pratica delle tecniche studiate.