{"id":5467,"date":"2026-02-02T13:45:03","date_gmt":"2026-02-02T12:45:03","guid":{"rendered":"https:\/\/www.fabriziogiancola.eu\/?p=5467"},"modified":"2026-02-02T13:52:22","modified_gmt":"2026-02-02T12:52:22","slug":"prompt-engineering-progettazione-dellinterazione-con-i-modelli-linguistici-generativi","status":"publish","type":"post","link":"https:\/\/www.fabriziogiancola.eu\/index.php\/2026\/02\/02\/prompt-engineering-progettazione-dellinterazione-con-i-modelli-linguistici-generativi\/","title":{"rendered":"PROMPT ENGINEERING: progettazione dell\u2019interazione con i modelli linguistici generativi"},"content":{"rendered":"\n<h1 class=\"wp-block-heading has-dark-gray-color has-very-light-gray-to-cyan-bluish-gray-gradient-background has-text-color has-background has-link-color has-medium-font-size wp-elements-9de347e85a70c21a046a8fda2d960aa3\">Abstract<\/h1>\n\n\n\n<p>In questo articolo si cerca di considerare il prompt engineering come nuova skill ibrida, con l\u2019obiettivo di interpretarlo come disciplina di progettazione dell\u2019interazione con modelli linguistici generativi. Viene mostrato come l\u2019efficacia di un chatbot non dipenda solo dal modello, ma anche dalla qualit\u00e0 dell\u2019input: contesto, obiettivi, vincoli e forma dell\u2019output. Vengono discussi i vincoli tecnici (token e finestra di contesto), i fondamenti comunicativi (ambiguit\u00e0, frame, tone of voice), e proposti i principali framework operativi: G.O.L. e la sua estensione G.O.L.D., tecniche avanzate di prompting (Chain-of-Thought e Tree-of-Thoughts) e il metodo SO.C.RA.T.E. per interazioni iterative basate su domande a turni. L\u2019articolo integra inoltre considerazioni su policy e privacy e una riflessione prospettica sull\u2019evoluzione verso agenti e automazioni che potrebbero ridurre il peso del prompt manuale, lasciando centrale la capacit\u00e0 di formulare correttamente i problemi.<\/p>\n\n\n\n<h1 class=\"wp-block-heading has-dark-gray-color has-very-light-gray-to-cyan-bluish-gray-gradient-background has-text-color has-background has-link-color has-medium-font-size wp-elements-dd99a664fe3bdf939f9d101283ef2e13\">Introduzione<\/h1>\n\n\n\n<p>Negli ultimi anni i modelli linguistici generativi (Large Language Models, LLM) hanno trasformato il modo in cui utente e macchina interagiscono. Se le interfacce tradizionali richiedevano comandi formali (sintassi, menu, parametri), l\u2019interazione con un chatbot \u00e8 mediata da linguaggio naturale. Questa \u201cnaturalit\u00e0\u201d \u00e8 per\u00f2 ingannevole: l\u2019output non \u00e8 il risultato di una comprensione semantica umana, ma di una generazione probabilistica condizionata dall\u2019input e dal contesto.<\/p>\n\n\n\n<p>Dobbiamo capire come interagire al meglio con quei modelli e quindi incominciare a parlare di prompt engineering.<\/p>\n\n\n\n<p>Da qui una nuova prospettiva: il prompt non \u00e8 una semplice domanda, ma una specifica progettuale che definisce ruolo, obiettivi, vincoli e formato della risposta. Il prompt engineering deve essere quindi considerato come una competenza ibrida tra tecnica e comunicazione: richiede rigore nella definizione dei requisiti e sensibilit\u00e0 linguistica nella gestione di ambiguit\u00e0, tono e aspettative dell\u2019utente.<\/p>\n\n\n\n<h1 class=\"wp-block-heading has-dark-gray-color has-very-light-gray-to-cyan-bluish-gray-gradient-background has-text-color has-background has-link-color has-medium-font-size wp-elements-26c000c5b7733dd50409e22b8683e5a8\">1. Modelli linguistici e natura dell\u2019output generativo<\/h1>\n\n\n\n<p>Per inquadrare il prompt engineering \u00e8 utile chiarire, in modo non eccessivamente matematico, come operano i modelli linguistici. Un LLM riceve in input una sequenza di simboli e produce in output una sequenza di simboli, stimando quali token siano pi\u00f9 probabili dato il contesto. <\/p>\n\n\n\n<p>Attenzione per\u00f2: l\u2019idea che il modello generi testo \u201cplausibile\u201d perch\u00e9 addestrato su grandi quantit\u00e0 di contenuti digitali pu\u00f2 creare l\u2019illusione di un\u2019interlocuzione umana, ma non garantisce accuratezza.<\/p>\n\n\n\n<p>Dal punto di vista operativo, questo comporta due conseguenze. Primo: il chatbot pu\u00f2 essere estremamente utile in compiti di scrittura, sintesi, brainstorming e supporto decisionale, ma necessita di controlli e verifiche. Secondo: la forma dell\u2019input guida in modo determinante la forma dell\u2019output; di fatto, il prompt \u00e8 l\u2019API del modello.<\/p>\n\n\n\n<p>Da qui la proposta di leggere il prompt engineering come nuova skill \u201cibrida\u201d, collocata tra hard skill (conoscenza di vincoli e strumenti) e soft skill (capacit\u00e0 comunicativa, chiarezza espositiva, empatia verso il lettore\/utente).<\/p>\n\n\n\n<h1 class=\"wp-block-heading has-dark-gray-color has-very-light-gray-to-cyan-bluish-gray-gradient-background has-text-color has-background has-link-color has-medium-font-size wp-elements-5960cd9c3799f9e6c3149243276abda7\">2. Token, contesto e vincoli di memoria conversazionale<\/h1>\n\n\n\n<p>Uno dei concetti pi\u00f9 tecnici da introdurre \u00e8 la tokenizzazione, ovvero \u00abl\u2019unit\u00e0 di base di elaborazione in un modello di linguaggio\u00bb, che pu\u00f2 corrispondere a parola, sotto-parola o carattere.<\/p>\n\n\n\n<p>Il limite di token gestibili in una singola conversazione (finestra di contesto) impone vincoli pratici: un prompt troppo lungo pu\u00f2 saturare il contesto, riducendo spazio per la risposta o causando la perdita di informazioni precedenti. Il problema si amplifica quando l\u2019utente incolla documenti lunghi, log o report: in questi casi si dovrebbe ricorrere a strumenti di \u201c<em>splitting<\/em>\u201d del testo per suddividere l\u2019input in segmenti gestibili.<\/p>\n\n\n\n<p>Dal punto di vista ingegneristico, la finestra di contesto pu\u00f2 essere trattata come risorsa limitata. Ne deriva un principio di progettazione: la parte pi\u00f9 \u201c<em>costosa<\/em>\u201d del prompt \u00e8 il contenuto ridondante o poco pertinente; la parte pi\u00f9 \u201c<em>economica<\/em>\u201d \u00e8 la strutturazione che riduce ambiguit\u00e0 (titoli, sezioni, liste, schemi, formati).<\/p>\n\n\n\n<p>Un buon prompt, quindi, non \u00e8 necessariamente un prompt \u201c<em>lungo<\/em>\u201d: \u00e8 un prompt informativo, ben organizzato e orientato al compito. Questo punto, spesso trascurato in guide superficiali, \u00e8 centrale per un uso professionale dei LLM.<\/p>\n\n\n\n<h1 class=\"wp-block-heading has-dark-gray-color has-very-light-gray-to-cyan-bluish-gray-gradient-background has-text-color has-background has-link-color has-medium-font-size wp-elements-acca212fa83fd341eb3bf9caea62aaeb\">3. Frame, ambiguit\u00e0 e pragmatica del prompt<\/h1>\n\n\n\n<p>Proviamo a collegare il concetto di contesto alla teoria dei frame. In sociologia, i frame sono \u00abcornici\u00bb, cio\u00e8 schemi interpretativi che aiutano a dare senso alle situazioni sociali; richiamiamo questo impianto per spiegare come il prompt \u201c<em>incornici<\/em>\u201d l\u2019output. Nel prompting la scelta di parole e impostazione del compito attiva frame diversi: chiedere \u201c<em>un\u2019analisi tecnica<\/em>\u201d produce un output differente rispetto a chiedere \u201c<em>una narrazione creativa<\/em>\u201d; allo stesso modo, definire il target (ad esempio \u201c<em>spiega come a un bambino di dieci anni<\/em>\u201d) condiziona tono, lessico e struttura.<\/p>\n\n\n\n<p>Da qui si pu\u00f2 derivare un modello pragmatico, il prompt deve dichiarare:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>(a) dominio e livello di competenza atteso;<\/li>\n\n\n\n<li>(b) scopo dell\u2019output (informare, convincere, addestrare, documentare);<\/li>\n\n\n\n<li>(c) vincoli e criterio di successo.<\/li>\n<\/ul>\n\n\n\n<div class=\"wp-block-group\"><div class=\"wp-block-group__inner-container is-layout-constrained wp-block-group-is-layout-constrained\">\n<p>In assenza di questi elementi il modello colma i vuoti con assunzioni implicite, aumentando la probabilit\u00e0 di mismatch tra aspettativa dell\u2019utente e output generato.<\/p>\n\n\n\n<p>Nel contesto universitario e professionale, la gestione dei frame \u00e8 anche gestione del rischio: un chatbot che adotta un frame eccessivamente assertivo o \u201c<em>autoritativo<\/em>\u201d pu\u00f2 indurre l\u2019utente a fidarsi di contenuti non verificati. Per questo l\u2019elaborazione di prompt deve includere strategie di mitigazione: richiesta esplicita di incertezze, richiesta di ipotesi e limiti, richiesta di verifiche incrociate quando possibile.<\/p>\n<\/div><\/div>\n\n\n\n<h1 class=\"wp-block-heading has-dark-gray-color has-very-light-gray-to-cyan-bluish-gray-gradient-background has-text-color has-background has-link-color has-medium-font-size wp-elements-b457196efa69556a83f8d3eb2ec5649b\">4. Il metodo G.O.L.: un framework di specifica per il prompting<\/h1>\n\n\n\n<p>Un contributo pratico \u00e8 la formalizzazione di un metodo mnemonico per scrivere prompt: <strong>G.O.L.<\/strong> ovvero \u00abper creare un buon prompt occorre avere in mente uno schema\u00bb.<\/p>\n\n\n\n<p>Il metodo G.O.L. si articola in tre fasi:<\/p>\n\n\n\n<p>1) <strong>Guidare<\/strong>: assegnare un ruolo al modello (role prompting), ad esempio \u201cagisci come un consulente\u201d, \u201ccome un docente\u201d, \u201ccome un revisore\u201d, ovvero \u00abbisogna dirgli chi deve essere\u00bb (come un attore), cos\u00ec da attivare conoscenze pertinenti all\u2019ambito.<\/p>\n\n\n\n<p>2) <strong>Obiettivi<\/strong>: esplicitare cosa si desidera ottenere, includendo output atteso, target e criteri. Nel prompting, gli obiettivi non vanno confusi con la domanda: la domanda \u00e8 una forma superficiale, l\u2019obiettivo \u00e8 la specifica funzionale.<\/p>\n\n\n\n<p>3) <strong>Limiti e layout<\/strong>: definire vincoli (lunghezza, ci\u00f2 che va escluso, stile, livello di dettaglio) e, soprattutto, la struttura dell\u2019output (tabella, checklist, sezione con esempi, ecc.).<\/p>\n\n\n\n<p>In prospettiva informatica, G.O.L. pu\u00f2 essere interpretato come un pattern di specifica: la parte \u201cG\u201d definisce il contesto di esecuzione, la parte \u201cO\u201d definisce i requisiti funzionali, la parte \u201cL\u201d definisce requisiti non funzionali e formato di output.<\/p>\n\n\n\n<h1 class=\"wp-block-heading has-dark-gray-color has-very-light-gray-to-cyan-bluish-gray-gradient-background has-text-color has-background has-link-color has-medium-font-size wp-elements-da6037862366df37ec73a6a8eb515869\">5. G.O.L.D., X-shot prompting e reverse prompt engineering<\/h1>\n\n\n\n<p>E\u2019 possibile poi estendere G.O.L. nella variante G.O.L.D., aggiungendo una \u201cD\u201d di ulteriori dettagli che rendono il prompt pi\u00f9 robusto e controllabile.<\/p>\n\n\n\n<p>E\u2019 importante sottolineare inoltre un tema fondamentale: la comunicazione con un LLM beneficia degli esempi. Nel lessico tecnico, questo si traduce in <em>zero-shot<\/em>, <em>one-shot<\/em> e <em>few-shot prompting<\/em>. In un prompt <em>zero-shot<\/em> il modello lavora senza esempi; in un prompt <em>one-shot<\/em> si fornisce un esempio di riferimento; nel <em>few-shot<\/em> si forniscono pi\u00f9 esempi per indurre un pattern.<\/p>\n\n\n\n<p>Dal punto di vista applicativo, gli esempi svolgono funzioni diverse:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>(a) chiariscono il formato (ad es. input-output); <\/li>\n\n\n\n<li>(b) chiariscono lo stile (registro, tono, lunghezza); <\/li>\n\n\n\n<li>(c) riducono l\u2019ambiguit\u00e0 nei compiti di classificazione o trasformazione (ad es. estrarre campi da testo).<\/li>\n<\/ul>\n\n\n\n<p>Nel contesto professionale, la \u2018D\u2019 pu\u00f2 includere: definizioni operative, criteri di valutazione, dataset di esempio, vincoli sul vocabolario, terminologia e acronimi ammessi, nonch\u00e9 un \u2018negative prompting\u2019 (cosa non fare).<\/p>\n\n\n\n<p>Un altro aspetto che va considerato \u00e8 il <em>reverse prompt engineering<\/em>: risalire al prompt che potrebbe aver generato un testo desiderato, cos\u00ec da replicare lo stile e standardizzare output futuri.<\/p>\n\n\n\n<p>Il <strong>reverse prompt engineering<\/strong> \u00e8 una tecnica avanzata che consente di generare prompt di alta qualit\u00e0 per finalit\u00e0 quali la scrittura, la ricerca, l\u2019apprendimento o la creativit\u00e0.<\/p>\n\n\n\n<p>Ecco come funziona e come viene applicata:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Logica di base:<\/strong> questo approccio si basa sulla <strong>ricostruzione di un prompt<\/strong> che potrebbe aver generato un testo specifico gi\u00e0 esistente. Invece di partire da zero, l\u2019utente fornisce all\u2019intelligenza artificiale un output desiderato affinch\u00e9 la macchina ne deduca le istruzioni.<\/li>\n\n\n\n<li><strong>Analisi dello stile e del tono:<\/strong> inserendo esempi di testi che l\u2019utente apprezza o che ha scritto personalmente, ChatGPT pu\u00f2 analizzare il linguaggio utilizzato e generare nuovi prompt che siano <strong>perfettamente allineati a quello stile e a quel tono<\/strong>.<\/li>\n<\/ul>\n\n\n\n<p><strong>Esempi pratici di applicazione:<\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Analisi di citazioni:<\/strong> esempio di una citazione di <strong>Warren Buffett<\/strong>, inserendola nel chatbot, si pu\u00f2 chiedere all\u2019IA di generare un prompt che rifletta la filosofia e l\u2019approccio cautamente lungimirante tipico di Buffett.<\/li>\n\n\n\n<li><strong>Completamento di testi:<\/strong> \u00e8 possibile fornire un proprio brano e chiedere a ChatGPT di <strong>continuare a scrivere<\/strong> seguendo la stessa falsariga stilistica, mantenendo la coerenza con quanto gi\u00e0 prodotto dall\u2019autore umano.<\/li>\n\n\n\n<li><strong>Utilizzo di moduli:<\/strong> un uso pi\u00f9 pragmatico consiste nel copiare e incollare lo \u201cscheletro\u201d di un modulo o di una lettera formale (come una disdetta) per obbligare il chatbot a seguire la sequenza e lo schema corretto delle parole.<\/li>\n\n\n\n<li><strong>Reverse engineering delle immagini:<\/strong> il concetto si estende anche al campo visivo (sintografie). Attraverso strumenti specifici (come <em>img2prompt.io<\/em>), \u00e8 possibile caricare una foto per ottenere il <strong>prompt testuale<\/strong> necessario per ricrearla o generarne di simili.<\/li>\n<\/ul>\n\n\n\n<p>In sintesi, questa tecnica trasforma l\u2019IA in uno strumento capace di <strong>decodificare il \u201cDNA\u201d di un testo<\/strong> per trasformarlo in un\u2019istruzione operativa riutilizzabile.<\/p>\n\n\n\n<h1 class=\"wp-block-heading has-dark-gray-color has-very-light-gray-to-cyan-bluish-gray-gradient-background has-text-color has-background has-link-color has-medium-font-size wp-elements-60908f66c44e1fbf1e83ab278ab66966\">6. Tone of voice e requisiti non funzionali dell\u2019output<\/h1>\n\n\n\n<p>I \u201cmodificatori di tono\u201d come strumento per rendere gli scambi pi\u00f9 naturali ed efficaci, adattandoli a contesti e pubblici diversi.<\/p>\n\n\n\n<p>Nel contesto del <em>prompt engineering<\/em>, la definizione del <strong>tone of voice<\/strong> (tono di voce) e dei <strong>requisiti non funzionali<\/strong> (come formato, limiti e stile) \u00e8 essenziale per trasformare un output generico in un risultato professionale e mirato.<\/p>\n\n\n\n<h3 class=\"wp-block-heading has-medium-font-size\"><strong>Il Tone of voice (tono di voce)<\/strong><\/h3>\n\n\n\n<p>Il tono di voce non riguarda <em>cosa<\/em> l\u2019IA dice, ma <em>come<\/em> lo dice. Si identificano diverse tecniche per modulare questo aspetto:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Modificatori di tono:<\/strong> sono strumenti per rendere la comunicazione pi\u00f9 naturale e meno meccanica. Attraverso parole specifiche, variazioni di ritmo e tonalit\u00e0 emotive (ironia, empatia, autorit\u00e0), \u00e8 possibile adattare l\u2019IA a diversi pubblici.<\/li>\n\n\n\n<li><strong>Esempi di combinazioni:<\/strong> \u00e8 possibile richiedere toni complessi come \u201cAmichevole + Professionale\u201d (per panoramiche informative ma accessibili), \u201cAutorevole + Informale\u201d (per pareri esperti ma diretti), o \u201cUrgente + Concreto\u201d (per spingere all\u2019azione).<\/li>\n\n\n\n<li><strong>Teoria dei frame (cornici):<\/strong> applicando la teoria di Goffman, il tono viene influenzato dalla \u201ccornice\u201d interpretativa fornita. Ad esempio, lo stesso argomento verr\u00e0 spiegato con linguaggi e toni radicalmente diversi se il target \u00e8 un bambino di dieci anni (usando metafore) o un ingegnere informatico (usando termini tecnici).<\/li>\n\n\n\n<li><strong>Sentiment:<\/strong> l\u2019utente pu\u00f2 definire l\u2019obiettivo emotivo dell\u2019output, chiedendo varianti basate sul \u201csentiment\u201d, come un messaggio \u201cdispiaciuto\u201d rispetto a uno \u201cpropositivo\u201d.<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading has-medium-font-size\"><strong>Requisiti non funzionali dell\u2019output<\/strong><\/h3>\n\n\n\n<p>Questi requisiti definiscono i vincoli tecnici e strutturali che l\u2019IA deve rispettare, sintetizzati principalmente nella <strong>\u201cL\u201d del metodo G.O.L. (Limiti e Layout)<\/strong>.<\/p>\n\n\n\n<p><strong>Limiti e vincoli<\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Lunghezza:<\/strong> \u00e8 fondamentale imporre paletti sulla produzione di testo, specificando il numero di caratteri o parole desiderate.<\/li>\n\n\n\n<li><strong>Token:<\/strong> la lunghezza \u00e8 condizionata dai \u201c<em>token<\/em>\u201d (unit\u00e0 di base di circa 4 caratteri). Modelli come GPT-4 hanno limiti di contesto molto ampi (fino a 128.000 token), ma per testi estremamente lunghi \u00e8 necessario usare strumenti come i \u201c<em>GPT splitter<\/em>\u201d.<\/li>\n\n\n\n<li><strong>Temperatura:<\/strong> \u00e8 un parametro tecnico (0-1) che regola la casualit\u00e0. Una temperatura bassa produce output precisi e ripetitivi; una alta favorisce la creativit\u00e0 e il brainstorming.<\/li>\n<\/ul>\n\n\n\n<p><strong>Layout e format (forma dell\u2019output)<\/strong><\/p>\n\n\n\n<p>ChatGPT pu\u00f2 gestire una vasta gamma di formati oltre al semplice testo:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Strutture tabellari e grafiche:<\/strong> tabelle comparative, checklist, schede valutative e persino grafici a torta.<\/li>\n\n\n\n<li><strong>Diagrammi complessi:<\/strong> diagrammi di Gantt o mappe mentali utilizzando la sintassi <strong>Markdown Mermaid<\/strong>.<\/li>\n\n\n\n<li><strong>Formati dati e codice:<\/strong> file <strong>CSV<\/strong> (valori separati da virgola), <strong>XML\/YAML<\/strong>, codice di programmazione (HTML, CSS, Python) e persino file <strong>SVG<\/strong> per grafica vettoriale o codici <strong>QR<\/strong>.<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading has-medium-font-size\"><strong>Concretezza e Specificit\u00e0<\/strong><\/h3>\n\n\n\n<p>Per evitare il fenomeno \u201cgarbage in, garbage out\u201d (input scadente, output scadente), i requisiti devono essere <strong>descrittivi e dettagliati<\/strong>. Un errore comune \u00e8 la mancanza di specificit\u00e0: invece di un vago \u201cdisegna un paesaggio\u201d, un prompt efficace descrive l\u2019ora del giorno, le condizioni atmosferiche e lo stile desiderato.<\/p>\n\n\n\n<p>Infine, l\u2019uso di <strong>esempi (one-shot o few-shot prompting)<\/strong> all\u2019interno del metodo <strong>G.O.L.D.<\/strong> permette di mostrare all\u2019IA esattamente lo schema o lo stile da seguire, garantendo che l\u2019output rispetti i requisiti non funzionali desiderati.<\/p>\n\n\n\n<p>Il tone of voice \u00e8 un controllo pragmatico, quindi: non cambia solo la \u2018forma\u2019 del testo, ma anche la selezione delle informazioni, la loro priorit\u00e0 e la modalit\u00e0 argomentativa. Un output \u201cautorevole\u201d tende a usare definizioni e assertivit\u00e0; un output \u201cempatico\u201d tende a riconoscere emozioni e proporre azioni di supporto; un output \u201curgente e concreto\u201d privilegia passi operativi e call-to-action.<\/p>\n\n\n\n<p>Dal punto di vista della progettazione, conviene trattare il tone of voice come requisito non funzionale al pari di performance o usabilit\u00e0 in un sistema software: non \u00e8 \u2018decorazione\u2019, ma condizione di accettazione dell\u2019output. In un contesto educativo, per esempio, il tono deve sostenere comprensione, scaffolding e gradualit\u00e0; in un contesto di incident response deve privilegiare chiarezza, priorit\u00e0 e risk awareness.<\/p>\n\n\n\n<p>Il rischio principale \u00e8 l\u2019overfitting stilistico: un tono troppo marcato pu\u00f2 introdurre bias (ad esempio semplificazioni eccessive o eccesso di confidenza). Per mitigare, si pu\u00f2 chiedere al modello di separare il contenuto fattuale dal registro (es. \u2018prima i fatti in punti, poi la spiegazione in tono X\u2019).<\/p>\n\n\n\n<h1 class=\"wp-block-heading has-dark-gray-color has-very-light-gray-to-cyan-bluish-gray-gradient-background has-text-color has-background has-link-color has-medium-font-size wp-elements-f4b9c51ef0156b1b646f74ba1c3041d8\">7. CoT e ToT: prompting per il ragionamento e il problem solving<\/h1>\n\n\n\n<p>Quando il compito richiede ragionamento multi-step, si potrebbe introdurre la tecnica <strong>Chain-of-Thought (CoT)<\/strong>, citando Wei et al. (2022): chiedere (o indurre) passaggi intermedi migliora la capacit\u00e0 di problem solving e riduce errori in compiti complessi.<\/p>\n\n\n\n<p>L\u2019idea pu\u00f2 essere letta come \u201cdecomposizione del problema\u201d: si suddivide il task in sotto-problemi, ottenendo un output intermedio che rende il percorso pi\u00f9 controllabile e debuggabile, in modo simile a come si progettano funzioni e moduli in un software.<\/p>\n\n\n\n<p>Oppure quella del <strong>Tree-of-Thoughts (ToT)<\/strong>, citando Yao et al. (2023), come generalizzazione che esplora pi\u00f9 percorsi alternativi e valuta progressi intermedi prima di convergere su una soluzione.<\/p>\n\n\n\n<p>Operativamente, ToT \u00e8 utile in scenari decisionali e creativi: definire pi\u00f9 opzioni, confrontare pro e contro, applicare criteri di scelta. In un ambito universitario, ToT pu\u00f2 supportare la stesura di piani di progetto, la valutazione di architetture e la preparazione di discussioni argomentate.<\/p>\n\n\n\n<p>\u00c8 importante distinguere tra: (a) chiedere al modello di ragionare, e (b) ottenere un output verificabile. In un lavoro accademico, la trasparenza del ragionamento non sostituisce la verifica delle fonti; \u00e8 piuttosto uno strumento per controllare coerenza e completezza.<\/p>\n\n\n\n<h1 class=\"wp-block-heading has-dark-gray-color has-very-light-gray-to-cyan-bluish-gray-gradient-background has-text-color has-background has-link-color has-medium-font-size wp-elements-69d46a066375130b0568731315cd5543\">8. SO.CRA.TE e prompting iterativo: dall\u2019input all\u2019elicitation dei requisiti<\/h1>\n\n\n\n<p>Uno degli elementi pi\u00f9 originali del lavoro di Gianluigi Bonanni (cfr. bibliografia) \u00e8 il metodo SO.C.RA.T.E., pensato per ridurre lo sforzo dell\u2019utente nella costruzione del prompt: invece di scrivere subito una richiesta perfetta, si chiede al chatbot di porre domande e raccogliere requisiti, ovvero: l\u2019AI \u00abmi deve intervistare\u00bb per capire obiettivo e contesto, trasformando l\u2019interazione in un ping-pong a turni.<\/p>\n\n\n\n<p>L\u2019acronimo SO.C.RA.T.E. viene definito come: <strong>SOllecito, Contesto, RAffinamento, Turni, Esortazione<\/strong>. Il cuore \u00e8 la gestione dei turni: una domanda alla volta, attendere risposta, e solo dopo procedere. Questo evita interrogatori \u2018a raffica\u2019 e permette un progressivo affinamento dei requisiti.<\/p>\n\n\n\n<p>In termini di ingegneria del software, SO.C.RA.T.E. ricorda una fase di elicitation dei requisiti: si raccolgono informazioni, si disambiguano vincoli, si verifica la comprensione con domande incrementali. Questo approccio \u00e8 particolarmente utile in compiti complessi (piani editoriali, strategie di comunicazione, analisi di problemi) o quando l\u2019utente non \u00e8 in grado di formalizzare subito l\u2019obiettivo.<\/p>\n\n\n\n<p>Il metodo <strong>SO.C.RA.T.E.<\/strong> \u00e8 un approccio strutturato ideato per ottimizzare l\u2019interazione con i modelli di linguaggio (LLM) come ChatGPT, trasformando la generazione di contenuti in un processo di indagine collaborativo. A differenza dei prompt tradizionali \u201cone-shot\u201d, questo metodo si ispira alla <strong>maieutica socratica<\/strong>, utilizzando un dialogo basato su domande e risposte per stimolare il pensiero critico e far emergere informazioni precise dall\u2019utente<\/p>\n\n\n\n<p>Il metodo si articola in cinque passaggi fondamentali (pi\u00f9 uno di raffinamento opzionale) che guidano il chatbot nel raccogliere i dati necessari prima di produrre l\u2019output finale:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>SO (Sollecito):<\/strong> consiste nel formulare una <strong>richiesta chiara e diretta<\/strong>. La precisione \u00e8 fondamentale: una domanda vaga produce risposte generiche, mentre una specifica (es. \u201ctendenze del marketing B2C\u201d invece di un generico \u201cparlami di marketing\u201d) orienta correttamente la macchina.<\/li>\n\n\n\n<li><strong>C (Contesto):<\/strong> in questa fase si forniscono <strong>informazioni aggiuntive<\/strong> per inquadrare la richiesta. \u00c8 utile specificare dettagli come il livello di complessit\u00e0 desiderato (es. tecnico o divulgativo) o le sfumature del compito da svolgere.<\/li>\n\n\n\n<li><strong>RA (Raffinamento):<\/strong> fase dedicata all\u2019inserimento di <strong>dettagli estremi<\/strong>, come link a offerte di lavoro o documenti specifici, per rendere l\u2019interazione ancora pi\u00f9 mirata.<\/li>\n\n\n\n<li><strong>T (Turni):<\/strong> rappresenta il cuore del metodo. Si richiede esplicitamente al chatbot di <strong>organizzare una conversazione a turni<\/strong>, innescando un \u201cping-pong\u201d comunicativo in cui ogni risposta dell&#8217;utente diventa la base per la domanda successiva dell\u2019IA.<\/li>\n\n\n\n<li><strong>E (Esortazione):<\/strong> \u00e8 l\u2019istruzione critica per evitare che il chatbot ponga tutte le domande contemporaneamente. Bisogna ordinare all\u2019IA di <strong>aspettare la risposta dell\u2019utente<\/strong> prima di procedere con il quesito successivo.<\/li>\n<\/ul>\n\n\n\n<p>Una pratica derivata \u00e8 il \u2018<strong><em>prompt per creare i prompt<\/em><\/strong>\u2019: un meta-prompt che chiede al modello di fare domande fino a produrre una richiesta ottimizzata. In ambienti operativi, questa ricorsivit\u00e0 pu\u00f2 essere standardizzata in template e playbook.<\/p>\n\n\n\n<p>Il metodo SO.C.RA.T.E. pu\u00f2 essere utilizzato in modo ricorsivo per far s\u00ec che sia l\u2019IA stessa a <strong>costruire un prompt perfetto<\/strong>. In questo scenario, l\u2019utente delega alla macchina il ruolo di \u201cgeneratore di prompt\u201d. L\u2019IA viene istruita a intervistare l\u2019utente su obiettivi, scopi ed esempi dell\u2019output desiderato, procedendo sempre una domanda alla volta fino a quando non ha raccolto tutte le informazioni necessarie per produrre l\u2019istruzione ottimizzata.<\/p>\n\n\n\n<p>L\u2019efficacia del metodo risiede nel ribaltamento della logica di input: non \u00e8 pi\u00f9 l\u2019utente a dover indovinare tutte le variabili da inserire in un unico comando (\u201cgarbage in, garbage out\u201d<sup data-fn=\"61fb3632-e505-4eaa-9abd-c63041abd4c2\" class=\"fn\"><a href=\"#61fb3632-e505-4eaa-9abd-c63041abd4c2\" id=\"61fb3632-e505-4eaa-9abd-c63041abd4c2-link\">1<\/a><\/sup>), ma \u00e8 <strong>l\u2019IA che si fa guidare e, al tempo stesso, guida l\u2019utente<\/strong> verso la soluzione migliore attraverso l\u2019ascolto attivo e la segmentazione del problema. Questo approccio riduce l\u2019ambiguit\u00e0 e massimizza la qualit\u00e0 dei risultati, rendendo l\u2019interazione con i chatbot un processo di <strong>miglioramento continuo<\/strong>.<\/p>\n\n\n\n<h1 class=\"wp-block-heading has-dark-gray-color has-very-light-gray-to-cyan-bluish-gray-gradient-background has-text-color has-background has-link-color has-medium-font-size wp-elements-38d0c69a8424a77d9396cea4fe395fae\">9. Policy, privacy e affidabilit\u00e0: limiti e responsabilit\u00e0 d\u2019uso<\/h1>\n\n\n\n<p>Accanto alle tecniche, occorre affrontare limiti e vincoli: cosa non si pu\u00f2 chiedere a un chatbot e quali rischi emergono per privacy e governance. Fra le  categorie di richieste problematiche (informazioni personali, contenuti dannosi, consigli medici\/legali specifici, violazioni di copyright) \u00e8 importante  richiamare l\u2019attenzione sul tema della privacy e dei dati immessi dagli utenti.<\/p>\n\n\n\n<p class=\"has-dark-gray-color has-text-color has-link-color has-medium-font-size wp-elements-00eb351c3e6f213f41c4eb6cd957aff6\"><strong>La questione della privacy e la protezione dei dati<\/strong><\/p>\n\n\n\n<p class=\"has-dark-gray-color has-text-color has-link-color wp-elements-3426478760c190fe6ea2fdb6dd4e4a53\">La gestione dei dati personali \u00e8 uno dei temi pi\u00f9 critici. E qui \u00e8 d\u2019obbligo ricordare che nel marzo 2023 il Garante per la protezione dei dati personali ha temporaneamente bloccato ChatGPT in Italia, contestando diverse violazioni.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Data breach e raccolta dati:<\/strong> tra le criticit\u00e0 sollevate figuravano un perduto controllo dei dati (data breach) avvenuto nel marzo 2023 e l\u2019assenza di una base giuridica per la raccolta massiva di dati finalizzata all\u2019addestramento degli algoritmi.<\/li>\n\n\n\n<li><strong>L\u2019utente come \u201c<\/strong>p<strong>roduttore\u201d:<\/strong> viene evidenziato che, specialmente nelle versioni gratuite, l\u2019utente non \u00e8 il prodotto ma il \u201cproduttore non pagato\u201d di valore attraverso i propri dati, che vengono fagocitati dal sistema per migliorarsi.<\/li>\n\n\n\n<li><strong>Strumenti di tutela:<\/strong> per ovviare a questi problemi, OpenAI ha introdotto una modalit\u00e0 \u201cin incognito\u201d che permette di disattivare la cronologia. Quando questa opzione \u00e8 attiva, le conversazioni non vengono utilizzate per addestrare i modelli.<\/li>\n<\/ul>\n\n\n\n<p class=\"has-medium-font-size\"><strong>Affidabilit\u00e0 e limiti tecnici (le \u201callucinazioni\u201d)<\/strong><\/p>\n\n\n\n<p>L\u2019affidabilit\u00e0 dei modelli di linguaggio (LLM) \u00e8 intrinsecamente limitata dalla loro natura tecnologica. Spesso questi sistemi sono definiti come \u201c<strong>pappagalli stocastici<\/strong>\u201d, poich\u00e9 generano testi basandosi su probabilit\u00e0 statistiche senza una reale comprensione semantica.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Allucinazioni:<\/strong> i modelli possono inventare fatti o dati inesistenti, fenomeno noto come \u201callucinazioni\u201d, rendendo le risposte occasionalmente inesatte o inappropriate.<\/li>\n\n\n\n<li><strong>Bias e pregiudizi:<\/strong> poich\u00e9 l\u2019IA apprende da miliardi di pagine web, pu\u00f2 ereditare e propagare pregiudizi ideologici, politici o sociali presenti nei dati di addestramento (ad esempio, stereotipi di genere o discriminazioni).<\/li>\n\n\n\n<li><strong>Lacune scientifiche:<\/strong> ChatGPT mostra spesso pecche in matematica e logica, sebbene strumenti come il plugin Wolfram possano mitigare queste carenze. Inoltre, le conoscenze sono limitate alla data dell\u2019ultimo addestramento, a meno che non si utilizzi la navigazione web in tempo reale.<\/li>\n<\/ul>\n\n\n\n<p class=\"has-medium-font-size\"><strong>Responsabilit\u00e0 e policy d\u2019uso<\/strong><\/p>\n\n\n\n<p>Esistono confini precisi su ci\u00f2 che pu\u00f2 essere chiesto o fatto con un chatbot:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Contenuti proibiti:<\/strong> l\u2019IA non elabora richieste legate a contenuti offensivi, discriminatori, fraudolenti o atti di hacking. \u00c8 inoltre vietato tentare di far rivelare al sistema i propri dati di addestramento tramite tecniche di \u201cjailbreaking\u201d.<\/li>\n\n\n\n<li><strong>Consulenza professionale:<\/strong> ChatGPT non \u00e8 qualificato per fornire consigli medici o legali specifici; in questi casi, il sistema \u00e8 istruito per suggerire sempre il consulto con un professionista umano.<\/li>\n\n\n\n<li><strong>Copyright:<\/strong> i modelli sono progettati per rispettare le leggi sul diritto d\u2019autore e non dovrebbero assistere nella distribuzione di materiali protetti senza autorizzazione. Tuttavia, la tutela legale del \u201cprompt\u201d stesso come opera dell\u2019ingegno \u00e8 ancora oggetto di dibattito giuridico.<\/li>\n<\/ul>\n\n\n\n<p class=\"has-medium-font-size\"><strong>L\u2019uomo al centro: il ruolo del \u201cCo-pilot\u201d<\/strong><\/p>\n\n\n\n<p>Un concetto fondamentale da sottolineare \u00e8 che la responsabilit\u00e0 finale resta umana. Microsoft, non a caso, definisce il suo assistente AI \u201c<strong>Co-pilot<\/strong>\u201d e non \u201cpilot\u201d, sottolineando che l\u2019uomo deve rimanere al centro del processo.<\/p>\n\n\n\n<p>In sintesi, l\u2019efficacia dello strumento dipende dalla capacit\u00e0 dell\u2019utente di formulare prompt neutri e specifici per limitare i bias, di verificare sempre l\u2019output per correggere eventuali allucinazioni e di gestire con prudenza i dati sensibili, sapendo che \u201cgarbage in, garbage out\u201d (se l\u2019input \u00e8 scadente, lo sar\u00e0 anche l\u2019output)<\/p>\n\n\n\n<p>Quindi per uso personale e ancor pi\u00f9 per un uso universitario e aziendale, queste considerazioni si traducono in regole pratiche: evitare dati personali e sensibili nei prompt, anonimizzare dataset e log, usare ambienti controllati e prevedere sempre una fase di verifica umana dell\u2019output.<\/p>\n\n\n\n<p>Un secondo rischio \u00e8 l\u2019affidabilit\u00e0: un output fluido pu\u00f2 mascherare errori. Per questo, in prompt tecnici conviene richiedere esplicitamente ipotesi, limiti e, quando possibile, riferimenti o procedure di validazione. In ambito software, l\u2019analogo \u00e8 la distinzione tra \u2018build\u2019 e \u2018test\u2019: il modello produce, ma la validazione rimane responsabilit\u00e0 dell\u2019utente.<\/p>\n\n\n\n<p>L\u2019utilizzo dell\u2019intelligenza artificiale generativa, in sintesi, comporta importanti riflessioni su <strong>privacy, affidabilit\u00e0 e responsabilit\u00e0<\/strong>. Sebbene questi strumenti offrano opportunit\u00e0 rivoluzionarie, il loro impiego \u00e8 delimitato da vincoli normativi, tecnici ed etici che l\u2019utente deve conoscere per un uso consapevole.<\/p>\n\n\n\n<h1 class=\"wp-block-heading has-dark-gray-color has-very-light-gray-to-cyan-bluish-gray-gradient-background has-text-color has-background has-link-color has-medium-font-size wp-elements-90bbe7c5e6e1341da75ec429b4e0d957\"><strong>10. Prospettive: agenti, automazioni e formulazione del problema<\/strong><\/h1>\n\n\n\n<p>Le prospettive future dell\u2019interazione con l\u2019intelligenza artificiale suggeriscono un\u2019evoluzione che va oltre l\u2019attuale concetto di prompt engineering, spostandosi verso l\u2019impiego di agenti autonomi e una maggiore enfatizzazione sulla formulazione del problema.<\/p>\n\n\n\n<p>Di seguito i punti chiave:<\/p>\n\n\n\n<h3 class=\"wp-block-heading has-medium-font-size\"><strong>Agenti autonomi e automazioni complesse<\/strong><\/h3>\n\n\n\n<p>Secondo alcuni esperti, il prompt engineering come lo conosciamo oggi potrebbe diventare presto obsoleto. Le tendenze indicano che il futuro non si baser\u00e0 solo sulla singola istruzione fornita dall\u2019utente, ma sull\u2019uso di <strong>agenti autonomi<\/strong> capaci di collaborare tra loro in processi dinamici e complessi.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Collaborazione tra macchine:<\/strong> si prospetta uno scenario in cui i chatbot si scambiano richieste e risposte autonomamente per risolvere compiti articolati.<\/li>\n\n\n\n<li><strong>Esempi di strumenti:<\/strong> strumenti come <strong>AgentGPT<\/strong> rappresentano i primi passi verso questa direzione, in cui l\u2019intervento umano \u00e8 ridotto rispetto alla fase di esecuzione.<\/li>\n\n\n\n<li><strong>Assistenti intelligenti:<\/strong> motori come <strong>Perplexity<\/strong> utilizzano gi\u00e0 sistemi (come Copilot) che guidano l\u2019utente a interrogare meglio la macchina, agendo da ponte verso un\u2019automazione pi\u00f9 fluida.<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading has-medium-font-size\"><strong>Dalla soluzione alla formulazione del problema<\/strong><\/h3>\n\n\n\n<p>Con il progredire della tecnologia, l\u2019intelligenza artificiale diventer\u00e0 sempre pi\u00f9 intuitiva nella comprensione del linguaggio naturale, riducendo la necessit\u00e0 di istruzioni tecniche estremamente dettagliate.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>La nuova abilit\u00e0 chiave:<\/strong> l\u2019abilit\u00e0 fondamentale da acquisire non sar\u00e0 pi\u00f9 il \u201csussurrare\u201d comandi specifici, ma la <strong>formulazione del problema<\/strong>.<\/li>\n\n\n\n<li><strong>Il ruolo dell\u2019utente:<\/strong> l\u2019uomo dovr\u00e0 concentrarsi sull\u2019identificare, analizzare e delineare correttamente i problemi; al <strong>problem solving<\/strong> effettivo penser\u00e0 l\u2019IA.<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading has-medium-font-size\"><strong>L\u2019uomo come \u201cCo-pilota\u201d<\/strong><\/h3>\n\n\n\n<p>Nonostante l\u2019aumento dell\u2019automazione, l\u2019essere umano rimarr\u00e0 al centro del processo.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Concetto di Co-pilot:<\/strong> Microsoft, ad esempio, definisce il suo assistente AI come un \u201cCo-pilot\u201d e non un \u201cpilot\u201d, proprio per sottolineare che la responsabilit\u00e0 e la guida finale restano umane.<\/li>\n\n\n\n<li><strong>Evoluzione delle professioni:<\/strong> emergeranno nuove figure come lo <strong>\u201cSpecialista delle interfacce umane\u201d<\/strong>, che richiederanno un mix di hard skill informatiche e soft skill psicologiche e sociali per gestire l&#8217;interazione uomo-macchina in contesti sempre pi\u00f9 integrati, come il settore automotive.<\/li>\n<\/ul>\n\n\n\n<p>In sintesi, si ipotizza che mentre la macchina diventer\u00e0 pi\u00f9 autonoma nell\u2019esecuzione (agenti e automazioni), il valore aggiunto dell\u2019uomo si sposter\u00e0 a monte del processo, nella capacit\u00e0 critica di <strong>definire correttamente le sfide<\/strong> da sottoporre all\u2019intelligenza artificiale.<\/p>\n\n\n\n<p class=\"has-dark-gray-color has-text-color has-link-color wp-elements-f7117eee93fc7be00f4514802a86a916\">Nella possibile evoluzione \u201coltre il prompt engineering\u201d \u00e8 da citare la posizione di von Csefalvay: il futuro \u00abnon si baser\u00e0 sul prompt engineering\u00bb, ma sull\u2019uso di \u00abagenti autonomi\u00bb che collaborano in processi pi\u00f9 dinamici.<\/p>\n\n\n\n<p>Questa tesi \u00e8 coerente con una tendenza dell\u2019ecosistema: strumenti che automatizzano template (estensioni, librerie di prompt), catene di strumenti e workflow agentici (planner, executor, critic). Tuttavia, anche in uno scenario agentico, permane un nucleo di competenza umana: formulare bene il problema e definire criteri di successo.<\/p>\n\n\n\n<p>Da qui la conclusione teorica: il prompt engineering pu\u00f2 ridursi come \u2018mestiere artigianale\u2019 ripetitivo, ma non scompare come abilit\u00e0 concettuale. Cambia il livello di astrazione: dall\u2019istruzione puntuale al design del processo (obiettivi, guardrail, verifiche, metriche), cio\u00e8 una vera ingegneria del dialogo uomo-macchina.<\/p>\n\n\n\n<h1 class=\"wp-block-heading has-dark-gray-color has-very-light-gray-to-cyan-bluish-gray-gradient-background has-text-color has-background has-link-color has-medium-font-size wp-elements-6db4d0f654af12109851d4280b95c2e4\"><strong>Conclusioni<\/strong><\/h1>\n\n\n\n<p>Il prompt engineering \u00e8 una disciplina di progettazione dell\u2019interazione. I concetti di token e contesto ricordano che l\u2019interazione \u00e8 vincolata da risorse computazionali e da limiti di memoria conversazionale. La teoria dei frame mostra che la qualit\u00e0 dell\u2019output dipende anche da scelte linguistiche e pragmatiche.<\/p>\n\n\n\n<p>I metodi G.O.L. e G.O.L.D. trasformano il prompting in una procedura replicabile, utile soprattutto in contesti professionali dove l\u2019obiettivo \u00e8 ridurre variabilit\u00e0 e ambiguit\u00e0. Tecniche come CoT e ToT estendono la capacit\u00e0 del modello su compiti complessi, mentre SO.C.RA.T.E. sposta l\u2019attenzione dall\u2019\u2018istruzione perfetta\u2019 alla raccolta incrementale dei requisiti.<\/p>\n\n\n\n<p>Infine, policy e privacy ricordano che la qualit\u00e0 non \u00e8 solo tecnica: \u00e8 anche responsabilit\u00e0. Il valore dei chatbot emerge pienamente quando il loro uso \u00e8 inserito in un processo: progettazione del prompt, generazione, verifica, revisione, e solo infine integrazione nel contesto reale (studio, lavoro, decisioni).<\/p>\n\n\n\n<h1 class=\"wp-block-heading has-dark-gray-color has-very-light-gray-to-cyan-bluish-gray-gradient-background has-text-color has-background has-link-color has-medium-font-size wp-elements-527cf28a12eded9c57cfacbe4d44184a\"><strong>Bibliografia<\/strong><\/h1>\n\n\n\n<p>Bonanomi, G. (2024). ChatGPT, come stai? Il prompt engineering come nuova skill ibrida. Milano: Ledizioni.<\/p>\n\n\n\n<p>Goffman, E. (1974). Frame Analysis: An Essay on the Organization of Experience. Boston: Northeastern University Press.<\/p>\n\n\n\n<p>Lakoff, G. (2004). Non pensare all\u2019elefante! Come riprendersi il discorso politico. Milano: Chiarelettere.<\/p>\n\n\n\n<p>Wei, J., et al. (2022). Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. arXiv:2201.11903.<\/p>\n\n\n\n<p>Yao, S., et al. (2023). Tree of Thoughts: Deliberate Problem Solving with Large Language Models. arXiv:2305.10601.<\/p>\n\n\n\n<p>von Csefalvay, C. (s.d.). Prompt Engineering: The Art of Yesterday. (citato in Bonanomi, 2024).<\/p>\n\n\n\n<p>Autorit\u00e0 Garante per la protezione dei dati personali (2023). Provvedimento relativo al servizio ChatGPT. (citato in Bonanomi, 2024).<\/p>\n\n\n<ol class=\"wp-block-footnotes\"><li id=\"61fb3632-e505-4eaa-9abd-c63041abd4c2\"><strong>Garbage in, garbage out<\/strong>\u00a0(lett.\u00a0&#8220;spazzatura dentro, spazzatura fuori&#8221;,\u00a0<strong>GIGO<\/strong>\u00a0in forma abbreviata; anche\u00a0<em>rubbish in, rubbish out<\/em>) \u00e8 una frase utilizzata nel campo dell&#8217;informatica\u00a0e della\u00a0tecnologia dell&#8217;informazione e della comunicazione. \u00c8 utilizzata soprattutto per richiamare l&#8217;attenzione sul fatto che i\u00a0computer\u00a0elaborano in modo acritico, pertanto se viene fornito loro un insieme di\u00a0dati\u00a0in entrata palesemente erronei o insensati (<em>garbage in<\/em>) producono un risultato erroneo o insensato (<em>garbage out<\/em>).<a href=\"https:\/\/it.wikipedia.org\/wiki\/Garbage_in,_garbage_out\">https:\/\/it.wikipedia.org\/wiki\/Garbage_in,_garbage_out<\/a> <a href=\"#61fb3632-e505-4eaa-9abd-c63041abd4c2-link\" aria-label=\"Salta al riferimento nella nota a pi\u00e8 di pagina 1\">\u21a9\ufe0e<\/a><\/li><\/ol>","protected":false},"excerpt":{"rendered":"<p>Abstract In questo articolo si cerca di considerare il prompt engineering come nuova skill ibrida, con l\u2019obiettivo di interpretarlo come disciplina di progettazione dell\u2019interazione con modelli linguistici generativi. Viene mostrato come l\u2019efficacia di un chatbot non dipenda solo dal modello, ma anche dalla qualit\u00e0 dell\u2019input: contesto, obiettivi, vincoli e forma dell\u2019output. Vengono discussi i vincoli &hellip; <a href=\"https:\/\/www.fabriziogiancola.eu\/index.php\/2026\/02\/02\/prompt-engineering-progettazione-dellinterazione-con-i-modelli-linguistici-generativi\/\" class=\"more-link\">Leggi tutto<span class=\"screen-reader-text\"> &#8220;PROMPT ENGINEERING: progettazione dell\u2019interazione con i modelli linguistici generativi&#8221;<\/span><\/a><\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"iawp_total_views":1,"footnotes":"[{\"content\":\"<strong>Garbage in, garbage out<\/strong>\u00a0(lett.\u00a0\\\"spazzatura dentro, spazzatura fuori\\\",\u00a0<strong>GIGO<\/strong>\u00a0in forma abbreviata; anche\u00a0<em>rubbish in, rubbish out<\/em>) \u00e8 una frase utilizzata nel campo dell'informatica\u00a0e della\u00a0tecnologia dell'informazione e della comunicazione. \u00c8 utilizzata soprattutto per richiamare l'attenzione sul fatto che i\u00a0computer\u00a0elaborano in modo acritico, pertanto se viene fornito loro un insieme di\u00a0dati\u00a0in entrata palesemente erronei o insensati (<em>garbage in<\/em>) producono un risultato erroneo o insensato (<em>garbage out<\/em>).<a href=\\\"https:\/\/it.wikipedia.org\/wiki\/Garbage_in,_garbage_out\\\">https:\/\/it.wikipedia.org\/wiki\/Garbage_in,_garbage_out<\/a>\",\"id\":\"61fb3632-e505-4eaa-9abd-c63041abd4c2\"}]"},"categories":[114,19,106,112],"tags":[108,124,125,121,117,118,116,119,123,115,120,122,107],"class_list":["post-5467","post","type-post","status-publish","format-standard","hentry","category-ai","category-sistemi-operativi","category-sviluppo","category-vibe-coding","tag-ai","tag-allucinazioni","tag-co-pilot","tag-cot","tag-g-o-l","tag-g-o-l-d","tag-prompt","tag-reverse-prompt-engineering","tag-so-c-ra-t-e","tag-token","tag-tone-of-voice","tag-tot","tag-vibe-coding"],"_links":{"self":[{"href":"https:\/\/www.fabriziogiancola.eu\/index.php\/wp-json\/wp\/v2\/posts\/5467","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.fabriziogiancola.eu\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.fabriziogiancola.eu\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.fabriziogiancola.eu\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.fabriziogiancola.eu\/index.php\/wp-json\/wp\/v2\/comments?post=5467"}],"version-history":[{"count":43,"href":"https:\/\/www.fabriziogiancola.eu\/index.php\/wp-json\/wp\/v2\/posts\/5467\/revisions"}],"predecessor-version":[{"id":5559,"href":"https:\/\/www.fabriziogiancola.eu\/index.php\/wp-json\/wp\/v2\/posts\/5467\/revisions\/5559"}],"wp:attachment":[{"href":"https:\/\/www.fabriziogiancola.eu\/index.php\/wp-json\/wp\/v2\/media?parent=5467"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.fabriziogiancola.eu\/index.php\/wp-json\/wp\/v2\/categories?post=5467"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.fabriziogiancola.eu\/index.php\/wp-json\/wp\/v2\/tags?post=5467"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}