L’articolo di Dario Russo, Prompt engineering: perché saper usare le parole è la vera competenza chiave nell’era dell’AI, ha il merito di mettere a fuoco un fenomeno che rischiamo di leggere in modo troppo sbrigativo. A prima vista sembra un pezzo sull’utilità del prompt engineering; in realtà, più in profondità, è un pezzo sul ritorno della parola come forza operativa. Il merito dell’autore è quello di aver visto con chiarezza quanto la parola sia tornata centrale. Il passo ulteriore consiste, però, nel riconoscere che questa centralità, oggi, non è soltanto umanistica: è anche – se non soprattutto – tecnica.
Il prompt engineering, infatti, è anzitutto una disciplina della formulazione. Il punto non è semplicemente “saper scrivere bene”, ma saper articolare una richiesta in modo sufficientemente rigoroso da renderla eseguibile. Definire il compito, precisare il contesto, assegnare un ruolo, esplicitare vincoli, indicare il formato dell’output, fornire esempi: tutto questo appartiene alla progettazione consapevole del linguaggio. Tale competenza è uscita dall’ambito della riflessione culturale ed è diventata una qualità richiesta nel lavoro. Le aziende, oggi, non cercano soltanto persone che “sappiano usare l’AI”. Cercano, spesso senza nominarla fino in fondo, una facoltà più radicale: la capacità di dare forma linguistica a un problema. Tradurre un obiettivo confuso in una richiesta chiara, trasformare un’intuizione in istruzione, delimitare un compito, esplicitare criteri, rendere discutibile e verificabile ciò che altrimenti resterebbe vago. Non sorprende allora che LinkedIn indichi l’AI literacy tra le competenze in più rapida crescita.
Questa nuova centralità della formulazione dipende dalla natura stessa dei sistemi con cui interagiamo. Se l’AI generativa reagisce in modo così potente alla qualità del linguaggio, è perché la sua modalità di operare è essenzialmente linguistica. I grandi modelli non incontrano anzitutto il mondo delle cose; incontrano il mondo delle sue tracce simboliche, delle sue sedimentazioni testuali, delle relazioni tra parole, frasi, contesti e sequenze. Qui affiora, dunque, il limite dello strumento: la linguisticità dell’AI non va scambiata per comprensione. Walter Quattrociocchi, con Valerio Capraro e Matjaž Perc, lo ha formulato in modo netto: i large language models non sono agenti epistemici nel senso pieno, ma sistemi di stochastic pattern-completion, capaci di completare pattern statistici del linguaggio senza che ciò implichi
credenza, giudizio o un autentico rapporto conoscitivo con il mondo. Il rischio, per il fruitore, è quello dell’Epistemia: una condizione in cui la plausibilità linguistica sostituisce la valutazione epistemica, producendo il sentimento del sapere senza il lavoro del giudizio.
Da questa stessa natura statistica dei modelli discende, inoltre, un altro limite, più sottile ma non meno importante. La parola più esatta sul piano semantico non è sempre la più efficace sul piano operativo: perché un prompt funzioni, essa deve inserirsi in modo plausibile nel contesto linguistico in cui il modello la elabora, tanto sul piano sintagmatico quanto su quello pragmatico. In altri termini, il modello non “preferisce” semplicemente la parola “più giusta” in astratto, ma quella che, nel contesto dato, orienta più efficacemente la continuazione del testo, inscrivendosi in una certa economia probabilistica del senso – la quale dipende anche, a sua volta, da come l’AI è stata
allenata.
Per tali ragioni, il prompt engineering non può essere pensato come una semplice estensione della bella scrittura. Non basta saper usare bene le parole, se con questo intendiamo una qualità espressiva più o meno rara, perché il prompt efficace non è soltanto brillante: è costruito. Esiste ormai, infatti, una pratica studiata del prompting, che distingue tra diversi modi di orientare il modello. Un prompt può essere minimale oppure strutturato; può precisare lo scopo (prompt teleologico), il ruolo (role prompting), il contesto (contextual prompting), i vincoli, il formato dell’output, gli esempi (few-shot prompting) o persino la sequenza dei passaggi. In questa differenza tra richiesta generica e richiesta progettata, il prompt engineering si rivela per ciò che è: una tecnica della formulazione, cioè della costruzione consapevole dell’interazione, che non riguarda soltanto la struttura della richiesta, ma può estendersi potenzialmente anche al piano lessicale.
E qui, alla fine, mi sento di poter svelare un piccolo trucco al lettore. Se il problema è costruire bene l’input, la richiesta, il prompt insomma, nulla impedisce di chiedere all’AI di farlo al posto nostro, o almeno di predisporne una prima versione.
Illustrazione: Laurent de la Hyre, L’allégorie de la Grammaire (ca. 1649), Musée du Louvre
