La conversazione sull’intelligenza artificiale ha smesso di essere un gioco per tutti. Fino a ieri, il campo era dominato dal “prompt engineering”, l’arte quasi artigianale di sussurrare la domanda giusta a un’AI per ottenere un piccolo miracolo. Oggi, quella stagione sembra già preistoria. I giganti della tecnologia, da Shopify a Google, hanno voltato pagina, introducendo un concetto tanto potente quanto inquietante: il Context Engineering.
Non si tratta di un semplice rebranding, ma di una trasformazione profonda che ridefinisce chi detiene il potere nel mondo dell’AI. Il focus si sposta da chi *usa* la tecnologia a chi la *progetta*, mettendo a nudo la vera natura di questi sistemi: non sono entità pensanti, ma motori che reagiscono in base alle informazioni che ricevono. E chi controlla quelle informazioni, di fatto, controlla il risultato finale.
In questo articolo
- Dalla domanda al contesto: cosa significa e perché ci riguarda
- Il giocattolo contro lo strumento “magico”: la differenza la fa il contesto
- Ingegneria del contesto: una disciplina per pochi che concentra il potere
- L’impatto sul lavoro: “Prima l’AI, poi forse l’umano”
- Se il contesto è controllo, il rischio di manipolazione è reale
- Conclusione: non più un gioco, ma un’architettura del potere
Dalla domanda al contesto: cosa significa e perché ci riguarda
Cerchiamo di essere chiari. Il prompt engineering era l’abilità di formulare una richiesta in modo efficace. Se volevi l’immagine di un astronauta a cavallo, dovevi essere bravo a descriverla. Era un’interazione diretta.
Il Context Engineering è un’altra cosa. È l’ingegneria di costruire l’intero universo informativo in cui l’intelligenza artificiale opera, prima ancora che tu ponga la tua domanda. Non si tratta più solo della tua richiesta, ma di tutto ciò che il modello “sa” e “vede” in quel preciso istante. È un sistema complesso che mette insieme:
- Istruzioni di sistema: Le direttive di base, la “personalità” imposta al modello (“Sei un assistente neutrale”, “Usa un tono amichevole”, ecc.).
- La tua richiesta specifica: Il caro, vecchio prompt.
- Memoria a breve termine: La cronologia della conversazione attuale.
- Memoria a lungo termine: Informazioni che il sistema ha imparato su di te, le tue abitudini, i tuoi progetti.
- Informazioni recuperate (RAG): Dati freschi presi da fonti esterne (documenti, database, internet) per dare risposte aggiornate.
- Strumenti disponibili: Le azioni concrete che l’AI può compiere, come “prenota un volo” o “invia un’email”.
In parole povere, si è passati dal dare un ordine a costruire l’intera stanza in cui l’ordine viene eseguito. E chi arreda la stanza, sceglie cosa far vedere e cosa nascondere.
Il giocattolo contro lo strumento “magico”: la differenza la fa il contesto
Perché questo cambio di prospettiva è così decisivo? Immagina di inoltrare a un assistente AI un’email che dice: “Ciao, sei libero per un caffè domani?”.
L’agente AI con un contesto povero si limita a leggere quella frase. La sua risposta sarà meccanica e poco utile: “Certo, a che ora le andrebbe bene?”. Non ha risolto il problema, l’ha solo rimbalzato.
L’agente AI basato sul Context Engineering, invece, agisce in un modo che sembra quasi magico. Prima di formulare una risposta, il suo sistema ha già raccolto una serie di informazioni fondamentali:
- Ha consultato il tuo calendario (scoprendo che domani hai la giornata piena).
- Ha analizzato le conversazioni passate con quel contatto (per adottare il tono giusto).
- Ha verificato chi è quella persona (magari un cliente importante).
- Ha a disposizione lo strumento per inviare direttamente un invito sul calendario.
Di conseguenza, la sua risposta sarà infinitamente più utile: “Ciao Marco! Domani purtroppo sono bloccato tutto il giorno. Giovedì mattina però avrei un buco, ti può andare? Intanto ti ho mandato un invito, fammi sapere.”
La magia, quindi, non sta in un modello AI più evoluto, ma nell’ingegneria che gli ha fornito il giusto contesto. Oggi, un agente AI che fallisce non lo fa perché è “stupido”, ma perché gli è stato fornito un contesto inadeguato.
Ingegneria del contesto: una disciplina per pochi che concentra il potere
Ed ecco il punto che dovrebbe preoccuparci. Mentre il prompt engineering era una competenza quasi “democratica”, accessibile a chiunque avesse un po’ di curiosità e logica, il context engineering è per sua natura elitario. Non è un’abilità per l’utente comune.
Richiede competenze avanzate di architettura software, pensiero sistemico e una conoscenza profonda delle dinamiche dei modelli AI. È un lavoro per team specializzati, per le grandi aziende che possono permettersi di costruire e mantenere questi complessi “ecosistemi di contesto”. Questo sposta inevitabilmente il potere e il valore dalle mani di molti a quelle di pochissimi.
Stiamo assistendo alla nascita di una nuova professione, quella dell’ “architetto del contesto”, una figura che avrà un’influenza enorme nel plasmare il modo in cui le AI vedono il mondo e, di riflesso, interagiscono con noi. Si sta creando una dipendenza strutturale da queste infrastrutture centralizzate, le uniche capaci di offrire quel contesto “ricco” che trasforma un’AI da semplice giocattolo a strumento indispensabile.
L’impatto sul lavoro: “Prima l’AI, poi forse l’umano”
Le conseguenze sul mondo del lavoro sono già tangibili. La filosofia del context engineering è il motore dietro decisioni come quella, molto discussa, di Tobi Lutke, CEO di Shopify. In una direttiva interna, Lutke ha imposto una nuova regola: prima di chiedere di assumere una persona, i manager devono dimostrare che quel compito non può essere svolto dall’intelligenza artificiale.
In altre parole, l’AI diventa lo standard, l’efficienza di base. L’assunzione di un essere umano diventa l’eccezione, da giustificare. Questo è possibile solo perché aziende come Shopify stanno costruendo un “contesto” operativo talmente ricco da rendere le loro AI sempre più competenti. Il messaggio è tagliente: la sopravvivenza professionale non dipenderà più solo dalle competenze individuali, ma dalla capacità di integrarsi o farsi superare da sistemi AI ben ingegnerizzati.
Se il contesto è controllo, il rischio di manipolazione è reale
Chi controlla il contesto, controlla la risposta. Questo è il principio fondamentale, e apre la porta a forme di manipolazione tanto potenti quanto difficili da percepire. Se un agente AI viene progettato per attingere solo a certe fonti di notizie, o per dare più peso a determinate informazioni, le sue risposte saranno inevitabilmente orientate, per quanto possano sembrare oggettive.
Le implicazioni sono enormi:
- Manipolazione politica: Un assistente digitale potrebbe presentare le informazioni su un candidato politico in modo sistematicamente favorevole o sfavorevole, semplicemente attraverso la cura del contesto informativo da cui pesca. Potrebbe, ad esempio, minimizzare gli scandali o gonfiare i successi, influenzando l’opinione pubblica in modo quasi impercettibile.
- Manipolazione commerciale: Un’AI per gli acquisti potrebbe guidarti verso certi prodotti non perché sono i migliori, ma perché il suo contesto è stato ingegnerizzato per dare priorità a marchi specifici o a quelli con margini di guadagno più alti per il venditore.
- Censura e propaganda: In contesti autoritari, il context engineering può essere usato per creare AI che evitano argomenti scomodi o che forniscono solo la versione ufficiale dei fatti, costruendo una bolla di propaganda personalizzata ed estremamente pervasiva.
Il rischio, come evidenziato da alcuni esperti, è che si possa “avvelenare” il contesto, cioè inserire dati falsi o istruzioni dannose nella memoria a lungo termine di un agente, portandolo a compiere azioni negative. Questo tipo di attacco è molto più insidioso di un semplice prompt ingannevole, perché agisce a livello dell’infrastruttura stessa dell’AI.
Conclusione: non più un gioco, ma un’architettura del potere
In definitiva, è ora di smettere di guardare all’intelligenza artificiale con l’ingenuità riservata ai nuovi gadget tecnologici. Il passaggio dal prompt engineering al context engineering segna l’ingresso in una fase matura e industriale, dove la posta in gioco è il controllo dell’informazione e, di conseguenza, della percezione della realtà.
Questo ci obbliga a porci domande cruciali. Chi progetta questi contesti? Con quali finalità? Con quale livello di trasparenza? Se non iniziamo a discutere seriamente di questi temi, rischiamo di svegliarci in un mondo in cui le risposte che otteniamo dalle macchine non sono pensate per servire noi, ma per servire gli interessi di chi ha costruito la prigione invisibile in cui quelle macchine sono costrette a pensare. Una prigione le cui mura, purtroppo, non le abbiamo disegnate noi.