
“Era, ora. Intelligenza aumentata, lavoro vivo” è un libro di Cristiano Boscato, uscito nel 2025 per post editori.
Si tratta di un libro sull’intelligenza artificiale, ma in realtà soprattutto sul senso del lavoro e delle nuove organizzazioni nell’era dell’intelligenza artificiale, che è una cosa decisamente diversa.
Come vedremo, direi che è soprattutto un libro sul linguaggio e sul senso delle parole che, in un’epoca in cui la caratteristica di sapere generare testi sembra non appartenere più solo agli esseri umani, diventa particolarmente rilevante
Cristiano Boscato accompagna il lettore attraverso un percorso logico e progressivo per ridefinire il concetto di lavoro nell’era digitale, con un linguaggio poetico e narrativo completamente diverso da una una disamina tecnologica in senso stretto.
Il percorso inizia sicuramente anche con quest’ultimo tipo di elemento, seppure già con un linguaggio diverso dalle solite trattazioni, con un’analisi dell’Impatto dell’AI e dello stato attuale della rivoluzione tecnologica, chiarendo in che modo l’Intelligenza Artificiale con il concetto di inferenza stia ottimizzando e persino sostituendo molte attività. Già in questa fase emerge però la sua tesi fondamentale: la crescente perfezione delle macchine rende, per contrasto, l’essenza umana l’elemento di differenziazione e il vero valore insostituibile.

Non sono le macchine a spersonalizzare la nostra esistenza, siamo noi ad aver cominciato questo percorso che poi la tecnologia può accelerare in modo pazzesco.
Fin da questa fase iniziale viene introdotta LIA, l’intelligenza artificiale che ci accompagnerà in tutta la lettura come un’alleata, come la definisce Cristiano “non una macchina ma un’ecologia linguistica, una soglia pensante”.
Successivamente, il focus si sposta sulla trasformazione del lavoro da mezzo a senso.
I capitoli centrali invitano a un profondo cambio di paradigma: il lavoro deve superare la sua funzione di mero strumento per il profitto e diventare un luogo di significato profondo, inteso quasi come un contributo valoriale al mondo.
Si tratta di un passaggio troppo complesso per riassumerlo in così poche righe, ma leggendo il libro si può capire che non è una componente totalmente utopica quanto un percorso che già oggi si può interpretare e intraprendere.
Un punto molto interessante rispetto a questa possibilità di rendere il tutto concreto è la descrizione di una serie di agenti AI specializzati (LUMIA, SYN, ARA, OMI, KAI, VERA, TESSA) che servono proprio ad analizzare il linguaggio, a estrarre significati e ad altri compiti che vi lascio scoprire attraverso la lettura.
Vengono suggerite anche tutta una serie di pratiche che queste organizzazioni del futuro faranno per gestire le proprie giornate.
Questa sezione pone le basi per la successiva analisi organizzativa.
Il cuore della trattazione, che tocca un tema che mi sta particolarmente a cuore, riguarda l’organizzazione ecosistemica e l’intelligenza collettiva. Boscato affronta i modelli organizzativi del futuro, superando la rigidità gerarchica. L’azienda in questo nuovo paradigma è descritta come un “organismo pensante” vivo, dove l’intelligenza collettiva è cruciale e il successo dipende dalla fluidità delle connessioni interne (se siete lettori di questo blog da un po’ di tempo probabilmente vi ricorderà qualcosa) tra i team (le “sinapsi aziendali”).
Anche qui il tema del linguaggio e del modo in cui vengono definite linguisticamente le cose è preponderante, e si allaccia un po’ anche con quello che io avevo detto in passato, in modo meno narrativo, sul fatto che ormai i job title classici non rispondono più alla realtà delle cose e anzi le limitano.
A questo si lega in modo stretto il tema della cultura e la leadership viva. Qui l’autore definisce i requisiti per una cultura interna basata sulla fiducia, sull’autonomia e su valori chiari, anziché sul solo controllo. La figura del leader si evolve: non più controllore di processi, ma facilitatore di senso e scopo, essenziale per coltivare l’innovazione e la resilienza umana.
Anche qui, la discussione risuona molto bene con quanto penso sulla leadership tecnologica e sui ruoli di CIO e CDO, dove ho evidenziato come questi leader non possano più limitarsi alla tecnica. Devono, invece, diventare i principali agenti di cambiamento culturale, facilitando l’adozione e l’alfabetizzazione tra i team.
Se vi ricordate cosa ho scritto in “La Tecnologia Vola, ma l’Alfabetizzazione Striscia“, sapete che esiste un drammatico gap di conoscenza all’interno delle organizzazioni, oltre che nella società in genere. Questo divario è la prova che l’AI, se adottata senza una profonda cultura e competenza interna, rischia di trasformarsi in una mera commodity o, peggio, in un motore per i “modelli disumanizzati” di cui l’autore ci mette in guardia.
Ci sono poi moltissimi altri spunti ma, alla fine, l’illusione di una semplificazione apparente offerta dall’AI viene smontata, dimostrando che l’algoritmo non elimina la necessità di una profonda competenza umana. L’AI semplifica il fare, ma richiede una forte intelligenza aumentata per definire la direzione, valutare l’output e gestire l’etica. Come ho scritto di recente, solo un’azienda con una solida cultura del senso e della qualità può sfruttare l’AI per potenziarsi, anziché limitarsi a produrre risultati mediocri.
Devo dire che soprattutto all’inizio della lettura ho avuto il dubbio che non fosse un libro per tutti: il linguaggio è molto particolare ed evocativo, ricco di richiami semiotici, molto lontano dalla tipica narrazione di questi temi e proiettato in una dimensione che sta a cavallo tra qualcosa che è già reale e una visione del futuro che in alcuni momenti potrebbe sembrare quasi utopica.
Sapete però, d’altra parte che io sono molto convinto che oggi sia necessario affrontare questi temi tecnologici da più punti di vista, anche quelli più filosofici e profondi, perché stiamo parlando di trasformazioni che toccano l’essenza di chi siamo come esseri umani e il nostro modo di vivere, da gestire con consapevolezza e senza paura.
Come dice Sebastiano Zanolli nella postfazione del libro, Cristiano Boscato in queste pagine prende sul serio una domanda che spesso ignoriamo: “che cosa succede quando le parole smettono di dire qualcosa di vero?“.
In alcune aziende il ruolo del CIO è stato rivisto nell’acronimo di chief Language Officer: alla fine dietro le AI ci sono dei modelli linguistici e in questo Lia non è un algoritmo in senso di oracolo ma una presenza linguistica aumentata che aiuta a lavorare sul capitale semantico dell’organizzazione.
Alla luce di tutto questo, allora il testo diventa particolarmente rilevante per chi guida le aziende, poiché sposta il focus da una visione del lavoro come puro mezzo a una visione come luogo di senso, un “gesto d’amore verso il mondo”, essenziale per la sostenibilità e l’innovazione. È molto utile a chi lavora con la tecnologia per riflettere su come la lingua abbia un significato che non è solo quello creato dagli algoritmi statistici. È uno spunto per tutti coloro che hanno a che fare con organizzazioni più o meno complesse e che si stanno interrogando sul senso del proprio lavoro.
Non è un linguaggio semplicissimo, ma credo che sia una lettura diversa su un tema su cui si parla fin troppo.
È un paradosso tipico della nostra epoca: abbiamo in tasca uno strumento più potente del computer che ha portato l’uomo sulla Luna, eppure lo usiamo con la disattenzione di chi sfoglia un giornale che ha trovato in una sala d’attesa (se non sta guardando lo smartphone, ovviamente
). La tecnologia corre a velocità supersonica, ma l’alfabetizzazione di base su come usarla, proteggendosi, procede a passo d’uomo.
Questo divario non è un problema teorico; è probabilmente il rischio operativo e personale più grande del nostro tempo.
Cosa significa oggi “alfabetizzazione digitale“? Non è saper scaricare un’app, ma saper dubitare.
La maggior parte degli utenti vive una pericolosa illusione di competenza. Le interfacce sono intuitive, il che ci illude di aver capito la complessità sottostante. Aggiungo inoltre che c’è un falso mito sul fatto che i nativi digitali (presto nativi AI?) siano competenti di tecnologia ma la realtà è che sono abituati ad usarla, e c’è un’enorme differenza fra le due cose, come ho già detto altre volte.
Non è solo negligenza ma anche un effetto della velocità e della pervasività dei cambiamenti.
Parlando dell’uso dei social, nel 2013 avevo scritto che l’avvento di un sempre maggior numero di persone aveva comportato per gli early adopters un abbassamento della qualità delle conversazioni e di parte dei contenuti (vi ricorda niente?), ma aveva rappresentato molto più da vicino la realtà sociale del paese, nel bene e nel male (e con le dovute cautele nell’analisi).
In quello stesso post avevo scritto che per molti di questi “nuovi” utenti non c’è stato il tempo di imparare a usare i mezzi e comprenderli, il target più adulto infatti non è entrato a pieno nei meccanismi per ragioni culturali, mentre i più giovani si sono trovati catapultati quasi automaticamente dentro questo mondo multicanale e social, dove la pervasività dei device tecnologici è radicata e sfuma sempre più la percezione del confine fra ciò che è tangibile e ciò che è digitale (sottolineatura: siamo nel 2013 qui).
Per certi versi insomma la diffusione della tecnologia è andata più veloce della sua comprensione già da parecchio tempo.
Questa ingenuità però ha degli impatti estremamente rilevanti sulla sicurezza personale:
I primi due punti sono storia di vecchia data, ma il punto è proprio questo: se non abbiamo ancora imparato a difenderci dalle versioni più tradizionali di queste minacce, come possiamo pensare di stare tranquilli ora che l’evoluzione tecnologica può rendere queste trappole molto più sofisticate?
Il terzo punto merita un discorso a parte: anche lui viene da lontano, sono anni che legislatori (e attivisti) e big tech si battono tra loro sulla correttezza e legittimità di termini e condizioni dei tool, oltre che in generale sul concetto delle regole del gioco (basti pensare a questi esempi di un anno fa).
Anche qui però l’evoluzione tecnologica corre molto più, e si sprecano le casistiche di feature che usate in modo superficiale possono essere molto pericolose, come la posizione su Instagram (per ora almeno disattivata di default), la clonazione sempre più facile di volti e voci (ci torniamo poi tra poco) e, in generale, la scarsa comprensione di che cosa si cede agli strumenti quando li usiamo (sotto un video recente sul tema, qui si parla di AI, ma ne trovate molti altri in rete).
Su questo scenario si innesta poi l’avvento dirompente dell’intelligenza artificiale generativa come strumento democratico in mano a tutti.
Oggi non basta più riconoscere una password rubata o un’email scritta male. Siamo entrati nell’era degli AI Slop (qualcuno la chiama slopocene): grandi quantità di contenuti audio, video o persino documenti creati in modo iper-realistico grazie all’Intelligenza Artificiale di bassa qualità concettuale ma lucrativi per chi li produce. Per non parlare della disinformazione mirata e dei Deepfake sempre più sofisticati.
Da questo punto di vista non è molto rassicurante commentare il lancio di Sora 2 di OpenAi, che mischia un tool (molto potente) di creazione video attraverso un’apposita app con un concetto di social media popolato di cloni. A ruota è arrivata poi Meta, con il suo Vibes. E questo solo per citare i tool più democratici e (presto) accessibili a grandi numeri di persone.
La cosa che lascia un grande punto di domanda è che degli strumenti così sofisticati sono stati presentati dai loro stessi ideatori non per creare contenuti professionali ma per generare meme in stile TikTok, per di più pieni di deepfake di persone reali, Sam Altman in testa a tutti.
Tra le caratteristiche di Sora 2 infatti c’è la funzione Cameo, che permette di inserire la propria immagine all’interno delle scene, basta caricare una registrazione video e audio e una volta verificati, si può apparire in qualsiasi scenario generato, da soli o insieme agli amici, e autorizzare altri a usare il proprio volto nei loro video.
Qualcosa che avevamo già visto in passato ma che qui raggiunge livelli pazzeschi e, soprattutto, molto democratici in termini di accesso non appena sarà distribuita a un pubblico più vasto, perché non serve davvero alcuna competenza spinta.
E’ chiaro che una nuova tecnologia, specie nei primi giorni, viene messa alla prova e giocando si fanno le cose più assurde, ma quando sono i suoi creatori a indicare questa via, non dovremmo essere un po’ preoccupati?
Sì dovremmo.
Il deepfake è l’arma definitiva per l’ingegneria sociale, e la scarsa alfabetizzazione degli utenti in merito lo rende incredibilmente efficace.
In questo scenario, l’alfabetizzazione non è più una competenza operativa (saper usare), ma una competenza difensiva (saper distinguere e dubitare). La mancanza di alfabetizzazione critica ci rende vulnerabili a ciò che non possiamo più distinguere solo con l’occhio umano e ci espone a truffe e altri rischi.
Ma c’è un aspetto ancora peggiore, secondo me, di quello della sicurezza e ha a che fare con un altro tema critico, quello dell’analfabetismo funzionale e del conseguente rischio di polarizzazione.
La mente umana “by design” cerca di difendersi dal carico cognitivo attraverso scorciatoie, euristiche, bias che quindi non sono tutti negativi per definizione e che esistono da sempre nel nostro modo di pensare.
Tuttavia i dati del rapporto Education at glance 2025 OCSE sono allarmanti e quelli del nostro paese lo sono di più dato che dicono che il 37% dei 25-64enni italiani hanno competenze di comprensione e scrittura di testi (literacy) a livello elementare o inferiore (livello 1 su una scala da zero a 5, di fatto il cosiddetto ‘analfabetismo funzionale’), contro la media ocse del 27% (che già non è rassicurante).
Gli stessi laureati, accreditati in media di 19 punti in più rispetto ai diplomati, sono però lontani anche loro dalla media OCSE che è maggiore e si situa a 34 punti.

Ora, on top a questo problema il fatto che tutto sia messo in dubbio per definizione porta al rafforzamento delle proprie bolle digitali. Se vedo qualcosa che non mi piace nemmeno delle evidenze visive mi potranno far cambiare idea perché dirò che è un fake e sicuramente troverò (o nei casi peggiori creerò) qualche artefatto che mi dimostra il contrario.
E questo avviene in un contesto in cui, secondo il Global Risk 2025 Report del World Economic Forum, la polarizzazione sociale resta una delle più grandi minacce dei prossimi due anni, insieme alla disinformazione (lo era già nell’edizione 2024).
Se fin qui poi abbiamo parlato di individui nel loro privato, dobbiamo pensare che queste persone vanno a votare (e qui lascio la parola a questo video) e vanno a lavorare nelle proprie organizzazioni.
Parliamo di questo ultimo punto.
L’errore umano è, statisticamente, il principale vettore di successo per gli attacchi informatici. Un’azienda può investire milioni in firewall e sistemi di protezione, ma se un singolo dipendente, per distrazione e scarsa alfabetizzazione, clicca su un link infetto, l’intero investimento è compromesso.
Il dipendente non formato è l’anello debole della catena che collega la sicurezza personale a quella corporate. Il rischio si amplifica in ambienti Bring Your Own Device (BYOD), dove la negligenza casalinga di un dispositivo personale diventa una porta aperta sulla rete aziendale.
Ma la minaccia si evolve, e con l’avanzare della tecnologia, l’alfabetizzazione deve evolvere con essa. Pensiamo di nuovo ai deep fake e ai loro rischi:
Non è così raro sentire persone con ruoli di responsabilità pensare di creare i propri cloni e di darli in gestione ai propri collaboratori.
La scarsa alfabetizzazione ha poi un costo che va oltre la sicurezza: l’azienda non riesce a sfruttare a pieno la sua stessa innovazione.
Quando i dipendenti hanno una conoscenza superficiale degli strumenti che usano (dai software di gestione dei dati ai servizi cloud computing), ne utilizzano solo una frazione del potenziale. Si aggrappano ai vecchi metodi, anche con nuovi strumenti in mano. E’ nella natura umana ed è la ragione per cui l’adozione è uno degli elementi chiave di una vera trasformazione digitale.
In questo, non aiuta di certo la semplificazione che oggi va per la maggiore quando si parla di AI ma non solo, quella che fa apparire tutte le nuove innovazioni tecnologiche semplici da adottare e, come si dice in gergo tecnico, plug and play ossia pronte all’uso purché si attacchi la spina.
Confusi anche da falsi miti, ci dimentichiamo che la tecnologia risolve i problemi se viene usata per affrontare le giuste questioni e se c’è l’organizzazione interna e le condizioni adatte a supporto. Viceversa, più sono sofisticati gli strumenti e più essi tireranno fuori in modo impietoso i limiti sui dati disponibili, sulle difficoltà operative, sull’inadeguatezza delle infrastrutture tecnologiche preesistenti e sulla mancanza di obiettivi chiari.
Sempre parlando di cose non certo nuove, sappiamo che l’organizzazione interna si muove a un ritmo totalmente diverso da quello della tecnologia, ne ho parlato largamente per il lusso ma vale per tutti i settori, e non solo nella marketing technology.

Inoltre, non è certo una cosa di oggi il crescente gap tra capacità di utilizzo e potenziale, solo che questa distanza non fa che aumentare.

Ciò porta a processi inefficienti, un basso ritorno sull’investimento tecnologico e una difficoltà strutturale nell’innovazione. L’azienda possiede un razzo, ma i dipendenti sono addestrati solo a usare l’accendino. Senza una solida data literacy, ad esempio, i dati raccolti restano inutilizzati, trasformando i sistemi avanzati in semplici depositi anziché in motori di crescita.
In questo il management, quello vero, ha un ruolo fondamentale. E lo hanno le persone che hanno conoscenza e comprensione della tecnologia.
Il costo della non-alfabetizzazione è insostenibile, lo abbiamo visto.
Per questo, all’inizio dell’anno mi ero dato come augurio di non subire passivamente le novità e prenderci il tempo per capire davvero dove stiamo andando grazie (anche) alla tecnologia, con uno sguardo che va oltre il breve periodo e con la consapevolezza che gli strumenti diventano buoni o cattivi in base a come li usiamo (e se prendono direzioni strane, beh, bisogna alzare la mano).
Se abbiamo avuto la fortuna, la bravura, la pazienza (e probabilmente tutte e tre insieme) di apprendere delle conoscenze strutturate attorno alle nuove tecnologie credo che sia sempre più un nostro dovere usare questa nostra competenza a beneficio della collettività, non solo quando siamo sul posto di lavoro ma anche in senso più lato (è un po’ il senso del mio blog e degli altri miei canali Telegram, Whatsapp e Substack).
In questo sicuramente ci possono aiutare delle letture di contenuti che sono si focalizzati sulla tecnologia ma che sono portati avanti da degli autori e degli esperti che hanno un background di tipo più filosofico o che comunque ci aiutano a guardare questa realtà non solo dal punto di vista del tecnicismo ma del loro significato più profondo.

Ho citato tante volte Neil Postman che del suo contributo “Five things we need to know about technological change” ha detto in maniera chiara che il cambiamento tecnologico è un cambiamento di tipo ecologico e non incrementale: “Un nuovo medium non aggiunge qualcosa; cambia tutto. Nel 1500, dopo l’invenzione della stampa, non esisteva più la vecchia Europa con in più la stampa. C’era un’Europa diversa”. Il cambiamento è un fatto culturale.
In questo cambiamento, come ha spiegato benissimo Luciano Floridi nel video qui sotto si mescolano una percezione sempre più vaga del mondo analogico “schermato” dal digitale e un peso sempre più forte sul piano strategico del controllo dell’hardware. Ascoltatelo tutto perché alla fine si parla anche del ruolo della politica e della nostra responsabilità individuale, che è molto in tema.
Non sono titolato poi a parlare più in generale del sistema educativo e del ruolo delle istituzioni ma credo che debba valere lo stesso approccio, chi ha le competenze deve essere messo in condizione di poter aiutare chi ne ha meno, qui con un approccio strutturale perché non si può fare affidamento solo sulla buona volontà.
Anche le aziende non possono più affidarsi solo alla tecnologia per proteggersi; devono investire nella consapevolezza umana. Non solo per evitare di perdere, ma anche per massimizzare ciò che possono guadagnare dalle nuove frontiere tecnologiche.
La sicurezza informatica non è un problema tecnico, ma un problema di formazione continua. È necessario un cambio di mentalità, che trasformi ogni dipendente – e ogni utente – nell’ultimo, più critico firewall.
In questo, la leadership tecnologica deve essere illuminata (e non solo repressiva o di freno), deve avere una forte capacità comunicativa e deve essere molto relazionale: mentre protegge deve aiutare a crescere, e sapere fare entrambe con un dialogo forte con tutto il resto del top management (sì, i manager servono ancora nell’era della AI).
La sfida per il futuro non è creare una tecnologia migliore, ma creare utenti digitali più consapevoli e critici.
English version is available on Medium.com

“Il teatro delle macchine pensanti. 10 falsi miti sull’intelligenza artificiale e come superarli“ è un libro uscito a settembre 2025, scritto da Stefano Epifani, già autore di “Perché la Sostenibilità non può fare a meno della trasformazione digitale”.
In questa nuova pubblicazione Stefano affronta il tema dell’intelligenza artificiale (IA) smontando dieci falsi miti largamente diffusi nel dibattito pubblico, anche grazie ai media e alla pressione comunicative delle big tech.
L’uso della metafora del “teatro” è stato scelto per indicare come l’IA sia rappresentata oggi come un attore dotato di volontà e coscienza, mentre in realtà è una tecnologia costruita da esseri umani che riflette idee, valori e contraddizioni umane.

Ogni capitolo parte da una storia quotidiana per introdurre un falso mito sull’IA, che viene analizzato e de-costruito, invitando il lettore a una maggiore consapevolezza sull’uso e l’impatto dell’intelligenza artificiale nella società contemporanea.
I falsi miti sono suddivisi in categorie di natura cognitiva, operativa, simbolica, sistemica e regolativa:
Falsi miti cognitivi
1. L’Intelligenza Artificiale è intelligente come un essere umano
2. L’Intelligenza Artificiale funziona come il cervello umano
3. L’Intelligenza Artificiale ha le allucinazioni (ossia produce contenuti apparentemente verosimili ma falsi, senza coscienza)
Falsi miti operativi
4. L’Intelligenza Artificiale è infallibile (bias da autorità algoritmica)
5. L’Intelligenza Artificiale è imparziale (non esistono dati neutri, la neutralità è una costruzione)
Falsi miti simbolici
6. L’Intelligenza Artificiale ha intenzioni proprie e si ribella (proiezione culturale e psicologica di paure)
Falsi miti sistemici
7. L’Intelligenza Artificiale è una tecnologia come le altre (l’IA modifica modalità di conoscenza e decisione)
8. L’Intelligenza Artificiale ci ruberà il lavoro (solo una parte del lavoro è automatizzabile, il vero problema è la nostra capacità di ridisegnare i ruoli)
9. L’Intelligenza Artificiale è insostenibile per l’ambiente (necessario valutare l’impatto reale rispetto all’alternativa senza IA)
Falsi miti regolativi
10. Serve un’etica per l’Intelligenza Artificiale (paradosso di attribuire giudizi morali a una tecnologia priva di coscienza)
Chiaramente in una recensione non c’è lo spazio e non ha senso riassumere tutto ma mi fa piacere sottolineare che questo testo fa parte di quel tipo di contenuti che affrontano dei temi spesso vissuti come tecnici da punto di vista diverso, focalizzato sull’impatto sociale e cognitivo delle nuove tecnologie.
La conoscenza elimina sia la paura sia la fiducia cieca nelle soluzioni tecnologiche ed è l’unico modo di affrontare le sfide che abbiamo davanti.
In particolare, emerge con forza la sottolineatura della responsabilità umana nel plasmare i processi di innovazione; la questione fondamentale non è se le macchine diventeranno coscienti, ma se saremo capaci di governarle consapevolmente per realizzare la società che desideriamo.
Troppo spesso l’algoritmo diventa quasi un soggetto vivente, che ci libera dalla responsabilità (ma anche dalla libertà) di decidere con la nostra testa.
La lettura è coinvolgente e consigliata anche per chi non è specialista di tecnologia (che comunque farebbe bene a leggerlo) ed ho molto apprezzato la capacità dell’autore di promuovere spirito critico e cittadinanza tecnologica in chi legge, quei concetti di responsabilità di chi è competente e di educazione civica digitale di cui ho parlato a più riprese nei mesi scorsi.
In definitiva, “Il teatro delle macchine pensanti” è un libro consigliato a chiunque desideri capire davvero l’intelligenza artificiale e il suo impatto sulla società, superando superficiali narrazioni mediatiche e orientandosi verso una consapevolezza più matura e responsabile di un cambiamento velocissimo in cui siamo immersi tutti, senza nascondere questioni reali come discriminazioni algoritmiche, concentrazione di potere, mancanza di trasparenza e esclusione sociale.

Il lusso sta attraversando un momento storico difficile, è innegabile, anche se chi conosce l’industria dall’interno sa bene che la fase attuale è il culmine di molti fattori già all’opera da tempo e che erano stati mascherati e mitigati da una crescita comunque sempre molto importante, almeno nei numeri più visibili.
Di certo, quello che colpisce oggi leggendo ricerche come quella di Altagamma e BCG presentata in giugno è la necessità di affrontare dei temi che sembrano all’apparenza dei basici del settore.

Ma in questo momento che The Business of Fashion definisce come “The Great Fashion Reset”, che cosa può fare la tecnologia per recuperare il trust perduto dal mondo del lusso, dove perfino i top customer sempre secondo Altagamma e BCG sono meno confidenti (tra le altre cose) nella qualità del prodotto, dopo tutti gli scandali che hanno colpito il settore?
Cosa può fare per far fronte alla perdita di circa 50 milioni di consumatori tra il 2022 e il 2024, con una contrazione prevista di un altro 2-5% quest’anno (tutti dati BAIN)?
È interessante dire subito una cosa, specie per i non addetti ai lavori: nel mondo del lusso c’è una quantità di tecnologia molto più elevata di quanto si possa presupporre dall’esterno, solo che non è mai stata un elemento comunicato, con rare eccezioni di iniziative più di connotazione “wow”, favorite più dalla disponibilità economica che da reali benefici di business (interni o per i clienti).
Già oggi molte aziende hanno delle tecnologie strutturate per il ciclo di vita dei contenuti con soluzioni di DAM (Digital asset management), tool di interazione con i clienti finali (clienteling), piattaforma di vendita e di gestione dei contenuti online, analytics e molto altro.
Al di là del fatto che resti tutto dietro le quinte, che potrebbe anche non essere un tema in senso assoluto perché la tecnologia migliore è quella che è talmente fluida che non si vede, il problema è che spesso questi ingenti investimenti non vengono messi pienamente a terra o sono duplicati in modo inefficiente. Perché? Perché non si lavora in ottica di ecosistema e tutto è troppo frammentato.
Non è un problema solo della moda, sia chiaro.
I grandi gruppi del settore però hanno una complessità intrinseca molto elevata, data dalle dimensioni, dalla presenza di molte sedi in giro per il mondo, da professionalità molto diverse che vanno dalle persone più creative a chi si occupa di operation o che segue il prodotto da un punto di vista più di ingegneria gestionale, passando per funzioni Digital, di vendita, eccetera eccetera.
Una vera filiera interna, insomma, che non sempre riesce a mantenere i propri ingranaggi perfettamente oliati anche perché negli ultimi anni è aumentata anche molto la velocità rispetto a qualche tempo addietro.
Questo scenario non cambia, anzi si complica, quando mettiamo in campo nuove tecnologie dirompenti come l’intelligenza artificiale che sembra poter aiutare molto il settore, ma che si deve confrontare con tutte le tematiche organizzative e culturali di cui sopra e di cui invece ho parlato già altre volte su queste pagine (sia in generale che rispetto al temi come il vibe coding).
Di sicuro, quindi non è una soluzione vincente quella di mettere un capo unico a seguire questi temi se la sua area di azione rimane molto separata del resto dell’azienda.
Caio è l’acronimo, decisamente un po’ infelice in Italia, di Chief Ai Officer, ossia il nuovo C level dedicato all’intelligenza artificiale.
Anche nella moda di fascia alta, leggendo Vogue Business, iniziano i primi avvistamenti. Ma è un ruolo che ha senso?
Chiaramente, bisogna andare oltre i puri job title e guardare un po’ più approfonditamente all’interno degli incarichi, tuttavia io ho già espresso in passato qualche dubbio su questo genere di ruoli molto settati sulla specifica tecnologia del momento, mentre sono più favorevole ad un’evoluzione costante di quelli già esistenti orientati alla tecnologia e alla trasformazione.
Perché nutro dei dubbi poi così forti nel caso della moda e del lusso? Beh, perché in questo ambito più che altri vale quello che Fabio Lalli ha ben evidenziato a sua volta qui rispetto all’adozione di quello che comunque è un cambiamento di grande portata: il fattore umano rispetto a quello tecnologico.
Come dico sempre, la tecnologia va calata nel contesto e per degli obiettivi, non deve essere vista come fine a se stessa, e in organizzazioni complesse e con dei processi spesso poco codificati, per artigianalità intrinseca o invece per limiti di altro genere, questo tipo di strumenti devono essere inquadrati in una conoscenza profonda del contesto, con un taglio molto relazionale e attento al giusto coinvolgimento.

Ben venga poi anche la competenza tecnica verticale (necessaria, anche con figure a supporto), ma serve molto più la capacità di unire i puntini (anche qui, non una novità), anche perché molto può fare anche in tutto il processo a monte: non ci dimentichiamo che l’80% dei problemi di CX derivano da chi non è a diretto contatto con il pubblico (Forrester).
Non è appunto solo un tema dell’industry, ma in questi tempi così complessi per il settore sbagliare l’approccio e l’organizzazione a supporto è un errore che non ci si può permettere su un tema così pervasivo e veloce.
Il modo dei contenuti è un esempio emblematico di come ci possa essere molta tecnologia dietro le quinte, ma come questa non sia semplice da orchestrare.
Le immagini, i video, i testi, i render 3d e qualsiasi altro formato digitale oggi hanno un costo di produzione e di gestione ma sono anche e soprattutto un valore aziendale che va gestito e preservato.
Gli asset digitali quindi vanno governati per essere disponibili ogni volta che servono e per essere pronti facilmente per ogni nuovo uso che emerge. E’ sicuramente un processo tecnologico ma è prima di tutto un aspetto culturale e organizzativo: tutti devono poter usare al momento giusto l’asset giusto ed evitare duplicazioni e sprechi.

Le tecnologie oggi per farlo ci sono e sono piuttosto mature: sistemi di DAM (Digital Asset Management), di PIM (product information management), CMS (content management system) evoluti, tutti potenzialmente aumentati dall’intelligenza artificiale.
Eppure, anche in contesti molto maturi sul piano tecnologico, mi è capitato di vedere degli usi limitati di queste tecnologie (che non sono gratuite) perché non c’è adozione, non c’è conoscenza, ci sono visioni a silos di questi asset che invece sono, appunto, un patrimonio aziendale.
Tutto questo avviene in un momento in cui la gestione del contenuto è estremamente veloce, a volte anche troppo.
Esistono studi sul cervello che dimostrano che i media digitali attivano lo stesso percorso di ricompensa di droghe e alcol”, tra cui quelli di Anna Lembke, autrice di “L’Era della Dopamina”.

A questo ritmo “dopaminico” si sono allineate anche le grandi aziende di moda, con la produzione di intrattenimento veloce da scorrere sul telefono, il cui impatto si quantifica con parametri come l’Earned Media Value. È incerto, tuttavia, quanto queste interazioni digitali momentanee si traducono in vendite.
Ma, al di là della vendita last click, tutto questo fa bene alla moda, e al lusso in particolare? Che cosa viene realmente percepito e ricordato?
I prodotti di fascia alta hanno del contenuto intrinseco di lavorazione ed ideazione che richiederebbe tempo, approfondimento, valorizzazione. E’ dunque il momento di cambiare e non rincorrere un flusso che è diventato fugace al punto che lo storico e critico musicale Ted Gioia dice che l’arte e l’intrattenimento stanno venendo soppiantati dalla mera distrazione
La capacità di produrre contenuti più lunghi e strategici richiede sicuramente un lavoro di squadra molto articolato, ma oggi può essere realisticamente sostenuto dall’intelligenza artificiale nella declinazione di molti più contenuti, anche testuali, (che devono comunque partire dalla brand e non dalla macchina) e di molte più variazioni del singolo asset che sono un elemento fondamentale per inseguire quella personalizzazione che abbiamo visto essere poco percepita come realmente presente anche dei top customer.
La tecnologia non risolve i problemi da sola, è al servizio di un’organizzazione che ha una strategia e che deve saper sfruttare oggi anche alcune sfide che possono diventare opportunità per creare finalmente una filiera integrata sia dentro che fuori l’azienda. Il che ci porta al tema della sostenibilità.
Quando si parla di sostenibilità, è difficile trovare un’azienda che non stia dicendo di investire in questo territorio e sicuramente gli sforzi ci sono ma, ancora una volta, sono sono resi particolarmente difficili dalla necessità di un lavoro molto corale che poco si riesce a sposare con il modus operandi veloce e piuttosto poco orchestrato delle organizzazioni.

C’è però un tema tecnologico ma anche normativo che potrebbe diventare un catalizzatore di diverse problematiche, ed è il Digital Product Passport.
Lo spazio di un post breve come questo è insufficiente per tutte le implicazioni e i ragionamenti, e per una buona guida alla comprensione dell’argomento segnalo questo link.
In estrema sintesi rispetto al nostro discorso:
1️La spinta normativa è una pressione aggiuntiva su un settore già affaticato, ma dall’altro lato è anche un’occasione per affrontare tutta una serie di temi sui dati di prodotto e sul racconto della filiera che sono sempre rimasti in secondo piano, limitando tra le altre cose la possibilità narrativa dei brand
2️Vedere questi oggetti non solo come delle tecnologie di compliance, ma anche e soprattutto come degli strumenti di business potrebbe aiutare molto a creare dei processi di identificazione del cliente e di after sales evoluto che oggi sono piuttosto deficitari e che sono stati segnalati come tali anche delle ricerche citate all’inizio
3️A mio avviso, l’unico modo di rendere sostenibile lo sviluppo a scala di questo tipo di logica è un lavoro finalmente orchestrato tra tutti i brand e tutti gli attori della filiera per creare degli standard e delle sinergie e non avere ogni realtà che è costretta a inventarsi un modo diverso di gestire questo processo (cosa totalmente non fattibile)
4️In queste dinamiche di filiera estesa, potrebbe entrare anche una gestione più strutturata del second hand, del rental e di altre strategie per combattere l’eccesso di stock e gli sprechi che oggi caratterizzano in maniera pesante i conti delle maison (e anche dell’ambiente).
Come al solito, qui la tecnologia è un pezzo di un lavoro culturale respiro molto più ampio, tuttavia ho già avuto modo di vedere in prima persona come questo sforzo spinto dalla normativa sia una grande occasione di fare fronte comune e di affrontare limiti tecnici e di processo che altrimenti resterebbero nell’ombra per tanti altri anni.
Questa occasione potrebbe essere uno stimolo per andare oltre ai contenuti troppo veloci e superficiali e tornare a dare il giusto valore alle cose all’interno dei passport, dove chiaramente la tecnologia è solo il supporto: servono idee, coraggio, lavoro di squadra.
L’opportunità è tosta ma fondamentale anche per la filiera a monte dei brand: se gli asset vengono digitalizzati già da chi lavora la materia prima ed entrano in un flusso governato e con degli standard tutti potranno beneficiare di questa evoluzione, invece di sostenere da soli uno sforzo immane. E lo stesso vale per le informazioni di prodotto.
La tecnologia risolve i problemi se viene usata per affrontare le giuste questioni e se c’è l’organizzazione interna e le condizioni adatte a supporto. Viceversa, più sono sofisticati gli strumenti e più essi tireranno fuori in modo impietoso i limiti sui dati disponibili, sulle difficoltà operative, sull’inadeguatezza delle infrastrutture tecnologiche preesistenti e sulla mancanza di obiettivi chiari.
Questo deve essere chiaro, non ci sono scuse, specie in un settore che deve ripensare davvero molte cose, e non certo solo tecnologiche.
Inoltre bisogna avere chiara la differenza tra digitalizzazione e trasformazione digitale.
La digitalizzazione riguarda la conversione di processi analogici in digitali. Il focus è sulla tecnologia.
La trasformazione digitale implica un cambiamento più profondo, che coinvolge modelli di business, cultura organizzativa e strategie operative. Il focus è sul valore.
Anche rispetto all’automazione, l’approccio fa molto: “Umanesimo Digitale” e “Macchinismo Digitale” sono prospettive diverse nella visione della tecnologia.
Il «Macchinista Digitale» vede il valore primario della tecnologia nel tempo risparmiato, sia per l’organizzazione che per l’individuo, che deriva dalla continua riduzione delle attività umane.
Un “Umanista Digitale” crede che la tecnologia diventi virtuosa quando permette alle persone di fare cose che non si credevano possibili o quando ridefinisce il modo in cui gli obiettivi delle persone possono essere raggiunti.
E’ abbastanza chiaro che in un settore ad alta intensità di relazioni e di doti prettamente umane l’automazione pura non è la chiave, nemmeno in un’era di riduzione di costi, ma questo non vuol dire che AI e altre tecnologie emergenti non possano portare grandi benefici, che magari esplorerò ancora più in dettaglio in un prossimo post.

I miei take away per questa volta, senza la pretesa di aver potuto toccare la totalità dei temi, sono gli stessi che lasciato alla platea dell’Executive Talk di Linea Pelle lo scorso 24 settembre:
1) Non bisogna mai partire dalla tecnologia ma da problemi e opportunità, facendosi sempre le giuste domande, senza paura di sperimentare ma senza buttarci sull’ultima novità solo per esserci.
2) Bisogna pensare come una filiera integrata e come un ecosistema, sia quando siamo dentro la nostra organizzazione sia quando guardiamo a tutti gli attori che lavorano con noi.
3) Dobbiamo essere bravi a trasformare le sfide in opportunità: la pressione delle normative sulla tracciabilità, l’intelligenza artificiale e tutto ciò che verrà sono impegnativi da fronteggiare ma ci offrono l’occasione di toccare processi che finora sembravano immutabili o troppo difficili da rivedere.
Ascolta una sintesi audio dell’articolo

Il termine Vibe Coding è ormai arrivato all’onore delle cronache nelle pagine dei media generalisti, mentre i continui annunci delle big tech sull’intelligenza artificiale generativa ci raccontano di come ormai qualsiasi creazione di un artefatto software, grafico, video etc. è a portata di un prompt.
Dal punto di vista tecnologico e delle possibilità è un fatto innegabile. Ma è davvero tutto così lineare e, soprattutto, privo di frizioni?
In realtà, in questa evoluzione convivono due forze in apparente contrasto: la semplicità con cui certe attività possono essere svolte grazie alla tecnologia e la complessità che cresce di giorno in giorno, ed è un tema che parte da lontano.
Non a caso ne avevo parlato nel primo capitolo del mio libro Marketing Technologist, e per questo parto proprio da un estratto di quelle pagine (la stesura è stata fatta nella seconda parte del 2019) per il mio ragionamento.
Prendo come caso paradigmatico e di lunga data la costruzione delle pagine online, che dalla fine degli anni Novanta costituiscono un nucleo fondamentale della presenza digitale di un brand e di un individuo.
Gestire un sito web è stato fin dal primo giorno qualcosa di democratico in termini astratti, perché nulla vietava a chiunque di poter registrare un dominio e costruirci sopra un sito per procurarsi una visibilità che ai blocchi di partenza era teoricamente equivalente a quella di un grande brand, al netto poi della notorietà e degli investimenti pubblicitari.
Per esperienza diretta posso dire però senza alcun dubbio che all’inizio di questo millennio pubblicare qualsiasi cosa su Internet richiedeva capacità tecniche di scrittura in HTML, dimestichezza con un programma FTP per caricare i materiali fisicamente di un server, capacità di ritoccare le immagini o almeno di manipolarle in termini di peso e formato perché fossero adatte ad un uso sul web, per non poi parlare del lavoro di codifica complesso da fare sui (rari) video visibili online. Per fare una pagina web all’inizio degli anni 2000 bisognava compilarla in l’HTML (HyperText Markup Language), a mano o con l’aiuto parziale di un rudimentale programma editor, salvarla nel proprio computer con un nome ben preciso e poi caricarla in uno spazio web (server) attraverso un programmino che sfrutta un altro protocollo web chiamato FTP (File Transfer Protocol) e che all’epoca non era grafico e richiedeva la digitazione di specifici comandi testuali. La stessa cosa si doveva fare con le immagini, dopo averle portare ad un peso in KB e un formato idoneo alla pubblicazione sul web, pubblicazione che avveniva poi grazie all’inserimento di specifici comandi (tag) da posizionare nella pagina web nel punto in cui si voleva farla comparire.

Già poco tempo dopo però le piattaforme di CMS (content management system), specie quelle di blogging, hanno iniziato a permettere di usare editor online semplificati che non richiedevano all’utilizzatore di sapere scrivere codice, agendo su di un programma di composizione guidata per inserire e formattare i testi e posizionare le immagini. Di certo questo ha rappresentato un passo utile a favorire la pubblicazione di contenuti da parte di un maggior numero di persone private e dotate di capacità di scrittura piuttosto che di programmazione (anche in questo caso però il primo setup e molte altre operazioni erano ancora per un pubblico in grado di manipolare la tecnologia con una certa disinvoltura)
Al giro di boa del primo decennio degli anni 2000 i diversi social media hanno poi sdoganato in modo definitivo e quasi universale la capacità di pubblicare contenuto per chiunque di fatto sappia scrivere su di una tastiera, dimenticando in larga parte qualsiasi altro tema di scelta del dominio web, di valutazione di quale sia l’hosting migliore e molte altre tecnicalità varie a favore dell’apertura di un profilo Twitter, di una pagina Facebook, di un canale YouTube con pochi click e la scelta di un nickname.
Un passaggio che ha di nuovo messo il singolo privato ad un livello di competizione quasi paritaria con un grande brand, riducendo praticamente a zero le differenze in termini di costi di setup ed infrastrutturali necessari all’avviamento del progetto.
Ancora, ben presto la diffusione del mobile web ha reso possibile fare tutto questo in mobilità e in tempo reale, senza dover accedere a un pc o scaricare immagini da una fotocamera, già diventata digitale nel frattempo, per poterle pubblicare.
Infine Instagram ha insegnato a chiunque a ritoccare le proprie foto in punta di dita con filtri e composizioni, mentre poco prima YouTube aveva reso possibile pubblicare online i propri video con grande facilità e una compatibilità praticamente universale di visualizzazione, anche da un cellulare (nel frattempo l’avvento dei backup in cloud hanno reso accessibili in modo trasparente i file attraverso vari dispositivi in modo automatico e praticamente in tempo reale).
Mi piace farvi notare che molta parte di quanto avviene dietro le quinte di tutte queste attività è ancora lo stesso lavoro di creazione di pagine, di html, di caricamento sui server etc., solo che tutti questi compiti si svolgono dietro delle semplici maschere grafiche (e ora dei prompt) che lanciano i processi, rendendo tutto molto più facile e democratico.
Queste accessibilità facilitata ha toccato prima l’esperienza dell’individuo come privato ma poi con un po’ di ritardo è andata contagiando anche le organizzazioni aziendali, dipartimenti di marketing e comunicazioni inclusi; onestamente, chi non abbia iniziato a fare attività lavorative che comprendessero un uso diretto della tecnologia all’inizio dell’attuale millennio difficilmente può razionalizzare quanto sia stata veloce, trasformativa ed entusiasmante questa crescita vista da una prospettiva aziendale.
E quanto essa si sia complicata nel rapporto tra Own, Earned e Paid media, di cui ho parlato già diversi anni fa qui, rispetto a un semplice media monodirezionale. E’ il tema della semplicità apparente, su cui torneremo dopo.

Tra la pubblicazione dei contenuti del libro e lo scenario di oggi si inserisce anche l’avvento delle prime piattaforme di quello che oggi possiamo definire sviluppo low code, che sono sono apparse già attorno al 2011 e che si è iniziato a definirle tali proprio una decina di anni fa, nel 2014.
Quindi, già prima dell’ultima esplosione di AI in grado di scrivere codice, c’erano (e ci sono ancora) milioni di non sviluppatori (“Citizen Developer”) che con strumenti come Airtable, Webflow, Power Automate e Zapier hanno iniziato a costruire le proprie esperienze e operazioni su misura, senza avere un background formale da developer.
Tanto che già nel 2024 secondo quanto riporta Scott Brinker sulla base del rapporto 2024 Work Automation & AI Index di Workato (un’azienda leader nel settore dell’automazione aziendale) il 44% di tutti i processi automatizzati sono realizzati al di fuori dell’IT!

Ora in poco più di tre anni l’accelerazione è diventata esponenziale. E con essa tutta la complessità ad essa associata.
Con un breve salto temporale, eccoci nell’era del vibe coding: Andrej Karpathy, esperto di intelligenza artificiale e co-fondatore di OpenAI, ha scritto su X nel gennaio 2023 che «il linguaggio di programmazione più in voga del momento è l’inglese» e ha poi lanciato il termine Vibe Coding sempre su X a febbraio.

Ne ha parlato molto bene anche Alberto Mattiello nel suo podcast “Scenari”, e quindi vi consiglio molto l’ascolto per farvi un’idea più dettagliata del tema.
Che cosa succede però quando chiunque può sviluppare del software senza alcuna nozione tecnica?
Un buon punto di vista viene dal mondo della marketing technology, che essendo uno degli ambiti tecnologici più vicini da sempre a chi non è un professionista del software offre una vista su quanto succederà anche negli altri ambiti.
Nell’evento Martech Day 2025 di Scott Brinker e Frank Riemersma è stato diffuso anche il nuovo State of Martech 2025, un report molto corposo che si può scaricare liberamente e di cui vi consiglio molto la lettura diretta (trovate invece una mia sintesi qui).
Tra le altre cose, si parla della “Long Tail“ in questo tipo di software, una componente storica e ancora rilevante del panorama Martech, e che consiste in:

La novità di questa edizione è proprio il concetto di “Hypertail” da vedere come un’espansione che va oltre il tradizionale panorama commerciale della Long Tail, perché non si limita al software venduto sul mercato, ma include il software personalizzato (custom-built software).
Questo concetto aggiunge quindi diversi attori allo scenario:
A causa di questa accelerazione e democratizzazione della creazione di software tramite AI, la Hypertail consisterà “non di milioni ma miliardi di programmi software personalizzati”, probabilmente “trilioni”, molti dei quali “lampeggiano dentro e fuori dall’esistenza su richiesta”.
Tutto bene? Sì e no.
Questa esplosione di “app” cambierà il modo in cui pensiamo al software e all’economia che lo circonda: poiché così tanti programmi software saranno così facili da creare su richiesta, il software diventerà più usa e getta. Invece del doloroso slogan di mantenere vecchie app e automazioni personalizzate – il problema del “debito tecnologico” che ha afflitto le aziende per decenni – sarà spesso più facile ricreare i programmi da zero.
La grande esplosione di app accelererà e un effetto negativo saranno molte più app e automazioni “zombie” che fluttuano in giro. Programmi software che vengono creati e poi dimenticati, che vagano nell’ombra, mangiano risorse e infestano le organizzazioni con effetti misteriosi di volta in volta (Scott Brinker).
E dobbiamo ricordarci che la tecnologia deve creare valore. Non complessità fine a se stessa. Non sprechi.
In questi giorni ha fatto molto parlare un report del MIT Nanda (Networked Agents and Decentralized AI) dal titolo STATE OF AI IN BUSINESS 2025 in cui si dice che il 95% dei progetti non genera valore reale. Il campione è basato su oltre 300 iniziative AI, 52 interviste aziendali e 153 questionari raccolti in conferenze di settore.
Ma allora ci stiamo prendendo tutti in giro con la rivoluzione AI?
No! Ma bisogna essere consapevoli dei tempi necessari al cambiamento, avere un corretto approccio all’innovazione (con i suoi fallimenti) e guardare oltre la semplificazione della narrativa corrente.
Sicuramente, senza togliere nulla allo straordinario potenziale che abbiamo davanti, siamo mediamente troppo ottimisti circa i tempi e l’attuale maturità della rivoluzione dell’intelligenza artificiale, soprattutto sulla sua velocità di adozione nella realtà per portare dei benefici misurabili.
Già questo pezzo dell’Harvard Business Review era netto in tal senso a causa di 3 bias cognitivi con cui giudichiamo male il cambiamento tecnologico:
Come dice bene Alexio Cassani su Wired, “il rischio più concreto è quello della “saturazione superficiale”: aziende che adottano decine di tool AI senza una strategia coerente, team che passano da una piattaforma all’altra senza mai approfondire realmente le potenzialità di ciascuna, investimenti che si disperdono in soluzioni effimere. Proprio come nel fast fashion, la velocità può diventare nemica della qualità. Soluzioni sviluppate in fretta, senza considerare aspetti cruciali come la privacy dei dati, l’interpretabilità degli algoritmi (cioè che sia comprensibile perché prendono una decisione rispetto ad un’altra) o l’impatto sui flussi di lavoro esistenti, rischiano di creare più problemi di quanti ne risolvano”.
Anche la gestione dei costi non sarà affatto banale. A fine 2024 avevo citato un nuovo modello di “service-as-a-software”, un gioco di parole intelligente sull’acronimo SaaS. Invece di pagare per postazioni o utilizzo di elaborazione/archiviazione, dove spetta all’acquirente utilizzare con successo quegli strumenti per ottenere i risultati desiderati, viene offerta una nuova generazione di agenti AI su base costo-per-risultato.

Già con le soluzioni a consumo del software as a service fare previsioni di spesa è difficilissimo e i vendor hanno complicato in modo drammatico il numero di parametri e criteri che vanno a formare il prezzo.
Se già è dura calcolare correttamente queste metriche e gestire i relativi costi variabili non posso immaginare che sia più facile farlo con gli obiettivi e gli outcomes, anche se almeno questo introduce uno sforzo psicologico di lavorare in modo chiaro e definito su che cosa vogliamo ottenere.
Da un lato quindi bisognerà lavorare all’interno delle organizzazioni dall’altra bisognerà discutere, concordare e, a volte, anche imporre dei meccanismi ai vendor per rendere l’adozione sostenibile economicamente (affatto facile oggi, per essere franchi).
Già nel 2024 avevo parlato in modo chiaro di un nuovo stile di governance, dove al puro controllo si affianca la capacità di informare, supportare, co-creare con un vasto numero di altri soggetti.

Di recente mi sono spinto anche oltre, sottolineando come le organizzazioni hanno dei bisogni sempre crescenti di cambiare, in meglio, il modo in cui si lavora e tra questi bisogni c’è quello di migliorare le connessioni interne, non di diminuirle a causa della tecnologia, che invece può essere un grande alleato per raggiungere tale obiettivo.
Oggi serviranno progressivamente meno competenze strettamente tecniche ma quelle logiche unite alle competenze di dominio specifico saranno sempre più importanti.
Anche su questo mi viene in soccorso Scott Brinker con il suo blog, da cui ho tratto l’immagine sotto.

La chiave di lettura del grafico sta nel termine “esperti nel loro settore”. Un buon professionista può creare flussi di lavoro programmatici eccellenti con uno strumento di automazione no code o AI, innanzitutto perché comprende profondamente il contesto di ciò che sta costruendo. Non è solo che sono abili nel progettare un flusso logico del programma. Sanno cosa significano effettivamente questi fattori scatenanti e quelle azioni. Sanno quale risultato stanno cercando di ottenere. Sanno cosa può andare storto nel processo aziendale.
Gli strumenti senza codice consentono alle persone con una profonda esperienza nel dominio – e capacità di logica e pensiero programmatico perfettamente precise, il cui unico “difetto” è che non hanno imparato a programmare in Python – di trasformare in modo rapido ed efficiente le loro conoscenze in migliori operazioni digitali e esperienze.
Gli strumenti senza codice possono anche consentire alle persone che non hanno idea di cosa stanno facendo di creare flussi di lavoro e automazioni davvero scadenti? Purtroppo sì. Ma non è molto diverso dal caos che può seminare uno sviluppatore di software che non sa cosa sta facendo. Non confondere sapere come programmare con sapere cosa stai facendo.
Il più grande vantaggio dell’era senza codice è la separazione tra queste due cose.
Tutto ciò richiede anche grande attenzione al linguaggio e alla creazione di una Digital Fluency che diventa sempre più importante, anche a livello di board, con delle professionalità ibride che potrebbero assumere diversi nomi ma alla fine devono riuscire a fare lavorare meglio tutti assieme, sfruttando in questo la tecnologia come un’opportunità e non un vincolo.
Un altro elemento cruciale è il pensiero critico. Come dice Matteo Flora al minuto 11:20 del video sotto, oggi chi forma le nuove generazioni deve essere (ancora di più di oggi) un mentore, un allenatore del modo di ragionare, in modo che ciò che viene generato dagli strumenti generativi sia rivisto in modo costruttivo e il dialogo con le macchine non diventi solo un meccanismo di generazione automatica di risposte.
Conoscere bene le logiche delle cose, ci mette al riparo anche dal rischio di una dipendenza operativa dalla AI (diversa è quella emotiva), per cui diventiamo talmente abituati a ricevere risposte da non essere più in grado di gestire nessuna attività in caso di problemi di infrastruttura di queste tecnologie. Una cosa è automatizzare per velocizzare, una cosa è non sapere più fare le cose (specie per i “nativi AI”).
C’è infine un’ultima dote: la pazienza. La rivoluzione dell’AI non avverrà dall’oggi al domani. Non posso che essere d’accordo con Fabio Lalli che lo spiega molto bene, qui in sintesi su Telegram e poi per esteso nel post Linkedin collegato. Deve esistere ancora nella nostra testa il lungo periodo, anche nell’era dei rilasci continui degli LLM.
English version is available on Medium.com
Ascolta l’overview audio creata con la AI
C’è un tema che per me rappresenta un momento ricorrente di riflessione, che tocco in realtà molto spesso nei vari contenuti che scrivo ma che periodicamente riprendo in mano per affrontare in un modo più approfondito e ricco: chi è oggi un leader tecnologico.
Si parte da un po’ di tempo fa: nel 2013 scrissi un post dal titolo “il peggior nemico del digital cmo? Spesso l’organizzazione aziendale (almeno per com’è fatta ora)” e a fine 2017, con 4 anni di storia in più, ne avevo fatta una versione aggiornata.
Un’ulteriore versione risale al 2021, poi sono passati altri anni, e quindi nel 2024 è arrivato un momento giusto per aggiornare di nuovo questo pensiero,
Per varie ragioni e anche grazie ad una serie di eventi dove sono stato e ad altri stimoli di questo periodo mi stavo però interrogando più che mai sui ruoli che hanno la leadership su innovazione, tecnologia e trasformazione e ho pensato di tornare sul punto.
Nella puntata del 2021 avevo ribadito che l’organizzazione interna era la madre di tutti i problemi di governance tecnologia e dei ruoli di trasformazione: è ancora così?
Al tempo avevo citato IDC che riteneva che entro il 2022 il 30% delle imprese avrebbe combinato i ruoli del CIO, CDO, CTO e dei responsabili dell’innovazione in un unico nuovo ruolo di leadership tecnologica che riporti all’amministratore delegato.

Come è andata? Beh, la cultura del digital, dei team, dell’abbattimento dei silos inizia per fortuna ad essere massicciamente presente ma spesso non è ancora matura.
In caso di dubbi, vi basterà interrogare le grandi organizzazioni a proposito delle linee di riporto di chi porti nel nome un attributo “digital” e il numero e la distribuzione di queste persone nell’organigramma per capire che in pochi casi troverete una situazione uguale all’altra.
Nel frattempo, come avevo già raccontato nel post del 2024, quello che una volta era lo shadow IT è uscito alla luce del giorno attraverso tutto il mondo dei citizen developer e del low code prima e dell’AI e degli agenti dopo, nel martech ma non solo.

Segnare quindi un perimetro netto nel definire chi gestisce la tecnologia in azienda quindi sembra ormai poco fattibile ma questo equivale automaticamente a decretare che i leader tecnologici passano in secondo piano?
Beh, questo è un tema un po’ diverso.
Rispetto allo shadow IT dei tempi in cui ho iniziato a lavorare in grandi aziende all’inizio degli anni 2000 c’è una grande differenza: non parliamo più di app stand alone, di integrazioni tecniche minime, di temi di sicurezza tutto sommato limitati.

Non a caso, fin dai giorni della pandemia il debito tecnico è diventato un elemento molto pesante nella strategia di trasformazione e non lo è di meno ora che siamo nell’era della AI e (prossimamente) degli agenti.
E questo debito non si risolve senza una leadership tecnologica forte e ingaggiata con tutte le altre funzioni aziendali.
Ma questa posizione bisogna sapersela guadagnare!
Siamo quindi arrivati al punto, l’organizzazione resta importante ma la chiave oggi è data dalle capacità di leadership dei CIO e dei leader tecnologici in genere, a partire da quelle relazionali.
Già nel 2024 avevo parlato in modo chiaro di un nuovo stile di governance, dove al puro controllo si affianca la capacità di informare, supportare, co-creare con un vasto numero di altri soggetti.

Di recente mi sono spinto anche oltre, sottolineando come le organizzazioni hanno dei bisogni sempre crescenti di cambiare, in meglio, il modo in cui si lavora e tra questi bisogni c’è quello di migliorare le connessioni interne, non di diminuirle a causa della tecnologia, che invece può essere un grande alleato per raggiungere tale obiettivo.
Come ho già scritto altre volte, non sono un patito dei job title, tanto più oggi dove la loro tassonomia è quasi sempre superata dalla realtà dei fatti, ma comunque la si voglia chiamare penso che una figura che combini competenze tecnologiche, comprensione delle dinamiche organizzative e abilità comunicative sia cruciale per un’adozione efficace della tecnologia applicata al migliore funzionamento dell’organizzazione.
Perché non un CIO, o il suo omologo comunque lo si voglia etichettare?
Poche figure aziendali hanno obiettivamente relazioni con tutta l’organizzazione interna e con un numero elevato di partner e fornitori che supportano l’organizzazione su domini di conoscenza diversi.
inoltre, io come dicevo qualche tempo fa a proposito di Chief Metaverse e Chief AI Officer, creare mondi separati per le tecnologie emergenti non ha senso ma serve tanto dialogo e tanto lavoro di coinvolgimento e connessione, anche perché quando si fa innovazione molto spesso ci si dimentica la domanda più semplice, ossia il perché stiamo facendo una certa scelta, da cui deriva poi in modo sano il come si applicano le cose, evitando il mero copy and paste e l’effetto “bambino nel negozio dei dolci” dove si vorrebbe prendere tutto quello che si vede sullo scaffale della tecnologia.
Infine, è tipicamente responsabilità di queste professioni garantire che le tecnologie di base che fanno girare le aziende siano solide, moderne e sicure: un compito fondamentale ma che senza la giusta capacità di narrazione e valorizzazione risulta poco “sexy” e principalmente una seccatura di cui ci si accorge solo quando qualcosa si rompe.
Questa migliore relazione passa però per una dote che oggi tende ad essere poco diffusa in questi professionisti (ovviamente generalizzo), ossia la Digital Fluency di cui ho parlato già qui e che è una combinazione di:

Questo insieme aiuta chi guida la trasformazione anche rispetto ad un tema delicato: la creazione di reale valore, in un’epoca di entusiasmi e disillusioni più veloci che mai.
Partiamo da una domanda a bruciapelo: siamo troppo ottimisti circa la rivoluzione dell’intelligenza artificiale e la sua velocità di adozione nella realtà per portare dei benefici misurabili?
Se leggiamo questo pezzo dell’Harvard Business Review la risposta è nettamente sì per entrambi i punti, e questo a causa di 3 bias cognitivi con cui giudichiamo male il cambiamento tecnologico:
Sicuramente, come ho scritto anche io qui, l’IA aziendale non è plug-and-play. Si scontra con sistemi obsoleti, ostacoli normativi, culture aziendali avverse al rischio, carenza di talenti nell’IA e colli di bottiglia di vario genere. Le barriere non sono tecniche, sono sistemiche.
Basti pensare al tema ancora più trasversale dei dati: leggendo un articolo di Martech.org che parte da tre diverse ricerche uscite tra il 2024 e il 2025, tutti i C Level di ogni tipo sono alle prese con delle difficoltà con questo ambito!
Ho iniziato il 2025 dicendo che bisogna saper cavalcare l’hype (non subirlo, ma questo è un tema annoso, dal 2012 e prima) e avere profonda cognizione di causa di come funzionano davvero le cose, sia per quanto riguarda i nostri processi più tradizionali (per capire i punti di miglioramento e i punti di forza che invece non ci dobbiamo perdere) sia per padroneggiare la tecnologia e trarre, appunto, valore vero reale (specie nel medio periodo, ma senza dimenticare il breve).

Non subire vuol dire anche essere propositivi: i leader tecnologici che oggi attendono di ricevere solo un “demand” creano per loro stessi un posizionamento da follower e, peggio ancora, da “centro di costo”.
Troppe volte chi guida i dipartimenti tecnologici è troppo concentrato sul risolvere i problemi dell’oggi e sul contenere le spese, e non dico che sia facile alzare la testa da queste problematiche ma il risultato finale è sempre una spirale in negativo:
D’altra parte, avere delle funzioni di Chief Digital Officer o simili che non hanno il controllo, come budget e come competenza, dei sistemi transazionali e delle fondamenta porta difficilmente al successo, perché come ho detto più sopra è impossibile oggi tenere “staccati” i tool digitali (ammesso che questa dicitura abbia un qualche senso) dal resto della tecnologia.
I CDO hanno finora avuto, in media, una maggiore sensibilità ai temi commerciali e di brand rispetto ai CIO ma chi mi conosce sa che bene che sono piuttosto allergico alla divisione tra “tecnologia” e “il business”, in primis perché chi fa tecnologia non è una onlus e in seconda battuta perché fatico oggi a immaginare un qualsiasi tipo di azienda dove la tecnologia sia solo una commodity.
Magari è invisibile, ma dietro c’è, eccome.

Torniamo quindi sempre allo stesso punto: chiamatelo CIO, CDO o come volete ma è ora che chi governa la tecnologia cambi pelle:
Difficile? Beh, banale non è, ma come dico spesso se fosse tutto facile e automatico non servirebbe il lavoro di chi si occupa di queste cose!
Siamo in un momento straordinario dell’evoluzione tecnologica, tra Ai e molto altro, ma anche complesso, un’opportunità straordinaria ma che richiede un grande salto di qualità, non solo tecnica.
Nel tempo ho allargato la mia sfera di azione oltre il campo della Marketing Technology, ma seguo sempre con grande interesse il settore, soprattutto perché penso che sia uno dei casi più maturi di un trend che riguarda qualsiasi altro ambito, ossia la contaminazione professionale tra tecnologia e uno specifico dominio di competenza aziendale.
Lo avevo evidenziato già cinque anni fa con il mio libro sulla professione del Marketing Technologist e ne ho scritto tante altre volte, per cui non potevo non parlare del Martech Day 2025 di Scott Brinker e Frans Riemersma, anche se con grande ritardo rispetto al solito visto che è stato il 5 maggio scorso.
Uno dei contenuti clou di questo appuntamento è la presentazione della nuova versione aggiornata della Marketing Technology Landscape, che ora conta 15.384 soluzioni, in aumento del 9% sull’anno prima, organizzate in 49 categorie.

Questa enorme mappatura è disponibile sia in forma di PDF ad alta risoluzione che di versione interattiva su MartechMap.com, e come dato ancora più considerevole dalla prima versione del 2011 a quella di oggi, il numero di soluzioni è esploso da 150 a 15.384, rappresentando una crescita del 10.156% in 14 anni e con un tasso di crescita annuale composto (CAGR) medio del 39,2%.

Nonostante questi numeri apparentemente inarrestabili, c’è un tasso di abbandono (churn) del 8,6% dei prodotti presenti l’anno precedente (1.211 prodotti).
La maggior parte di questi esce semplicemente cessando le operazioni (84%), e non come acquisizione da parte di gruppi più grossi e molte soluzioni sono antecedenti al boom dell’AI (“pre-ChatGPT”, nati prima di novembre 2022), a testimonianza di un “rinnovamento” piuttosto che di una semplice “consolidamento”.

Questo rinnovamento è fortemente legato all’impatto dell’AI. La crescita esplosiva dell’anno precedente era largamente attribuita all’AI, con il 77% dei nuovi prodotti classificati come AI-native. Le nuove aziende che entrano nel mercato (“entrants”) sono spesso finanziate organicamente o con capitale modesto. L’AI sta rendendo più facile, veloce ed economico costruire software, abbassando le barriere all’ingresso e permettendo il successo anche senza percorsi verso un miliardo di dollari di fatturato. La crescita si verifica in modo trasversale in tutte le categorie martech, non concentrata in una singola area, indicando sperimentazione diffusa.
Questo ci porta all’altro principale documento presentato nell’evento, lo State of Martech 2025.
Nell’evento Martech Day 2025 è stato diffuso anche il nuovo State of Martech 2025, un report molto corposo che si può scaricare liberamente e di cui vi consiglio molto la lettura, al di là di questa mia breve sintesi di oggi.
In questa edizione troviamo una forte continuità con l’evento di dicembre Martech for 2025 che avevo commentato dettagliatamente qui sul mio blog.
Un elemento di correlazione è dato dal tema della “Long Tail“ in questo tipo di software, una componente storica e ancora rilevante del panorama Martech, e che consiste in:
La novità di questo report è il concetto di “Hypertail” da vedere come un’espansione che va oltre il tradizionale panorama commerciale della Long Tail, perché non si limita al software venduto sul mercato, ma include il software personalizzato (custom-built software).

Questo concetto aggiunge quindi diversi attori allo scenario
L’intelligenza artificiale ci ha spinto ulteriormente lungo la curva dell’accesso alla tecnologia rendendo possibile a qualsiasi persona comune di creare un “programma software” facendo una serie di richieste di linguaggio naturale a un agente di intelligenza artificiale (vibe coding). In effetti, è chiaro che sempre più di questi programmi saranno creati in modo ambientale/automatico in background senza che un utente riconosca anche esplicitamente che un atto di creazione ha avuto luogo per loro conto.
A causa di questa accelerazione e democratizzazione della creazione di software tramite AI, la Hypertail consisterà “non di milioni ma miliardi di programmi software personalizzati”, probabilmente “trilioni”, molti dei quali “lampeggiano dentro e fuori dall’esistenza su richiesta”. In questo contesto, il panorama del software commerciale (la Long Tail) è solo la “punta della coda” (“tip of the tail”) rispetto alla vastità della Hypertail.

Un sistema complicato, come una Ferrari, ha molte parti interconnesse con precisione. Funziona in modo deterministico (causa ed effetto sono prevedibili se si comprende il sistema) e richiede un esperto (come un meccanico di Ferrari o un professionista delle Marketing Ops) per essere pienamente compreso e gestito. Il tradizionale stack martech è visto come un sistema complicato.
Un sistema complesso, come una foresta pluviale, ha anch’esso molte parti interrelate, ma queste parti sono più indipendenti e interagiscono in modo dinamico e probabilistico. La causa ed effetto sono discernibili, ma è impossibile prevedere il comportamento o l’esito esatto; l’ecosistema si evolve continuamente.

Gli agenti AI e le altre potenzialità dell’intelligenza artificiale generativa rendono lo stack martech complesso, il che non è necessariamente una cosa negativa, visto che può renderlo più adattabile, potente e scalabile, consentendogli di evolvere più organicamente.
Tuttavia, richiede che le operazioni di marketing (descritte come “Big Ops” in quest’era) e le architetture informatiche si evolvano oltre la costruzione e il mantenimento di processi rigidi e lineari. Tra i suggerimenti menzionati nel report ci sono:
Se molte cose vi sembrano familiari avete ragione: come sempre le tecnologie emergenti stressano i limiti di quanto esiste già, e difficilmente ci si può girare attorno: più essere sono potenti più verranno alla luce i limiti (e, speriamo, i punti di forza) delle organizzazioni in termini di cultura, digital fluency, gestione del dato, debito tecnico, capacità di orchestrare e creare relazioni, governance illuminata.
Sappiamo che la tecnologia cambia ad una velocità largamente superiore a quella dell’organizzazione.

I mondi dei team di marketing, IT e data engineering stanno diventando sempre più sfumati. C’è un riconoscimento crescente della necessità di collaborazione e comprensione reciproca. I team di marketing devono essere efficaci nell’articolare gli obiettivi aziendali che le soluzioni martech e l’infrastruttura dati mirano a raggiungere. I team IT e data engineering, d’altro canto, devono considerare la ripetibilità, la sicurezza, la scalabilità e la compatibilità con lo stack esistente. Un’infrastruttura dati solida, come un data warehouse centrale, è vista come cruciale per razionalizzare lo stack martech per l’IA e fornire ai team IT gli strumenti per supportare in modo sicuro le esigenze dei marketer. Entrambe le parti devono investire in expertise reciproca per prendere decisioni efficaci (vi ricorda qualcosa di datato?)
Non è semplice e non deve essere sovrasemplificato, come in tutto quello che riguarda l’AI, dove le aziende oggi devono scegliere tra due approcci per adottare l’IA: AI-steady, per un’adozione graduale, e AI-accelerated, per un’integrazione rapida e ambiziosa (vedi qui cosa dice Gartner in merito).
P.s. c’è molto di più nel report State of Martech 2025, per cui andate a leggerlo!
In tanti anni di gestione della trasformazione di business mi sono convinto che non c’è una ricetta unica per favorire l’adozione della tecnologia e che al contempo le organizzazioni hanno dei bisogni sempre crescenti di cambiare, in meglio, il modo in cui si lavora.
E tra questi bisogni c’è quello di migliorare le connessioni interne, non di diminuirle a causa della tecnologia, che invece può essere un grande alleato per raggiungere tale obiettivo.
Tutto questo è davvero interessante e attuale per il ruolo di chi facilita l’adozione tecnologica.
Il valore delle reti e delle connessioni è stato abbondantemente studiato in letteratura, e tocca vari aspetti su cui ci possiamo fare delle domande.
Ne avevo parlato una prima volta nel lontano 2009 (!), dove avevo ragionato sulla forza dei legami deboli “scoperti” da Mark Granovetter e su come la tecnologia, già allora, poteva rendere studiabili queste connessioni “invisibili” e anche chi sono le persone che ricoprono un ruolo di “nodo”, indipendemente dal proprio posizionamento formale.

Molti di questi “grafi” sono alla base dei principali social network fin dall’inizio e la diffusione di strumenti di collaboration aziendale ha per molti versi “democratizzato” le opportunità di mappare in maniera relativamente semplice ed automatica queste reti (si pensi a Microsoft Viva per Office 365 e alle soluzioni di Google Workspace).
Come al solito dunque la tecnologia in sé non è un problema.
Il tema vero invece è come l’organizzazione sfrutta tutto questo, a partire da chi lo deve fare.
Come ho già scritto altre volte, non sono un patito dei job title, tanto più oggi dove la loro tassonomia è quasi sempre superata dalla realtà dei fatti.
Il titolo di Chief Connection Officer mi era saltato all’occhio la prima volta in occasione del Gartner Marketing Symposium/Xpo 2021 cui ho avuto il piacere di partecipare (virtualmente) e da cui avevo tratto alcune considerazioni scritte poi qui sul blog.
Si tratta di un job title che si porta dietro un concetto comunque interessante, che in verità Seth Godin aveva già espresso nel 2013, in quel caso riferendosi ai CIO e non ai CMO come nel caso di Gartner.
Il fatto che siano chiamati in causa, fin da allora, ruoli diversi come CMO e CIO dimostra, comunque la si pensi, che una figura che combini competenze tecnologiche, comprensione delle dinamiche organizzative e abilità comunicative è cruciale per un’adozione efficace della tecnologia applicata al migliore funzionamento dell’organizzazione.
Sono tante le diverse sfaccettature e gli archetipi possibili di questo ruolo:
Personalmente, mi riconosco un po’ in tutte queste sfumature, con intensità diversa a seconda dei periodi e delle casistiche, di sicuro non esiste un “guru” dell’adozione tecnologica valido per ogni contesto.
La figura ideale è spesso un ibrido di competenze e la sua importanza relativa può variare significativamente in base a:
Ci sono però delle caratteristiche e dei punti comuni che credo si possano trovare in tutte le situazioni, delle soft skill di cui ho parlato la prima volta quasi dieci anni fa e che mi hanno portato già in passato a dire che il “digitale è un mestiere di relazione”

Tra queste, sintetizzando, troviamo:
Chiaramente molte di queste doti possono variare con la seniority e la collocazione organizzativa.
E l’organizzazione, prima di essere un alleato delle trasformazioni, di solito all’inizio è il più grosso ostacolo da superare.
Lo so, sono fissato con il tema organizzativo. Nel 2013 scrissi un post dal titolo “il peggior nemico del digital cmo? Spesso l’organizzazione aziendale (almeno per com’è fatta ora)” e a fine 2017, con 4 anni di storia in più, ne avevo fatta una versione aggiornata.
L’ultima versione risale infine al 2021, sono passati altri 4 anni, e quindi il 2025 è il momento giusto per aggiornare di nuovo questo pensiero ma nell’attesa ci torno in questo post.
Perché in questo momento storico però il tema organizzativo per le connessioni è così rilevante?
Prima di tutto, veniamo dalle trasformazioni della pandemia, che ha sdoganato il fatto che il lavoro non si svolge solo in ufficio. I numeri dell’Osservatorio Smart Working 2024 del Polimi vedono un numero di lavoratori da remoto nel 2024 stabile: 3,55 milioni rispetto ai 3,58 del 23 (-0,8%) e una crescita stimata del +5% nel 25.

Solo in Italia, il 73% degli smart worker in si opporrebbe se richiamato stabilmente in ufficio! Per compensare il rientro i lavoratori vorrebbero flessibilità oraria o un aumento di stipendio del 20%. I dati poi variano tra tipologie di aziende e mansioni ma le condizioni necessarie, secondo me, restano come nel 2020 una corretta impostazione di lavoro e obiettivi, cui aggiungo il superamento del digital divide che in alcune zone di Italia limita le opportunità.
Per garantire tutto questo, ci vuole un costante sforzo di creazione di opportunità di contatto, fisiche e digitali, attorno a diversi temi e progettualità che eviti lo sfilacciamento.
C’è poi il tema importante del modo in cui la tecnologia si diffonde oggi in azienda: in passato, qualsiasi app non gestita direttamente dall’IT era considerata shadow IT ma oggi lo scenario è completamente cambiato e le app Saas “di proprietà” dei vari dipartimenti già nel 2024 costituivano la percentuale maggiore (48%) di quelle gestite ufficialmente negli stack tecnologici, rappresentavano la maggioranza (69%) della spesa mentre le applicazioni di “proprietà dell’IT” rappresentavano solo il 17% delle app in stack e il 28% della spesa.
Lungo la stessa curva, ho parlato dei Citizen Developer, persone non appartenenti ai dipartimenti tecnologici aziendali “ufficiali” e che, pur non avendo un background nella programmazione software, riescono a sviluppare programmi con le tecnologie low code e no code.
Fino ad un avvento esteso della AI generativa questi restavano (e restano) per lo più utenti esperti mentre l’intelligenza artificiale ci ha ora spinto ulteriormente il livello dell’accesso alla tecnologia rendendo possibile a qualsiasi persona comune di creare un “programma software” facendo una serie di richieste di linguaggio naturale a un agente di intelligenza artificiale. In effetti, è chiaro che sempre più di questi programmi saranno creati in modo ambientale/automatico in background senza che un utente riconosca anche esplicitamente che un atto di creazione ha avuto luogo per loro conto.

Infine, gli agenti AI sono la fase successiva della democratizzazione dello sviluppo del software, e aprono grandi opportunità e creano nuove sfide nella governance della tecnologia aziendale, oltre che porre dei temi importanti sulla leadership più in generale.
Come dice IDC, nonostante i suoi rischi lo shadow IT non è necessariamente un segno di fallimento. Uno shadow IT incontrollato può indicare insoddisfazione per la reattività dell’IT, ma segnala anche la volontà delle unità aziendali di innovare. Il vero problema non è l’esistenza dello shadow IT, ma se viene sfruttato in modo costruttivo.
La gestione dei costi è di sicuro uno di questi elementi, come anche il tema dell’educazione all’uso degli strumenti in ottica individuale ma anche aziendale, richiedendo una diversa governance della tecnologia dove la chiave non è più nella “ownership” intesa in senso ossessivo ma nello stabilire dei meccanismi per mantenere ordine senza ingessare.

In questo, come dicevo qualche tempo fa a proposito di Chief Metaverse e Chief AI Officer, creare mondi separati non ha senso ma serve tanto dialogo e tanto lavoro di coinvolgimento e connessione, anche perché quando si fa innovazione molto spesso ci si dimentica la domanda più semplice, ossia il perché stiamo facendo una certa scelta, da cui deriva poi in modo sano il come si applicano le cose, evitando il mero copy and paste e l’effetto “bambino nel negozio dei dolci” dove si vorrebbe prendere tutto quello che si vede sullo scaffale della tecnologia.
Di certo in questo momento con tutte queste sollecitazioni mediatiche non è facile, ma proprio per questo servono professionalità all’interno delle organizzazioni che aiutino a pilotare in modo discreto ma solido questo cambiamento.
Chief Digital Officer, CIO, o altro ancora, il nome è relativo, ciò che conta è il contenuto e anche i ruoli di trasformazione più che inutili diverranno invisibili, perché chi si occupa oggi di queste cose guida un processo che appare ormai (quasi) naturale ma che deve essere continuamente evoluto, facilitando e umanizzando la tecnologia con un concetto “antico” ma quanto mai importante: far parlare e connettere tra loro le persone.

La generazione ansiosa. Come i social hanno rovinato i nostri figli di Jonathan Haidt è un saggio pubblicato nel 2024 in Italia, per Rizzoli.
Come si intuisce facilmente dal sottotitolo, il libro analizza l’impatto dei social media e degli smartphone sulla salute mentale degli adolescenti. Haidt sostiene che l’uso precoce e intensivo di queste tecnologie ha contribuito a un aumento significativo di ansia, depressione e altri disturbi mentali tra i giovani, trasformando l’infanzia in un’esperienza centrata sul telefono piuttosto che sul gioco libero e le interazioni sociali reali.
Il libro è suddiviso in quattro parti principali, ciascuna delle quali esplora un aspetto specifico della problematica:
Haidt presenta dati che mostrano un aumento significativo di ansia, depressione, autolesionismo e suicidi tra gli adolescenti a partire dal 2010. Attribuisce questo fenomeno all’uso diffuso di smartphone e social media, che hanno sostituito il gioco libero e le interazioni sociali nel mondo reale, fondamentali per lo sviluppo emotivo e sociale dei giovani.

Nella ricca documentazione di dati ed indagini dell’autore, il focus di questo cambiamento è centrato sul periodo 2010-2015, un momento che ha visto diverse innovazioni tecnologiche, largamente disruptive, convergere tutte insieme (iphone, il mercato delle app gratuite in cambio di pubblicità, l’accesso ai social media in tempo reale in mobilità, telefoni dotati di telecamere frontali, internet sempre e ovunque).
L’autore discute come l’infanzia sia passata da un’esperienza basata sul gioco libero e l’esplorazione a una centrata su attività strutturate e supervisionate, riducendo le opportunità per i bambini di sviluppare autonomia e resilienza. Si tratta della cultura dell’iperprotezione che Haidt chiama safetyism e che ha riguardato negli ultimi decenni le società occidentali e benestanti. Questa transizione nel modo di gestire lo spazio del gioco e l’indipendenza dei più piccoli ha reso i giovani più vulnerabili all’ansia e meno preparati ad affrontare le sfide della vita adulta.
Haidt introduce il concetto (forte) di “Grande Riconfigurazione”, descrivendo come l’infanzia sia stata radicalmente trasformata dall’introduzione degli smartphone e dei social media. I giovani trascorrono sempre più tempo online, esposti a contenuti che possono influenzare negativamente la loro autostima e benessere mentale. L’autore evidenzia come le piattaforme digitali siano progettate per creare dipendenza, sfruttando meccanismi di ricompensa simili a quelli del gioco d’azzardo, logiche ben descritte anche in L’Era della Dopamina di Anna Lembke.
4. La necessità di un’azione collettiva per un’infanzia più sana
Nell’ultima parte, Haidt propone soluzioni per contrastare gli effetti negativi della tecnologia sulla salute mentale dei giovani. In molti passaggi tende a ripetersi e non tutto quello che propone sembra davvero pienamente attuabile, tuttavia io ho apprezzato il messaggio che non sia davanti a fenomeni ineluttabili e possiamo agire come singoli e come collettività.
L’autore, infatti, sottolinea l’importanza di un approccio organico che coinvolga genitori, educatori, aziende tecnologiche e governi. Tra le sue raccomandazioni:

Il libro, con i suoi pregi e difetti (vi consiglio questa recensione molto oggettiva), alza il livello di attenzione sugli effetti della tecnologia sulle nostre vite.
Alla fine dell’anno scorso ero tornato sul tema, ed è vero che i minori non devono essere lasciati soli davanti agli strumenti digitali. Si dice dunque che gli insegnanti e i genitori devono presidiare: sacrosanto, tuttavia se negli ultimi anni la tecnologia è andata avanzando molto più velocemente di quanto siamo in grado di capirla e di metabolizzarla, con la conseguenza è che anche gli adulti non hanno molto spesso gli strumenti per guidare i più giovani. E non ho nemmeno parlato ancora di Ai.
All’estremo opposto dello spettro anagrafico, inoltre, c’è un falso mito sul fatto che i nativi digitali siano competenti di tecnologia ma la realtà è che sono abituati ad usarla, e c’è un’enorme differenza fra le due cose, l’educazione civica digitale è quindi un’urgenza sempre crescente (oltre ad essere il titolo di un mio vecchio post, per altro decisamente ancora attuale, è il titolo di un libro di Agostino Ghiglia che è stato intervistato in proposito da Matteo Flora per il canale Ciao Internet un po’ più di un anno fa).
Non dobbiamo poi dimenticare il fatto che le nuove tecnologie, come ad esempio quelle di artificial intelligence, hanno potenziato e accelerato dei cambiamenti già in corso e ne hanno generati di nuovi.
Si è parlato molto dell’articolo della rivista scientifica “Nature Human Behavior” intitolato “The case for human-AI interaction as System 0 thinking” e scritto da un team di ricercatori coordinato dal professor Giuseppe Riva, che analizza come i chatbot e altre tecnologie simili stiano cambiando i nostri processi cognitivi, non necessariamente o automaticamente in meglio. E la stessa Microsoft (!) ha dichiarato che chi usa regolarmente la Gen AI sta “avvizzendo” la propria “muscolatura cognitiva”, rischiando di praticare un “trasferimento cognitivo”, ovvero di ridurre il proprio coinvolgimento in favore di una maggiore efficienza lavorativa che è però acritica e passiva.
Un tema di certo rilevante ma non nuovo se torniamo al 2008 e all’articolo Is Google Making Us Stupid. What the Internet is doing to our brains di Nicholas Carr pubblicato su The Atlantic, che di fatto guardava alla stessa situazione con il contesto tecnologico dell’epoca.
Oggi come allora occorre capire che cosa c’è dietro la tecnologia che corre alla velocità della luce, sia per fini personali che per il proprio ambito lavorativo (le aziende ne hanno un gran bisogno). Non è mai tardi per studiare, basta avere l’umiltà di farlo. E una volta tanto, la regolamentazione ci offre una sponda, se la sapremo cogliere nel modo giusto (vedi il video sotto).
Guardando le skill più importanti per il 2030, nel quadrante in alto a destra del Future of Jobs Report 2025 del World Economics Forum è molto interessante vedere una cosa che avevo già segnalato in passato: solo in parte sono skill tecniche.
Questo non vuol dire che capacità come la conoscenza delle AI non saranno importanti ma che esse sono solo una parte dell’equazione.
In questo contesto hanno un grande ruolo e una grande responsabilità coloro che sanno veramente capire il funzionamento delle varie soluzioni e che devono cercare il più possibile anche di attingere a punti di vista esterni che vanno oltre la pura tecnicalità economica e di efficienza e ci aiutano a riflettere sul senso delle cose.

Viviamo nell’era della semplificazione.
Cosa intendo con semplificazione? Sicuramente un aspetto positivo, quello di poter avere alcuni compiti svolti dalla tecnologia per alleviare il nostro lavoro quotidiano e per renderci più efficaci.
Tuttavia, viviamo anche un’altra semplificazione, quella che fa apparire tutte le nuove innovazioni tecnologiche semplici da adottare e, come si dice in gergo tecnico, plug and play ossia pronte all’uso purché si attacchi la spina.
E questa semplificazione diventa ogni giorno più spinta nella narrazione e più lontana dalla realtà.
A voler poi guardare il tema proprio a 360° si potrebbe citare un ulteriore tipo di semplificazione, quella della realtà che viene fatta passare da tempo ormai come totalmente bianca o nera sui social media e perfino nelle notizie più ufficiali, creando quella polarizzazione sociale che è la terza minaccia dei prossimi due anni secondo il Global Risk 2024 Report del World Economic Forum (la prima è la disinformazione…).
Di questa terza parte non intendo parlare oggi, se non per dire velocemente che è sempre più importante un’educazione strutturata all’uso delle nuove tecnologie e della loro interpretazione, come ho già avuto modo di scrivere più volte qui e poi anche qui.
Il tema della complessità mi è sempre piaciuto molto, dal remoto 2005 in cui recensivo uno dei primi libri italiani sul tema passando poi per le considerazioni su l’apparente facilità del mondo digitale (2012) fino ad arrivare all’epoca attuale delle dinamiche dell’Artificial Intelligence e delle altre tecnologie disruptive che caratterizzano i nostri giorni e le organizzazioni moderne.
Il fatto di avere questo approccio mi ha sempre aiutato a provare a guardare oltre alla superficie dei principali trend tecnologici, e a riconoscere che la tecnologia risolve i problemi se viene usata per affrontare le giuste questioni e se c’è l’organizzazione interna e le condizioni adatte a supporto. Viceversa, più sono sofisticati gli strumenti e più essi tireranno fuori in modo impietoso i limiti sui dati disponibili, sulle difficoltà operative, sull’inadeguatezza delle infrastrutture tecnologiche preesistenti e sulla mancanza di obiettivi chiari.
Prendiamo allora ad esempio il tema della agentic Ai, un terriorio affascinante e molto promettente che inizia però a presentare agli utilizzatori dei possibili costi elevati (sì, non è tutto gratis!), anche se i valori sono da controbilanciare con i benefici (vedi il video sotto).
Come ci ricorda Stefano Epifani nel suo podcast, ci sono sempre diversi elementi da valutare tutti assieme ed è in questo che si esplica la complessità delle nuove tecnologie, se si guarda solo un angolo del problema e del vantaggio tipicamente si finisce per avere una visione troppo miope è limitata di quello che è l’intero impatto
Da parte mia, sottolineo poi un altro punto: come dice Forrester nelle sue prediction 2025, le architetture Agentic AI sono una tecnologia emergente e la complessità di costruirle internamente porterà il 75% delle aziende che ci provano a farlo a fallire, mentre quelle di successo si rivolgeranno invece a società di consulenza o utilizzeranno agenti incorporati nel software del fornitore.
Sebbene gli agenti AI offrono un potenziale significativo, la realtà è che l’automazione deterministica continuerà a controllare (nel breve) i processi aziendali principali. GenAI orchestra solo meno dell’1% dei processi principali, poiché le aziende hanno difficoltà a mappare le fonti di dati isolate, sviluppare integrazioni con sistemi chiave e gestire il cambiamento per i dipendenti.
Questo non vuol dire che non ci sia del valore (la stessa Forrester lo dice), anzi, ma occorre essere molto attenti nel capire le proprie possibilità e gestire le aspettative. E il cambiamento.
Gli stessi team che implementano agenti di intelligenza artificiale ammettono di non sapere come gestire il cambiamento che stanno creando. I team di automazione hanno difficoltà con la gestione del cambiamento e ammettono che è una delle sfide più grandi nell’adozione dell’automazione.
In questo, molta differenza la fa la presenza di un vero programma di trasformazione digitale rispetto a una pura attività di digitalizzazione di alcuni processi.
Digitalizzazione non è la stessa cosa di trasformazione digitale.
Probabilmente lo sapete già, magari invece c’è ancora confusione sui due termini anche in voi.
Come dice Stefano Epifani nel suo podcast (in un’altra puntata, ascoltatelo qui sotto) non bisogna confondere le due cose: mentre la digitalizzazione riguarda la conversione di processi analogici in digitali, la trasformazione digitale implica un cambiamento più profondo, che coinvolge modelli di business, cultura organizzativa e strategie operative.
Perché la cosa dovrebbe avere importanza in un’epoca di artificial intelligence e di altre tecnologie emergenti che stanno cambiando, o almeno promettendo di cambiare, la nostra vita in meglio e comunque sia lo fanno ad una velocità notevole?
Ce lo dice una ricerca globale condotta da Infor intitolata How Possible Happens Filling the “value void” with technology-driven productivity (oltre 3.600 partecipanti, 15 Paesi compresa l’Italia e 7 settori, con partecipazione dai CEO agli utenti di software aziendali): le tecnologie devono essere un trigger per creare valore, non uno scopo.
La ricerca viene ben commentata in dettaglio qui da Laura Zanotti su Digital4, e mi trovo d’accordo sul fatto che la tecnologia deve sposare gli obiettivi di tutta l’organizzazione in ogni sua parte e deve essere profondamente e coerentemente calata nei suoi processi.
In un momento di annunci continui e concitati, io sono sempre convinto che le nuove tecnologie devono essere incorporate in modo fluido in ciò che facciamo già e non possono essere delle risorse stand alone di cui capiamo poco ma su cui riponiamo infinite aspettative che vengono tristemente non confermate se la nostra organizzazione, i nostri dati, la nostra preparazione in generale non sono pronti ad accoglierle.
In questo hanno un grande ruolo e una grande responsabilità coloro che sanno veramente capire il funzionamento delle varie soluzioni e che devono cercare il più possibile anche di attingere a punti di vista esterni che vanno oltre la pura tecnicalità economica e di efficienza e ci aiutano a riflettere sul senso delle cose (qui sotto un esempio).
E queste persone dovrebbero aiutare la leadership aziendale, se non ne fanno già parte, a guidare il cambiamento in modo strutturato e culturalmente accettato.
Ci sono almeno due contenuti che vale la pena citare quando si parla di questo tema.
Il primo è un pezzo dell’Harvard Business Review che si intitola senza tanti giri di parole “Employees Won’t Trust AI If They Don’t Trust Their Leaders”.
L’articolo, partendo da una ricerca di PWC e da vari altri contributi interessanti, dice che l’adozione efficace dell’Intelligenza Artificiale nelle organizzazioni dipende fortemente dalla fiducia che i dipendenti ripongono nei loro leader. Per promuovere questa fiducia, i leader devono impegnarsi attivamente con i dipendenti, dimostrando un genuino interesse per il loro benessere e presentando l’IA come uno strumento di empowerment piuttosto che di sostituzione. Un approccio efficace è la combinazione tra leadership e IA, in cui i leader promuovono la alfabetizzazione sull’IA, facilitano discussioni aperte e inquadrano l’IA come un supporto per la crescita professionale.

Come secondo elemento, cito un articolo di Forbes che rivela che oltre un terzo (35%) dei dipendenti acquista personalmente strumenti di intelligenza artificiale (IA) per utilizzarli sul lavoro, indicando il valore percepito dell’IA nell’ambiente professionale. Questo fenomeno è particolarmente evidente nei settori dei servizi finanziari (32%) e della sanità/scienze della vita (23%). L’autore sottolinea che, in assenza di supporto da parte dei dirigenti (e rieccoci al punto sopra), i dipendenti adottano autonomamente l’IA, evidenziando la necessità per le aziende di fornire formazione e risorse adeguate per integrare efficacemente l’IA nelle operazioni aziendali.
A completamento di questo, i citizen developers forniranno il 30% delle app di automazione (o anche di più secondo alcuni) basate su genAI nel 2025 (fonte Forrester) e ciò sottolinea l’importanza di dare potere ai lavoratori al di fuori dell’IT per sfruttare la loro competenza di settore e la loro immaginazione.

Da una parte serve quindi una governance tecnologica illuminata, che permetta di superare il debito tecnico e i suoi impatti sulla trasformazione, aiutando tutti i dipendenti a usare al meglio gli strumenti consentiti evitando quelli invece pericolosi per la sicurezza aziendale. Il tutto con KPI chiari da misurare.
Dall’altra, una forte chiarezza nelle spiegazioni e un linguaggio comune permettono di evitare la paura indiscriminata delle nuove tecnologie, gli entusiasmi immotivati, la creazione di aree aziendali a sé stanti che possono solo amplificare la confusione e creare nuovi silos.
Come scrive Future of Commerce persone, processi e risorse scollegati nelle aziende influiscono negativamente sulle prestazioni aziendali, sulla qualità della produzione, sulle catene di fornitura dinamiche, sullo slancio delle vendite e sulla precisione, con rischi crescenti che incidono costantemente sulle operazioni di manutenzione e assistenza.
Le aziende devono dunque integrare strettamente la pianificazione e l’esecuzione dei servizi nei processi end-to-end, anche a livello inter-organizzativo tramite processi e reti collaborativi.
In termini pratici, devono fare le cose bene e in modo coordinato! Su tutto!
Come dice Peter Druker “la strategia è una commodity e l’execution un’arte” e quindi, citando Tom Peters, “non dimenticate l’execution ragazzi, è l’ultimo importantissimo 95%”.
Questo aspetto è vero per qualsiasi tecnologia digitale che porti un cambiamento, garantendo così una vera differenziazione che gli strumenti “out of the box” possono solo in minima parte garantire.
Le idee chiare le dobbiamo avere noi, il resto è a supporto e non risolve i problemi da solo, come ho scritto altre volte “purtroppo” dovrete farvene una ragione e sentirlo ancora a lungo! In questo mondo dalle infinite opportunità date dal software e dai nuovi hardware partire dalla tecnologia resta sempre un approccio sbagliato e, come sapete, tanto più deleterio quanto più promettente e intrigante è la tecnologia.
Non è un mondo più semplice (almeno finché le cose non sono a regime) ma è sicuramente una realtà ricca di opportunità!