AI Literacy per professionisti non tech: le competenze fondamentali
Il 2025 ha rivelato un quadro nettamente contrastante per l’intelligenza artificiale in Italia. Da una parte, stiamo assistendo a un’adozione esplosiva: il 46% dei professionisti italiani dichiara di utilizzare strumenti di AI sul lavoro, un balzo straordinario rispetto al 12% dell’anno precedente (Fonte, link esterno). Secondo Confcommercio, tra i professionisti non ordinistici, come consulenti ed esperti di settore, la percentuale sale addirittura al 62,4%.
Questa adozione di massa fa però da contraltare un dato allarmante: solo il 16,6% dei professionisti ha ricevuto un addestramento specifico sull’IA. In altre parole, più di 8 professionisti su 10 stanno usando strumenti potentissimi da autodidatti.
Il risultato è un utilizzo diffuso ma pericolosamente superficiale. Sebbene 9 professionisti su 10 usino la GenAI settimanalmente, quasi il 63% la impiega solo per scrivere email o riassumere testi (Fonte, link esterno). Si sta sfruttando l’efficienza minima, ma il potenziale innovativo resta quasi interamente bloccato.
Questa adozione “fai-da-te” sta avvenendo in un contesto di grave impreparazione che crea un triplice rischio per le imprese.
- Il gap di competenze: il problema non è solo la formazione specifica sull’AI. L’Italia sconta un ritardo di fondo: solo il 45,8% della popolazione possiede competenze digitali di base, ben al di sotto della media europea del 55,5% (Fonte, link esterno). Di conseguenza, solo 1 organizzazione italiana su 7 (15%) può essere considerata “pronta per il domani” in termini di preparazione all’AI (Fonte, link esterno).
- Il gap di governance interna: l’uso dell’AI non è governato. Il 43% delle imprese italiane non ha alcun piano strutturato o linee guida per la GenAI (Fonte, link esterno). I team legali, ad esempio, la usano, ma faticano a gestire le preoccupazioni etiche e di privacy dei dati (Fonte, link esterno).
- Il gap di compliance esterna: questo vuoto di governance si scontra con la realtà normativa. L’AI Act europeo è in vigore dal 2 febbraio 2025, eppure il 52% delle grandi realtà attive in progetti AI ammette di non aver compreso a pieno il quadro normativo (Fonte, link esterno).
Il problema che questo articolo affronta non è più se usare l’AI, ma come gestirla in modo competente, sicuro e conforme. L’AI Literacy — l’alfabetizzazione sull’intelligenza artificiale — è diventata la competenza chiave per colmare questo divario.
L’urgenza dell’AI Literacy: rischio normativo, etico e di sicurezza
Per mesi abbiamo parlato di Intelligenza Artificiale come di un’opportunità, ma oggi il contesto è cambiato. L’adozione “fai-da-te” e non governata dell’AI espone le aziende a tre rischi interconnessi che i professionisti non tecnici sono i primi a dover gestire.
Rischio normativo: l’AI Act è un obbligo in vigore
Dal 2 febbraio 2025, l’AI Act europeo richiede una “comprensione sufficiente” dei sistemi AI per garantirne un uso conforme. Per un HR manager significa, ad esempio, che lo strumento di screening dei curriculum che sta testando è probabilmente un “sistema ad alto rischio” secondo la legge. Il suo utilizzo impone obblighi di trasparenza e supervisione umana che non può ignorare. Un professionista non-tech deve essere in grado di comprendere i diversi livelli di rischio (inaccettabile, alto rischio, rischio limitato, rischio minimo) e le conseguenti obbligazioni.
> Leggi anche: “AI ACT e legge italiana sull’IA: una checklist di compliance per i Manager”
Rischio etico-legale: il costo reale del Bias
Quando un algoritmo viene addestrato su dati storici distorti (ad esempio, anni di assunzioni che hanno favorito un genere o una fascia d’età), l’algoritmo impara a replicare quelle distorsioni. Il risultato? Pratiche di assunzione discriminatorie, anche se non intenzionali.
Un caso emblematico ha visto un’azienda tech condannata a un risarcimento multimilionario proprio perché il suo algoritmo penalizzava sistematicamente i candidati più anziani (Fonte, link esterno). Comprendere i principi di AI etica (fairness, trasparenza, accountability) è ormai risk management.
Rischio operativo: la “Shadow AI” e la “Black Box”
Infine, c’è il rischio che si annida all’interno: la “Shadow AI”. Questo termine indica l’uso di strumenti AI (come chatbot pubblici o utility di analisi) da parte dei dipendenti, senza l’approvazione o la supervisione dell’IT. È un fenomeno diffuso: si stima che il 76% dei professionisti nei dipartimenti legali usi la GenAI almeno una volta alla settimana (Fonte, link esterno). Senza linee guida, il rischio di inserire bozze di contratti o dati sensibili in questi strumenti è altissimo e può provocare data breach e falle nella privacy.
Se consideriamo che il 43% delle imprese italiane non ha alcun piano strutturato o policy per l’utilizzo dell’intelligenza artificiale generativa, come possono i professionisti che la utilizzano comprenderne il funzionamento e valutarne l’eticità e l’assenza di bias?
I professionisti devono imparare a porre le domande giuste ai fornitori di AI: Come è stato addestrato il modello? Quali misure di sicurezza sono in atto? I dati inseriti dall’utente, vengono utilizzati per l’addestramento del modello?
> Leggi anche: “AI Literacy: un framework per la formazione e le competenze specifiche”
Le 3 competenze fondamentali di AI Literacy
Oltre l’urgenza, ci sono le competenze: il 60% dei decision-maker ammette che il progresso nel colmare il divario di competenze in ambito AI è ancora troppo lento. Un ostacolo significativo è la qualità della formazione stessa: alcune ricerche indicano che la formazione attuale aumenta la frequenza d’uso degli strumenti AI, ma non migliora la comprensione profonda o le capacità di prompting, ovvero l’abilità di formulare comandi efficaci per ottenere risultati ottimali. Questo suggerisce che gran parte della formazione è teorica o focalizzata sulle politiche aziendali piuttosto che sulle competenze pratiche e immediatamente utilizzabili.
Per superare l’inefficienza e il rischio cognitivo, servono tre competenze di base, nessuna delle quali è “saper programmare”.
Prompt Engineering
Il primo gap di efficienza è il “dialogo”. Spesso si confonde un prompt di AI generativa con una ricerca su Google. Ma un prompt non è una domanda, è un briefing. Richiede contesto, un ruolo (es. “Agisci come un avvocato d’affari specializzato in compliance…”), un obiettivo chiaro e dei vincoli.
> Leggi anche: “Prompt Engineering: risorse e best practices”
Questa non è un’abilità tecnica, ma una competenza comunicativa e strategica. Richiede la capacità di strutturare richieste chiare e contestualizzate per ottenere risultati accurati. Il potenziale è misurabile: uno specialista di marketing ha registrato un aumento del 30% nei tassi di apertura delle email usando AI per generare contenuti personalizzati e mirati (Fonte, link esterno).
Pensiero Critico
La conseguenza più insidiosa dell’uso “fai-da-te” è l’erosione del pensiero critico. Si chiama “automation bias”: la tendenza umana ad accettare passivamente le decisioni di un sistema automatizzato. Il risultato è che una maggiore fiducia nell’IA si associa a un minore pensiero critico.
I professionisti tendono ad accettare l’output della macchina (incluse “allucinazioni” ed errori) senza applicare il giudizio contestuale. L’AI eccelle nell’analisi dei pattern, ma manca di discernimento umano, consapevolezza contestuale, giudizio etico e intelligenza critica. L’AI Literacy insegna a verificare, validare e integrare l’output dell’AI.
Data Literacy
L’intelligenza artificiale “parla” una sola lingua: i dati. Per dialogare con l’AI e valutarne l’output, bisogna prima capirne la “materia prima”. La Data Literacy è l’abilità di leggere, interpretare e prendere decisioni basate su insight generati dall’AI.
Un professionista non-tech non deve saper programmare, ma deve capire che la qualità dell’output AI dipende direttamente dalla qualità dei dati di input. Deve saper riconoscere quando i dati usati per addestrare un modello sono incompleti, distorti o non rappresentativi.
> Scopri il corso: “Alfabetizzazione IA per il Personale Aziendale”
L’AI Literacy in pratica: competenze per ruoli non tech
L’AI Literacy è un set di competenze strategiche che si declinano diversamente in base al ruolo. Facciamo qualche esempio e vediamo che cosa significa in pratica.
AI Literacy per i professionisti HR
Per i professionisti delle Risorse Umane, l’AI è uno strumento per trasformare il ruolo da amministrativo a strategico. Non a caso, il 79% degli HR Manager la considera fondamentale per guidare le scelte aziendali (Fonte, link esterno). La vera competenza sta nell’applicare l’AI a tre aree strategiche della gestione delle risorse umane.
- Data Analysis e People Analytics: il 79% degli HR Manager considera l’intelligenza artificiale un elemento strategico fondamentale per guidare scelte di business e migliorare le performance aziendali. I professionisti HR desiderano skill specifiche come la capacità di interpretare i dati generati dai sistemi di recruiting AI, la capacità di condurre analisi predittive sul turnover dei dipendenti e saper riconoscere le metriche di engagement. Questa competenza è diventata critica perché permette di prendere decisioni informate e strategiche piuttosto che amministrative.
- Familiarità con piattaforme AI specifiche: i professionisti HR cercano competenze pratiche su strumenti come sistemi di screening dei candidati basati su AI, chatbot per risorse umane, software di performance management potenziati e piattaforme di analisi predittiva dei dipendenti. Il focus non è ovviamente sullo sviluppo, ma sulla programmazione ma sull’utilizzo strategico di questi strumenti.
- Gestione del cambiamento e change management: dato che il 60% delle imprese sta ancora cercando l’equilibrio ideale tra automazione e relazione umana, i professionisti HR ricercano competenze specifiche per guidare l’adozione dell’AI, comunicare il valore ai dipendenti e affrontare le resistenze al cambiamento. (Fonte, link esterno)
- Etica, sicurezza e privacy dei dati: con l’AI Act in vigore, gli HR manager cercano attivamente competenze su come utilizzare sistemi AI in modo etico e conforme alle normative, in particolare riguardo ai bias nei sistemi di recruiting.
AI Literacy per il team di Marketing
I professionisti del marketing hanno già ampiamente adottato l’IA: si stima che l’80% dei Chief Marketing Officer (CMO) la utilizzerà quotidianamente entro il 2025 (Fonte, link esterno). I professionisti del marketing ricercano in particolare competenze nei seguenti ambiti:
- Prompt engineering per generare contenuti personalizzati e varianti di campagne
- Capacità di utilizzare strumenti come ChatGPT, DALL-E, Midjourney per creazione di contenuti
- Abilità di sfruttare GenAI per automatizzare flussi di lavoro, dalla creazione di copy all’ideazione creativa
- Data Analysis e Business Intelligence: i marketer cercano competenze di analisi dei dati per interpretare i dati dei comportamenti dei consumatori, testare messaggi, ottenere insight in real time e ottimizzare il ROI delle campagne.
- Collaborazione uomo-macchina: una competenza sempre più ricercata dai digital marketer è la capacità di bilanciare l’intuizione creativa umana con la logica algoritmica dell’AI, comprendendo i limiti dei modelli e applicando output AI in modo critico.
- SEO e Performance Advertising ottimizzati da AI: i professionisti cercano competenze specifiche su come l’AI sta trasformando strategie di SEO, targeting su Meta e Google, e monitoraggio dei risultati con strumenti di analytics avanzati.
- Consapevolezza etica dell’AI nel marketing: con l’evoluzione normativa, i professionisti marketing ricercano competenze su come utilizzare AI in modo responsabile e trasparente, evitando bias nelle campagne e rispettando privacy dei consumatori.
AI Literacy per il team legal
Per il dipartimento legale e i consulenti, l’AI è una potente alleata ma anche una fonte di rischio normativo. Sebbene il 76% dei dipartimenti legali usi già la GenAI, la fiducia e le preoccupazioni etiche restano le sfide principali (Fonte, link esterno). Per questo, l’AI Literacy è prima di tutto uno strumento di governance. Nel settore legale, la trasformazione è altrettanto significativa. I professionisti legali cercano attivamente:
- Due diligence e analisi contrattuale: i professionisti legali cercano competenze su come usare strumenti AI per identificare rapidamente incongruenze, clausole a rischio e potenziali problemi nella revisione documentale.
- Analisi predittiva e strategia processuale: i legali cercano di sviluppare competenze su come interpretare output di sistemi AI che analizzano migliaia di precedenti per fornire indicazioni probabilistiche sui risultati di giudizio.
- Conoscenza della normativa AI e compliance: formazione su come utilizzare AI in conformità alle normative e gestire i rischi legali.
- Competenze digitali fondamentali: nuovi ruoli emergenti come il “legal technologist” richiedono competenze ibride tra diritto e tecnologia.
- Trasparenza e comunicazione con i clienti: i professionisti legali cercano competenze su come informare i clienti dell’uso di AI nei loro fascicoli e gestire le implicazioni di privacy e responsabilità.
AI Literacy per il Project Management
Per i Project Manager, l’AI smette di essere uno strumento di reporting e diventa un co-pilota predittivo. Il PM deve gestire l’impatto dell’AI sui progetti e, sempre più spesso, gestire progetti AI. La competenza di maggior valore è il Risk Management Predittivo: usare l’AI per analizzare dati storici e identificare pattern invisibili, permettendo di prevedere ritardi, colli di bottiglia o sovraccarichi del team prima che si verifichino.
Nel project management, tra l’altro, è prevista una mancanza di 29,8 milioni di project manager qualificati entro il 2035. I professionisti di questa categoria cercano:
- Data analysis e predictive analytics: i professionisti cercano di imparare come usare l’AI per analisi predittiva dei rischi, previsione di ritardi e sovraccarichi di lavoro, e ottimizzazione dell’allocazione delle risorse.pm-online
- Automazione delle attività operative: i project manager ricercano competenze su come usare l’AI per automatizzare la generazione di report, gestione delle email, aggiornamento di dashboard e raccolta di dati sui progressi.pm-online
- Competenze specifiche con certificazioni: con il rilascio della PMBOK® Guide versione 8, il nuovo esame PMP includerà argomenti legati all’uso pratico dell’AI. Le certificazioni come AI-Driven Project Manager (AIPM) stanno diventando sempre più ricercate.
Le competenze trasversali dell’AI Literacy
Oltre alle competenze specifiche per ruolo, emergono competenze comuni altamente ricercate:
- Competenze di collaborazione con team interdisciplinari e ibridi, ovvero la capacità di fungere da ponte tra esperti tecnici e stakeholder business. Questo richiede l’abilità di tradurre concetti tecnici complessi in linguaggio accessibile per audience non tecniche e, viceversa, articolare requisiti di business in termini comprensibili per i team tecnici. L’AI può facilitare questa collaborazione traducendo automaticamente tra linguaggi tecnici e business. Per esempio, può convertire specifiche tecniche ingegneristiche in benefici orientati al cliente per il marketing, o tradurre feedback di marketing in requisiti tecnici per l’engineering. I professionisti che eccellono in questa capacità di traduzione sono asset preziosi per l’organizzazione.
- AI Governance: i professionisti non tecnici devono comprendere i principi fondamentali della governance AI per garantire un’implementazione responsabile e sicura. Questo include la capacità di stabilire framework di governance che definiscano principi etici specifici per l’AI, allineando questi principi con funzioni essenziali come IT, legal e risk management. Le competenze di governance includono la capacità di spiegare come funzionano le tecnologie AI a un pubblico di governance non tecnico, stabilire e gestire programmi di governance, comprendere la struttura organizzativa e come il lavoro viene effettivamente svolto, e mantenere un approccio orientato alla soluzione e ai risultati. La governance AI dovrebbe fornire un percorso per accelerare e abilitare l’innovazione, non per impedirla.
- Lifelong learning e apprendimento proattivo: Nell’era dell’AI, la competenza più importante non è imparare strumenti specifici, ma sviluppare il giudizio per utilizzare l’AI in modo efficace ed etico. Questo significa mantenere la propria expertise usando l’AI per potenziare le competenze piuttosto che sostituire il pensiero critico e la conoscenza di dominio. I professionisti devono rimanere informati sulle policy AI della loro organizzazione e sulle best practice del loro settore. Un rapporto del World Economic Forum prevede che entro il 2025, il 50% di tutti i dipendenti avrà bisogno di reskilling a causa dell’AI e dell’automazione (Fonte, link esterno).
Siamo di fronte a un bivio. L’adozione “fai-da-te” dell’AI non è più sostenibile. È inefficiente, rischiosa e non conforme.
Per i professionisti di HR, Marketing, Legale e Project Management, il framework di AI Literacy si articola su tre livelli fondamentali:
- Livello di consapevolezza: comprensione di base dell’AI, dei suoi benefici e rischi, capacità di utilizzare strumenti AI pratici nel proprio lavoro quotidiano, e consapevolezza delle implicazioni etiche e di sicurezza.
- Livello di competenza applicativa: capacità di prompt engineering, data literacy per interpretare output AI, pensiero critico per valutare risultati, comprensione dei casi d’uso specifici per settore, e abilità di collaborazione con team tecnici
- Livello di leadership strategica: competenze di governance AI, capacità di condurre impact assessment, gestione del cambiamento per l’adozione AI, comprensione del contesto normativo e regolamentare, e abilità di costruire cultura di AI literacy nell’organizzazione.
L’investimento in queste competenze non è più opzionale. Come confermato dall’obbligo di AI literacy introdotto dall’AI Act europeo, le organizzazioni devono garantire che il proprio personale disponga delle competenze adeguate. Per i professionisti non-tecnici, questo significa sviluppare un equilibrio tra comprensione tecnica sufficiente, competenze pratiche, consapevolezza normativa e capacità di guidare il cambiamento organizzativo verso un’adozione responsabile e strategica dell’intelligenza artificiale.



