Intelligenza  artificiale e Professioni

0

Le sfide dell’AI  per l’Avvocatura

“L’intelligenza artificiale e l’avvocatura” è stato il tema dell’incontro che si è svolto ieri pomeriggio a Battipaglia nella splendida cornice della Chiesa Santa Teresa del Bambino Gesù.

L’evento, organizzato dall’Ordine degli Avvocati di Salerno e dall’Associazione Avvocati Salerno Sud, ha rappresentato un importante momento di confronto tra istituzioni religiose, mondo professionale  e società civile, con un focus particolare sul ruolo dell’avvocatura  nell’utilizzo di questa formidabile tecnologia, sulle sfide e sui nuovi scenari che si delineano, tra rischi ed opportunità,  nell’era digitale.

A presiedere e a moderare i lavori, è stato chiamato l’Avv. Italo Carbone, Presidente dell’Associazione Avvocati Salerno Sud, promotrice dell’evento insieme all’Avv. Alessandro Rubino.

Ad aprire i lavori e a rivolgere un caloroso indirizzo di saluto al numeroso pubblico presente, il Presidente del COA di Salerno, Avv. Alberto Toriello, che ha sottolineato l’importanza dell’iniziativa, non solo per la sua valenza formativa, ma  – soprattutto –  per la necessità di interpretare correttamente i cambiamenti epocali e repentini, generati dall’avvento di una rivoluzione digitale, che sta cambiando radicalmente gli stili di vita ed il modo di lavorare anche di coloro che esercitano professioni intellettuali, come nel caso degli avvocati. Il Presidente Toriello ha voluto ricordare che, comunque, come recita l’art.13, co.1  della nuova L.132/2025, “l’utilizzo di sistemi di intelligenza artificiale nelle professioni intellettuali è finalizzato al solo esercizio delle attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera”, e che, quindi, sono e saranno sempre i professionisti a dover elaborare e controllare gli atti che redigono per conto dei clienti, di cui sono direttamente responsabili.

A seguire, l’intervento di Don Luigi Piccolo, Parroco della Chiesa di Santa Teresa Bambin Gesù di Battipaglia che ha voluto sottolineare il ruolo della Chiesa e le implicazioni etiche che derivano dall’avvento di questa rivoluzione digitale e che devono essere attentamente considerate, ricordando di tenere sempre al centro la dimensione umana.

E’ stata la volta dell’economista Giovanni Barretta, membro dell’ENIA (Ente Nazionale dell’Intelligenza Artificiale) e Presidente del Tavolo Tecnico dell’Intergruppo parlamentare “Sviluppo Sud, Aree fragili e Isole minori”, che ha posto l’accento sui molteplici impatti, sulle conseguenze concrete che l’intelligenza artificiale e le sue molteplici applicazioni avranno sul mercato del lavoro e sul rapporto tra lavoro e reddito, che, probabilmente, si svilupperà secondo logiche e direttrici del tutto diverse, rispetto a quelle che finora abbiamo conosciuto. Con l’intelligenza artificiale, ha aggiunto l’economista campano, cambia profondamente il concetto di lavoro, il modo stesso di organizzarlo, prestarlo e remunerarlo: “Rispetto a queste nuove sfide, i Governi dovranno compiere, ine­vitabilmente, delle scelte di campo, che incideranno profondamente sul modo stesso di organizzare la convivenza sociale, garantendo pace e benessere. Infatti, qualora dovesse accadere che con l’avvento dell’AI – per produrre – sarebbe richiesto sempre meno l’intervento umano, sarà legittimo chiedersi dove andrà a finire la remunerazione finora spettata ai lavoratori”. Sui nuovi scenari del mercato del lavoro e della tenuta stessa del sistema sociale, Giovanni Barretta ha detto:” Le possibilità che si intravedono, con effetti radicalmente diversi sul rapporto di convivenza tra comunità e individui, sono sostanzialmente due: uno scenario di crescente iniquità sociale e distributiva, in cui il profitto aggiuntivo generato dall’AI andrebbe retrocesso tutto all’imprenditore; un secondo scenario, di eguaglianza sociale, in cui tale profitto aggiuntivo verrebbe distribuito in modo da contribuire al finanziamento di un reddito base universale. La possibilità maggiormente auspicabile, è quella che si potrebbe definire di coesione e di eguaglianza sociale, in cui il profitto aggiuntivo generato dall’AI venga distribuito in modo da contribuire, ove necessario, al finanziamento di un reddito base universale”.

Giovanni Barretta ha, infine, illustrato gli scenari che si aprono per coloro che esercitano le professioni intellettuali, partendo dal quadro normativo definito dall’AI Act Europeo (Regolamento europeo UE 2024/1689 AI Act), entrato in vigore il 1° agosto 2024, dalla Legge n. 132/2025, che rappresenta il primo intervento normativo nazionale organico sull’AI in Italia, entrata in vigore il 10 ottobre 2025,  dalle Linee guida degli Ordini professionali e dai rinnovati Codici deontologici. Peraltro, ha ricordato Barretta che, a norma del 2° comma dell’art.13 della L. n.132/2025 (“ Per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo”), i professionisti stessi e, quindi anche gli avvocati, all’atto dell’assunzione dell’incarico, hanno l’obbligo di dichiarare ai propri clienti se faranno uso di sistemi di intelligenza artificiale per comporre gli atti richiesti.

A seguire, l’intervento di Luigi Viola, Direttore della Scuola di Diritto Avanzato ed esperto di piattaforme digitale professionali, cofondatore anche di una società che ha prodotto un’applicazione tutta italiana di AI per l’ambito giuridico.

 Viola ha sottolineato l’importanza da parte del legislatore europeo e poi di quello nazionale di aver voluto regolamentare la materia (con l’AI Act Europeo e la L.n.132/2025), onde evitare confusione, abusi e rischi per tutti gli utilizzatori. Il Direttore della Scuola di Diritto Avanzato ha poi svolto un’approfondita analisi tecnica degli adempimenti richiesti oggi  ai professionisti dalla normativa nazionale per utilizzare consapevolmente sistemi di intelligenza artificiale per comporre i propri atti, segnalando le grandi opportunità che si determinano nella ricerca veloce di norme,  pronunce giurisprudenziali e dottrinali, accanto  – però – agli enormi rischi in conseguenza di un uso della tecnologia digitale inconsapevole e senza regole. Luigi Viola ha, inoltre, spiegato la differenza che corre tra le piattaforme AI generaliste e quelle professionali, implementate per singoli ambiti e materie, evidenziando come nelle prime il rischio di errori clamorosi ed “allucinazioni” rimanga sempre molto alto, con tutte le conseguenze che ne derivano per i professionisti.

 A chiudere l’interessante giornata di lavori, l’intervento di Maria Citro, Presidente del Consiglio di disciplina del COA di Salerno, che si è soffermata, particolarmente,  sugli aspetti deontologici e di responsabilità professionale che investono gli avvocati,  nella composizione degli atti elaborati con sistemi di intelligenza artificiale.

Citro ha poi analizzato le due recenti pronunce (Tribunale di Latina, 23 settembre 2025, n. 1037; Tribunale di Torino, 16 settembre 2025, n. 2120)  con le quali i giudici hanno irrogato sanzioni severe nei confronti di avvocati che utilizzavano AI per redigere difese totalmente infondate, senza controllo umano.

Le conclusioni dell’incontro sono state affidate all’Avv. Italo Carbone, Presidente dell’Associazione Avvocati Salerno Sud che ha voluto rimarcare che: “ saper usare l’intelligenza artificiale farà la differenza in tutte le professioni, inclusa quella forense; sarà inutile opporsi. Ciò che è importante è saper interpretare nel giusto modo il cambiamento”.

Dal convegno di Battipaglia sono nati spunti interessanti per una riflessione che deve necessariamente coinvolgere tutti noi, anche nella nostra dimensione di lavoratori e professionisti, sull’utilizzo consapevole di queste formidabili tecnologie digitali, per coglierne appieno le opportunità, stando però bene attenti ad eliminare o quantomeno mitigare i molteplici rischi.

Noi vogliamo auspicare, come del resto richiesto espressamente dalla recentissima Legge n.132/2025 (art.3, 3 co.) , che l’IA sarà  utilizzata davvero in una “dimensione antropocentrica”, garantendo:  “rispetto dell’autonomia e del potere decisionale dell’uomo, della prevenzione del danno, della conoscibilità, della trasparenza, della spiegabilità …, assicurando la sorveglianza e l’intervento umano” .