GIT Padova
Gruppo di Iniziativa Territoriale di Banca Etica
Questo articolo è una riadattazione di due interventi pubblicati il 3 e il 5 Maggio 2026 sulla community di Banca Etica, nel thread «Verso l’Assemblea 2026». È un contributo a titolo personale di Fabio Temporiti.
Viene reso disponibile in questa forma su richiesta dell’ultima riunione del GIT Padova, che lo ha ritenuto un contributo utile alla discussione in corso per l’elezione del Comitato Etico di Banca Etica per il triennio 2026-2029, in agenda all’Assemblea del 16 Maggio 2026. Rispetto agli interventi originali, sono stati rimossi i nomi delle persone candidate i cui passaggi erano stati citati dal webinar del 15 Aprile: l’analisi resta la stessa, ma slegata dal merito specifico delle singole candidature.
Care persone e realtà socie,
vorrei concentrarmi su un solo tema, che mi pare meriti un approfondimento autonomo rispetto al ricchissimo dibattito di queste settimane: che cosa significa, oggi, per il Gruppo Banca Etica dotarsi di strumenti di intelligenza artificiale e di software coerenti con i propri valori?
È un terreno che diverse voci hanno toccato nel webinar di presentazione delle candidature al Comitato Etico del 15 aprile, ciascuna da un’angolazione propria: c’è chi ha posto la questione della «sovranità tecnologica dell’intelligenza artificiale in una chiave europea» e dell’etica AI vista «non solo come protezione al rischio, ma anche come una partecipazione delle persone»; c’è chi ha ricordato che l’AI è anche «ferro», infrastruttura materiale, e riflesso di disuguaglianze già esistenti; c’è chi ha sostenuto esplicitamente che «l’utilizzo e sostegno dei modelli di AI che sono locali, in Italia o in Europa, o Open Source, sarebbe un modo per evitare i prossimi periodi» di dipendenza; c’è chi si è dichiarato «del tutto favorevole al mondo open source», citando anche la scelta di sistemi operativi basati su Linux e richiamando la necessità di una riflessione «sulla sovranità digitale e sulla dipendenza dalle grandi piattaforme»; c’è chi ha sollecitato protocolli per «riconoscere ed assegnare la responsabilità a chi utilizza l’intelligenza artificiale»; e c’è chi ha ricordato che il Comitato Etico «ha già cominciato a collaborare con la Banca nello sviluppo di strumenti interni per regolamentare l’utilizzo dell’AI», anche per «mitigare impatti negativi intrinseci a questi sistemi».
A me sembra che, lette insieme, queste voci disegnino una direzione comune che vale la pena provare a rendere esplicita. La composizione di un organo collegiale come il Comitato Etico richiede del resto proprio una pluralità di competenze e di sensibilità – dai diritti umani al credito, dalla cooperazione internazionale alla governance, dall’inclusione sociale alla relazione con la base sociale – e ciascuna delle tredici persone candidate porta un proprio contributo distintivo al quadro complessivo. Quanto segue si limita a un’angolazione tecnica precisa, su un nodo che attraversa trasversalmente molte di quelle sensibilità; il voto del 16 maggio resta una scelta più ampia, che ciascuna persona socia farà con i propri criteri.
Vorrei tentare un contributo di sintesi sulla dimensione tecnica e di principio del problema, senza entrare nelle altre questioni in discussione.
Il Gruppo Banca Etica ha costruito, in questi ventisette anni, criteri di valutazione di cosa finanziamo che sono fra i più solidi e rispettati nel panorama europeo: lavoro lungo la filiera, impatto ambientale, ricadute sociali, esclusioni esplicite. È un patrimonio metodologico che funziona. La frontiera nuova – quella su cui, mi sembra, anche noi come base sociale possiamo dare una mano – è estendere quello stesso metodo agli strumenti digitali che la Banca usa internamente: la stessa domanda che facciamo a un’azienda da finanziare («chi sei, come produci, in quali condizioni di lavoro e con quale impronta ambientale») possiamo cominciare a farla anche ai fornitori delle infrastrutture su cui giriamo. Le grandi piattaforme di AI generativa di oggi sono concentrate nelle mani di pochissime imprese private, dentro logiche estrattive, energivore e opache su dati di addestramento e lavoro umano di etichettatura – e probabilmente non passerebbero il vaglio dei nostri stessi criteri di finanziamento, se le valutassimo come tali.
Una premessa personale, perché credo conti: uso software libero e open source da oltre vent’anni, per scelta e per lavoro. Proprio per questo vorrei stare lontano dalle posizioni più dogmatiche – quel «fondamentalismo» dell’open source che a volte si vede anche fra i più appassionati e che, paradossalmente, rischia di essere idrorepellente al cambiamento stesso, perché alza barricate dove invece servirebbero ponti (non di Messina). L’open source non è una bandiera ideologica da agitare per partito preso: è un metodo che vale la pena adottare quando – caso per caso – si dimostra più coerente con i nostri obiettivi e sostenibile rispetto alle alternative. Detto questo, sul nodo specifico dell’AI mi pare che il caso sia particolarmente solido, e proverò a spiegare perché.
La parola chiave, secondo me, non è tanto «sovranità tecnologica», che rischia di restare una formula, quanto software libero e modelli a pesi aperti (con «pesi» – in gergo weights – si intendono i parametri numerici che un modello di intelligenza artificiale impara durante l’addestramento e che ne determinano il comportamento; rilasciarli «aperti» significa permettere a chiunque di scaricarli, ispezionarli e riutilizzarli). Sono due tradizioni che da decenni hanno fatto della trasparenza, della cooperazione fra pari e della restituzione alla comunità il proprio metodo: esattamente la stessa grammatica della finanza etica.
Vorrei però essere preciso, perché il dibattito pubblico tende a confondere due cose diverse. Esistono modelli a pesi aperti, dove l’azienda rilascia con licenza permissiva i pesi del modello – possiamo scaricarli, eseguirli sui nostri server, riadattarli – ma non rivela su quali dati siano stati addestrati né con quale codice; ed esistono modelli open source pieni, dove anche il dataset di addestramento e il codice sono aperti e ispezionabili. La differenza non è da specialisti: è la stessa che, nel credito, passa fra «ti dico quanto ti presto» e «ti dico anche da dove vengono i soldi e come ho deciso». Una banca etica, a mio parere, dovrebbe naturalmente preferire la seconda forma.
Esistono già esperienze concrete in questa direzione, soprattutto pubbliche e di ricerca: in Italia Minerva, sviluppato dal gruppo Sapienza NLP con CINECA e fondi PNRR, è un modello linguistico italiano open source pieno; in Francia Lucie, della comunità OpenLLM-France, segue la stessa strada; in Germania il consorzio pubblico OpenGPT-X (Fraunhofer, Deutsche Telekom, Aleph Alpha) rilascia Teuken con dataset documentato. A livello continentale, l’opzione che a me sembra più promettente in assoluto è OpenEuroLLM: un consorzio di una ventina di partner co-guidato dall’Università di Praga e da un’azienda AI finlandese, con un budget di circa 37,4 milioni di euro (di cui circa 20 milioni dal Digital Europe Programme della Commissione Europea, gli altri come cofinanziamento dei partner), che si appoggia ai supercomputer pubblici della rete EuroHPC – fra cui il Leonardo del CINECA di Bologna – ed è progettato fin dall’inizio per essere completamente aperto in tutte le sue componenti e per coprire le 24 lingue ufficiali dell’Unione. È un progetto che meriterebbe un approfondimento (soprattutto dal punto di vista dei finanziamenti che lo sostengono) ben più strutturato di quello che posso fare in queste poche righe; a me basta segnalarlo come quello che mi sembra ad ora: il «respiro europeo» che il Gruppo Banca Etica dovrebbe prendere a pieni polmoni – una banca cooperativa europea ha tutto da guadagnare nel sostenere e poi adottare un’infrastruttura di AI europea, pubblica e cooperativa nello spirito. Modelli «open weight» più maturi commercialmente – come quelli francesi di Mistral o l’italiano Modello Italia di iGenius/CINECA, entrambi sotto licenza permissiva – sono utilizzabili e auditabili sui pesi, ma per scelte strategiche di lungo periodo le iniziative pubbliche e pienamente aperte mi sembrano strutturalmente più vicine a quello che diciamo di volere.
L’anno scorso, in occasione dell’Assemblea del 2025, scrivevo – a proposito del rapporto con Fiare e della Spagna – che l’Europa, per noi, non è solo un mercato in cui operare ma uno spazio politico in cui far vivere i nostri valori e una cornice di alleanze che BE ha scelto fin dalla sua nascita. La risposta che il Consiglio di Amministrazione mi ha indirizzato richiamava, fra le linee del Piano Strategico 2025-2028, la volontà di rafforzare «una forte identità europea» e di escludere «categoricamente derive isolazioniste». Mi sembra che la stessa postura debba valere oggi anche sul digitale: affidarsi acriticamente a infrastrutture extra-europee chiuse e proprietarie, solo perché è la strada più comoda, equivarrebbe di fatto a indebolire quell’identità europea, che ora poggia su due gambe (Spagna e Italia) che ci siamo impegnati a coltivare anche con FEBEA. Tenere la barra dritta sull’Europa – pubblica, cooperativa, aperta – significa, anche sull’AI, restare fedeli a quella scelta.
So bene che una scelta del genere ha un costo: ospitare modelli «in casa» richiede infrastruttura hardware, manutenzione e – soprattutto – formazione del personale, mentre i servizi delle Big Tech via cloud hanno la grande comodità di abbattere quei costi iniziali e di scaricare la complessità altrove. Vorrei però provare a leggere questo trade-off con gli occhi della cooperazione: i costi del cloud proprietario sono comodi all’inizio, ma sono anche opachi, in crescita strutturale e generano un vincolo di fornitore (vendor lock-in) da cui poi è difficile uscire; gli investimenti in hardware proprio e in formazione del personale, invece, sono investimenti su autonomia e – questo mi pare il punto importante – sono anche investimenti sulle persone che lavorano in Banca, sulle loro competenze, sulla loro capacità di restare protagoniste delle scelte tecnologiche e non meri utenti di scatole nere altrui. È esattamente la stessa logica per cui in Banca Etica abbiamo sempre creduto che il credito non sia solo un numero, ma una relazione che fa crescere chi lo riceve. Ma dobbiamo stare coi piedi per terra e capire se possiamo affrontare nel breve periodo questo costo.
E qui si apre il secondo nodo, che mi sembra forse ancora più urgente: l’energia. La domanda elettrica dei data center è più che raddoppiata in cinque anni e l’Agenzia Internazionale dell’Energia stima che entro il 2030 i server “accelerati” dall’AI cresceranno del 30% all’anno, con quasi metà del fabbisogno aggiuntivo coperto ancora da gas e carbone. Diversi studi accademici mostrano che la generazione di testo consuma circa dieci volte più energia di un compito di classificazione, e che l’integrazione di un LLM nei motori di ricerca può quintuplicare l’impronta carbonica per singola interrogazione. Detto in modo brutale: oggi «AI» significa, di fatto, fossili. Anche qui il legame con l’open source è diretto, perché quasi tutti i modelli che pubblicano la propria impronta carbonica nelle proprie schede tecniche sono modelli pubblici e di ricerca (BLOOM, Minerva, Teuken). Le piattaforme delle Big Tech, salvo rare eccezioni, non rendono pubblici i consumi reali delle loro inferenze. Senza apertura non c’è misurabilità, e senza misurabilità non c’è valutazione etica possibile.
Mi sembra interessante notare che il quadro che ne esce non chiede al Gruppo Banca Etica di inventare nulla, perché tutti i tasselli ci sono già. Etica Sgr esclude da anni i FAANG dai propri fondi attraverso la propria metodologia ESG – per ragioni di privacy, condizioni di lavoro lungo la filiera, abuso di posizione dominante, basse performance ESG. La Banca ha costruito una partnership strutturale con ènostra – di cui, per onestà, dichiaro di essere il socio n°20, quindi prendete le righe che seguono con il dovuto sano sospetto sul mio conflitto d’interesse – prima cooperativa italiana di energia 100% rinnovabile e socia della Banca, attraverso cui si possono fornire anche le organizzazioni del Terzo Settore a tariffe agevolate. Mettere in fila questi due binari – già perfettamente coerenti fra loro – significa, sull’AI, indicare una direzione molto precisa: privilegiare modelli open source pubblici, hostarli in infrastrutture sotto controllo (della Banca o di partner europei verificabili), alimentarli con energia rinnovabile certificata.
Vale la pena, per onestà, dire una parola anche sull’hardware, che spesso resta fuori dal dibattito. Oggi il mercato dei chip per AI è dominato da due-tre attori statunitensi (NVIDIA in primis), e questo è un nodo molto più difficile da sciogliere di quello del software, perché serve tempo, capitale industriale e politica pubblica. Qualcosa però si muove anche qui, e a me sembra incoraggiante che a muoversi sia in larga parte l’Europa: l’European Processor Initiative sta sviluppando processori e acceleratori AI basati sull’architettura aperta RISC-V, e nel gennaio 2026 il progetto DARE ha completato il tape-out di tre chiplet specializzati – un acceleratore vettoriale, una unità AI e un processore general-purpose – pensati per essere componibili come blocchi sovrani europei. Va detto, per onestà, che il movimento RISC-V non è solo europeo: negli Stati Uniti aziende come Tenstorrent stanno costruendo workstation AI con stack interamente open source, e in Cina è ormai strategia industriale dichiarata, con la serie Xuantie di Alibaba e i processori di Sophgo. Non è ancora la soluzione di domani, ma è una direzione di marcia in cui un Gruppo come il nostro può scegliere da quale parte stare come promotore di consapevolezza nella propria base sociale.
C’è una precisazione fondamentale che vorrei aggiungere: l’utilizzo dell’AI in Banca Etica dovrebbe restare circoscritto alle operazioni che possono semplificare e migliorare l’operatività e non sostituirsi mai alla decisione umana, a maggior ragione quando questa decisione tocca direttamente la vita delle persone. Penso in particolare alla fase degli affidamenti: la valutazione di una richiesta di credito è uno dei momenti più caratterizzanti della finanza etica, perché lì si misura la capacità della Banca di leggere persone e progetti dentro la loro storia, e non solo dentro un punteggio algoritmico. Affidare quella decisione, anche solo in parte, a un sistema automatizzato significherebbe svuotare la relazione che fa di Banca Etica quello che è. L’AI può aiutare chi decide a istruire meglio la pratica; ma chi decide deve restare una persona, e deve poterlo fare in piena consapevolezza.
A questo punto è giusto fare due precisazioni che, nel post originale del 3 maggio, non avevo sviluppato a sufficienza: entrambe sono anteriori al mio intervento e ne arricchiscono il quadro, e proprio per questo ho ritenuto importante integrarle qui.
La prima riguarda la valutazione dei fornitori. Quando ho scritto che «possiamo cominciare a farla anche ai fornitori delle infrastrutture su cui giriamo», scrivo anche per evitare di essere frainteso: non intendevo affatto suggerire che Banca Etica non lo facesse; la valutazione strutturata dei propri fornitori è anzi uno dei lavori meno conosciuti ma più seri che il Gruppo porta avanti, ed è un lavoro pubblico, tracciabile e ora pienamente integrato nel framework europeo di rendicontazione di sostenibilità – lo si trova nel Bilancio Consolidato Integrato 2025 (in approvazione il 16 maggio), alla sezione «Gestione dei rapporti con i fornitori» dell’Obbligo di informativa ESRS G1-2. Cito un passaggio: «La selezione dei fornitori da parte di Banca Etica avviene […] basandosi non esclusivamente su criteri economici, ma viene valutata anche la responsabilità sociale d’impresa dei fornitori stessi». E ancora, sui criteri di esclusione: il sistema permette di escludere «fornitori che non sono conformi al rispetto dei diritti dei lavoratori, alla tutela dell’ambiente, al rispetto della legge e che operano con la logica della massimizzazione del profitto a discapito dei propri stakeholder». L’autodichiarazione di conformità – condizione necessaria per la stipula del contratto – richiama esplicitamente Convenzioni OIL, Linee Guida OCSE, Dichiarazione Universale dei Diritti Umani e Global Compact ONU; per ogni fornitura sopra i 50.000 € scatta una valutazione socio-ambientale rafforzata su modello ESG. A livello di Gruppo esistono inoltre due policy dedicate – una sulle Esternalizzazioni e una specifica sui «Fornitori di Servizi ICT» – che fissano il quadro di gestione del rapporto con chi fornisce tecnologia. È un patrimonio metodologico solido, perfettamente coerente con i criteri che applichiamo all’attività creditizia.
La seconda precisazione, ancora più rilevante, è che esiste già un Regolamento di Gruppo sull’AI. Nella Relazione Annuale del Comitato Etico uscente – quella che chiude il mandato 2023-2026 – il CE racconta di aver partecipato a gennaio 2026 alla revisione di un documento già approvato dal Consiglio di Amministrazione a dicembre 2025: il Regolamento di gruppo su Intelligenza Artificiale, che delinea la «Politica Etica Bancaria nel campo dell’Intelligenza Artificiale». Il CE riconosce esplicitamente, fra gli aspetti critici, «l’impatto ambientale generato dal consumo di acqua ed energia necessario per il funzionamento dei grandi data center, ma anche dai loro cicli di produzione e smaltimento», insieme a privacy, pregiudizi, criteri di equità, «ruolo del processo decisionale umano nell’interazione con i sistemi di IA», tracciabilità e spiegabilità. La governance prevede livelli multipli di responsabilità, con principi guida che includono «la centralità delle persone, la trasparenza, l’equità, la responsabilità, la moderazione nell’uso, la particolare attenzione alle persone e ai gruppi vulnerabili». Il Comitato anticipa anche due impegni per il prossimo mandato: lavorare alla «normativa che disciplina l’uso dell’IA nei diversi organismi di etica bancaria» e continuare a «sottolineare il significativo impatto ambientale dei sistemi di IA, quindi la necessità di compensare, ridurre o eliminare l’impatto che generiamo in Banca Etica con l’utilizzo dell’IA». Mi sembra che, complessivamente, la cornice etica esista già, sia articolata e allineata ai principi della riflessione contemporanea sull’AI, e che la traiettoria di lavoro sull’impatto ambientale che proponevo nel post del 3 maggio sia in sostanza convergente con quella che il CE ha messo in agenda per il prossimo mandato.
Il tema è stato anche oggetto di un confronto specifico al coordinamento delle aree Nord Est e Sud che si è tenuto a Bologna il 3-4 ottobre 2025: in quella sede è stata esplicitata, in particolare sul fronte dell’hardware IT, una constatazione importante – non c’è oggi un fornitore di hardware non compromesso con il «dual use» dei propri prodotti. Non è una mancanza di Banca Etica, è il riconoscimento onesto di una tensione sistemica del mercato tecnologico, quel mercato in cui qualunque banca, oggi, è costretta ad acquistare.
Il mio contributo si inserisce quindi come estensione e prosecuzione di un lavoro già avviato, non come suo punto di partenza: il software libero, l’AI a pesi aperti e l’energia rinnovabile certificata per i data center sono – al meglio della mia comprensione – fra i pochi strumenti già concretamente disponibili oggi per provare ad alleggerire proprio quelle tensioni che Banca Etica ha già pubblicamente riconosciuto. L’hardware RISC-V europeo, invece, per chiarezza non è ancora acquistabile ed è quindi un orizzonte di medio periodo, non una scelta operativa a breve; ma è una direzione di marcia che vale la pena tenere d’occhio in prospettiva, anche perché potrebbe diventare strategica nei prossimi anni.
La mia speranza è che il prossimo Comitato Etico voglia farsi carico di questa domanda con la stessa serietà con cui affrontiamo i temi del credito o degli armamenti: riconoscere che l’adozione di AI nella Banca e nelle sue partecipate ha implicazioni etiche dirette; preferire soluzioni open source pubbliche e fornitori europei verificabili, che rendano trasparenti dataset, codice e impatto energetico; tutelare i dati delle persone e realtà socie come bene comune (sotto GDPR eh!) da non cedere ai grandi modelli proprietari. Sono convinto che non serva inventare nulla: basta prendere sul serio quello che già diciamo di essere.
Va aggiunto, per onestà, che il compito del prossimo Comitato Etico non sarà semplice, anche perché si troverà a succedere a quello dell’ultimo triennio, che a mio modo di vedere è stato il miglior Comitato Etico che la Banca abbia mai avuto.
Su un terreno in cui le contraddizioni sono inevitabili, mi sembrano comunque indicazioni che vale la pena coltivare insieme. Grazie a tutte le persone che si sono candidate per il tempo e la passione che stanno mettendo in questo passaggio. Ci vediamo il 16 maggio ad Ancona, Vigo o online.
Fabio Temporiti
Nota di trasparenza tecnica
L’immagine di copertina di questo articolo è stata generata localmente in proprio, su hardware sotto controllo dell’autore, con uno stack interamente libero o a pesi aperti. Per coerenza con il merito dell’articolo, di seguito si dichiarano gli strumenti utilizzati con relativa versione e licenza.
| Componente | Versione | Licenza | Ruolo |
|---|---|---|---|
| Krita | 5.2.9 | GNU GPL-3.0-or-later | Editor grafico, composizione e ritocco |
| Krita AI Diffusion (plugin Acly) | 1.50.0 | GNU GPL-3.0 | Interfaccia di generazione integrata in Krita |
| ComfyUI | 0.20.1 | GNU GPL-3.0 | Backend di inferenza e orchestrazione del grafo computazionale |
| PyTorch (backend MPS) | 2.11.0 | BSD 3-Clause | Framework di calcolo tensoriale, accelerazione su GPU Apple |
| Python | 3.12.13 | PSF License (compatibile GPL) | Runtime di ComfyUI |
| OpenSSH | 10.0p2 | BSD-style (con OpenSSL 3.5.5, Apache-2.0) | Trasporto cifrato del tunnel di rete |
| autossh | 1.4g | BSD 2-Clause | Riconnessione resiliente del tunnel |
| Common Canvas XL-C (modello) | XL-C | Apache 2.0 (pesi); dataset CommonCatalog-CC-BY documentato | Modello di generazione fotografico-editoriale, addestrato esclusivamente su immagini Creative Commons |
Infrastruttura: l’editor grafico (Krita) è stato eseguito su un ThinkPad L14 Gen 4 (AMD Ryzen 7 PRO 7730U, 8 core / 16 thread; 64 GB di RAM) con sistema operativo Debian GNU/Linux 13 «trixie»; l’inferenza del modello è stata delegata via tunnel SSH a un MacBook Pro (Apple M1 Pro, 16 GB di memoria unificata, accelerazione Metal Performance Shaders) su macOS 26.4. Entrambe le macchine sono personali e alimentate dalla rete elettrica domestica dell’autore, fornita da ènostra con tariffa Prosumer Casa 7000. Nessun dato è stato trasmesso a infrastrutture cloud di terze parti.