Indice
- 1 Dai sistemi produttivi alle infrastrutture digitali, software autonomi iniziano a gestire attività e scambi di valore, mentre regole, tutele e responsabilità restano ancora indietro rispetto alla tecnologia
- 2 Dall’automazione al denaro: il salto dell’AI
- 3 Il problema delle regole: identità senza soggetto
- 4 Coinbase e l’economia tra macchine
- 5 Un ecosistema che si allinea
- 6 Costi, rischi e sostenibilità del modello
- 7 Responsabilità: il nodo che resta aperto
Dai sistemi produttivi alle infrastrutture digitali, software autonomi iniziano a gestire attività e scambi di valore, mentre regole, tutele e responsabilità restano ancora indietro rispetto alla tecnologia
L’intelligenza artificiale sta cambiando il mondo del lavoro con una velocità che inizia a produrre effetti economici drammatici. Le promesse diffuse negli ultimi anni – secondo cui questa nuova fase avrebbe mantenuto centrale il ruolo umano – mostrano oggi crepe evidenti. In molti settori, una parte delle attività viene già sostituita da sistemi software, capaci di operare in autonomia su compiti prima affidati alle persone. È un processo che, nel lungo periodo, rischia di concentrare valore e opportunità in poche mani, mentre cresce l’incertezza per una quota sempre più ampia di lavoratori.
Altre notizie selezionate per te:
Intelligenza artificiale fuori controllo, allarme tra i giganti tech
Intelligenza artificiale, Shumer: “In meno di 5 anni cambierà ogni professione”
Intelligenza artificiale, senza nuove competenze lavoratori a rischio esclusione
L’intelligenza artificiale trasforma il lavoro: adattarsi o soccombere
Dall’automazione al denaro: il salto dell’AI
Il punto di rottura non riguarda più soltanto il lavoro, ma il modo in cui il valore viene prodotto e scambiato. Negli ultimi mesi, alcuni sistemi basati su intelligenza artificiale hanno iniziato a operare non solo come strumenti, ma come soggetti operativi all’interno dei flussi economici digitali. Non si limitano a eseguire compiti: gestiscono risorse, acquistano servizi, attivano altri sistemi e, soprattutto, effettuano pagamenti.
Il 9 marzo 2026 Brian Armstrong, CEO di Coinbase, ha scritto su X: “presto ci saranno più agenti AI che umani a effettuare transazioni”. La dichiarazione si inserisce in un contesto già in evoluzione. Alcuni software oggi pagano accessi a database, utilizzano API a consumo, acquistano capacità computazionale e regolano rapporti economici tra piattaforme senza che ogni operazione venga autorizzata manualmente. Il pagamento diventa parte della funzione stessa del sistema, non più un atto separato.
Il problema delle regole: identità senza soggetto
Questa trasformazione entra in attrito con l’impianto normativo esistente. Il sistema finanziario si basa sull’identificazione dei soggetti: ogni conto, ogni transazione, ogni responsabilità parte dal presupposto che esista una persona o un’entità giuridica riconoscibile. Le procedure KYC (Know Your Customer) rappresentano il punto di accesso a questo sistema.
Un agente software non possiede identità anagrafica, non dispone di documenti, non può essere ricondotto a un soggetto individuale nel senso tradizionale. Di conseguenza, non può operare attraverso i canali bancari classici. Eppure, nello stesso momento, svolge attività che implicano scambio di valore. È qui che emerge la frattura: l’infrastruttura tecnica consente operazioni che il sistema normativo fatica a inquadrare.
“Non possono aprire un conto bancario, ma possono possedere un portafoglio crypto”, ha osservato Armstrong. I crypto wallet, fondati su chiavi crittografiche e non su identità formali, permettono agli agenti di entrare comunque nel circuito economico. È un bypass tecnologico che, di fatto, crea un livello parallelo rispetto alla finanza regolata.
Coinbase e l’economia tra macchine
In questo scenario, alcune aziende stanno costruendo infrastrutture dedicate. Coinbase ha introdotto gli Agentic Wallets, progettati per consentire agli agenti AI di gestire fondi e interagire economicamente con altri sistemi. Il protocollo x402, su cui si basa questa architettura, nasce con l’obiettivo di integrare i pagamenti direttamente nelle interazioni digitali.
Alla data delle dichiarazioni di Armstrong, il sistema aveva già elaborato decine di milioni di transazioni, segnale che l’utilizzo non è più confinato alla sperimentazione. Il modello operativo è semplice solo in apparenza: un software accede a un servizio e paga automaticamente per l’utilizzo, senza che un utente debba intervenire. Questo tipo di dinamica, replicata su larga scala, trasforma il pagamento in una componente invisibile e continua dell’infrastruttura digitale.
Si delinea così una forma embrionale di economia tra macchine, in cui i sistemi software non solo producono output, ma regolano autonomamente le condizioni economiche della loro attività.
Un ecosistema che si allinea
Il fenomeno non è isolato. Nelle stesse ore della dichiarazione di Armstrong, anche Changpeng Zhao, fondatore di Binance, ha indicato una traiettoria simile, sostenendo che gli agenti AI potrebbero arrivare a eseguire volumi di transazioni enormemente superiori a quelli umani.
Parallelamente, diversi attori tecnologici stanno lavorando a strumenti che rendano questo sistema più affidabile e tracciabile. Il concetto di verifiable intent, sviluppato in ambito finanziario e tecnologico, introduce un meccanismo in cui un’operazione economica può essere ricondotta a una catena verificabile di autorizzazioni e azioni, anche quando l’esecuzione è delegata a un software.
Iniziative come la x402 Foundation, promossa da Coinbase insieme a Cloudflare, indicano inoltre la volontà di definire standard condivisi per questo nuovo livello dell’economia digitale. Il passaggio da sperimentazione a infrastruttura è già in corso.
Costi, rischi e sostenibilità del modello
L’accelerazione tecnologica non elimina le criticità. Le prime analisi indicano che una quota rilevante dei progetti di AI agentiva potrebbe non raggiungere una sostenibilità economica nel medio periodo, a causa di costi elevati, complessità operativa e difficoltà nella gestione del rischio.
A questo si aggiungono problemi legati alla sicurezza. Un sistema autonomo che può effettuare transazioni rappresenta anche un potenziale punto di vulnerabilità, soprattutto se inserito in contesti decentralizzati e difficili da monitorare. Le dinamiche tipiche della finanza digitale – frodi, riciclaggio, uso improprio delle risorse – possono amplificarsi quando la velocità operativa aumenta e il controllo umano diretto diminuisce.
Il rischio non è solo tecnologico, ma sistemico. Un’infrastruttura economica in cui i flussi di valore vengono gestiti da software autonomi richiede strumenti di controllo altrettanto automatizzati e capaci di operare alla stessa scala.
Responsabilità: il nodo che resta aperto
Resta infine il punto più delicato. Un agente AI non è un soggetto giuridico. Non può essere responsabile in senso legale delle proprie azioni. Quando un sistema autonomo effettua una transazione, la responsabilità ricade su chi lo ha progettato, implementato o autorizzato. Questo principio, già valido oggi, diventa più complesso da applicare in un contesto in cui le decisioni operative sono distribuite e automatizzate.
La fiscalità segue lo stesso schema: le operazioni vengono ricondotte a soggetti umani o aziendali, anche quando l’esecuzione è completamente delegata al software. Ne deriva una distanza crescente tra ciò che la tecnologia rende possibile e ciò che il sistema normativo riesce a governare. Dentro questa distanza si gioca la tenuta dell’intero modello. Le macchine possono gestire il denaro, ma il sistema economico continua a poggiare su responsabilità che restano, inevitabilmente, umane.
A cura della Redazione GTNews
