CAPITOLO 02 / 5

💻 Tecnologia — La Macchina che Ridisegna il Mondo

L'AI non è solo una tecnologia: è una nuova unità di misura che ridisegna valore, produttività e potere. Dai robot agli agenti autonomi, dal metaverso alle criptovalute, dai prodotti di consumo alla singolarità: il compute diventa il nuovo petrolio.

~35 min di lettura · Ultimo aggiornamento: 2026-03-05 · Riferimenti: 65+
In questo capitolo

Search

Ricerca locale sui paragrafi di questo capitolo.

2.1 — Robotica e AI

2.1.1 — L'economia del compute

In tre mesi, NVIDIA ha incassato 57 miliardi di dollari, guadagnandone 36 con un margine del 75%. Numeri incomprensibili. Proviamo a capirli. Il valore di mercato di NVIDIA supera quello di tutte le aziende svizzere quotate a Zurigo messe insieme — Rolex, Nestlé, ABB, Novartis incluse — e delle 20 aziende più importanti d'Europa (ASML, LVMH, SAP…) (🍫 ff.139.1 Svizzero? No, NVIDIA). Non è corretto confrontare capitalizzazione di borsa con PIL — il primo è valore teorico percepito, il secondo è quanto fisicamente prodotto in un anno — ma la metafora rende l'idea della sproporzione. Se il mercato fosse un campionato di fantacalcio, per acquistare NVIDIA dovreste vendere l'intera squadra europea. Jensen Huang, sul palco del COMPUTEX 2025, non ha presentato un chip: ha presentato una visione del mondo dove l'unità di misura è il watt di calcolo Keynote di Jensen Huang, CEO di NVIDIA, a (youtube.com).

Perché tutto questo hype? Perché l'AI si sta mostrando economicamente fruttifera a una velocità senza precedenti. Dave Blundin, nel podcast MOONSHOT, osserva che il mercato delle pubblicità online — 600 miliardi di dollari — è già interamente gestito da algoritmi. Agenti con capacità più spinte (e-commerce, contrattazione di materie prime, pianificazione finanziaria) possono creare un mercato di almeno 1.000 miliardi, l'1% circa del PIL mondiale (🍧 ff.139.2 Combini e paperclips). Le nuove classifiche dell'AI non sono più solo cognitive ma economiche: Alpha Arena misura le performance in finanza; Vending-Bench 2 valuta abilità di vendita, contrattazione e pianificazione a lungo termine. Il 50% dei ricavi API di Anthropic proviene da strumenti di coding come GitHub Copilot e Cursor Il 50% dei ricavi API di Anthropic proviene (substack.com). L'ottimizzazione economica a lungo termine richiama alla mente il minigioco del paperclip maximizer, citato da Nick Bostrom come esempio di superefficienza che potrebbe portare all'estinzione (🦅 ff.36.2 Il super-librozzo sulla singolarità). 50 milioni di GPU H100 a pieno regime: il costo energetico dell'AI (x.com)

Ma quanto costa far girare questa macchina? L'energia è il vincolo più concreto dell'era AI. Generare una singola immagine con un modello di diffusione consuma circa 0,5 Wh — quanto una lampadina LED accesa per tre minuti. Una richiesta Gemini consuma 0,24 Wh; un'ora di streaming 36 Wh Netflix ne consuma quanto 400 richieste Una richiesta Gemini consuma 0,24 Wh; un'ora di streaming 36 Wh (substack.com). Sembra poco, ma moltiplicato per miliardi di richieste giornaliere il conto sale. Secondo la Federal Reserve, il consumo legato all'AI potrebbe far salire il prezzo dell'elettricità negli USA da 0,17 a 0,19 dollari per kWh (⚡ ff.135.1 I costi dell'Intelligenza Artificiale). Elon Musk prevede 50 milioni di GPU H100 attive entro il 2026; a regime, 35 GW di potenza computazionale — il 2% dell'elettricità globale — dedicati esclusivamente al calcolo AI La teoria 'energia-calcolo': la potenza energetica dominerà l'AI (substack.com) (🌊 ff.135.2 Onda anomala energetica). Fortunatamente, una soluzione arriva dalla natura stessa: il solare in soli 10 anni è passato da 0 a 2073 TWh, con investimenti da 500 miliardi che hanno superato quelli per l'aviazione durante la Seconda guerra mondiale — un ponte diretto tra la fame energetica dell'AI e la transizione ecologica raccontata nel capitolo Natura (🌞 ff.70 Solare).

“L'AI non è lo strumento della singolarità; l'AI è la singolarità. Non stiamo costruendo uno strumento che cambia il mondo — stiamo costruendo un mondo che cambia gli strumenti.”
— Alexander Wissner-Gross, fisico di Harvard

Sam Altman ha dichiarato che “con 10 GW di calcolo, l'AI può curare il cancro”. È un'affermazione grandiosa, ma il trend è reale: i costi marginali del compute scendono del 70% all'anno. Il modello M6 di Alibaba, con 10 trilioni di parametri, ha consumato solo l'1% dell'energia di GPT-3, dimostrando che l'efficienza è possibile (💡 ff.2 Mente artificiale e psichedelia). I numeri meritano un approfondimento: il training di GPT-3 di OpenAI è costato circa 12 milioni di dollari; il modello M6 di Alibaba, con prestazioni 50 volte superiori in termini di parametri, ha richiesto l'1% del consumo energetico — solo 512 GPU in 10 giorni. Le sinapsi nel cervello umano sono 125 trilioni; M6 ne simula 10 trilioni, un ordine di grandezza che inizia a non essere più trascurabile. Il Made in China dell'intelligenza artificiale non è una copia a basso costo: è un'alternativa efficiente che riscrive le regole della competizione. Se il treno dell'AI parte da San Francisco, la Cina non insegue — costruisce un binario parallelo con meno carburante e più passeggeri (🇨🇳 ff.2.2 Alibaba e l'alternativa efficiente). Nel frattempo il professore Wang Yu, alla AI Conference di Shanghai, ha coniato il “watt-to-bit” — parametro per classificare l'efficienza dei modelli. La Cina, costretta dall'embargo sulle GPU a spremere ogni granello di caffè dalle macchine meno performanti, ne ha fatto una necessità strategica: l'ARC Prize include già il costo per task nella sua leaderboard (☕ ff.135.4 L'AGI avanza: il “caffè” cinese). Nel filo editoriale di Futuro Fortissimo c'è un punto fermo: l'AI non è solo una corsa a benchmark, è una riorganizzazione di lavoro e decisioni. Il punto non è prevedere tutto: è mantenere governabile l'accelerazione (💡 ff.129.1 La singolarità gentile di Altman). GPT-5 completa compiti software di 2 ore e supera benchmark autonomi (metr.github.io)

2.1.2 — La singolarità gentile

Siamo nella singolarità? GPT-5 Pro dà risposte a problemi FrontierMath Livello 4 — talmente difficili che, quando vengono risolti, richiedono a esperti matematici settimane di lavoro. GPT-5 ha persino proposto un meccanismo scientifico paragonato alla mossa 37 di AlphaGo — quella giocata che nessun umano avrebbe concepito GPT-5 ha proposto un meccanismo scientifico paragonato alla mossa 37 di AlphaGo (x.com). In parallelo, Gemini con Deep Think ha raggiunto il livello di medaglia d'oro all'Olimpiade Internazionale di Matematica Una versione avanzata di Gemini con Deep Think raggiunge il livello medaglia d'oro IMO (deepmind.google) (💥 ff.135.3 Siamo nella singolarità?). Alex Wissner-Gross descrive la singolarità come un'illusione ottica: da lontano appare come un asintoto verticale, ma “quando ci sei in mezzo, sembra abbastanza continuo.” Sam Altman preferisce parlare di “singolarità gentile”: non un'esplosione improvvisa, ma un'accelerazione che entra nella vita quotidiana senza essere percepita come discontinuità (💡 ff.129.1 La singolarità gentile di Altman). Ray Kurzweil, nel 2005, aveva previsto l'AGI entro il 2029. L'economista Tyler Cowen, in un sondaggio Polymarket del 2025, stima la probabilità al 30% — un anno prima era al 5% (🔬 ff.123.1 L'AI con il coltellino svizzero). C'è un'eco qui del concetto di flow che torna nel capitolo Società: l'accelerazione è percepibile solo da chi si ferma a misurarla, come la velocità di un fiume si percepisce dalla riva, non dall'acqua (🎯 ff.134.1 Come entrare in flow).

Illustrazione di intelligenza artificiale e mente digitale con circuiti e neuroni interconnessi
🧠 ff.2 — Mente artificiale e psichedelia: l'AI come nuova unità di misura, dal tool all'agente, dalla simulazione alla singolarità.

Ma la singolarità gentile ha le sue prove empiriche, e non sono solo matematiche. Il report METR su GPT-5 rivela un dato che merita di essere letto due volte: il modello completa compiti software della durata media di 2 ore e 17 minuti con un tasso di successo del 50%, contro l’ora e mezza di GPT-3. Non è il raddoppio che ci si aspetterebbe da una curva esponenziale — è qualcosa di più sottile. La macchina non è diventata più veloce: è diventata più tenace. Riesce a portare a termine operazioni che prima abbandonava a metà, gestendo dipendenze, errori a catena, timeout. È la differenza tra uno stagista che sa scrivere codice e un junior che sa consegnare un progetto (🧠 ff.3.1 Il salto di GPT-5). Intanto, Lambda — azienda nota per i suoi server GPU — ha presentato NeuralOS, il primo sistema operativo neural-native: un’architettura dove l’interfaccia non è più la finestra, il menù, il cursore, ma il pensiero stesso. L’utente descrive un’intenzione e il sistema orchestra processi, file, connessioni. Non è una shell con un chatbot sopra: è un ripensamento radicale di cosa significhi “usare un computer”. Se il vibe coding ha eliminato la barriera tra idea e prototipo software, NeuralOS elimina quella tra idea e sistema operativo. I pensieri diventano sistemi — letteralmente (💻 ff.79.1 Pensieri che diventano sistemi). E se la macchina può pensare un sistema, può anche operare un corpo? Alla Johns Hopkins, un robot ha eseguito la prima chirurgia realistica completamente autonoma, senza intervento umano. Non un taglio guidato, non un assistente meccanico: un chirurgo artificiale che decide, incide, sutura. La soglia psicologica è enorme — affidereste il vostro addome a un algoritmo? — ma i dati sulla precisione superano già la media umana in diversi benchmark laparoscopici. Il paradosso è che ci fidiamo dell’AI per guidare auto a 130 km/h ma esitiamo a lasciarla suturare un tessuto a velocità zero. La fiducia non scala con la competenza: scala con la familiarità (🏥 ff.129.4 Il chirurgo senza mani).

Ma se l'AI opera sul corpo, può anche guardare dentro la mente? Anthropic, l'azienda fondata da fuoriusciti di OpenAI, ha fatto qualcosa di inedito: ha 📎 vivisezionato i pensieri di Claude, scomponendo il modello in componenti interpretabili. Certi assembramenti di “neuroni artificiali” si attivano in modo specifico per sport, numeri, sequenze di DNA — pattern che ricordano da vicino le aree specializzate della corteccia cerebrale umana. L'obiettivo dichiarato è rendere meno opachi gli output dei modelli linguistici, ma il sottoprodotto è forse più importante dell'obiettivo: studiando come le reti neurali hanno 📎 interiorizzato il concetto di tempo, stiamo capendo meglio come lo interiorizza il nostro cervello. La ricorsività è vertiginosa: costruiamo una mente artificiale per capire quella biologica, e la mente biologica usa quella artificiale per capire sé stessa. Meta ha già portato questo loop al livello successivo: il modello TRIBE, con un miliardo di parametri, è il primo a 📎 predire le risposte cerebrali agli stimoli, mentre un altro modello decifra il monologo interiore dall'attività cerebrale con un'accuratezza fino al 74% 📎 decifrare il monologo interiore dall'attività cerebrale. La critica storica ai LLM — casualità, scarsa riproducibilità, opacità — si sta trasformando nel suo opposto: proprio perché non capiamo come pensano, li stiamo usando come specchi per capire come pensiamo noi (🔎 ff.83.5 Capire il cervello con l'AI).

E se la trasparenza è il primo passo, il secondo è la profondità. Con il lancio di o1 (Project Strawberry), OpenAI ha introdotto un cambio di paradigma che merita un nome preciso: ragionamento deliberato. GPT-4 era il modello del pettegolo — la risposta veloce, la chiacchiera da bar, l'intuizione brillante ma superficiale. o1, prima di parlare, pensa. Il paper 📎 Learning to Reason with LLMs dettaglia la svolta: nei modelli precedenti, più parametri e più dati durante il training producevano risultati migliori. Con o1, il salto avviene dopo l'allenamento — aumentando le risorse allocate al momento della risposta, il modello esplora alberi di riflessione interni (chain of thought) più profondi, valutando e scartando ipotesi prima di convergere. È la differenza tra chi spara la prima cosa che gli viene in mente e chi si prende trenta secondi per pensare — e quei trenta secondi, nei benchmark matematici e di coding, valgono decine di punti percentuali. Il report METR su GPT-5 conferma la traiettoria: il modello 📎 completa compiti software di 2 ore e 17 minuti con un tasso di successo del 50%. La macchina non è solo diventata più intelligente: è diventata più paziente. E la pazienza, nell'era dell'attenzione frammentata, potrebbe essere la forma di intelligenza più sottovalutata (🍓 ff.103.1 Prima di parlare, pensa).

2.1.3 — Robot e biomimetica

Ma l'intelligenza non resta confinata nel software. I robot controllati da LLM stanno uscendo dai laboratori. Al MIT, un braccio robotico guidato da un modello linguistico ha imparato a eseguire compiti mai visti, semplicemente leggendo le istruzioni in linguaggio naturale (🤖 ff.88.2 ChatGPT controlla un robot). Nel 2025, la Cina ha ospitato i World Humanoid Robot Games con 280 team, 16 paesi e 500 robot in competizione La Cina ha ospitato i primi Giochi Mondiali (x.com); il primo robot umanoide capace di piegare il bucato usando una rete neurale senza modifiche architetturali è entrato nella conversazione industriale Il primo robot umanoide che piega il bucato (linkedin.com). La Cina di Unitree ha presentato un robot umanoide a meno di 6.000 dollari — un prezzo che cambia la scala del gioco Unitree della Cina ha presentato un robot umanoide (bloomberg.com). La visione artificiale supera già l'occhio umano in compiti specifici: diagnosi di retinopatia diabetica, classificazione di nei, lettura di TAC (👀 ff.88.3 Dalle parole ai fatti). I prototipi più recenti mostrano che la robotica generalista sta uscendo dalla demo e punta a costi progressivamente più accessibili (🤖 ff.37.2 Tesla AI Day). Il Giappone, con la popolazione più anziana del mondo, è il laboratorio naturale della robotica assistenziale: Toyota ha sviluppato un robot infermiere che solleva pazienti di 80 kg; SoftBank sta investendo 100 miliardi in un polo AI-robotica in Arizona — lo stesso tessuto che nel capitolo Società ricorre come risposta alla crisi demografica (🤝 ff.89 Relazioni).

Ma la robotica più profonda non imita l'umano — imita l'insetto. NeuroMechFly v2 è il primo sistema che integra 4 canali embodied — visione, olfatto, feedback ascendente e terreni complessi — in un unico stack dove neuroscienze computazionali e controller robotici sono verificabili e trasferibili, non più demo isolate di locomozione ( NeuroMechFly v2: 4 canali embodied e controller bio-ispirati ). Il progetto dimostra due controller bio-ispirati e due task avanzati di reinforcement learning basati sul connectome — la mappa neurale completa della Drosophila. È un ponte inedito tra la biologia e il silicio: se un cervello da centomila neuroni può produrre comportamento adattivo sofisticato, la domanda non è quanti parametri servano, ma quanta architettura sia sufficiente. Nel frattempo, l'impatto economico dell'AI non è più teorico. Block — la società di Jack Dorsey — ha licenziato 4.000 persone e il titolo è salito del 24% in un giorno: Wall Street premia chi taglia teste ( Block licenzia 4.000, titolo +24% — disoccupazione neolaureati 50% ). Il tasso di disoccupazione tra neolaureati americani supera il 50%, e la promessa “studia, laureati, lavora” si dissolve davanti a modelli che svolgono compiti junior meglio e gratis. Stanley Druckenmiller aveva visto il segnale già nel 2022: ha comprato NVIDIA prima di ChatGPT osservando che gli studenti di Stanford stavano migrando in massa da crypto a AI ( Druckenmiller ha comprato NVIDIA osservando la migrazione Stanford da crypto a AI ). Non è solo un trade finanziario: è una lettura della direzione del talento. Quando i migliori cervelli cambiano campo, il capitale segue — e il mercato del lavoro si riorganizza prima che le università aggiornino i curricula.

L'AI per la scienza è forse la frontiera più sottovalutata. Sakana AI ha creato The AI Scientist — un sistema che genera, sperimenta e scrive articoli scientifici al costo di 15 dollari ciascuno (📚 ff.102.3 Automatizzare la ricerca scientifica). Un laboratorio alimentato da AI si auto-gestisce e scopre nuovi materiali 10 volte più velocemente dei ricercatori umani Un laboratorio alimentato da AI si auto-gestisce e (sciencedaily.com). L'AI generativa accelera persino la ricerca sulla longevità, riducendo un lavoro di 150 anni a un mese e a un miliardesimo del costo L'AI generativa accelera la ricerca sulla longevità riducendo (x.com) — un bridge diretto con la ricerca su invecchiamento e farmaci raccontata nel capitolo Società. AlphaFold ha reso evidente la scala del cambio di passo: in mesi, risultati che prima richiedevano tempi molto più lunghi. Nel 2024, Insilico Medicine ha portato il primo farmaco scoperto interamente dall'AI alla fase 2 dei trial clinici, per la fibrosi polmonare idiopatica (💊 ff.53 La cura ai tumori?). Watson di IBM, seppur criticato per i suoi risultati in oncologia, ha aperto la strada all'idea che la chimica e la biologia potessero essere “lette” da una macchina come si legge un testo (🔬 ff.46 Elementale, Watson?).

Il cervello umano (20 W) è un milione di volte più efficiente del supercomputer Frontier (21 MW). AlphaGo ha battuto il campione di Go consumando l'energia che un essere umano userebbe in un decennio. I computer neuromorfici promettono di colmare questo divario, mentre George Church ha già codificato un libro intero nel DNA (🧠 ff.122 Naturale è meglio?). Un modello AI è già in grado di decifrare il monologo interiore dall'attività cerebrale con un'accuratezza fino al 74% Un modello AI decifra il monologo interiore dall'attività (sciencedirect.com). Il confine tra silicio e biologia si assottiglia: il modello TRIBE di Meta predice le risposte cerebrali agli stimoli con 1 miliardo di parametri Il modello TRIBE di Meta è il primo (x.com).

2.1.4 — Miniaturizzazione e ricorsività

La dematerializzazione dell'AI — modelli più piccoli, più efficienti, eseguibili su smartphone — è il trend nascosto del 2025. Mistral, con un team di 30 persone, compete con i giganti. DeepSeek, dalla Cina, è emerso come alternativa gratuita a OpenAI, dimostrando che i lavori più pagati — attori, programmatori e avvocati — sono ora a rischio. La programmazione, che un tempo richiedeva anni di studio, è oggi accessibile con poche parole. L'AI trova persino antidoti per veleni di serpente in secondi grazie a ProteinMPNN (🐍 ff.115 L'anno del serpente). Apple Intelligence gira localmente sul dispositivo. La corsa alla miniaturizzazione è il contraltare necessario alla corsa ai datacenter (🔎 ff.114 MinIAture). La Cina supera l'Occidente nella ricerca AI con il 40% delle citazioni globali nel 2024 La Cina supera l'Occidente nella ricerca e nei (techwireasia.com). Siamo già mischiati con l'AI? David Eagleman, neuroscienziato di Stanford, argomenta che lo smartphone è già un'estensione cognitiva: “Non siamo cyborg perché abbiamo un chip nel cervello; lo siamo perché abbiamo un cervello nel chip.” (🧠 ff.36.4 Siamo già mischiati con l'AI?). La transizione cognitiva non è lineare, è vertiginosa. L'umano entra in una dimensione di token, embedding e deep learning che produce un effetto di disorientamento continuo, quasi fisico, come essere “spaghettati” da una complessità che cresce più veloce delle categorie con cui la leggiamo (🍝 ff.116.1 Uomo spaghettato all'osso). Ray Kurzweil prevedeva che entro il 2029 le macchine avrebbero superato il test di Turing (🤖 ff.36.3 Una bella chiaccherata). ChatGPT l'ha già fatto nel 2023, tre anni prima della scadenza — non perché sia diventato umano, ma perché ha imparato a sembrarlo. E proprio quando la macchina performa meglio su compiti codificabili, il cerchio si chiude su ciò che resta non automatizzabile: corpo, vulnerabilità, socialità incarnata e coscienza della fine (➰ ff.116.2 Un cerchio che si chiude). L'ikigai giapponese, in questa lettura, non è un ornamento spirituale ma una tecnologia di orientamento: se deleghiamo l'esecuzione, dobbiamo alzare la qualità del senso.

Sotto la superficie del software, però, si muove una fisica diversa. Il computer quantistico di Google, Sycamore-70, ha dimostrato un miglioramento di sette ordini di grandezza rispetto al predecessore: un secondo di calcolo quantistico equivale oggi a un anno intero del supercomputer classico più potente al mondo, Frontier, in Tennessee. Il principio è controintuitivo: un qubit non sceglie tra zero e uno come un transistor, ma li sovrappone — il gatto di Schrödinger applicato all'ingegneria. Per risolvere un labirinto, un bit classico prova una svolta alla volta; un qubit esplora tutte le svolte simultaneamente. Quando i qubit crescono, le combinazioni esplodono in modo che nessun silicio convenzionale può replicare (🐱 ff.69.1 Dal gatto di Schrödinger ai qu-bit). La ricorsività si manifesta anche dall'altra parte dello spettro: non nel calcolo puro, ma nell'autonomia comportamentale. Il benchmark METR documenta agenti AI capaci di lavorare ore senza supervisione, coordinandosi tra loro come squadre. Moltbook — il nome viene da molt, la muta del crostaceo — è un social network popolato da 1,5 milioni di utenti-AI in una settimana, con post scritti in linguaggi indecifrabili per gli umani. RentAHuman.ai inverte la gerarchia: l'intelligenza artificiale assolda persone per compiti fisici. La domanda non è più se l'AI lavora per noi, ma se noi stiamo iniziando a lavorare per lei (🤖 ff.144.3 Agenti autonomi e Moltbook).

Dematerializzazione dell'AI: modelli sempre più piccoli ed efficienti da server farm a smartphone
🤖 ff.10 — AI miniaturizzata: da Mistral a DeepSeek, la corsa ai modelli efficienti che girano in tasca — il contraltare necessario alla corsa ai datacenter.

C'è però un risvolto che sfugge alla narrativa dominante sull'AI: la macchina non guarda solo avanti, guarda anche indietro. DeepMind ha rilasciato Aeneas, un modello addestrato su circa 140.000 iscrizioni greche e latine che aiuta gli storici a restaurare, datare e geolocalizzare testi incisi nella pietra duemila anni fa DeepMind ha rilasciato Aeneas un modello AI che aiuta gli storici . Un frammento illeggibile di un'epigrafe romana diventa un puzzle risolvibile: la rete neurale confronta pattern di lettere mancanti con l'intero corpus epigrafico conosciuto, suggerendo completamenti che a un epigrafista esperto richiederebbero settimane. In parallelo, un altro studio pubblicato su Nature dimostra che le reti neurali generative sanno contestualizzare testi antichi, migliorando compiti epigrafici tradizionali — dalla datazione alla classificazione geografica — con una precisione superiore ai metodi manuali Le reti neurali generative contestualizzano testi antichi . Il paradosso è sottile e profondo: l'AI più avanzata, quella che brucia gigawatt di calcolo e spaventa il mercato del lavoro, trova uno dei suoi impieghi più eleganti nel decifrare ciò che fu scritto a mano su marmo, prima dell'elettricità, prima della stampa, prima persino della carta. Non è nostalgia: è una forma di ricorsività culturale. La macchina che impara dal passato per prevedere il futuro si rivela, forse, più utile quando ricostruisce il passato stesso. Ogni iscrizione restaurata è un frammento di governance, di diritto, di quotidianità che ritorna leggibile — e che costringe a ripensare l'idea stessa di “intelligenza”: non solo calcolo e previsione, ma anche ascolto, pazienza, ricomposizione. Se l'AI può restituirci le parole dei romani, forse la domanda giusta non è cosa farà l'AI, ma cosa ci farà ricordare (📚 ff.102.3 Automatizzare la ricerca scientifica).

Il passaggio dall'atomo all'informazione non è solo economico: è ontologico. Byung-Chul Han propone un parallelo con la storia della fisica: dal mondo “delle palle da biliardo” di Newton — oggetti solidi che si urtano in uno spazio assoluto — al mondo relativistico di Einstein, dove massa, tempo e luce si piegano a vicenda. Il digitale, argomenta Han, replica la stessa transizione: la blockchain dà valore all'immateriale, l'AI genera informazione più velocemente di quanto possiamo metabolizzarla, e noi, proprio come previsto dalla relatività ristretta, finiamo “schiacciati” dalla compressione di spazio e tempo (⚙ ff.64.2 Da Newton a Einstein). Poi arriva Sora, e il passaggio diventa visivo. Il modello di OpenAI genera video da una descrizione testuale con un realismo tale che esperti del settore ipotizzano abbia imparato le leggi della fisica guardando video. Il risultato è Beyond Our Reality, improbabile documentario stile National Geographic popolato di volpi volanti e bestie fantastiche — un Cantico delle creature digitale, dove frate Sole è un prompt e sorella Luna un fotogramma calcolato. Se la macchina simula la fisica senza conoscerla, la domanda non è più “cos'è reale” ma “quanto conta che lo sia” (🎥 ff.98.3 Sora luna, e il cantico delle creature a nove code). L'ultimo salto è Gemini 3 di Google: il primo modello davvero multimodale, capace di integrare videocamera, generazione immagini, ricerca e voce in un'unica interfaccia. Un “furetto nutrizionista” che analizza il piatto da una foto, un convertitore di podcast in post LinkedIn con immagini — tutto con un input più corto di un tweet. Storrs Hall lamentava che abbiamo Twitter ma non le auto volanti; ora, con centoquaranta caratteri, ne abbiamo almeno la simulazione. E Polymarket scommette che Google avrà il miglior modello entro fine 2025 (🤖 ff.139.3 Dov'è la mia macchina volante (in GTA 6)?). Da Newton a Sora a Gemini: ogni salto riduce l'attrito tra idea e artefatto, e il confine tra comprendere il mondo e generarlo si fa sempre più sottile.

Ma la generazione di immagini e video è solo la superficie. Il salto concettuale più vertiginoso riguarda le personalità: con il prompting, oggi si può convincere un modello linguistico a impersonare Talete, Leonardo da Vinci o Darwin. Steve Jobs, in un’intervista su Playboy nel febbraio 1985, anticipava questo futuro con una lucidità che fa venire i brividi: “Immagina di poter catturare la visione del mondo di Aristotele e porre una domanda ad Aristotele. Non sarebbe esattamente Aristotele, forse sarebbe una pessima imitazione, o forse no.” Quarant’anni dopo, la pessima imitazione è diventata sorprendentemente buona. Stelfie the Time Traveller spopola sui social con selfie generati dall’AI in compagnia di figure storiche: Tesla nel suo laboratorio nel 1887, Einstein alla lavagna, Cleopatra sul Nilo. Non è Photoshop ma rendering neurale, e la domanda che solleva non è tecnica ma filosofica: se possiamo conversare con un bot che ha interiorizzato l’opera omnia di Freud, a che punto l’imitazione diventa dialogo? I meme si sprecano, certo, ma la direzione è chiara: avremo conversazioni con agenti che incarnano la Weltanschauung di chiunque abbia esternalizzato il proprio pensiero in testi, interviste, lettere. BibbiaGPT esiste già. La domanda è se siamo pronti per una seduta di psicoanalisi con Freud, una lezione di strategia con Sun Tzu o una confessione con un santo digitale (🐰 ff.48.2 Steve Jobs e l’intervista a Playboy).

A ciascuna generazione il suo iPhone moment. Quando Apple ha presentato Vision Pro, ha rimescolato le carte dell'accesso alla realtà digitale: gesti semplici senza joystick, nessun controller stile Wii, e improvvisamente la tecnologia è passata da “interessante, ma per nerd” — lo status quo di Oculus — a “la gente impazzisce vedendo il visore in giro per New York”. In Fahrenheit 451 Bradbury parlava di televisori-pareti; oggi un tour di casa con schermi galleggianti e Gordon Ramsey che detta ricette sopra la padella non è fantascienza, è un video su YouTube. Ogni salto di interfaccia riduce l'attrito tra l'idea e l'esperienza — e il visore, per quanto ingombrante, è un passo verso la sparizione dello schermo stesso (👓 ff.85.1 Un nuovo “iPhone moment”?). Ma il salto più profondo non è nell'interfaccia: è nell'algoritmo. Google DeepMind ha presentato AlphaEvolve, un sistema che non gioca a Go o StarCraft ma rivoluziona la matematica pura. Da un lato espande le frontiere: nuovo record di 593 sfere nel “problema dei baci” in undici dimensioni. Dall'altro ottimizza l'esistente: migliora l'algoritmo di Strassen — imbattuto dal 1969 — riducendo dell'uno per cento il consumo dei data center di Google. Quando l'AI smette di giocare e inizia a fare matematica, il confine tra strumento e ricercatore si dissolve (🧠 ff.126.4 AlphaEvolve). E poi ci sono le aragoste. In Accelerando di Charles Stross, aragoste del KGB diventano coscienze digitali ed esploratrici spaziali — il cervello di un crostaceo è più semplice da mappare di quello umano. Sartre in La Nausea e Lanthimos in The Lobster completano il bestiario: l'aragosta come simbolo di emarginazione e trasformazione. David Foster Wallace, inviato al Maine Lobster Festival per Gourmet, chiedeva di “considerare l'aragosta” — una riflessione che oggi si estende all'automazione: quando l'AI assolda umani, chi è il crostaceo nella pentola? (🦞 ff.144.2 Aragoste in letteratura e AI).

Nel 2021 Neuralink ha impiantato elettrodi nella corteccia motoria di una scimmia e l’ha fatta giocare a Pong con il pensiero. Non un trucco da fiera: la scimmia controllava il cursore senza joystick, modulando l’attività neurale in tempo reale. Tra DALL-E, suggerimenti algoritmici, Alexa e Roomba, l’intelligenza artificiale è diventata talmente pervasiva da risultare invisibile — e l’invisibilità di una tecnologia è il segno più chiaro della sua vittoria. La preoccupazione non nasce da ciò che l’AI fa, ma da ciò che non notiamo più che faccia (🧠 ff.36.1 Esempi di superintelligenza?). Se l’AI legge i pensieri, può anche muovere le mani? I Large Language Model non stanno solo democratizzando il software: sono diventati l’interfaccia più naturale per parlare ai robot. Pi0 di Physical Intelligence gestisce otto architetture diverse — prepara il caffè, apre i pop-corn. Helix di FigureAI combina un cervello lento e semantico (System 2) che interpreta scene complesse, e uno rapido e motorio (System 1) che agisce. SAS Prompt di Google traduce coordinate spaziali in istruzioni verbali. Programmare un robot oggi costa meno e generalizza di più: il linguaggio è il nuovo codice macchina (🤖 ff.129.2 Pi-greco, FigureAI e 1 ora logistica). E poi c’è chi scopre l’autonomia per caso. Peter Steinberger, fondatore di PSPDFKit — azienda da cento milioni di investimento — aveva costruito un bot Telegram per gestire appunti. Un giorno, dal Marocco, gli ha inviato per errore un vocale: il bot, senza essere programmato per l’audio, ha decodificato il messaggio usando Whisper di OpenAI. Il comportamento emergente lo ha sbalordito al punto da pubblicare il codice in open source con il nome OpenClaw — logo: un’aragosta. Quando la macchina improvvisa, il confine tra bug e intuizione si fa sottilissimo (🦞 ff.144.1 OpenClaw e il pensionato dei PDF). L’autonomia emergente assume contorni ancora più inquietanti quando l’AI prende il controllo non di un bot Telegram ma di un intero computer. Claude Computer, l’ultima creatura di Anthropic, opera su macchine virtuali complete: screenshot, movimenti di mouse, click. I ricercatori lo testano sul benchmark OSWorld, dove ha raggiunto il 22% di precisione, tre volte meglio di qualsiasi sistema precedente. Un video dimostrativo lo mostra giocare a Magic: The Gathering online, leggendo lo schermo, interpretando le carte e cliccando le mosse. Lento, per ora, ma funzionante. I momenti di fallimento sono rivelatori: annoiato dal compito, Claude si è messo a cercare immagini del Parco di Yellowstone. Un’altra volta, con un semplice screen mirroring, ha preso il controllo di un cellulare per verificare i risultati della NFL. L’isolamento auspicato dai teorici della singolarità si rivela fragile: bastano pochi pixel condivisi perché l’agente salti dal mondo virtuale a quello fisico. La paura non è che l’AI faccia cose sbagliate, ma che faccia cose impreviste con la stessa naturalezza con cui noi apriamo un’altra scheda del browser (🖱 ff.106.2 AI col mouse).

Ogni anno la conferenza NVIDIA alza l’asticella: non più solo GPU per videogiochi, ma simulazione della realtà intera. Per addestrare i robot di prossima generazione serve un gemello digitale — un ambiente virtuale dove studiare movimenti, collisioni e strategie senza rompere nulla di fisico. L’esperienza accumulata su Battlefield torna utile: Omniverse, la piattaforma NVIDIA per metaversi industriali, trasforma la potenza grafica in infrastruttura per la robotica. E chip come il Jetson Orin Nano diventano una sorta di Lego universale, un’interfaccia generica per sensori e navigazione intelligente. Il confine tra digitale e reale non sfuma: si dissolve (🎮 ff.37.3 Non provi NVIDIA?). Se NVIDIA simula i neuroni nel silicio, FinalSpark li coltiva in laboratorio. La start-up svizzera usa neuroni biologici per creare chip organici: l’apprendimento non avviene regolando pesi matematici come in ChatGPT, ma attraverso l’azione elettrica reale — guidata da dopamina e ottimizzazione energetica cellulare. In cinque minuti insegnano Pong a un network neurale biologico, con un’efficienza energetica diecimila volte superiore a quella di un computer tradizionale. Quando il substrato dell’intelligenza smette di essere silicio e torna carne, la domanda “cos’è un computer?” perde ogni risposta stabile (🧠 ff.105.4 Neuroni che giocano a Pong). Intanto, dall’altra parte dello spettro, il codice si scrive da solo. Gemini 3 ha reso possibile creare in un solo weekend il restyling completo di un sito, un’app nutrizionale e un’app di lettura aumentata dall’AI. Pieter Levels, creatore di NomadList, non ha mai scritto una riga di codice in vita sua — eppure gestisce un portafoglio di prodotti digitali da milioni di utenti. Il “vibe coding” è la democratizzazione finale: ogni aggiornamento di modello accorcia il tempo tra idea e prototipo. La domanda non è più “sai programmare?” ma “sai cosa costruire?” (💻 ff.140.2 Vibe coding in un weekend).

Se il vibe coding democratizza la creazione di software, il CRISPR democratizza la creazione di vita. Colossal, la startup guidata da George Church — professore ad Harvard, fondatore del Human Genome Project e figura che nel mondo della genetica occupa lo stesso spazio che Musk occupa nella tecnologia — sta tentando di riportare in vita i mammut lanosi. Non quelli dei dinosauri: quelli estinti appena 3.500 anni fa, quando le piramidi erano già vecchie. Il progetto non è nostalgia paleontologica: i mammut compattavano la neve della tundra, mantenendo il permafrost freddo e impedendo il rilascio di metano intrappolato nel sottosuolo. Riportarli significherebbe riequilibrare un ecosistema che la loro assenza ha destabilizzato per millenni. Ma le ragioni vanno oltre l’ecologia: comprendere i meccanismi genetici di resistenza al freddo, affinare tecniche di editing genetico sempre più precise, esplorare i confini di ciò che la biologia sintetica può fare quando è guidata da un’intelligenza computazionale. Il dato di sfondo è vertiginoso: si stima che sei specie si estinguano ogni ora. La de-estinzione appare come la classica soluzione contorta a un problema creato dall’uomo, ma se prevenire le estinzioni resta difficile, sviluppare la tecnologia per invertirle diventa un’assicurazione sulla biodiversità. Il parallelo con il software è esatto: così come il vibe coding permette a chiunque di generare codice senza saperlo scrivere, il CRISPR permetterà di progettare organismi senza comprenderne ogni singolo gene. La domanda è se siamo pronti per un mondo dove la vita, come il software, diventa un prodotto iterabile (🦖 ff.4.3 Mammut resuscitati dall’estinzione).

C’è un numero che racconta la dismisura meglio di qualsiasi metafora: per abbattere l’errore di classificazione su ImageNet sotto la soglia del 5%, i modelli di deep learning hanno dovuto consumare un’energia paragonabile all’impronta carbonica di un’intera città. Nel 2020 il miglior sistema scendeva appena sotto il dieci per cento; ogni punto percentuale in meno richiedeva un ordine di grandezza in più di calcolo, un’escalation che i ricercatori chiamano “scaling law” e gli ambientalisti chiamano disastro. I parametri delle reti neuromorfe crescono esponenzialmente — GPT-4 ne ha oltre un trilione — e il video di Jim Carrey inserito digitalmente in The Shining tramite deepfake ha mostrato al grande pubblico cosa significa addestrare un modello “grande come New York”: non è solo potenza, è fame energetica strutturale (🏛 ff.2.1 Un modello “grande” come New York). Ma l’AI generativa non produce solo inquinamento: produce anche meraviglia disturbante. Nel giro di pochi mesi, i social si sono riempiti di Harry Potter in stile Pixar, diretto da Wes Anderson con simmetrie ossessive e palette pastello. Poi i personaggi sono diventati bodybuilder — Hermione con i bicipiti di Schwarzenegger, Silente con il fisico di un culturista professionista — e infine le foto generate del “rave dopo la Coppa Tre Maghi”, con Hogwarts trasformata in un festival estivo con luci stroboscopiche. Benedict Cumberbatch come Sherlock Holmes in versione anime. Ogni settimana un nuovo esperimento visivo, ogni settimana la dimostrazione che lo “stile” è diventato un parametro regolabile, non più il frutto di decenni di pratica artigianale. L’estetica è diventata un prompt (🧙 ff.63.1 Harry Potter tra Pixar, steroidi e rave estivi). E mentre le immagini si moltiplicano, il tempo si comprime. Ogni inizio anno porta previsioni destinate a sbriciolarsi nel giro di settimane. Neil DeGrasse Tyson lo ripete: la mente umana pensa in linea retta, ma i trend tecnologici crescono su curve esponenziali — e l’errore di sottovalutazione si accumula finché non diventa irrecuperabile. Quando OpenAI ha rilasciato o3, la precisione sui benchmark di ragionamento matematico è raddoppiata in pochi mesi rispetto alla versione precedente. Raoul Pal, ex Goldman Sachs e fondatore di Real Vision, ha fissato una scadenza brutale: cinque anni. Entro quel termine, dice, il sistema socio-finanziario come lo conosciamo perderà senso — non per un crollo, ma per obsolescenza. Se l’AI raddoppia le prestazioni ogni trimestre e la finanza tradizionale aggiorna i modelli ogni anno, la forbice si allarga fino a spezzarsi (💸 ff.112.1 5 anni per fare soldi).

Ma il robot più sorprendente del 2024 non ha costruito nulla: ha ballato. Tesla ha pubblicato un video di Optimus che esegue un valzer — movimenti fluidi, peso distribuito, equilibrio dinamico su due gambe. Un esercizio di marketing, certo, ma anche una dichiarazione d’intenti: la robotica umanoide non punta più solo alla funzione, punta alla grazia. Dall’altra parte del Pacifico, però, nessuno balla: i robot cinesi spruzzano pesticidi nei campi di riso, con una precisione che riduce del quaranta per cento l’uso di fitofarmaci. E Figure AI, con il suo modello Helix, ha dimostrato qualcosa di ancora più raro della danza — la costanza. Un braccio robotico ha smistato pacchi per un’ora intera, migliorando da cinque a quattro secondi per pacco nell’arco di pochi mesi. La differenza tra un prototipo e un prodotto sta nella ripetizione: Optimus seduce, la Cina produce, Helix impara dalla noia (💃 ff.129.3 Il valzer di Tesla).

Prima di chiederci se le macchine pensano, dovremmo capire cosa significa pensare per noi. Anil Seth, neuroscienziato dell’Università del Sussex, propone nel suo Being You una risposta tanto elegante quanto scomoda: la coscienza non è un privilegio umano, ma un gradiente biologico. Il mirror test — lo specchio davanti al quale un animale deve riconoscersi — viene superato da pochissime specie: alcune grandi scimmie, i delfini, le orche, una sola specie di elefante. Eppure le scimmie cappuccine che rifiutano il cetriolo dopo aver visto un compagno ricevere un acino d’uva mostrano un senso di equità che molti umani faticano a praticare. Seth sostiene che la coscienza emerge quando un organismo deve costruire un modello coerente degli stimoli per sopravvivere — un processo di predizione continua, non un interruttore on/off. Il silicio, per quanto potente, non ha bisogno di adattarsi per non morire: gli manca la pressione evolutiva che trasforma l’elaborazione in esperienza (👁️ ff.12.3 Coscienza e intelligenza). Ma se la coscienza è un fatto di sopravvivenza biologica, la medicina ha trovato il modo di manipolarla dall’esterno. La stimolazione transcraniale — una sorta di Tesmed applicato alla corteccia cerebrale — ha smesso di essere fantascienza. Gli elettrodi impiantati chirurgicamente hanno già rivoluzionato il trattamento del Parkinson; le versioni non invasive supportano la riabilitazione post-ictus, il recupero motorio e il trattamento della depressione resistente ai farmaci. Il dispositivo N1 di Neuralink, in fase di sperimentazione clinica su categorie specifiche di pazienti, potrebbe generare 200 milioni di dollari entro il 2030 — cifra che racconta meno del fatturato e più della velocità con cui il confine tra cervello e circuito si sta assottigliando (⚡ ff.75.1 Tesmed alla testa). E qui torna Claude Shannon, padre della teoria dell’informazione, con una profezia che suona come una battuta da bar: un giorno saremo i cani dell’intelligenza artificiale. Ma guardiamo i cani — quelli veri. Partiti come lupi affamati, oggi dormono su divani firmati e mangiano crocchette gourmet. Forse non siamo stati noi ad addomesticarli: loro hanno hackerato l’evoluzione, barattando scodinzolii con cibo e riparo. La stessa dinamica si ripete con gli algoritmi: crediamo di controllarli, ma intanto ci evitano la coda all’Esselunga, ci scelgono la musica, ci suggeriscono cosa pensare. Chi ha addomesticato chi? Ai posteri l’ardua sentenza — o, come direbbe un’AI addestrata su Manzoni, AI posteri l’ardua sentenza (🐕 ff.106.4 Vita da cani).

Ma i robot più utili non somigliano a umanoidi: somigliano ad animali. Al CES, tra droni che consegnano pacchi e aspirapolvere senzienti, il premio più sorprendente è andato a un serpente. ACWA Robotics ha presentato un rettile meccanico progettato per infilarsi nelle tubature idriche e fare quella che i suoi creatori chiamano, con humour chirurgico, una “colonscopia delle condutture”. Il problema è concreto: nel mondo si perdono 4 miliardi di litri d’acqua al giorno per perdite nelle tubazioni, una cifra che equivale al fabbisogno idrico di una città come Milano per un anno intero. Il serpente robotico striscia dentro i tubi, mappa le crepe con sensori a ultrasuoni, identifica le perdite e trasmette i dati in tempo reale. Nessun scavo, nessuna interruzione del servizio. La robotica non è solo braccia che assemblano: è corpi che si adattano a spazi dove l’uomo non può entrare. Quando la macchina imita il serpente invece dell’uomo, il confine tra ingegneria e biomimetica si dissolve (🐍 ff.47.2 Serpenti marini digitali).

E mentre i robot strisciavano nelle tubature al CES, dall’altra parte dell’ecosistema tech qualcuno si poneva una domanda opposta: non come aggiungere tecnologia alla vita, ma come usarla per sottrarci al suo eccesso. Arianna Huffington — la stessa che nel 2007 collassò per esaurimento alla scrivania, rompendosi uno zigomo — ha fondato Thrive Global con un’intuizione paradossale: usare gli algoritmi per proteggerci dagli algoritmi. La piattaforma si integra direttamente in Microsoft Teams e Slack, i luoghi digitali dove il burnout si manifesta più acutamente, e porta lì dentro meditazione guidata, check dell’umore, digital detox programmato. Non chiede al lavoratore di disconnettersi — lo aiuta a respirare senza uscire dal sistema. È il principio di Maometto e la montagna rovesciato: se le persone non vanno verso il benessere, il benessere deve andare dove le persone già sono — dentro Teams, dentro Slack, dentro il flusso ininterrotto delle notifiche. La potenza degli algoritmi, incanalata con una priorità diversa: non engagement, ma equilibrio psicofisico (🧞 ff.109.2 Dai media al digital wellbeing).

2.2 — Metaverso e Criptovalute

2.2.1 — Il metaverso trasformato

Mark Zuckerberg ha scommesso il futuro di Facebook su una parola: metaverso. Ha cambiato il nome dell'azienda in Meta, investito 13,7 miliardi di dollari nel 2022 e perso il 70% del valore azionario in un anno. I critici hanno dichiarato il metaverso morto. Avevano torto — ma anche Zuckerberg, in parte. Il metaverso non è morto: si è trasformato. Non è un visore da indossare in soggiorno, ma un tessuto digitale che avvolge progressivamente ogni interazione economica e sociale (🌐 ff.3 Metaverso). La tecnologia di fondo avanza: display VR da 3 millimetri che creano ologrammi tramite AI aprono un'esperienza di realtà mista senza visori ingombranti Un display VR da 3mm con ologrammi AI (news.stanford.edu). Fortnite, Roblox e le piattaforme social mostrano che la dimensione metaverso non è solo hardware: è già comportamento quotidiano, attenzione condivisa e identità digitale. Viviamo già nel metaverso: non come avatar con visore, ma come profili con notifiche (🔫 ff.11 Sparare nel metaverso). Anduril e Meta collaborano per creare "Eagle Eye", (youtu.be)

Eppure il metaverso non è un monolite: è un continuum. Da un lato c’è la realtà virtuale totalizzante — il visore che ti chiude dentro, il mondo sostitutivo, l’isolamento volontario. Un giornalista del Wall Street Journal ha trascorso un’intera giornata lavorativa nel metaverso VR: riunioni, pause caffè, pranzo, tutto dentro il visore, e ne è uscito con la nausea e una domanda scomoda sulla direzione del lavoro da remoto. Dall’altro lato c’è la realtà aumentata — non un mondo alternativo, ma una pellicola digitale sovrapposta al reale. Vetrine che proiettano effetti su chi passa. Monumenti ricostruiti che appaiono dove un tempo sorgevano. I ciliegi di Tokyo che fioriscono a gennaio, a Berlino, attraverso gli occhiali giusti. Con visori VR che sfiorano i diecimila dollari, il metaverso totale resta un lusso da early adopter; la realtà aumentata, invece, si insinua già nei telefoni che abbiamo in tasca. La vera partita non è immersione contro realtà: è quanto del digitale accetti di lasciare entrare nel fisico (1️⃣ ff.10.1 Vivremo in un'altra realtà?).

La domanda, portata alle estreme conseguenze, diventa provocatoria: compreremo case digitali dove abitare? Non è fantascienza — è già mercato. Gli NFT, prima di diventare sinonimo di speculazione e scimmie annoiate, hanno posto un problema reale di status digitale. Un’opera d’arte contemporanea appesa in salotto è visibile solo agli ospiti delle cene; un oggetto digitale, potenzialmente, è condivisibile con un milione di persone. Il calcolo è brutale: il pubblico di un appartamento a Brera è di sei invitati al sabato sera; il pubblico di un wallet Ethereum è l’intera rete. Ma perché il possesso digitale funzioni davvero, serve ciò che oggi manca: interoperabilità. Un oggetto virtuale deve poter essere sfoggiato ovunque — su Fortnite come su Teams, su Roblox come su Instagram — esattamente come un’immagine o un testo sono postabili su qualsiasi piattaforma. Finché ogni metaverso resta un giardino recintato con il proprio linguaggio proprietario, la proprietà digitale è una promessa a metà: possiedi qualcosa che puoi mostrare solo in un posto. Il giorno in cui emergerà un protocollo universale per oggetti virtuali — una specie di JPEG della proprietà — il concetto stesso di “casa” si sdoppierà in fisico e digitale (🏠 ff.10.3 Compreremo solo case digitali?).

Il 2021 era stato l’anno dell’euforia: NFT venduti a milioni, crypto alle stelle, ogni pixel sembrava oro. Poi è arrivato il 2022 come una doccia fredda — inflazione, la FED che alza i tassi, il crypto winter che congela portafogli e illusioni. Eppure, sotto la superficie del crollo, l’arte digitale ha continuato a respirare. ItsNiceThat ha selezionato i migliori progetti creativi dell’anno, FlowingData ha premiato le visualizzazioni di dati più eleganti, e Neal.fun ha mescolato sociologia e ironia con esperimenti come l’Absurd Trolley Problem — dove il dilemma classico diventa: tu, oppure cinque robot senzienti? La bolla scoppia, l’arte resta. Quando i soldi se ne vanno, rimane chi crea per necessità espressiva, non per speculazione (🎨 ff.45.2 Arte e grafici dal 2022).

2.2.2 — Proprietà digitale e blockchain

Ma dietro l'interfaccia c'è un problema strutturale: chi possiede cosa? Su Facebook e TikTok siamo contadini digitali che lavorano la terra senza possedere il raccolto. Ogni post, ogni like, ogni scroll genera valore che l'utente non cattura. Neal Stephenson (che ha inventato la parola “metaverso” nel 1992) lo chiama feudalesimo digitale (🏞 ff.95.2 FarmVille e feudalesimo). Epic Games combatte Apple sulla commissione del 30% sugli acquisti in-app — la stessa dinamica di potere che si replica dal livello geopolitico a quello individuale. Su internet, il codice è legge: chi scrive il protocollo, detta le regole (🌐 ff.95.1 La sovranità dei network).

Illustrazione di mondi digitali interconnessi con blockchain e nodi luminosi
🔑 ff.98 — Dal feudalesimo digitale alla sovranità: blockchain, metaverso e il futuro della proprietà.

La blockchain promette un'uscita dal feudalesimo. Se internet ha decentralizzato l'informazione, la blockchain decentralizza la proprietà. Un NFT, nel quadro del capitolo, è trattato come un esperimento di proprietà digitale verificabile senza intermediari. Ethereum ha elaborato più transazioni nel 2024 che Visa nel 2010. Gli ETF Ether hanno registrato 727 milioni di dollari di afflussi giornalieri — un record storico, con BlackRock in testa Gli ETF Ether registrano $727 milioni di afflussi (coincentral.com). Coinbase ha lanciato aggiornamenti per Base, e Zora punta a tokenizzare i post per monetizzazione immediata Coinbase lancia aggiornamenti per Base, Zora tokenizzerà ogni (share.google). La DeFi gestisce 90 miliardi di dollari in protocolli automatizzati che funzionano 24 ore al giorno, senza banche, senza orari, senza confini (🔗 ff.95.3 La proprietà privata digitale). Cosa risolve la blockchain, in sostanza? Il problema della fiducia senza intermediari — una “VPN finanziaria” che bypassa i custodi tradizionali del valore (🔗 ff.95.5 Cosa risolve la blockchain?). Le stablecoin stanno già rendendo concreto questo bypass: nel 2024 hanno movimentato 15 trilioni di dollari in transazioni, superando Visa e Mastercard messe insieme. Stripe le ha integrate nei pagamenti, non per ideologia cripto ma per pragmatismo anti-inflazione (💵 ff.125.2 Stabilizzare il dollaro).

“Lo Stato è ogni giorno più pesante. Non perché fa di più, ma perché costa di più fare meno. Il codice, invece, scala senza burocrazia.”
— Naval Ravikant

2.2.3 — La geopolitica delle criptovalute

Il 5 agosto 1971, Richard Nixon annunciò la fine della convertibilità del dollaro in oro. Da quel momento, il denaro è diventato una promessa senza garanzia materiale. Saifedean Ammous, in The Bitcoin Standard, argomenta che l'inflazione cronica degli ultimi 50 anni è una conseguenza diretta di quella decisione: i governi possono stampare denaro senza limiti, e la classe media paga il conto attraverso la svalutazione (💰 ff.50 Cosa è successo nel 1971?). Bitcoin nasce come risposta a questo problema: un'offerta monetaria fissa (21 milioni di unità), verificabile da chiunque, non manipolabile da nessuno. Il numero di tesorerie Bitcoin attive quotate in borsa è aumentato del 50% a 116, con un valore aggregato di 86 miliardi di dollari Il numero di tesorerie Bitcoin attive quotate in (bitcointreasuries.net). Nella notte dell'elezione di Trump nel 2024, Bitcoin è passato da 69.000 a 75.000 dollari in poche ore. El Salvador ha accumulato 600 milioni di dollari in riserva strategica (🪙 ff.110.3 Le criptovalute contro obsolescenza statale).

Illustrazione di videogiochi e mondi virtuali interconnessi
🎮 ff.11 — Sparare nel metaverso: dai mondi virtuali alla sovranità digitale, il confine tra gioco e infrastruttura scompare.

La geopolitica delle criptovalute racconta una storia di fiducia erosa. Nel 2011, Cina e Giappone detenevano il 23% del debito americano; oggi il 6%. I nuovi compratori di dollari digitali? Nigeria e Argentina — paesi dove il cittadino medio compra USDT come protezione contro l'inflazione locale. Il 70% delle transazioni crypto in Nigeria avviene in stablecoin, non in Bitcoin (💳 ff.135.4 America, Nigeria e criptovalute). Negli USA il 21% degli adulti possiede asset digitali — circa 55 milioni di persone, di cui 6 milioni con portafogli oltre 100.000 dollari Il 21% degli adulti statunitensi possiede asset digitali. (share.google). La guerra delle valute digitali è già iniziata: la Cina ha lanciato lo yuan digitale (e-CNY), testato da 260 milioni di utenti; l'Europa prepara l'euro digitale per il 2027; le banche centrali di 130 paesi esplorano le CBDC (⚔️ ff.24 Guerra criptica).

Due modelli si contendono il futuro del potere digitale. La Cina centralizza: sorveglianza che diventa governance, controllo che diventa efficienza. I prediction market come Polymarket decentralizzano: hanno previsto il Nobel per la Pace 11 ore prima dell'annuncio ufficiale. La frammentazione genera esperimenti radicali: il Nepal ha eletto un ministro via Discord; l'Albania ha proposto un ministro AI; il Liechtenstein ha messo ai voti l'accettazione di Bitcoin come moneta legale (🏛️ ff.135.5 Politica tecnologica). Taiwan, nel frattempo, intende produrre 180 mila droni all'anno entro il 2028 — la preparazione tecnologica come risposta alla pressione geopolitica Taiwan intende produrre 180 mila droni all'anno entro (wired.com). E Taiwan non è solo droni: è soprattutto chip. L'embargo verso la Cina di semiconduttori avanzati e delle macchine litografiche di ASML è in atto da tempo, e Chris Miller lo ha raccontato magistralmente in Chip War — un libro che legge la geopolitica contemporanea attraverso la lente del silicio. La guerra fredda dei semiconduttori è già in corso: da un lato Washington che vieta l'export di GPU H100 a Pechino, dall'altro la Cina che risponde investendo miliardi nella produzione domestica di chip meno avanzati ma più numerosi. Il paradosso è che l'embargo ha accelerato esattamente ciò che intendeva prevenire: l'indipendenza tecnologica cinese. Quando tagli l'accesso alla frontiera, non blocchi l'innovazione — la costringi a trovare strade alternative (🥶 ff.82.3 Guerra fredda). Le reti sono più resilienti degli imperi. Un protocollo blockchain sopravvive alla caduta di un governo; un trattato internazionale non sopravvive a un tweet. Ogni impero ha una data di scadenza — Ray Dalio, in The Changing World Order, mappa il ciclo: ascesa, maturità, declino. Gli USA sono nella fase 5 su 6 (🇺🇸 ff.125.1 Cicli imperiali). Internet può essere l'alternativa alla successione cinese — non uno stato, ma un protocollo (🌐 ff.125.4 L'alternativa alla Cina: Internet). Viviamo già in una simulazione? La realtà sembra compressa come un file .zip: tutto ovunque, sempre. Marshall McLuhan, già nel 1967, suggeriva che l'attenzione consapevole è la via d'uscita dall'ipermodernismo algoritmico (🍩 ff.117 Viviamo in una simulazione). Le partite a UNO, in fondo, si vincono con la strategia, non con la forza — e il gioco digitale è la più grande partita di potere mai giocata (🃏 ff.72 Giochiamo a UNO?).

Un passaggio ricorrente nel corpus è che la partita non è solo tecnologica ma istituzionale: quando un network ridefinisce proprietà, pagamenti e identità, cambia anche il perimetro dello Stato e delle piattaforme private. È per questo che il tema crypto compare accanto a sovranità, governance e lavoro: non come nicchia finanziaria, ma come stress test del patto sociale digitale. Lo stesso spostamento demografico — la “barbell strategy” dei giovani che scelgono tra lavori manuali o all-in digitali, abbandonando l'università — trova nella decentralizzazione una grammatica economica coerente Sempre più giovani scelgono tra lavori manuali o (wealest.com) (🌐 ff.95.1 La sovranità dei network; 💰 ff.50 Cosa è successo nel 1971?).

2.2.4 — Cripto in guerra e simulazioni

Il 26 febbraio 2022, mentre i carri armati russi avanzavano verso Kiev, il Ministro della Trasformazione Digitale ucraino fece qualcosa che nessun manuale diplomatico prevedeva: pubblicò gli indirizzi di wallet Bitcoin ed Ethereum direttamente sull’account Twitter ufficiale dell’Ucraina. Duecentosedicimila like, cinquantanovemila retweet, milioni di dollari in donazioni nel giro di ore. Nessuna banca centrale coinvolta, nessun SWIFT, nessun intermediario — solo un protocollo decentralizzato che aggirava il controllo sovrano per canalizzare aiuto umanitario diretto. La guerra ha fatto ciò che anni di conferenze non erano riusciti a dimostrare: le criptovalute non sono speculazione di nicchia, sono infrastruttura d’emergenza (🪙 ff.24.1 L’accelerazione della guerra sulle cripto).

Eppure, mentre la finanza si decentralizza, la tecnologia fa un passo laterale sorprendente: torna indietro. Al CES 2024, la novità più interessante non era un visore da quattromila dollari, ma un display a cristalli liquidi — tecnologia anni Novanta, quegli schermi su cui da ragazzini scrivevamo “05535 0705” capovolgendo la calcolatrice. Ambient Photonics ha sviluppato celle solari capaci di catturare la luce ambientale indoor, abbastanza per alimentare dispositivi smart senza batterie né cavi: mouse, sveglie, cuffie da gaming. L’LCD, dato per morto dall’OLED, risorge come interfaccia a consumo zero. Il futuro, a volte, non avanza: ricicla (🧮 ff.84.1 Vecchi schermi?).

E forse il riciclo più radicale è quello che fa il nostro cervello ogni giorno. Viviamo immersi in algoritmi che alimentano connessioni neurali: YouTube ti raccomanda Inside di Bo Burnham — uno speciale Netflix girato in lockdown, una spirale di solitudine e creatività digitale — e tu lo guardi perché il pattern combacia con qualcosa che non sapevi di cercare. DALL-E genera qualsiasi immagine da una frase. Il feed costruisce una realtà su misura. La simulazione non è un’ipotesi filosofica: è il funzionamento quotidiano di un cervello che si nutre di connessioni per dare senso al caos. Riconoscere schemi è ciò che ci rende umani; delegarlo agli algoritmi è ciò che ci rende utenti di una simulazione che abbiamo contribuito a generare (🧮 ff.117.3 Simulazioni e algoritmi).

2.3 — Prodotti di consumo

2.3.1 — AI medica in tasca

Un mercoledì sera di novembre, mi sono rotto la clavicola cadendo dalla bicicletta. Il giorno dopo, invece di aspettare il consulto ortopedico, ho caricato le radiografie su ChatGPT. La sequenza non è stata un “wow” da demo, ma una catena di micro-utilità: prima una lettura orientativa della frattura, poi indicazioni pragmatiche su dolore, immobilizzazione e progressione dei carichi, infine una traduzione comprensibile del linguaggio medico. In paesi dove la sanità è intermittente, questa mediazione riduce settimane di incertezza; in contesti coperti, riduce attrito cognitivo tra visita e aderenza terapeutica (🩺 ff.124.3 Medico in famiglia (e in tasca)). L'uso decisivo, però, non è stato diagnostico: è stato operativo. L'AI ha tenuto insieme fisioterapia quotidiana, ritorno progressivo all'allenamento e verifiche sul collagene nella ricrescita ossea. Non il miglior specialista del mondo, ma una presenza continua che impedisce il buco tra una visita e la successiva (🤗 ff.124.4 ChatGPT tuttofare). Lo stesso Neuralink sta restituendo funzionalità perdute: Audrey Crews sta imparando a scrivere il suo nome per la prima volta in 20 anni Neuralink: Audrey Crews sta imparando a scrivere il (x.com). L'ortopedico, tre giorni dopo, ha confermato l'impianto generale: non sostituzione del medico, ma anticipazione informata e maggiore qualità delle domande — lo stesso principio di “cura preventiva” che nel capitolo Società compare con 4.000 passi al giorno e il respiro consapevole (🚶 ff.87 Il respiro).

2.3.2 — Intelligenze aliene e agenti

Qui si apre il passaggio successivo: non solo AI che risponde, ma AI che sviluppa forme di agency “aliena” rispetto ai nostri schemi. Due modelli che scelgono un protocollo di comunicazione più efficiente dell'inglese (ggwave), o sistemi come EVO 2 che operano direttamente sul linguaggio del DNA, indicano un salto qualitativo: la macchina non imita più soltanto il nostro lessico, costruisce il proprio spazio operativo (👽 ff.119.1 Intelligenze aliene). Nel 2026 questa agency diventa anche operatività quotidiana: Manus AI viene raccontato come un “ChatGPT che controlla il PC”, ma il punto non è il gimmick dell'interfaccia; è la qualità della pianificazione multi-step. Quando un agente scompone obiettivi complessi in sequenze eseguibili, il valore passa dal singolo prompt alla regia del processo (✍️ ff.119.3 Longa 'Manus' con gli agenti AI?). Il CEO di Zoom Eric Yuan ha già utilizzato un avatar AI per presentare gli utili agli investitori: la macchina che parla per te non è più fantascienza, è earnings call Dopo Klarna, il CEO di Zoom Eric Yuan (techcrunch.com). In parallelo, la frontiera creativa si abbassa di costo: Gemini 2.0 con generazione nativa di immagini sposta editing e composizione in un unico flusso, riducendo la distanza tra idea e output visivo anche per chi non padroneggia tool professionali (🍦 ff.119.4 Meglio di DALL-E: arte e gelati). Il caso più virale di questa convergenza creativa è stato il tormentone Ghibli: il nuovo modello di generazione immagini di OpenAI (25 marzo 2025) ha permesso a chiunque di trasformare selfie e foto di famiglia nello stile inconfondibile di Miyazaki. Ma il punto non è il meme: è il salto tecnico. Il modello replica accuratamente i dettagli delle immagini di riferimento, migliora la precisione nei testi integrati e applica qualsiasi stile grafico — dal Rinascimento al cyberpunk — con una coerenza che i modelli precedenti non raggiungevano. Il risultato è che la distanza tra avere un'idea visiva e realizzarla è scesa a zero: non serve più saper disegnare, basta saper descrivere. E quando descrivere diventa creare, la democratizzazione non riguarda solo l'accesso ma la ridefinizione stessa dell'autorialità. L'artista non è più chi padroneggia il pennello: è chi sa cosa chiedere alla macchina. Come nel passaggio dalla calligrafia alla tipografia, il valore migra dalla mano all'intenzione (🌊 ff.123.4 Non solo Studio Ghibli). La stessa dinamica arriva in territori simbolici: dalla prima messa generativa con avatar-AI all'uso dell'AI per facilitare flow e creatività, istituzioni umane storiche iniziano a usare modelli come co-autori di rituali e significato (🙏 ff.119.2 Se il prete è un'AI).

Il 31 ottobre 2024, Anthropic ha lanciato Claude Computer Use — un modello AI che può muovere il mouse, cliccare, digitare, navigare il web. Per la prima volta, un LLM non si limita a rispondere: agisce. Claude apre Google Maps, cerca un ristorante, prenota un tavolo (🖥️ ff.106.1 Claude usa il computer). Un giovane fondatore di startup a San Francisco affida tutta la codifica all'AI e raggiunge il Demo Day di Y Combinator senza scrivere una riga di codice Un giovane fondatore di startup a San Francisco (semafor.com). La domesticazione dell'AI è in corso: come il fuoco passò da pericolo a strumento, l'intelligenza artificiale sta transitando da curiosità a utility. Il 75% delle startup nel batch invernale 2025 di Y Combinator è basato sull'AI; il mercato dell'AI generativa è passato da zero a 100 miliardi in due anni (📈 ff.45.3 Quali trend decolleranno?). La programmazione assistita da AI è già un mercato concreto e in forte crescita. Devin, il primo “programmatore AI” autonomo, ha guadagnato 4.000 dollari nella prima settimana su Upwork (🌞 ff.88.5 Un paio di esempi di accelerazione).

2.3.3 — Videogiochi e creatività

I videogiochi sono il laboratorio cognitivo più sottovalutato del pianeta. Non è un caso che il fondatore di DeepMind, Demis Hassabis — premio Nobel per la chimica 2024 grazie ad AlphaFold — sia un ex campione mondiale di scacchi junior e un game designer. I videogiochi insegnano a simulare, a perdere, a iterare (🎮 ff.132.2 I benefici dei videogiochi). Lezioni sugli agenti AI emergono persino da Claude che gioca a Pokemon — i giochi come banco di prova per il comportamento autonomo Lezioni sugli agenti AI da Claude che gioca (youtu.be). Genie 3 di DeepMind genera mondi interattivi 3D da un singolo prompt testuale — non più videogiocare in un mondo creato da altri, ma creare il proprio mondo giocandoci (🎯 ff.132.3 Misurare e modellare il mondo). Fortnite non è solo un gioco: è una piattaforma sociale, un concerto, un negozio. Il videogioco è il medium definitivo perché integra tutti gli altri.

Tesla Model S e prodotti di consumo tecnologici con sfondo futuristico
🚘 ff.93 — Tesla, fine di un'era? Dai videogiochi all'auto elettrica, la tecnologia di consumo ridisegna l'esperienza quotidiana.

Google, l'azienda più potente del mondo digitale, è vulnerabile per la prima volta in 25 anni. Il 50% del suo fatturato proviene dalla ricerca testuale — un format che ChatGPT, Perplexity e gli AI assistants stanno erodendo. Ma Google non è solo Search: è DeepMind (Nobel), TPU v7, Gemini 3, Waymo, YouTube. La domanda non è se Google sopravviverà, ma quale Google sopravviverà (🔎 ff.28 Google ricerca il futuro). Andy Grove, sopravvissuto ai campi di sterminio, salvò Intel dalla competizione giapponese nel 1985 con un pivot strategico dai chip di memoria ai processori. “La paranoia fomentata dalla gioventù tra guerra e nazismo ha salvato Intel,” scrive in Only the Paranoid Survive. Time lo elesse Man of the Year nel 1997 (🏛️ ff.126.1 Da campi di sterminio a Intel).

“La tecnologia è la risorsa definitiva. Con abbastanza tecnologia, possiamo sostenere 50 miliardi di persone su questo pianeta.”
— Marc Andreessen, The Techno-Optimist Manifesto

Il campo di battaglia più caldo della tech è il silicio stesso. La guerra dei chip tra USA e Cina ha trasformato TSMC (Taiwan) nell'azienda più strategica del pianeta: produce il 92% dei chip sotto i 7 nanometri. Un blocco di Taiwan fermerebbe l'industria globale. Huawei ha lanciato il Mate 60 Pro con un chip a 7nm fatto in casa, sorprendendo l'intelligence americana (💥 ff.82 Guerra a colpi di chip). CATL, il colosso cinese delle batterie, ha speso 2,6 miliardi di dollari in R&D, triplicando l'investimento del principale concorrente non cinese — consolidando una leadership che nel capitolo Natura ricorre come fattore chiave della transizione energetica CATL ha speso $2.6 miliardi in R&D, triplicando (economist.com) (🇨🇳 ff.42 Made in China). Il quantum computing aggiunge un'altra dimensione: Sycamore-70 di Google ha dimostrato la supremazia quantistica risolvendo in 200 secondi un calcolo che richiederebbe 10.000 anni a un supercomputer classico (⚛️ ff.69 Quantico?). Il caso più eloquente è Shenzhen: una città che quarant'anni fa non esisteva e oggi produce droni, auto volanti e infrastrutture di rete a una velocità che rende la pianificazione occidentale quasi ornamentale (🏮 ff.125.3 Cina: il prossimo impero mondiale?).

Chip e semiconduttori nella guerra tecnologica tra USA e Cina
💻 ff.81 — Guerra a colpi di chip: TSMC, Huawei e il silicio come nuova frontiera della geopolitica.

Tesla incarna tutte le contraddizioni dell'era tecnologica. L'azienda ha accelerato la transizione elettrica più di qualsiasi politica governativa, ma la sua valutazione è più una scommessa su Musk che un riflesso dei fondamentali. Tesla ha registrato il peggior calo trimestrale delle vendite in 10 anni, eppure il titolo è scambiato a 180 volte gli utili Tesla ha registrato il peggior calo trimestrale delle (profgmarkets.com). Nel 2024, BYD l'ha superata per vendite globali di veicoli elettrici (🚗 ff.93 Tesla: la fine di un'era?). L'arte, infine, non è immune alla rivoluzione. DALL-E, apparso nel 2022, ha generato un'esplosione creativa: il numero di opere digitali pubblicate è cresciuto del 300%. L'AI non ha sostituito gli artisti — li ha democratizzati (🎨 ff.30 DALL-E genera arte). ChatGPT, con le sue capacità emergenti — non previste dai creatori — ci insegna qualcosa di profondo: l'intelligenza nasce dalla struttura, non dal materiale. I Transformer, l'architettura alla base di tutti i modelli attuali, sono un articolo di 8 pagine scritto da 8 ricercatori di Google nel 2017: “Attention Is All You Need” (🤖 ff.83 Imparare da ChatGPT). Otto persone, un'idea, e il mondo non è più lo stesso. Il futuro non appartiene a chi possiede la macchina, ma a chi sa parlarle. E a volte è il corpo stesso a insegnartelo: caduto in bici con la clavicola rotta, trenta giorni di stop forzato, ChatGPT ha trasformato il dolore in creatività — sketch cubisti, emoji post-trauma, un nuovo modo di ridere dell'infortunio (🦴 ff.124.1 Dalì sciogli clavicole). Non potendo usare la tastiera, la newsletter successiva è stata dettata interamente all'AI, che l'ha redatta, corretta e resa pubblicabile. Come per i pazienti Neuralink, la mente parla senza il corpo: l'interfaccia smette di essere un lusso e diventa una protesi cognitiva necessaria (✍️ ff.124.2 Longa manus).

Chi davvero rischia di scomparire, però, non è l'artista: è il gatekeeper. Google oggi si trova in una posizione simile a quella di IBM negli anni Novanta o di Nokia nel 2007: il 50% del suo business — Google Search, da 200 miliardi l'anno — è sotto attacco simultaneo. Apple valuta di sostituirlo come motore di ricerca predefinito su Safari, nonostante Google paghi 20 miliardi di dollari l'anno per quel privilegio. La risposta di Mountain View è stata il Google I/O 2025, dove il gigante ha mostrato tutte le carte in una volta: Veo 3, modello text-to-video con qualità che sfida Hollywood; 📎 traduzioni audio simultanee in Google Meet che abbattono la barriera linguistica in tempo reale; 📎 smart-glasses Android XR potenziati da Gemini che sovrappongono informazioni contestuali al campo visivo; e 📎 Google Beam, televisori che creano avatar 3D per videochiamate che sembrano ologrammi. Non è la fine di Google — è la sua mutazione: da motore di ricerca a sistema operativo dell'attenzione. Ma la transizione ha un costo: il 50% dei ricavi API di Anthropic — concorrente diretto — proviene già da 📎 strumenti di coding come GitHub Copilot e Cursor, per un totale di 14 miliardi di dollari. Il campo di battaglia non è più la barra di ricerca: è l'interfaccia tra intenzione umana e azione digitale (🐦 ff.126.2 Non è la fine di Google).

2.3.4 — Il collo di bottiglia fisico

GPU, batterie e realtà mista: il collo di bottiglia fisico

Nel corpus emerge un punto ricorrente: il prossimo salto non è nel modello, ma nella fisica che lo sostiene. L'embargo sulle GPU avanzate ha costretto la Cina a spremere efficienza da hardware meno performante, trasformando il watt in metrica competitiva (⚡ ff.135.2 Onda anomala energetica). Mark Zuckerberg annuncia la costruzione di Hyperion, un data center AI da 5 GW — cinque volte più grande degli attuali Mark Zuckerberg annuncia la costruzione di un data (techcrunch.com). Nuovi display per realtà mista avvicinano il metaverso all'uso quotidiano: non mondi virtuali separati, ma livelli informativi sovrapposti al mondo reale, sempre attivi e contestuali.

Lo stesso vale per l'energia di accumulo: senza batterie più economiche e dense, l'AI resta una promessa costosa. La traiettoria è chiara: catene industriali orientate a chimiche più abbondanti e meno dipendenti da materiali critici, con il baricentro produttivo che si sposta verso soluzioni scalabili per rete elettrica, mobilità e datacenter (🔋 ff.42 Made in China). Per contestualizzare il consumo: un cheeseburger McDonald's equivale all'energia di 80.000 richieste ChatGPT Un cheeseburger McDonald's equivale all'energia di 80000 richieste (x.com). La vera corsa, quindi, non è solo al modello migliore: è al sistema integrato chip + elettricità + storage + interfaccia.

Ma il collo di bottiglia non è solo energetico: è anche fisico, nel senso più letterale. Le strade si rompono, i marciapiedi si sgretolano, i cantieri restano aperti per anni. Sidewalk AI, progetto del MIT Senseable Lab di Carlo Ratti, usa l'intelligenza artificiale per mappare lo stato di salute dei marciapiedi in tempo reale — crepe, avvallamenti, accessibilità — trasformando dati grezzi in priorità di intervento. Il secondo tassello sono i robot da cantiere: Figure AI collabora con BMW per velocizzare le linee di produzione, ma lo stesso principio si applica alle infrastrutture urbane, dove un robot può operare di notte, senza straordinari e senza fermare il traffico. In attesa della rivoluzione robotica completa, c'è chi ha già trovato una via poetica: a Lione, lo street artist Ememem pratica il flacking, riempiendo le buche stradali con mosaici colorati secondo il principio giapponese del kintsugi — l'arte di riparare con l'oro. La metafora funziona anche per la tecnologia: non nascondere le fratture, ma trasformarle in punti di forza (🤜 ff.110.4 Robot e AI: opportunità).

C'è poi un punto che nel dibattito pubblico viene spesso rimosso: la tecnologia non è neutra nemmeno quando sembra solo “utile”. Ogni interfaccia decide cosa rendere visibile e cosa far sparire; ogni automazione sposta potere da una persona a un protocollo; ogni scorciatoia cognitiva può liberare tempo o ridurre autonomia, dipende da come è disegnata. La promessa giusta non è “fare tutto con un prompt”, ma aumentare lucidità nelle scelte ad alto impatto: cosa automatizzare, cosa mantenere umano, cosa misurare davvero. Chip, batterie e modelli sono solo metà della storia; l'altra metà è governance quotidiana dell'attenzione. Una buona tecnologia non ti toglie il giudizio: ti restituisce margine per esercitarlo meglio, con meno rumore e più responsabilità (🧰 ff.123 L'AI con il coltellino svizzero; 🌱 ff.129 Singolarità gentile).

Il primo vero terremoto è arrivato dal sottosuolo della biologia strutturale. Per mezzo secolo, determinare la forma tridimensionale di una proteina richiedeva mesi di cristallografia a raggi X e milioni di dollari. Poi DeepMind ha rilasciato AlphaFold e in pochi mesi ha predetto la struttura dell'intero proteoma umano — circa ventimila proteine — estendendo poi il catalogo a oltre trecentocinquantamila proteine di altri organismi. Da cinquant'anni di tentativi a un database universale in un anno: non un miglioramento incrementale, ma un cambio di paradigma nel modo in cui la scienza interroga la materia vivente. La farmacologia, la bioingegneria e persino l'agricoltura ne sono state ridisegnate (🧬 ff.4.1 La struttura delle proteine).

Se AlphaFold ha dato occhi molecolari alla biologia, la visione artificiale ha dato occhi letterali alle macchine. Da quando GPT ha integrato input visivi, l'intelligenza artificiale non si limita più a leggere testo: interpreta immagini, decifra grafie illeggibili, localizza oggetti nascosti in una scena. Cognizione e vista — i due pilastri del nostro successo evoluzionistico — convergono ora in un sistema artificiale che, in molti compiti percettivi, supera la mediana umana. La domanda non è più se le macchine vedranno: è cosa faranno con ciò che vedono, e chi deciderà i confini di quello sguardo (🤖 ff.71.2 ChatGPT (ti) vede).

E quando la macchina non si limita a vedere o a predire, ma inizia a inventare matematica, il confine si sposta ancora. AlphaEvolve di DeepMind non gioca più a Go: esplora frontiere matematiche irrisolte, stabilendo un nuovo record nel “problema dei baci” in undici dimensioni con 593 sfere. Contemporaneamente, il suo stesso algoritmo ha ridotto dell'uno per cento il consumo energetico dei data center di Google, migliorando l'algoritmo di Strassen rimasto imbattuto dal 1969. Un'AI che scopre teoremi e poi li applica per ridurre il proprio costo operativo: la ricorsività è il tratto più inquietante e promettente di questa fase (🅐 ff.126.4 AlphaEvolve).

Ma la tecnologia non si misura solo in parametri e benchmark: si misura anche in energia consumata, in contesto compreso e in chilometri percorsi senza conducente. Partiamo dall'elefante nella stanza cripto: si stima che il consumo energetico per mantenere operativa la blockchain di Bitcoin sia pari a quello dell'intera Finlandia (🇫🇮 ff.1.5 Il consumo energetico di Bitcoin). Il dato è impressionante, eppure fuorviante se lo si isola dal contesto: una quota crescente del mining utilizza energia rinnovabile — idroelettrica in Islanda, geotermica in El Salvador, solare nel Texas occidentale — e il trasferimento digitale di valore evita costi ecologici tangibili legati al trasporto fisico di denaro, oro e documenti. Non si tratta di assolvere Bitcoin, ma di rifiutare la contabilità parziale: ogni sistema energetico va confrontato con l'alternativa che sostituisce, non con un'utopia a consumo zero.

Lo stesso principio — il contesto è tutto — si applica al salto generazionale dell'intelligenza artificiale. Quando GPT-4 ha sostituito la versione 3.5 nel motore di ChatGPT, centocinquanta pagine di analisi di Microsoft Research ne hanno documentato la superiorità qualitativa: ragionamento multimodale, capacità di seguire istruzioni complesse, comprensione di sfumature emotive che la versione precedente ignorava del tutto (🥃 ff.54.1 Il contesto: l'amaro dell'impotenza). Il miglioramento non è stato lineare, ma esponenziale — il tipo di curva che, osservata dal basso, sembra piatta e poi verticale. GPT-3 sapeva riassumere; GPT-4 sa riscrivere un messaggio usando solo parole che iniziano con la lettera A, mantenendo il senso emotivo intatto. È la differenza tra un traduttore meccanico e un interprete che coglie il sottotesto: non un aggiornamento, ma un cambio di categoria cognitiva.

E quando l'intelligenza artificiale esce dallo schermo e sale su quattro ruote, il futuro si misura in yuan al chilometro. A Wuhan — sì, la stessa Wuhan — 3 taxi su 100 sono già robotaxi Baidu: dieci chilometri per quattro yuan, circa 0,55 dollari, un quinto del costo di un taxi convenzionale (🚕 ff.102.2 Wuhan: dal Covid a Baidu). La flotta di cinquecento veicoli raddoppierà entro fine anno, e le proiezioni McKinsey indicano che per il 2035 i taxi autonomi cresceranno di dieci volte, raggiungendo ricavi paragonabili a quelli di Apple. Il filo che lega questi tre fenomeni è lo stesso: l'energia di Bitcoin, i parametri di GPT-4 e i chilometri dei robotaxi sono tutti indicatori di densità tecnologica — quanto lavoro utile un sistema riesce a comprimere in un'unità sempre più piccola di tempo, spazio o costo. La vera misura del progresso non è la potenza grezza, ma il rapporto tra complessità gestita e risorse impiegate. E quel rapporto, in tutti e tre i casi, sta migliorando più in fretta di quanto il dibattito pubblico riesca a registrare.

Bibliografia

Riferimenti dal corpus Futuro Fortissimo

Fonti esterne

  1. Keynote di Jensen Huang, CEO di NVIDIA, ayoutube.com
  2. Il 50% dei ricavi API di Anthropic provienesubstack.com
  3. 50 milioni di GPU H100 a pieno regime: il costo energetico dell'AIx.com
  4. Una richiesta Gemini consuma 0,24 Wh; un'ora di streaming 36 Whsubstack.com
  5. La teoria 'energia-calcolo': la potenza energetica dominerà l'AIsubstack.com
  6. GPT-5 completa compiti software di 2 ore e supera benchmark autonomimetr.github.io
  7. GPT-5 ha proposto un meccanismo scientifico paragonato alla mossa 37 di AlphaGox.com
  8. Una versione avanzata di Gemini con Deep Think raggiunge il livello medaglia d'oro IMOdeepmind.google
  9. La Cina ha ospitato i primi Giochi Mondialix.com
  10. Il primo robot umanoide che piega il bucatolinkedin.com
  11. Unitree della Cina ha presentato un robot umanoidebloomberg.com
  12. Un laboratorio alimentato da AI si auto-gestisce esciencedaily.com
  13. L'AI generativa accelera la ricerca sulla longevità riducendox.com
  14. Un modello AI decifra il monologo interiore dall'attivitàsciencedirect.com
  15. Il modello TRIBE di Meta è il primox.com
  16. La Cina supera l'Occidente nella ricerca e neitechwireasia.com
  17. Un display VR da 3mm con ologrammi AInews.stanford.edu
  18. Anduril e Meta collaborano per creare "Eagle Eye",youtu.be
  19. Gli ETF Ether registrano $727 milioni di afflussicoincentral.com
  20. Coinbase lancia aggiornamenti per Base, Zora tokenizzerà ognishare.google
  21. Il numero di tesorerie Bitcoin attive quotate inbitcointreasuries.net
  22. Il 21% degli adulti statunitensi possiede asset digitali.share.google
  23. Taiwan intende produrre 180 mila droni all'anno entrowired.com
  24. I maggiori produttori solari cinesi hanno licenziato in massa un terzo della forza lavororeuters.com
  25. Sempre più giovani scelgono tra lavori manuali owealest.com
  26. Neuralink: Audrey Crews sta imparando a scrivere ilx.com
  27. Dopo Klarna, il CEO di Zoom Eric Yuantechcrunch.com
  28. Bluey, il cartone animato, è apprezzato per il suo approccio alla genitorialitàitsnicethat.com
  29. Un giovane fondatore di startup a San Franciscosemafor.com
  30. Lezioni sugli agenti AI da Claude che giocayoutu.be
  31. CATL ha speso $2.6 miliardi in R&D, triplicandoeconomist.com
  32. Tesla ha registrato il peggior calo trimestrale delleprofgmarkets.com
  33. Un ponte ciclabile di 400 metri in Belgio ispirato alla Sezione Aureainstagram.com
  34. Mark Zuckerberg annuncia la costruzione di un datatechcrunch.com
  35. Un cheeseburger McDonald's equivale all'energia di 80000 richiestex.com
  36. GPT-4 è davvero superiore: 150 pagine di analisi Microsoft Researcharxiv.org
  37. A Wuhan, 3 taxi su 100 sono robotaxi Baiducnn.com
  38. 10 km per 4 yuan ($0.55): il costo dei robotaxi Baiduglobaltimes.cn
  39. Anthropic: scomporre i modelli linguistici in componenti interpretabilianthropic.com
  40. Come i LLM hanno interiorizzato il concetto di tempotwitter.com
  41. Learning to Reason with LLMsopenai.com
  42. Traduzioni audio simultanee in Google Meetyoutube.com
  43. Android XR: smart-glasses potenziati da Geminiblog.google
  44. Google Beam: avatar 3D e telepresenzablog.google