2.3.4 — Il collo di bottiglia fisico

Il prossimo salto non è nel modello, ma nella fisica che lo sostiene. L'embargo sulle GPU avanzate ha costretto la Cina a spremere efficienza da hardware meno performante, trasformando il watt in metrica competitiva (🌊 ff.135.2 Onda anomala energetica). Mark Zuckerberg annuncia la costruzione di Hyperion, un data center AI da 5 GW[1] — cinque volte più grande degli attuali. Nuovi display per realtà mista avvicinano il metaverso all'uso quotidiano: non mondi virtuali separati, ma livelli informativi sovrapposti al mondo reale, sempre attivi e contestuali.

Lo stesso vale per l'energia di accumulo: senza batterie più economiche e dense, l'AI resta una promessa costosa. La traiettoria è chiara: catene industriali orientate a chimiche più abbondanti e meno dipendenti da materiali critici, con il baricentro produttivo che si sposta verso soluzioni scalabili per rete elettrica, mobilità e datacenter (⛏️ ff.42.1 Minerali preziosi?). Per contestualizzare il consumo: un cheeseburger McDonald's equivale all'energia di 80.000 richieste ChatGPT[2]. La vera corsa, quindi, non è solo al modello migliore: è al sistema integrato chip + elettricità + storage + interfaccia.

Ma il collo di bottiglia non è solo energetico: è anche fisico, nel senso più letterale. Le strade si rompono, i marciapiedi si sgretolano, i cantieri restano aperti per anni. Sidewalk AI, progetto del MIT Senseable Lab di Carlo Ratti, usa l'intelligenza artificiale per mappare lo stato di salute dei marciapiedi in tempo reale — crepe, avvallamenti, accessibilità — trasformando dati grezzi in priorità di intervento. Il secondo tassello sono i robot da cantiere: Figure AI collabora con BMW per velocizzare le linee di produzione, ma lo stesso principio si applica alle infrastrutture urbane, dove un robot può operare di notte, senza straordinari e senza fermare il traffico. In attesa della rivoluzione robotica completa, c'è chi ha già trovato una via poetica: a Lione, lo street artist Ememem pratica il flacking, riempiendo le buche stradali con mosaici colorati secondo il principio giapponese del kintsugi — l'arte di riparare con l'oro. La metafora funziona anche per la tecnologia: non nascondere le fratture, ma trasformarle in punti di forza (🤤 ff.110.4 Robot e AI: opportunità).

Il cantiere infinito non è solo una battuta da bar: è un dato strutturale. Lo Stato fatica a finanziare la manutenzione del costruito, e gli eventi climatici estremi — come l’alluvione di Valencia — non aiutano. Intorno a noi si moltiplicano cantieri sorvegliati da pensionati, talmente lenti da diventare spettacolo: il dipartimento dei trasporti della Pennsylvania ha messo in streaming il cantiere dell’interstate I-95, in stile Grande Fratello. Ma dietro l’ironia c’è un precipizio di produttività[3]. McKinsey certifica che la produttività nell’edilizia è bloccata ai livelli degli anni 2000[4] — ferma mentre ogni altro settore accelerava. Eppure l’America sapeva essere veloce: in 138 giorni dall’idea, Apollo 8 atterrò sulla Luna[5]. La distanza tra quella velocità e un cantiere autostradale del 2024 misura esattamente il costo della complessità burocratica accumulata in sessant’anni (🚧 ff.110.2 Un cantiere infinito).

C'è poi un punto che nel dibattito pubblico viene spesso rimosso: la tecnologia non è neutra nemmeno quando sembra solo “utile”. Ogni interfaccia decide cosa rendere visibile e cosa far sparire; ogni automazione sposta potere da una persona a un protocollo; ogni scorciatoia cognitiva può liberare tempo o ridurre autonomia, dipende da come è disegnata. La promessa giusta non è “fare tutto con un prompt”, ma aumentare lucidità nelle scelte ad alto impatto: cosa automatizzare, cosa mantenere umano, cosa misurare davvero. Chip, batterie e modelli sono solo metà della storia; l'altra metà è governance quotidiana dell'attenzione. Una buona tecnologia non ti toglie il giudizio: ti restituisce margine per esercitarlo meglio, con meno rumore e più responsabilità. Sul lato strumentale — l’AI come generalista tascabile — il riferimento è 🛠️ ff.123.1 L'AI con il coltellino svizzero; sul lato industriale — come una singola azienda incarna e accelera il pattern — vale 💃🏻 ff.129.3 Il valzer di Tesla.

Un cheeseburger McDonald's equivale all'energia di 80.000 richieste ChatGPT. Mark Zuckerberg annuncia Hyperion, un data center AI da 5 GW — cinque volte più grande degli attuali. Chip, batterie e modelli sono solo metà della storia; l'altra metà è governance quotidiana dell'attenzione. Una buona tecnologia non ti toglie il giudizio: ti restituisce margine per esercitarlo meglio.

Ma c’è chi sfida persino la narrativa dominante sulla crisi. Nato in Francia a metà Ottocento, il positivismo è il collante culturale della tecnica: additato come miope, è indubbiamente la base della società tecnologica in cui viviamo. La presunta stagnazione post-1971 — il mantra che “non si inventa più nulla” — è per Works in Progress una grande balla[6]: il PIL non cattura il progresso perché con la tecnologia raggiungiamo di più spendendo meno, in un deflazionario decremento di consumi. La gratuità digitale è strutturale: il valore dei servizi digitali può raggiungere 25.000€ all’anno per utente[7] — soldi che non spendiamo e non entrano nelle buste paga, ma di cui dovremmo tenere conto nel calcolo del progresso. Nonostante passiamo un quarto della nostra giornata davanti a uno schermo, siamo particolarmente tirchi online. L’aumento di potenza di calcolo degli ultimi trent’anni è stato come ottimizzare inchiostro e scrittura: ora, con AI e generazioni più native digitali, possiamo finalmente scrivere i libri. È ora, sostiene il Progressive Policy Institute, di “spaccare” il Grande Ristagno (🖶 ff.59.1 Altro che stagnazione!).

Si può studiare la tecnologia con una teoria evoluzionistica: come una specie evolve in base a pressioni esterne, così lo sviluppo tecnologico va di pari passo con accettazione e blocchi della società. La co-evoluzione tecnologica. QWERTY è tutt’altro che l’ottimo nella disposizione dei caratteri di una tastiera, ma ci siamo adattati e ora cambiarla è un casino. Un altro esempio di interazione società-tecnologia: il blocco nucleare post Fukushima e il revisionismo post invasione Ucraina[8]. Se volete approfondire il tema, suggerisco il libro Come saremo[9], di Telmo Pievani e Luca de Biase (🗃️ ff.59.2 Pressioni sociali e burocrazia).

Se la co-evoluzione blocca le innovazioni tramite resistenza sociale, la “deflazione mentale” le blocca ancor prima — nella testa dei ricercatori. Aristotle, il modello AI di HarmonicMath, ha risolto il problema di Erdős #124, rimasto aperto per 30 anni: l’AI raggiunge gli apici della matematica pura. Professori come Aryeh Kontorovich dell’Università di Ben-Gurion si chiedono se valga ancora la pena scrivere paper. La deflazione mentale è analoga a quella economica: se domani un’idea costerà meno, non ha senso investirci oggi. L’effetto è paralizzante: chi può competere con un sistema che risolve in secondi ciò che ha richiesto trent’anni di lavoro umano? (🧮 ff.140.3 Deflazione mentale e crisi accademica).

Eppure la deflazione mentale potrebbe essere il prezzo di un’accelerazione senza precedenti. Un laboratorio alimentato da AI si auto-gestisce e scopre nuovi materiali 10 volte più velocemente dei ricercatori umani[10]: non un assistente che suggerisce esperimenti, ma un sistema che li progetta, li esegue e li analizza senza intervento. Come l’AI generativa ha reso la creazione di immagini un gioco da ragazzi, così i laboratori autonomi rendono la scoperta di materiali un processo iterativo a ciclo chiuso. La domanda non è più se l’AI può fare scienza: è se il ricercatore umano servirà ancora come esecutore, o solo come giudice — lo stesso dilemma che la medicina pone già, dove agenti GPT che impersonano medici e pazienti producono diagnosi migliori dei modelli allenati su tutta la letteratura scientifica (🩹 ff.98.2 Simulare Doctor House).

Il primo vero terremoto è arrivato dal sottosuolo della biologia strutturale. Per mezzo secolo, determinare la forma tridimensionale di una proteina richiedeva mesi di cristallografia a raggi X e milioni di dollari. Poi DeepMind ha rilasciato AlphaFold e in pochi mesi ha predetto la struttura dell'intero proteoma umano — circa ventimila proteine — estendendo poi il catalogo a oltre trecentocinquantamila proteine di altri organismi. Da cinquant'anni di tentativi a un database universale in un anno: non un miglioramento incrementale, ma un cambio di paradigma nel modo in cui la scienza interroga la materia vivente. La farmacologia, la bioingegneria e persino l'agricoltura ne sono state ridisegnate (🧬 ff.4.1 La struttura delle proteine).

Ma AlphaFold è solo una metà della storia. L’altra metà si legge in un grafico che assomiglia a una cascata: il prezzo per sequenziare il DNA è crollato negli ultimi vent’anni di un fattore centomila. Un altro pezzo fondamentale di come la biologia, nel prossimo decennio, sconvolgerà le nostre vite esattamente come fatto dai PC negli ultimi venti. Oggi sequenziare un intero genoma umano costa meno dell’ultimo iPhone — circa 1.000 dollari. Quella curva di costo è il segnale più chiaro che la biologia sta seguendo la stessa traiettoria dell’informatica: ciò che ieri era ricerca di frontiera, domani sarà routine. Avete già prenotato il vostro test? (📉 ff.4.4 DNA meglio dei microchip!).

E se AlphaFold ha ridisegnato la biologia, un altro modello DeepMind sta ridisegnando la meteorologia. GraphCast — presentato da Demis Hassabis — batte i modelli fisici tradizionali nella previsione del tempo[11] sulla maggioranza delle metriche a medio raggio, a una frazione del costo computazionale. I centri meteo nazionali girano simulazioni numeriche su supercomputer dedicati; un modello statistico addestrato su quarant’anni di rianalisi ERA5 produce la stessa qualità di previsione a dieci giorni in meno di un minuto su una singola TPU. Come argomentato in ff.119.1 (intelligenze aliene), l’AI non replica meccanismi: ne inventa di propri. La meteorologia, materia che per secoli ha richiesto equazioni di Navier-Stokes risolte numericamente, si sta riducendo a un problema di pattern statistici ad alta dimensionalità. Il modus operandi della scienza cambia: non meno fisica, ma più fisica statistica. Se ciò vale per l’atmosfera, vale probabilmente per ogni sistema dinamico — compreso, presumibilmente, il clima stesso.

La stessa logica torna nella chimica degli enzimi, ma con un avvertimento onesto. Uno studio pubblicato su Nature (2025) sugli enzimi progettati computazionalmente mostra tassi catalitici iniziali bassi[12]: i modelli generativi producono enzimi che funzionano, ma richiedono un’intensa ottimizzazione sperimentale per raggiungere l’efficienza degli enzimi naturali selezionati dall’evoluzione. Il risultato è più utile di un successo totale: dice dove siamo davvero. AlphaFold legge strutture; la progettazione de novo le inventa; ma inventare una proteina plausibile non significa ancora inventarne una efficiente. La linea di ricerca, già visibile nel paragrafo sul laboratorio auto-gestito, si specializza ora su un asse preciso: dall’accuratezza strutturale all’efficacia funzionale. La prossima frontiera non è solo il fold, ma la chimica cinetica che lo abita — e qui, ancora per un po’, gli umani servono al banco di laboratorio.

Se AlphaFold ha dato occhi molecolari alla biologia, la visione artificiale ha dato occhi letterali alle macchine. Da quando GPT ha integrato input visivi, l'intelligenza artificiale non si limita più a leggere testo: interpreta immagini, decifra grafie illeggibili, localizza oggetti nascosti in una scena. Cognizione e vista — i due pilastri del nostro successo evoluzionistico — convergono ora in un sistema artificiale che, in molti compiti percettivi, supera la mediana umana. La domanda non è più se le macchine vedranno: è cosa faranno con ciò che vedono, e chi deciderà i confini di quello sguardo (🤖 ff.71.2 ChatGPT (ti) vede).

Ma la tecnologia non si misura solo in parametri e benchmark: si misura anche in energia consumata, in contesto compreso e in chilometri percorsi senza conducente. Partiamo dall'elefante nella stanza cripto: si stima che il consumo energetico per mantenere operativa la blockchain di Bitcoin sia pari a quello dell'intera Finlandia (🇫🇮 ff.1.5 Il consumo energetico di Bitcoin). Il dato è impressionante, eppure fuorviante se lo si isola dal contesto: una quota crescente del mining utilizza energia rinnovabile — idroelettrica in Islanda, geotermica in El Salvador, solare nel Texas occidentale — e il trasferimento digitale di valore evita costi ecologici tangibili legati al trasporto fisico di denaro, oro e documenti. Non si tratta di assolvere Bitcoin, ma di rifiutare la contabilità parziale: ogni sistema energetico va confrontato con l'alternativa che sostituisce, non con un'utopia a consumo zero.

La smart TV sarà pure il modo più tradizionale e comodo di fruire contenuti, sempre più provenienti da piattaforme online. Eppure le dimensioni non contano come ci si aspetterebbe: gli smartphone generano introiti ben superiori alla vendita di televisori e PC messi insieme. Gli accessori per smartphone superano di gran lunga le vendite di tablet, wearable, console e altri dispositivi tech. Il multiverso digitale, per ora, è relegato a uno schermo piccolissimo — quello che teniamo in tasca e guardiamo un quarto della giornata (📱 ff.8.3 Schermi piccoli).

Il peso degli schermi piccoli si riflette anche nella distribuzione dei ricavi dell’AI. Circa metà del fatturato API di Anthropic proviene da soli due strumenti: GitHub Copilot e Cursor, per un totale di 1,4 miliardi di dollari tra i due. La concentrazione è rivelatrice: l’intelligenza artificiale genera valore non dove parla, ma dove scrive codice — e chi controlla l’interfaccia di programmazione controlla il flusso economico dell’intera catena.

Lo stesso principio — il contesto è tutto — si applica al salto generazionale dell'intelligenza artificiale. Quando GPT-4 ha sostituito la versione 3.5 nel motore di ChatGPT, centocinquanta pagine di analisi di Microsoft Research ne hanno documentato la superiorità qualitativa: ragionamento multimodale, capacità di seguire istruzioni complesse, comprensione di sfumature emotive che la versione precedente ignorava del tutto (🥃 ff.54.1 Il contesto: l'amaro dell'impotenza). Il miglioramento non è stato lineare, ma esponenziale — il tipo di curva che, osservata dal basso, sembra piatta e poi verticale. GPT-3 sapeva riassumere; GPT-4 sa riscrivere un messaggio usando solo parole che iniziano con la lettera A, mantenendo il senso emotivo intatto. È la differenza tra un traduttore meccanico e un interprete che coglie il sottotesto: non un aggiornamento, ma un cambio di categoria cognitiva.

I dati sulla guida autonoma cominciano a parlare con una chiarezza difficile da ignorare. Con cinquantasette milioni di miglia di dati raccolti, Waymo registra l’ottantacinque per cento in meno di lesioni gravi e il settantanove per cento in meno di lesioni complessive rispetto ai guidatori umani. Non è più una promessa da laboratorio: è una statistica da flotta operativa, e il divario con la guida umana si allarga a ogni trimestre.

E quando l'intelligenza artificiale esce dallo schermo e sale su quattro ruote, il futuro si misura in yuan al chilometro. A Wuhan — sì, la stessa Wuhan — 3 taxi su 100 sono già robotaxi Baidu: dieci chilometri per quattro yuan, circa 0,55 dollari, un quinto del costo di un taxi convenzionale (🚕 ff.102.2 Wuhan: dal Covid a Baidu). La flotta di cinquecento veicoli raddoppierà entro fine anno, e le proiezioni McKinsey indicano che per il 2035 i taxi autonomi cresceranno di dieci volte, raggiungendo ricavi paragonabili a quelli di Apple. Il filo che lega questi tre fenomeni è lo stesso: l'energia di Bitcoin, i parametri di GPT-4 e i chilometri dei robotaxi sono tutti indicatori di densità tecnologica — quanto lavoro utile un sistema riesce a comprimere in un'unità sempre più piccola di tempo, spazio o costo. La vera misura del progresso non è la potenza grezza, ma il rapporto tra complessità gestita e risorse impiegate. E quel rapporto, in tutti e tre i casi, sta migliorando più in fretta di quanto il dibattito pubblico riesca a registrare.

Fonti esterne citate in 2.3.4

12 fonti.

  1. Mark Zuckerberg annuncia la costruzione di Hyperion, un data center AI da 5 GWtechcrunch.com
  2. Un cheeseburger McDonald's equivale all'energia di 80.000 richieste ChatGPTx.com
  3. Precipizio di produttivitàluxcapital.com
  4. McKinsey certifica che la produttività nell'edilizia è bloccata ai livelli degli anni 2000mckinsey.com
  5. In 138 giorni dall'idea, Apollo 8 atterrò sulla Lunapatrickcollison.com
  6. Worksinprogress: There Was No Great Stagnationworksinprogress.co
  7. Valore dei servizi digitali: 25.000€/anno per utente (ResearchGate)researchgate.net
  8. Blocco nucleare post Fukushima e il revisionismo post invasione Ucrainafortissimo.substack.com
  9. Come saremoamzn.to
  10. Un laboratorio AI auto-gestito scopre materiali 10x più velocesciencedaily.com
  11. DeepMind GraphCast — previsione del tempo via AI che batte i modelli fisici tradizionali a 10 giornix.com
  12. Enzimi progettati computazionalmente: tassi catalitici iniziali bassi, ottimizzazione sperimentale richiestanature.com