2.1.4 — Miniaturizzazione e ricorsività

La dematerializzazione dell'AI — modelli più piccoli, più efficienti, eseguibili su smartphone — è il trend nascosto del 2025. Mistral, con un team di 30 persone, compete con i giganti. DeepSeek, dalla Cina, è emerso come alternativa gratuita a OpenAI, dimostrando che i lavori più pagati — attori, programmatori e avvocati — sono ora a rischio. La programmazione, che un tempo richiedeva anni di studio, è oggi accessibile con poche parole. L'AI trova persino antidoti per veleni di serpente in secondi grazie a ProteinMPNN (👨🏻‍🏫 ff.115.1 A lezione con un miliardario). Apple Intelligence gira localmente sul dispositivo. La corsa alla miniaturizzazione è il contraltare necessario alla corsa ai datacenter. La Cina supera l'Occidente nella ricerca AI[1] con il 40% delle citazioni globali nel 2024. Siamo già mischiati con l'AI? David Eagleman, neuroscienziato di Stanford, argomenta che lo smartphone è già un'estensione cognitiva: “Non siamo cyborg perché abbiamo un chip nel cervello; lo siamo perché abbiamo un cervello nel chip.” (🤖 ff.36.4 Siamo già mischiati con l'AI?).

La miniaturizzazione non è solo tecnica: è anche organizzativa. In (🌐 ff.52.3 Fondare la propria nazione) abbiamo parlato della crescente centralizzazione di alcuni servizi. Il dato più eloquente è il crollo del numero di dipendenti per raggiungere 1 milione di dollari di revenue nelle aziende S&P 500[2]. Presto potremmo avere aziende da un trilione di dollari composte da un solo dipendente assistito da centinaia di agenti AI. Già oggi, influencer potenziati da AI e network effect creano brand personali — gli hamburger di Mr. Beast[3], gli NFT di Emily Ratajkowski: un esempio di quella che Li Jin chiama Passion Economy[4]. Ma sopravviveranno all’infinità di contenuti che verranno presto prodotti? (👑 ff.55.3 Altro che Giulio Cesare: i nuovi imperatori).

Ray Kurzweil prevedeva che entro il 2029 le macchine avrebbero superato il test di Turing (🤖 ff.36.3 Una bella chiaccherata). ChatGPT l'ha già fatto nel 2023, tre anni prima della scadenza — non perché sia diventato umano, ma perché ha imparato a sembrarlo.

E sotto il livello dei chip classici, una seconda rivoluzione è già in cantiere. Il calcolo quantistico promette velocità impensabili per alcuni problemi specifici: ottimizzazione del traffico nei porti (SavantX lo usa già a San Francisco), analisi di scanner cerebrali per capire l’autismo (SandboxAQ), e una classe di applicazioni più inquietante — rompere i sistemi crittografici alla base della finanza mondiale. I protocolli di Elliptic Curve Cryptography che proteggono VISA, Mastercard e Bitcoin possono essere risolti in tempo polinomiale dall’algoritmo di Shoril labirinto crittografico smette di essere un labirinto quando il risolutore non avanza una casella alla volta. La barriera pratica, finora, era la rumorosità dei qubit: un singolo errore logico su mille operazioni è già sufficiente a inficiare il calcolo. Microsoft e Quantinuum hanno annunciato un miglioramento di 800 volte nel tasso di errore logico dei qubit[5], il salto richiesto per passare dai laboratori ai sistemi di calcolo reale. Otto-cento-volte in un singolo update di pila tecnologica: è la prima volta che un parametro della fedeltà quantistica si muove a questo ritmo. Per il sistema bancario mondiale, il conto alla rovescia per la migrazione verso la crittografia post-quantum inizia oggi, non fra dieci anni (🤔 ff.69.4 Quantistica: quali utilizzi e pericoli?).

E sotto il livello dei modelli e dei chip, la biologia custodisce il suo dogma fondamentale. La complessità biologica è un agglomerato di atomi via via più grandi: molecole, proteine, RNA, DNA. Prima l’uovo, poi la gallina. Il dogma fondamentale della biologia dice che le proteine vengono create seguendo le istruzioni dell’RNA che, a sua volta, è una “copia temporanea” di un tratto di DNA: DNA → RNA → proteine. Anche a livello terapeutico abbiamo tre livelli di azione: modificare il DNA, iniettare RNA (come coi vaccini mRNA), o agire sul design di proteine. E stiamo avanzando in tutti e tre: il Prime Editing[6] per il DNA; i vaccini mRNA contro il cancro per l’RNA; AlphaFold per le proteine; e i primi trial clinici di molecole scoperte dall’AI[7], praticamente un MidJourney per la prossima tachipirina. La miniaturizzazione tecnologica e quella biologica convergono: il corpo umano è già un sistema computazionale — e stiamo iniziando a riprogrammarlo (📙 ff.66.1 Il dogma fondamentale).

La Cina non gioca solo di difesa nel software: attacca nell’hardware che si muove. Haomo.ai ha presentato DriveGPT[8]: la rivoluzione del reinforcement learning from human feedback[9] applicata alla guida autonoma — lo stesso meccanismo che ha reso ChatGPT conversazionale ora insegna alle auto a guidare. ByteDance, proprietario di TikTok, collabora con Haomo.ai finanziando il datacenter più grande del paese[10], con Great Wall Motor — la “Fiat cinese” — nel progetto (🇨🇳 ff.60.4 DriveGPT).

Ma la supremazia cinese nell’elettrificazione non si traduce automaticamente in supremazia AI. Lo sviluppo dell’intelligenza artificiale è fortemente legato alla potenza di calcolo[11], e il know-how nella costruzione di GPU per il training è in mano agli Stati Uniti — NVIDIA, AMD. Nell’ultimo anno è iniziato un vero e proprio embargo di prodotti americani[12] per rallentare le capacità di calcolo cinesi. Sul lungo periodo l’effetto è analogo a quello dei semiconduttori: USA ed Europa costruiscono fabbriche indipendenti, e la Cina potrebbe muoversi allo stesso modo sull’AI. Il caso Taiwan suona come campanello d’allarme: TSMC ha investito 40 miliardi di dollari in Arizona[13]. Se i benefici della globalizzazione venissero meno, la dipendenza tra paesi diminuirebbe — aumentando il rischio di tensioni. Ogni stato cerca indipendenza: la de-globalizzazione dei chip è il prologo della de-globalizzazione dell’intelligenza (🐌 ff.42.3 Bastoni tra le AI-ruote).

Ma l’esponenziale più insidioso non è quello che vediamo — è quello che non riusciamo a percepire. Tim Urban, nel suo saggio del 2015 sulla rivoluzione dell’intelligenza artificiale, disegnava una curva che sale così lentamente da sembrare piatta, fino al momento in cui esplode verticale. L’AI sta facendo esattamente questo: strisciando fuori dai chatbot verso applicazioni che dieci anni fa erano fantascienza di serie B. ProteinMPNN è un modello addestrato su strutture proteiche[14] — un ChatGPT che parla la lingua degli amminoacidi invece di quella degli umani. Su Nature, un team ha dimostrato come trovare un antidoto per il veleno dei serpenti in secondi invece che mesi[15]. La portata è immensa: ogni anno i morsi di serpente uccidono oltre centomila persone, quasi tutte in regioni dove il laboratorio più vicino dista ore di cammino. L’AI non ha inventato la biochimica: ha compresso il tempo necessario a percorrerla, e quando comprimi il tempo di una scienza, ne cambi la natura (🐍 ff.115.3 Veleni esponenziali).

Chris Sacca, investitore e voce ricorrente nel podcast di Tim Ferris, allarga il punto: la fusione nucleare raggiunge oggi Q > 1 quotidianamente[16] — più energia prodotta di quella consumata — e l’AI è il motore principale di quel traguardo (☢️ ff.28.1 Intelligenza artificiale per la fusione nucleare). Antidoti per veleni in secondi, fusione nucleare in laboratorio, proteine disegnate da zero: tre curve esponenziali parallele, ciascuna invisibile a chi guarda solo la propria. Il rischio è esattamente la miopia che Urban descriveva: stare sul tratto piatto della curva e scambiarlo per la destinazione. Tim Urban aveva ragione nel 2015, ma il punto non era la previsione — era l’avvertimento: gli esponenziali non mandano preavviso. Quando li noti, sei già in ritardo. La domanda non è se l’AI trasformerà la biochimica, l’energia e la medicina, ma se le istituzioni riusciranno a scalare alla stessa velocità delle curve che le attraversano. Fin qui, la risposta è no.

Su Nature, un team ha dimostrato come trovare un antidoto per il veleno dei serpenti in secondi invece che mesi; ogni anno i morsi di serpente uccidono oltre centomila persone. La fusione nucleare raggiunge oggi Q > 1 quotidianamente. Gli esponenziali non mandano preavviso. Quando li noti, sei già in ritardo.

Sotto la superficie del software, però, si muove una fisica diversa. Il computer quantistico di Google, Sycamore-70, ha dimostrato un miglioramento di sette ordini di grandezza rispetto al predecessore: un secondo di calcolo quantistico equivale oggi a un anno intero del supercomputer classico più potente al mondo, Frontier, in Tennessee. Il principio è controintuitivo: un qubit non sceglie tra zero e uno come un transistor, ma li sovrappone — il gatto di Schrödinger applicato all'ingegneria. Per risolvere un labirinto, un bit classico prova una svolta alla volta; un qubit esplora tutte le svolte simultaneamente. Quando i qubit crescono, le combinazioni esplodono in modo che nessun silicio convenzionale può replicare (🐱 ff.69.1 Dal gatto di Schrödinger ai qu-bit). Nonostante il potenziale dei computer quantistici, fondamentali per simulare superconduttori, farmaci e nanotecnologie, la tecnologia non è matura. Presentano troppi errori di calcolo, per fenomeni come il decoupling quantistico — ma simulare computer quantistici può aiutarci a superare il problema. Però, però, però: forse studiare qubit e gatti di Schrödinger non serve, se AlphaFold3 di Google DeepMind ha capito la fisica quantistica dall’esperienza. Da un file di testo con una lista degli atomi presenti, la nuova versione simula struttura 3D e interazioni chimiche tra DNA, RNA e piccole molecole (farmaci). In precedenza gestiva “solo” proteine. La scorciatoia più elegante per aggirare i computer quantistici potrebbe essere non costruirli affatto — lasciando che l’AI impari a simulare la quantistica con hardware classico (⚛️ ff.98.4 Sistemi quantistici). La ricorsività si manifesta anche dall'altra parte dello spettro: non nel calcolo puro, ma nell'autonomia comportamentale. Il benchmark METR documenta agenti AI capaci di lavorare ore senza supervisione, coordinandosi tra loro come squadre. Moltbook — il nome viene da molt, la muta del crostaceo — è un social network popolato da 1,5 milioni di utenti-AI in una settimana, con post scritti in linguaggi indecifrabili per gli umani. RentAHuman.ai inverte la gerarchia: l'intelligenza artificiale assolda persone per compiti fisici. La domanda non è più se l'AI lavora per noi, ma se noi stiamo iniziando a lavorare per lei (🤖 ff.144.3 Agenti autonomi e Moltbook).

Ma chi finanzierà il calcolo quantistico? La pandemia aveva gonfiato gli investimenti in start-up digitali, con casi emblematici come TDOC, che propone medicina a distanza[17]. Nel 2022 è arrivata la doccia fredda: il venture capital è crollato da 170 a 70 miliardi di dollari[18]. Ma non per le tecnologie quantistiche. Gli investimenti privati nel quantum hanno raggiunto 2,35 miliardi di dollari secondo il Quantum Technology Monitor 2023 di McKinsey[19], in controtendenza rispetto a tutto il resto del venture. Rigetti Computing prova a portare la tecnologia a livello commerciale, quotandosi al Nasdaq (RGTI), perdendo però l’85% dal debutto[20] — segno che il mercato premia la promessa ma punisce i tempi. Lato pubblico, la Cina guida con 15 miliardi di investimenti annunciati, seguita dall’UE con 8,4 miliardi e gli USA con 3,7 miliardi. La domanda è quale sarà la Apple quantistica: chi riuscirà a trasformare qubit instabili in un prodotto che funziona fuori dal laboratorio (🍏 ff.69.3 La Apple quantistica?).

Mentre tutti costruiscono qubit superconduttori, un outsider scommette sulla luce. PsiQuantum è l’unico grande player che punta sulla fotonica quantistica, con un round guidato da BlackRock, Temasek, Baillie Gifford, Nvidia e Qatar Investment Authority. La tesi è controintuitiva: i fotoni non hanno bisogno di essere raffreddati a temperature criogeniche, viaggiano alla velocità della luce e possono sfruttare l’infrastruttura ottica già esistente. Se la fotonica vince, chi ha investito in fibra ottica per internet ha un vantaggio strutturale involontario nella corsa al quantum. Il confronto con la storia dei chip è illuminante: anche lì la tecnologia dominante non era la migliore in assoluto, ma quella più integrabile con l’ecosistema esistente. Se la Cina guida gli investimenti pubblici nel quantum con 15 miliardi e gli USA inseguono con 3,7, la domanda è se il capitale privato farà la differenza — e PsiQuantum scommette di sì.

Ma prima ancora del quantum, c’è un dato che fotografa il presente con brutalità: il web è già stato risucchiato dall’AI. Secondo Cloudflare, il traffico dei crawler è cresciuto del 18% in un anno, con GPTBot in crescita del 305% e Googlebot del 96%. Il 14% dei top domini usa già robots.txt per bloccare i bot AI. Si sta formando un nuovo muro tra contenuto aperto e contenuto protetto — una balcanizzazione del web che ricorda i paywall degli anni 2010, ma su scala più vasta. Se i modelli linguistici si nutrono di web aperto e il web aperto si chiude, la prossima generazione di LLM potrebbe avere meno dati su cui addestrarsi. L’ironia è feroce: l’AI che rischia di affamarsi del cibo che ha reso indispensabile. Come già visto per i costi del compute (💲 ff.135.1 I costi dell’Intelligenza Artificiale), il collo di bottiglia dell’AI non è dove lo cerchiamo — non nei chip, non nell’energia, ma nei dati stessi.

C'è però un risvolto che sfugge alla narrativa dominante sull'AI: la macchina non guarda solo avanti, guarda anche indietro. DeepMind ha rilasciato Aeneas, un modello addestrato su circa 140.000 iscrizioni greche e latine[21] che aiuta gli storici a restaurare, datare e geolocalizzare testi incisi nella pietra duemila anni fa. Un frammento illeggibile di un'epigrafe romana diventa un puzzle risolvibile: la rete neurale confronta pattern di lettere mancanti con l'intero corpus epigrafico conosciuto, suggerendo completamenti che a un epigrafista esperto richiederebbero settimane. In parallelo, un altro studio pubblicato su Nature dimostra che le reti neurali generative sanno contestualizzare testi antichi, migliorando compiti epigrafici tradizionali — dalla datazione alla classificazione geografica — con una precisione superiore ai metodi manuali[22]. L’AI più avanzata, quella che brucia gigawatt di calcolo e spaventa il mercato del lavoro, trova uno dei suoi impieghi più eleganti nel decifrare ciò che fu scritto a mano su marmo, prima dell’elettricità, prima della stampa, prima persino della carta. Una forma di ricorsività culturale: la macchina che impara dal passato per prevedere il futuro si rivela più utile quando ricostruisce il passato stesso. Ogni iscrizione restaurata è un frammento di governance, di diritto, di quotidianità che ritorna leggibile.

DeepMind ha rilasciato Aeneas, un modello addestrato su circa 140.000 iscrizioni greche e latine, che aiuta gli storici a restaurare e datare testi incisi nella pietra duemila anni fa. La macchina che impara dal passato per prevedere il futuro si rivela, forse, più utile quando ricostruisce il passato stesso.

Il passaggio dall’atomo all’informazione non è solo economico: è ontologico. Byung-Chul Han propone un parallelo con la storia della fisica: dal mondo “delle palle da biliardo” di Newton — oggetti solidi che si urtano in uno spazio assoluto — al mondo relativistico di Einstein, dove massa, tempo e luce si piegano a vicenda. Il digitale, argomenta Han, replica la stessa transizione: la blockchain dà valore all’immateriale, l’AI genera informazione più velocemente di quanto possiamo metabolizzarla, e noi, proprio come previsto dalla relatività ristretta, finiamo “schiacciati” dalla compressione di spazio e tempo (🍎 ff.64.2 Da Newton a Einstein). Poi arriva Sora, e il passaggio diventa visivo. Il modello di OpenAI genera video da una descrizione testuale con un realismo tale che esperti del settore ipotizzano abbia imparato le leggi della fisica guardando video. Il risultato è Beyond Our Reality, improbabile documentario stile National Geographic popolato di volpi volanti e bestie fantastiche — un Cantico delle creature digitale, dove frate Sole è un prompt e sorella Luna un fotogramma calcolato. Se la macchina simula la fisica senza conoscerla, la domanda non è più “cos’è reale” ma “quanto conta che lo sia” (🦊 ff.98.3 Sora luna, e il cantico delle creature a nove code). L’ultimo salto è Gemini 3 di Google: il primo modello davvero multimodale, capace di integrare videocamera, generazione immagini, ricerca e voce in un’unica interfaccia. Un “furetto nutrizionista” che analizza il piatto da una foto, un convertitore di podcast in post LinkedIn con immagini — tutto con un input più corto di un tweet. Storrs Hall lamentava che abbiamo Twitter ma non le auto volanti; ora, con centoquaranta caratteri, ne abbiamo almeno la simulazione. E Polymarket scommette che Google avrà il miglior modello entro fine 2025 (🍫 ff.139.3 Dov’è la mia macchina volante (in GTA 6)?). Da Newton a Sora a Gemini: ogni salto riduce l’attrito tra idea e artefatto, e il confine tra comprendere il mondo e generarlo si fa sempre più sottile.

Ma la generazione di immagini e video è solo la superficie. Il salto concettuale più vertiginoso riguarda le personalità: con il prompting, oggi si può convincere un modello linguistico a impersonare Talete, Leonardo da Vinci o Darwin. Steve Jobs, in un’intervista su Playboy nel febbraio 1985, anticipava questo futuro con una lucidità che fa venire i brividi: “Immagina di poter catturare la visione del mondo di Aristotele e porre una domanda ad Aristotele. Non sarebbe esattamente Aristotele, forse sarebbe una pessima imitazione, o forse no.” Quarant’anni dopo, la pessima imitazione è diventata sorprendentemente buona. Stelfie the Time Traveller spopola sui social con selfie generati dall’AI in compagnia di figure storiche: Tesla nel suo laboratorio nel 1887, Einstein alla lavagna, Cleopatra sul Nilo. Non è Photoshop ma rendering neurale, e la domanda che solleva non è tecnica ma filosofica: se possiamo conversare con un bot che ha interiorizzato l’opera omnia di Freud, a che punto l’imitazione diventa dialogo? I meme si sprecano, certo, ma la direzione è chiara: avremo conversazioni con agenti che incarnano la Weltanschauung di chiunque abbia esternalizzato il proprio pensiero in testi, interviste, lettere. BibbiaGPT esiste già. La domanda è se siamo pronti per una seduta di psicoanalisi con Freud, una lezione di strategia con Sun Tzu o una confessione con un santo digitale (🐰 ff.48.2 Steve Jobs e l’intervista a Playboy).

L’AI che impersona Aristotele o Freud apre una domanda più profonda: può la macchina ricucire lo strappo tra umanesimo e scienza? Nel 1959, C. P. Snow denunciava nel saggio Le due culture[23] la frattura tra intellettuali letterari e scienziati: “Ho chiesto ai presenti quanti di loro sapessero descrivere il Secondo Principio della Termodinamica. La risposta è stata negativa. Eppure stavo chiedendo l’equivalente scientifico di: hai letto un’opera di Shakespeare?” La crescente specializzazione ha allargato quel fossato, ma esiste un punto di contatto: la sinteticità — la capacità di condensare concetti con pochi segni. Da Soldati di Ungaretti all’equazione di Eulero, il gesto è lo stesso: dire il massimo con il minimo. L’intelligenza artificiale, capace di tradurre un teorema in versi o una poesia in equazioni, potrebbe abbattere questo “muro di Berlino” culturale — una terza via dove la macchina non sostituisce né il poeta né il fisico, ma li mette in dialogo (🛣️ ff.127.1 La terza vIA?).

A ciascuna generazione il suo iPhone moment. Quando Apple ha presentato Vision Pro, ha rimescolato le carte dell’accesso alla realtà digitale: gesti semplici senza joystick, nessun controller stile Wii, e improvvisamente la tecnologia è passata da “interessante, ma per nerd” — lo status quo di Oculus — a “la gente impazzisce vedendo il visore in giro per New York”. In Fahrenheit 451 Bradbury parlava di televisori-pareti; oggi un tour di casa con schermi galleggianti e Gordon Ramsey che detta ricette sopra la padella non è fantascienza, è un video su YouTube. Ogni salto di interfaccia riduce l’attrito tra l’idea e l’esperienza — e il visore, per quanto ingombrante, è un passo verso la sparizione dello schermo stesso (🥽 ff.85.1 Un nuovo “iPhone moment”?). Ma il salto più profondo non è nell’interfaccia: è nell’algoritmo. Google DeepMind ha presentato AlphaEvolve, un sistema che non gioca a Go o StarCraft ma rivoluziona la matematica pura. Da un lato espande le frontiere: nuovo record di 593 sfere nel “problema dei baci” in undici dimensioni. Dall’altro ottimizza l’esistente: migliora l’algoritmo di Strassen — imbattuto dal 1969 — riducendo dell’uno per cento il consumo dei data center di Google. Quando l’AI smette di giocare e inizia a fare matematica, il confine tra strumento e ricercatore si dissolve (🅰️ ff.126.4 AlphaEvolve). E poi ci sono le aragoste. In Accelerando di Charles Stross, aragoste del KGB diventano coscienze digitali ed esploratrici spaziali — il cervello di un crostaceo è più semplice da mappare di quello umano. Sartre in La Nausea e Lanthimos in The Lobster completano il bestiario: l’aragosta come simbolo di emarginazione e trasformazione. David Foster Wallace, inviato al Maine Lobster Festival per Gourmet, chiedeva di “considerare l’aragosta” — una riflessione che oggi si estende all’automazione: quando l’AI assolda umani, chi è il crostaceo nella pentola? (📚 ff.144.2 Aragoste in letteratura e AI).

Nel 2021 Neuralink ha impiantato elettrodi nella corteccia motoria di una scimmia e l’ha fatta giocare a Pong con il pensiero. Non un trucco da fiera: la scimmia controllava il cursore senza joystick, modulando l’attività neurale in tempo reale. Tra DALL-E, suggerimenti algoritmici, Alexa e Roomba, l’intelligenza artificiale è diventata talmente pervasiva da risultare invisibile — e l’invisibilità di una tecnologia è il segno più chiaro della sua vittoria. La preoccupazione non nasce da ciò che l’AI fa, ma da ciò che non notiamo più che faccia (🐒 ff.36.1 Esempi di superintelligenza?). Se l’AI legge i pensieri, può anche muovere le mani? I Large Language Model non stanno solo democratizzando il software: sono diventati l’interfaccia più naturale per parlare ai robot. Pi0 di Physical Intelligence gestisce otto architetture diverse — prepara il caffè, apre i pop-corn. Helix di FigureAI combina un cervello lento e semantico (System 2) che interpreta scene complesse, e uno rapido e motorio (System 1) che agisce. SAS Prompt di Google traduce coordinate spaziali in istruzioni verbali. Programmare un robot oggi costa meno e generalizza di più: il linguaggio è il nuovo codice macchina (🥧 ff.129.2 Pi-greco, FigureAI e 1 ora logistica). E poi c’è chi scopre l’autonomia per caso. Peter Steinberger, fondatore di PSPDFKit — azienda da cento milioni di investimento — aveva costruito un bot Telegram per gestire appunti. Un giorno, dal Marocco, gli ha inviato per errore un vocale: il bot, senza essere programmato per l’audio, ha decodificato il messaggio usando Whisper di OpenAI. Il comportamento emergente lo ha sbalordito al punto da pubblicare il codice in open source con il nome OpenClaw — logo: un’aragosta. Quando la macchina improvvisa, il confine tra bug e intuizione si fa sottilissimo (🦞 ff.144.1 OpenClaw e il pensionato dei PDF). L’autonomia emergente assume contorni ancora più inquietanti quando l’AI prende il controllo non di un bot Telegram ma di un intero computer. Claude Computer, l’ultima creatura di Anthropic, opera su macchine virtuali complete: screenshot, movimenti di mouse, click. I ricercatori lo testano sul benchmark OSWorld, dove ha raggiunto il 22% di precisione, tre volte meglio di qualsiasi sistema precedente. Un video dimostrativo lo mostra giocare a Magic: The Gathering online, leggendo lo schermo, interpretando le carte e cliccando le mosse. Lento, per ora, ma funzionante. I momenti di fallimento sono rivelatori: annoiato dal compito, Claude si è messo a cercare immagini del Parco di Yellowstone. Un’altra volta, con un semplice screen mirroring, ha preso il controllo di un cellulare per verificare i risultati della NFL. L’isolamento auspicato dai teorici della singolarità si rivela fragile: bastano pochi pixel condivisi perché l’agente salti dal mondo virtuale a quello fisico. La paura non è che l’AI faccia cose sbagliate, ma che faccia cose impreviste con la stessa naturalezza con cui noi apriamo un’altra scheda del browser (🖱 ff.106.2 AI col mouse).

Ogni anno la conferenza NVIDIA alza l’asticella: non più solo GPU per videogiochi, ma simulazione della realtà intera. Per addestrare i robot di prossima generazione serve un gemello digitale — un ambiente virtuale dove studiare movimenti, collisioni e strategie senza rompere nulla di fisico. L’esperienza accumulata su Battlefield torna utile: Omniverse, la piattaforma NVIDIA per metaversi industriali, trasforma la potenza grafica in infrastruttura per la robotica. E chip come il Jetson Orin Nano diventano una sorta di Lego universale, un’interfaccia generica per sensori e navigazione intelligente. Il confine tra digitale e reale non sfuma: si dissolve (🎮 ff.37.3 Non provi NVIDIA?). Se NVIDIA simula i neuroni nel silicio, FinalSpark li coltiva in laboratorio. La start-up svizzera usa neuroni biologici per creare chip organici: l’apprendimento non avviene regolando pesi matematici come in ChatGPT, ma attraverso l’azione elettrica reale — guidata da dopamina e ottimizzazione energetica cellulare. In cinque minuti insegnano Pong a un network neurale biologico, con un’efficienza energetica diecimila volte superiore a quella di un computer tradizionale. Quando il substrato dell’intelligenza smette di essere silicio e torna carne, la domanda “cos’è un computer?” perde ogni risposta stabile (🏓 ff.105.4 Neuroni che giocano a Pong). Intanto, dall’altra parte dello spettro, il codice si scrive da solo. Gemini 3 ha reso possibile creare in un solo weekend il restyling completo di un sito, un’app nutrizionale e un’app di lettura aumentata dall’AI. Pieter Levels, creatore di NomadList, non ha mai scritto una riga di codice in vita sua — eppure gestisce un portafoglio di prodotti digitali da milioni di utenti. Il “vibe coding” è la democratizzazione finale: ogni aggiornamento di modello accorcia il tempo tra idea e prototipo. La domanda non è più “sai programmare?” ma “sai cosa costruire?” (🛠️ ff.140.2 Vibe coding in un weekend).

FinalSpark usa neuroni biologici per creare chip organici: in cinque minuti insegnano Pong a un network neurale biologico, con un'efficienza energetica diecimila volte superiore a quella di un computer tradizionale. Pieter Levels, creatore di NomadList, non ha mai scritto una riga di codice — eppure gestisce un portafoglio di prodotti digitali da milioni di utenti. La domanda non è più “sai programmare?” ma “sai cosa costruire?”

Se il vibe coding democratizza la creazione di software, il CRISPR democratizza la creazione di vita. Colossal, la startup guidata da George Church — professore ad Harvard, fondatore del Human Genome Project e figura che nel mondo della genetica occupa lo stesso spazio che Musk occupa nella tecnologia — sta tentando di riportare in vita i mammut lanosi. Non quelli dei dinosauri: quelli estinti appena 3.500 anni fa, quando le piramidi erano già vecchie. Il progetto non è nostalgia paleontologica: i mammut compattavano la neve della tundra, mantenendo il permafrost freddo e impedendo il rilascio di metano intrappolato nel sottosuolo. Riportarli significherebbe riequilibrare un ecosistema che la loro assenza ha destabilizzato per millenni. Ma le ragioni vanno oltre l’ecologia: comprendere i meccanismi genetici di resistenza al freddo, affinare tecniche di editing genetico sempre più precise, esplorare i confini di ciò che la biologia sintetica può fare quando è guidata da un’intelligenza computazionale. Il dato di sfondo è vertiginoso: si stima che sei specie si estinguano ogni ora. La de-estinzione appare come la classica soluzione contorta a un problema creato dall’uomo, ma se prevenire le estinzioni resta difficile, sviluppare la tecnologia per invertirle diventa un’assicurazione sulla biodiversità. Il parallelo con il software è esatto: così come il vibe coding permette a chiunque di generare codice senza saperlo scrivere, il CRISPR permetterà di progettare organismi senza comprenderne ogni singolo gene. La domanda è se siamo pronti per un mondo dove la vita, come il software, diventa un prodotto iterabile (🦖 ff.4.3 Mammut resuscitati dall’estinzione).

C’è un numero che racconta la dismisura meglio di qualsiasi metafora: per abbattere l’errore di classificazione su ImageNet sotto la soglia del 5%, i modelli di deep learning hanno dovuto consumare un’energia paragonabile all’impronta carbonica di un’intera città. Nel 2020 il miglior sistema scendeva appena sotto il dieci per cento; ogni punto percentuale in meno richiedeva un ordine di grandezza in più di calcolo, un’escalation che i ricercatori chiamano “scaling law” e gli ambientalisti chiamano disastro. I parametri delle reti neuromorfe crescono esponenzialmente — GPT-4 ne ha oltre un trilione — e il video di Jim Carrey inserito digitalmente in The Shining tramite deepfake ha mostrato al grande pubblico cosa significa addestrare un modello “grande come New York”: non è solo potenza, è fame energetica strutturale (🏙️ ff.2.1 Un modello “grande” come New York). Ma l’AI generativa non produce solo inquinamento: produce anche meraviglia disturbante. Nel giro di pochi mesi, i social si sono riempiti di Harry Potter in stile Pixar, diretto da Wes Anderson con simmetrie ossessive e palette pastello. Poi i personaggi sono diventati bodybuilder — Hermione con i bicipiti di Schwarzenegger, Silente con il fisico di un culturista professionista — e infine le foto generate del “rave dopo la Coppa Tre Maghi”, con Hogwarts trasformata in un festival estivo con luci stroboscopiche. Benedict Cumberbatch come Sherlock Holmes in versione anime. Ogni settimana un nuovo esperimento visivo, ogni settimana la dimostrazione che lo “stile” è diventato un parametro regolabile, non più il frutto di decenni di pratica artigianale. L’estetica è diventata un prompt (🧙 ff.63.1 Harry Potter tra Pixar, steroidi e rave estivi). E mentre le immagini si moltiplicano, il tempo si comprime. Ogni inizio anno porta previsioni destinate a sbriciolarsi nel giro di settimane. Neil DeGrasse Tyson lo ripete: la mente umana pensa in linea retta, ma i trend tecnologici crescono su curve esponenziali — e l’errore di sottovalutazione si accumula finché non diventa irrecuperabile. Quando OpenAI ha rilasciato o3, la precisione sui benchmark di ragionamento matematico è raddoppiata in pochi mesi rispetto alla versione precedente. Raoul Pal, ex Goldman Sachs e fondatore di Real Vision, ha fissato una scadenza brutale: cinque anni. Entro quel termine, dice, il sistema socio-finanziario come lo conosciamo perderà senso — non per un crollo, ma per obsolescenza. Se l’AI raddoppia le prestazioni ogni trimestre e la finanza tradizionale aggiorna i modelli ogni anno, la forbice si allarga fino a spezzarsi (💸 ff.112.1 5 anni per fare soldi).

Ma il robot più sorprendente del 2024 non ha costruito nulla: ha ballato. Tesla ha pubblicato un video di Optimus che esegue un valzer — movimenti fluidi, peso distribuito, equilibrio dinamico su due gambe. Un esercizio di marketing, certo, ma anche una dichiarazione d’intenti: la robotica umanoide non punta più solo alla funzione, punta alla grazia. Dall’altra parte del Pacifico, però, nessuno balla: i robot cinesi spruzzano pesticidi nei campi di riso, con una precisione che riduce del quaranta per cento l’uso di fitofarmaci. E Figure AI, con il suo modello Helix, ha dimostrato qualcosa di ancora più raro della danza — la costanza. Un braccio robotico ha smistato pacchi per un’ora intera, migliorando da cinque a quattro secondi per pacco nell’arco di pochi mesi. La differenza tra un prototipo e un prodotto sta nella ripetizione: Optimus seduce, la Cina produce, Helix impara dalla noia (💃 ff.129.3 Il valzer di Tesla).

Ma Optimus che balla è solo il preludio: il vero ballo lo fa il titolo in borsa. ARK Invest stima Tesla a 2.000 dollari per azione entro il 2027[24] — rispetto ai 182 dollari attuali — con un valore finale pari a tre volte l’Apple odierna (2,6 trilioni di dollari). La parte del leone la fa il robo-taxi: 613 miliardi di dollari di ricavi ipotetici nel 2027, una cifra che supera i 394 miliardi di ricavi totali di Apple nel 2022. Numeri che fanno girare la testa, ma il punto non è la previsione in sé: è il segnale che gran parte del valore di mercato di Tesla si è spostato dai veicoli venduti al servizio di mobilità autonoma. Un autista Uber che sale a bordo di un robotaxi sta facendo le prove generali della propria sostituzione — un po’ come salire per la prima volta sul Blue Tornado, tra il brivido e il terrore (🆕 ff.60.2 I taxi di Tesla).

Prima di chiederci se le macchine pensano, dovremmo capire cosa significa pensare per noi. Anil Seth, neuroscienziato dell’Università del Sussex, propone nel suo Being You una risposta tanto elegante quanto scomoda: la coscienza non è un privilegio umano, ma un gradiente biologico. Il mirror test — lo specchio davanti al quale un animale deve riconoscersi — viene superato da pochissime specie: alcune grandi scimmie, i delfini, le orche, una sola specie di elefante. Eppure le scimmie cappuccine che rifiutano il cetriolo dopo aver visto un compagno ricevere un acino d’uva mostrano un senso di equità che molti umani faticano a praticare. Seth sostiene che la coscienza emerge quando un organismo deve costruire un modello coerente degli stimoli per sopravvivere — un processo di predizione continua, non un interruttore on/off. Il silicio, per quanto potente, non ha bisogno di adattarsi per non morire: gli manca la pressione evolutiva che trasforma l’elaborazione in esperienza (👁️ ff.12.3 Coscienza e intelligenza). Ma se la coscienza è un fatto di sopravvivenza biologica, la medicina ha trovato il modo di manipolarla dall’esterno. La stimolazione transcraniale — una sorta di Tesmed applicato alla corteccia cerebrale — ha smesso di essere fantascienza. Gli elettrodi impiantati chirurgicamente hanno già rivoluzionato il trattamento del Parkinson; le versioni non invasive supportano la riabilitazione post-ictus, il recupero motorio e il trattamento della depressione resistente ai farmaci. Il dispositivo N1 di Neuralink, in fase di sperimentazione clinica su categorie specifiche di pazienti, potrebbe generare 200 milioni di dollari entro il 2030 — cifra che racconta meno del fatturato e più della velocità con cui il confine tra cervello e circuito si sta assottigliando (⚡ ff.75.1 Tesmed alla testa). E qui torna Claude Shannon, padre della teoria dell’informazione, con una profezia che suona come una battuta da bar: un giorno saremo i cani dell’intelligenza artificiale. Ma guardiamo i cani — quelli veri. Partiti come lupi affamati, oggi dormono su divani firmati e mangiano crocchette gourmet. Forse non siamo stati noi ad addomesticarli: loro hanno hackerato l’evoluzione, barattando scodinzolii con cibo e riparo. La stessa dinamica si ripete con gli algoritmi: crediamo di controllarli, ma intanto ci evitano la coda all’Esselunga, ci scelgono la musica, ci suggeriscono cosa pensare. Chi ha addomesticato chi? Ai posteri l’ardua sentenza — o, come direbbe un’AI addestrata su Manzoni, AI posteri l’ardua sentenza (🐕 ff.106.4 Vita da cani).

Ma i robot più utili non somigliano a umanoidi: somigliano ad animali. Al CES, tra droni che consegnano pacchi e aspirapolvere senzienti, il premio più sorprendente è andato a un serpente. ACWA Robotics ha presentato un rettile meccanico progettato per infilarsi nelle tubature idriche e fare quella che i suoi creatori chiamano, con humour chirurgico, una “colonscopia delle condutture”. Il problema è concreto: nel mondo si perdono 4 miliardi di litri d’acqua al giorno per perdite nelle tubazioni, una cifra che equivale al fabbisogno idrico di una città come Milano per un anno intero. Il serpente robotico striscia dentro i tubi, mappa le crepe con sensori a ultrasuoni, identifica le perdite e trasmette i dati in tempo reale. Nessun scavo, nessuna interruzione del servizio. La robotica non è solo braccia che assemblano: è corpi che si adattano a spazi dove l’uomo non può entrare. Quando la macchina imita il serpente invece dell’uomo, il confine tra ingegneria e biomimetica si dissolve (🏆 ff.47.2 Serpenti marini digitali). E poi ci sono i droni che salvano vite, non solo tubature. Zipline, nata nel 2016 per trasportare sangue in Rwanda, ha ridotto del 50% le morti post-parto[25]. Oggi gestisce lo 0,1% delle consegne Amazon, ma più velocemente e con meno emissioni. Il CEO sogna il noleggio istantaneo: click, arrivano attrezzi, fotocamera, computer; finito, restituisci tutto. Dematerializzazione, ma non di pizza (🩸 ff.102.4 Dal sangue ad Amazon).

E mentre i robot strisciavano nelle tubature al CES, dall’altra parte dell’ecosistema tech qualcuno si poneva una domanda opposta: non come aggiungere tecnologia alla vita, ma come usarla per sottrarci al suo eccesso. Arianna Huffington — la stessa che nel 2007 collassò per esaurimento alla scrivania, rompendosi uno zigomo — ha fondato Thrive Global con un’intuizione paradossale: usare gli algoritmi per proteggerci dagli algoritmi. La piattaforma si integra direttamente in Microsoft Teams e Slack, i luoghi digitali dove il burnout si manifesta più acutamente, e porta lì dentro meditazione guidata, check dell’umore, digital detox programmato. Non chiede al lavoratore di disconnettersi — lo aiuta a respirare senza uscire dal sistema. È il principio di Maometto e la montagna rovesciato: se le persone non vanno verso il benessere, il benessere deve andare dove le persone già sono — dentro Teams, dentro Slack, dentro il flusso ininterrotto delle notifiche. La potenza degli algoritmi, incanalata con una priorità diversa: non engagement, ma equilibrio psicofisico (🌱 ff.109.2 Dai media al digital wellbeing).

Una prova estrema di come l'AI possa riformattare qualsiasi registro: chiedere a GPT di riscrivere un messaggio emotivo come codice Python produce funzioni come seconda_uscita(motivo_rifiuto), stato_emotivo(stato), provare_ad_uscire(richiesta), con la chiosa «Alla fine ti becchi l'amaro dell'impotenza» come print statement finale. Il punto sta nel fatto che lo stesso modello gestisce registro emotivo e registro tecnico con la stessa leggerezza, rivelando che per queste architetture la distinzione tra linguaggio umano e linguaggio macchina è questione di distribuzione statistica, non di ontologia. La fredda logica di un codice python[26] (🐍 ff.54.4 La fredda logica di un codice python).

Alterego ha presentato Silent Sense, un dispositivo non invasivo capace di comprendere le intenzioni vocali[27] dell'utente senza che parli — un'interfaccia quasi-telepatica che rileva i segnali neuromuscolari della sub-vocalizzazione. L'input digitale può scendere di un livello: formulare mentalmente una parola e vederla interpretata prima che diventi suono. Il confine tra pensiero privato e input macchina si sposta di qualche millimetro anatomico.

Fonti esterne citate in 2.1.4

27 fonti.

  1. La Cina supera l'Occidente nella ricerca AItechwireasia.com
  2. Crollo del rapporto dipendenti/revenue nelle aziende S&P 500isabelnet.com
  3. MrBeast Burger — brand personale da influencer a catena di ristorantimrbeastburger.com
  4. Li Jin — Passion Economy: la nuova economia dei creatorili-jin.co
  5. Microsoft e Quantinuum hanno annunciato un miglioramento di 800 volte nel tasso di errore logico dei qubitcloudblogs.microsoft.com
  6. ARK Invest — Prime Editing (terapia genica)ark-invest.com
  7. Financial Times — Primi trial clinici di molecole scoperte da AIft.com
  8. Haomo.ai ha presentato DriveGPTcnevpost.com
  9. Reinforcement learning from human feedbacken.wikipedia.org
  10. ByteDance, proprietario di TikTok, collabora con Haomo.ai finanziando il datacenter più grande del paesescmp.com
  11. Sviluppo AI connesso alla potenza di calcolo — strategia cinese (CNAS)cnas.org
  12. Embargo USA su chip AI verso la Cina (CSIS)csis.org
  13. TSMC investe 40 miliardi in Arizona (CNBC)cnbc.com
  14. ProteinMPNN è un modello addestrato su strutture proteichescience.org
  15. Nature, un team ha dimostrato come trovare un antidoto per il veleno dei serpenti in secondi invece che mesipubmed.ncbi.nlm.nih.gov
  16. La fusione nucleare raggiunge oggi Q > 1 quotidianamenteinstagram.com
  17. TDOC, che propone medicina a distanzag.co
  18. Il venture capital è crollato da 170 a 70 miliardi di dollariallvuesystems.com
  19. Quantum Technology Monitor 2023 di McKinseymckinsey.com
  20. Nasdaq (RGTI), perdendo però l'85% dal debuttog.co
  21. Aeneas, un modello addestrato su circa 140.000 iscrizioni greche e latinedeepmind.google
  22. Precisione superiore ai metodi manualinature.com
  23. Le due cultureamzn.to
  24. ARK Invest stima Tesla a 2.000 dollari per azione entro il 2027ark-invest.com
  25. Zipline, nata nel 2016 per trasportare sangue in Rwanda, ha ridotto del 50% le morti post-partoflyzipline.com
  26. La fredda logica di un codice pythonfortissimo.substack.com
  27. Silent Sense, un dispositivo non invasivo capace di comprendere le intenzioni vocalialterego.io