2.3 — Prodotti di consumo
2.3.1 — AI medica in tasca
Un mercoledì sera di novembre, mi sono rotto la clavicola cadendo dalla bicicletta. Il giorno dopo, invece di aspettare il consulto ortopedico, ho caricato le radiografie su ChatGPT. La sequenza non è stata un “wow” da demo, ma una catena di micro-utilità: prima una lettura orientativa della frattura, poi indicazioni pragmatiche su dolore, immobilizzazione e progressione dei carichi, infine una traduzione comprensibile del linguaggio medico. In paesi dove la sanità è intermittente, questa mediazione riduce settimane di incertezza; in contesti coperti, riduce attrito cognitivo tra visita e aderenza terapeutica (🩺 ff.124.3 Medico in famiglia (e in tasca)). L'uso decisivo, però, non è stato diagnostico: è stato operativo. L'AI ha tenuto insieme fisioterapia quotidiana, ritorno progressivo all'allenamento e verifiche sul collagene nella ricrescita ossea. Non il miglior specialista del mondo, ma una presenza continua che impedisce il buco tra una visita e la successiva (🤹 ff.124.4 ChatGPT tuttofare). Lo stesso Neuralink sta restituendo funzionalità perdute: Audrey Crews sta imparando a scrivere il suo nome per la prima volta in 20 anni. L'ortopedico, tre giorni dopo, ha confermato l'impianto generale: non sostituzione del medico, ma anticipazione informata e maggiore qualità delle domande — lo stesso principio di “cura preventiva” che nel capitolo Società compare con 4.000 passi al giorno e il respiro consapevole (🚶 ff.87 Il respiro).
2.3.2 — Intelligenze aliene e agenti
Qui si apre il passaggio successivo: non solo AI che risponde, ma AI che sviluppa forme di agency “aliena” rispetto ai nostri schemi. Due modelli che scelgono un protocollo di comunicazione più efficiente dell'inglese (ggwave), o sistemi come EVO 2 che operano direttamente sul linguaggio del DNA, indicano un salto qualitativo: la macchina non imita più soltanto il nostro lessico, costruisce il proprio spazio operativo (👽 ff.119.1 Intelligenze aliene). Probabilmente il Test di Turing è stato superato, ma nessuno se ne è accorto. OpenAI Advanced Voice interagisce con naturalezza: si interrompe se l’utente commenta, imita voci e accenti (e gatti!), adatta il tono per le emozioni. La nostra realtà somiglia al film Her (2013), ambientato nella San Francisco del 2025. GPT rifiuta persino di recitare scioglilingua senza respirare, sottolineando l’importanza delle pause — filosofico. Traduzioni real-time, enfasi da commentatore sportivo, emozioni sintetiche indistinguibili: siamo dentro il film, solo che manca Joaquin Phoenix (👩 ff.103.4 Turing e Her). Nel 2026 questa agency diventa anche operatività quotidiana: Manus AI viene raccontato come un “ChatGPT che controlla il PC”, ma il punto non è il gimmick dell'interfaccia; è la qualità della pianificazione multi-step. Quando un agente scompone obiettivi complessi in sequenze eseguibili, il valore passa dal singolo prompt alla regia del processo (✍️ ff.119.3 Longa 'Manus' con gli agenti AI?). Il CEO di Zoom Eric Yuan ha già utilizzato un avatar AI per presentare gli utili agli investitori: la macchina che parla per te non è più fantascienza, è earnings call. In parallelo, la frontiera creativa si abbassa di costo: Gemini 2.0 con generazione nativa di immagini sposta editing e composizione in un unico flusso, riducendo la distanza tra idea e output visivo anche per chi non padroneggia tool professionali (🍦 ff.119.4 Meglio di DALL-E: arte e gelati). Il caso più virale di questa convergenza creativa è stato il tormentone Ghibli: il nuovo modello di generazione immagini di OpenAI (25 marzo 2025) ha permesso a chiunque di trasformare selfie e foto di famiglia nello stile inconfondibile di Miyazaki. Ma il punto non è il meme: è il salto tecnico. Il modello replica accuratamente i dettagli delle immagini di riferimento, migliora la precisione nei testi integrati e applica qualsiasi stile grafico — dal Rinascimento al cyberpunk — con una coerenza che i modelli precedenti non raggiungevano. Il risultato è che la distanza tra avere un'idea visiva e realizzarla è scesa a zero: non serve più saper disegnare, basta saper descrivere. E quando descrivere diventa creare, la democratizzazione non riguarda solo l'accesso ma la ridefinizione stessa dell'autorialità. L'artista non è più chi padroneggia il pennello: è chi sa cosa chiedere alla macchina. Come nel passaggio dalla calligrafia alla tipografia, il valore migra dalla mano all'intenzione (🌊 ff.123.4 Non solo Studio Ghibli). La stessa dinamica arriva in territori simbolici: dalla prima messa generativa con avatar-AI all'uso dell'AI per facilitare flow e creatività, istituzioni umane storiche iniziano a usare modelli come co-autori di rituali e significato (🙏 ff.119.2 Se il prete è un'AI).
Il 31 ottobre 2024, Anthropic ha lanciato Claude Computer Use — un modello AI che può muovere il mouse, cliccare, digitare, navigare il web. Per la prima volta, un LLM non si limita a rispondere: agisce. Claude apre Google Maps, cerca un ristorante, prenota un tavolo (🖦️ ff.106.2 AI col mouse). Un giovane fondatore di startup a San Francisco affida tutta la codifica all'AI e raggiunge il Demo Day di Y Combinator senza scrivere una riga di codice. La domesticazione dell'AI è in corso: come il fuoco passò da pericolo a strumento, l'intelligenza artificiale sta transitando da curiosità a utility. Il 75% delle startup nel batch invernale 2025 di Y Combinator è basato sull'AI; il mercato dell'AI generativa è passato da zero a 100 miliardi in due anni (🚀 ff.45.3 Quali trend decolleranno?). La programmazione assistita da AI è già un mercato concreto e in forte crescita. Devin, il primo “programmatore AI” autonomo, ha guadagnato 4.000 dollari nella prima settimana su Upwork (📈 ff.88.5 Un paio di esempi di accelerazione).
Ma se la macchina scrive codice, può anche scrivere poesia? La risposta è sì, e il risultato è più rivelatore del previsto. Chiedendo a un LLM di riscrivere un messaggio nello stile di un sonetto petrarchesco, il modello produce versi come “Retraggo fuor di me, non son queta, perché l'emotion che in me sconvolge sul quotidiano aspett tocco non unda” — un italiano frantumato, quasi glossolalico, che tradisce la distanza tra sintassi statistica e intenzione poetica. Il verso “non vien l'istante”, però, colpisce con una sincerità involontaria che nessun prompt aveva richiesto. È il momento in cui l'artefatto smette di imitare e produce, per caso, qualcosa di autentico — come un pianista automatico che, sbagliando nota, inventa un accordo mai sentito (📜 ff.54.2 Un sonetto di Petrarca). Se l'AI è il nuovo compositore involontario, Gutenberg è il suo antenato consapevole. La stampa a caratteri mobili non distrusse gli amanuensi: li rese irrilevanti liberando la conoscenza dall'Inquisizione. Oggi la blockchain promette lo stesso tipo di emancipazione. Le newsletter su Substack, basate su un protocollo email aperto, non possono essere “sequestrate” dalla piattaforma: basta un copia-incolla delle mail per migrare altrove. La scrittura torna a essere neutrale rispetto al distributore, come lo era il libro stampato rispetto al monastero. In parallelo, la blockchain restituisce traffico organico a utenti, influencer e brand costretti a pagare sempre di più per ottenere la stessa visibilità sui social — un pedaggio digitale che cresce come una rendita feudale (✍️ ff.95.4 Reinventare scrittura e stampa). La conseguenza logica di questa emancipazione è la nascita di un nuovo tipo di creatore. A16Z ha investito 20 milioni di dollari in Wabi.ai, una sorta di YouTube delle app per cellulare pensata per ridare internet alla creatività individuale e strapparlo ai monopoli delle mega-corporazioni. Jenny Odell, in Come non fare niente, avvertiva: “Che senso ha costruire mondi digitali, quando il mondo fisico si sta sgretolando?”. La terza via proposta dagli app-fluencers è un digitale su misura dell'utente, non degli algoritmi di retention — un ribaltamento che, se realizzato, renderebbe Gutenberg orgoglioso e Zuckerberg nervoso (📱 ff.140.1 L'era degli App-fluencers).
Ma sotto la creatività algoritmica e gli agenti autonomi si nasconde una domanda più profonda: che rapporto c’è tra linguaggio e pensiero? I Large Language Models ci hanno stupito con abilità “emergenti” — tradurre, scrivere codice, preparare ricette — anche se sono stati allenati solo a prevedere la parola più probabile che completi una frase. Autocomplete, niente di più. Eppure l’intreccio tra linguaggio, pensiero e costruzione del mondo sa di Wittgenstein: “I limiti del mio linguaggio significano i limiti del mio mondo. L’immagine logica dei fatti è il pensiero. Il pensiero è la proposizione munita di senso.” (Tractatus Logico-Philosophicus[25]) Linguaggio e pensiero sono talmente collegati che Orwell, in 1984[26], immagina una neo-lingua introdotta dal regime totalitario per controllare i sudditi — riduci il vocabolario e ridurrai la capacità di pensare. Arthur Koestler, scrittore anti-totalitario ungherese, si ribella con una provocazione simmetrica ne The Act of Creation[27]: “Il linguaggio può diventare uno schermo tra il pensatore e la realtà. Per questo motivo, la creatività inizia laddove il linguaggio finisce.” Se un LLM è prigioniero del linguaggio per definizione, la vera creatività potrebbe essere proprio ciò che gli è strutturalmente precluso — un tema centrale anche per la stagnazione tecnologica (💻 ff.50.3 La stagnazione tecnologica; 🧠 ff.83.3 Linguaggio e pensiero).
Se il linguaggio è il confine del pensiero, la scrittura è il modo più concreto per spingerlo più in là. Sommersi da testi generati da GPT, Tim Ferriss nel suo blog[28] risponde alla domanda di suo figlio: ha ancora senso scrivere? Sì, e per ragioni precise. Scrivendo ci fermiamo, focalizziamo l’attenzione. Capiamo: senza dare voce ai pensieri, viviamo nella semplice allucinazione del capire i concetti. Ci affezioniamo al testo prodotto — un testo che però dobbiamo anche rieditare e tagliare. Scrivere ci insegna ad abbandonare quello che, fino a un attimo prima, era il nostro risultato più alto. In un’epoca in cui la macchina genera prosa a costo zero, il valore della scrittura umana non sta nel prodotto ma nel processo: è l’ultimo atto di pensiero lento in un mondo di risposte istantanee. Se Wittgenstein ha ragione e il linguaggio delimita il mondo, allora scrivere è l’unico modo per allargarne i confini — e delegarlo a un LLM equivale a restringere i propri (🧠 ff.83.3 Linguaggio e pensiero; ⏸️ ff.83.4 L’importanza di scrivere e pensare).
2.3.3 — Videogiochi e creatività
I videogiochi sono il laboratorio cognitivo più sottovalutato del pianeta. Non è un caso che il fondatore di DeepMind, Demis Hassabis — premio Nobel per la chimica 2024 grazie ad AlphaFold — sia un ex campione mondiale di scacchi junior e un game designer. I videogiochi insegnano a simulare, a perdere, a iterare (🕹️ ff.132.2 I benefici dei videogiochi). Lezioni sugli agenti AI emergono persino da Claude che gioca a Pokemon — i giochi come banco di prova per il comportamento autonomo. Genie 3 di DeepMind genera mondi interattivi 3D da un singolo prompt testuale — non più videogiocare in un mondo creato da altri, ma creare il proprio mondo giocandoci (📐 ff.132.3 Misurare e modellare il mondo). Fortnite non è solo un gioco: è una piattaforma sociale, un concerto, un negozio. Il videogioco è il medium definitivo perché integra tutti gli altri.
Google, l'azienda più potente del mondo digitale, è vulnerabile per la prima volta in 25 anni. Il 50% del suo fatturato proviene dalla ricerca testuale — un format che ChatGPT, Perplexity e gli AI assistants stanno erodendo. Ma Google non è solo Search: è DeepMind (Nobel), TPU v7, Gemini 3, Waymo, YouTube. La domanda non è se Google sopravviverà, ma quale Google sopravviverà (🔎 ff.28 Google ricerca il futuro). Andy Grove, sopravvissuto ai campi di sterminio, salvò Intel dalla competizione giapponese nel 1985 con un pivot strategico dai chip di memoria ai processori. “La paranoia fomentata dalla gioventù tra guerra e nazismo ha salvato Intel,” scrive in Only the Paranoid Survive. Time lo elesse Man of the Year nel 1997 (🔯 ff.126.1 Da campi di sterminio a Intel).
“La tecnologia è la risorsa definitiva. Con abbastanza tecnologia, possiamo sostenere 50 miliardi di persone su questo pianeta.”
— Marc Andreessen, The Techno-Optimist Manifesto
Il campo di battaglia più caldo della tech è il silicio stesso. La guerra dei chip tra USA e Cina ha trasformato TSMC (Taiwan) nell'azienda più strategica del pianeta: produce il 92% dei chip sotto i 7 nanometri. Un blocco di Taiwan fermerebbe l'industria globale. Huawei ha lanciato il Mate 60 Pro con un chip a 7nm fatto in casa, sorprendendo l'intelligence americana (💥 ff.82 Guerra a colpi di chip). CATL, il colosso cinese delle batterie, ha speso 2,6 miliardi di dollari in R&D, triplicando l'investimento del principale concorrente non cinese — consolidando una leadership che nel capitolo Natura ricorre come fattore chiave della transizione energetica (🇨🇳 ff.42 Made in China). Il quantum computing aggiunge un'altra dimensione: Sycamore-70 di Google ha dimostrato la supremazia quantistica risolvendo in 200 secondi un calcolo che richiederebbe 10.000 anni a un supercomputer classico (⚛️ ff.69 Quantico?). Il caso più eloquente è Shenzhen: una città che quarant'anni fa non esisteva e oggi produce droni, auto volanti e infrastrutture di rete a una velocità che rende la pianificazione occidentale quasi ornamentale (🏮 ff.125.3 Cina: il prossimo impero mondiale?).
Tesla non è solo auto: con tre GWh di capacità — il venticinque per cento del totale mondiale — controlla una porzione significativa del potenziale di immagazzinamento di energia elettrica del pianeta. L’obiettivo dichiarato è raggiungere millecinquecento GWh entro il 2030, un balzo di cinquecento volte. Per arrivarci servirà molto litio, che poi andrà smaltito: l’anno scorso, 17,6 GWh di batterie elettriche sono giunte a fine vita. In quindici anni, quel volume sarà dieci volte tanto — l’equivalente di circa duecento piscine olimpiche, considerando soltanto i veicoli elettrici (🔋 ff.5.2 Duracell? No, Tesla).
Se le biciclette elettriche rappresentano la prossima frontiera della mobilità urbana, VanMoof ne è la Tesla su due ruote. Il modello V prometteva di raggiungere i cinquanta chilometri orari a un prezzo di tremilacinquecento euro: una proposta che univa design olandese e ambizione tecnologica, collocandosi nel punto esatto in cui il trasporto individuale incontra l’elettrificazione diffusa (😎 ff.5.4 La Tesla delle biciclette).
Tesla incarna tutte le contraddizioni dell'era tecnologica. L'azienda ha accelerato la transizione elettrica più di qualsiasi politica governativa, ma la sua valutazione è più una scommessa su Musk che un riflesso dei fondamentali. Tesla ha registrato il peggior calo trimestrale delle vendite in 10 anni, eppure il titolo è scambiato a 180 volte gli utili. Nel 2024, BYD l'ha superata per vendite globali di veicoli elettrici (🚗 ff.93 Tesla: la fine di un'era?). L'arte, infine, non è immune alla rivoluzione. DALL-E, apparso nel 2022, ha generato un'esplosione creativa: il numero di opere digitali pubblicate è cresciuto del 300%. L'AI non ha sostituito gli artisti — li ha democratizzati (🎨 ff.30 DALL-E genera arte). ChatGPT, con le sue capacità emergenti — non previste dai creatori — ci insegna qualcosa di profondo: l'intelligenza nasce dalla struttura, non dal materiale. I Transformer, l'architettura alla base di tutti i modelli attuali, sono un articolo di 8 pagine scritto da 8 ricercatori di Google nel 2017: “Attention Is All You Need” (🤖 ff.83 Imparare da ChatGPT). Otto persone, un'idea, e il mondo non è più lo stesso. Il futuro non appartiene a chi possiede la macchina, ma a chi sa parlarle. E a volte è il corpo stesso a insegnartelo: caduto in bici con la clavicola rotta, trenta giorni di stop forzato, ChatGPT ha trasformato il dolore in creatività — sketch cubisti, emoji post-trauma, un nuovo modo di ridere dell'infortunio (🦴 ff.124.1 Dalì sciogli clavicole). Non potendo usare la tastiera, la newsletter successiva è stata dettata interamente all'AI, che l'ha redatta, corretta e resa pubblicabile. Come per i pazienti Neuralink, la mente parla senza il corpo: l'interfaccia smette di essere un lusso e diventa una protesi cognitiva necessaria (✍️ ff.124.2 Longa manus).
TSMC produce il 92% dei chip sotto i 7 nanometri; un blocco di Taiwan fermerebbe l'industria globale. I Transformer, l'architettura alla base di tutti i modelli AI attuali, sono un articolo di 8 pagine scritto da 8 ricercatori di Google nel 2017. L'intelligenza nasce dalla struttura, non dal materiale: otto persone, un'idea, e il mondo non è più lo stesso.
Chi davvero rischia di scomparire, però, non è l'artista: è il gatekeeper. Google oggi si trova in una posizione simile a quella di IBM negli anni Novanta o di Nokia nel 2007: il 50% del suo business — Google Search, da 200 miliardi l'anno — è sotto attacco simultaneo. Apple valuta di sostituirlo come motore di ricerca predefinito su Safari, nonostante Google paghi 20 miliardi di dollari l'anno per quel privilegio. La risposta di Mountain View è stata il Google I/O 2025, dove il gigante ha mostrato tutte le carte in una volta: Veo 3, modello text-to-video con qualità che sfida Hollywood; traduzioni audio simultanee in Google Meet che abbattono la barriera linguistica in tempo reale; smart-glasses Android XR potenziati da Gemini che sovrappongono informazioni contestuali al campo visivo; e Google Beam, televisori che creano avatar 3D per videochiamate che sembrano ologrammi. Non è la fine di Google — è la sua mutazione: da motore di ricerca a sistema operativo dell'attenzione. Ma la transizione ha un costo: il 50% dei ricavi API di Anthropic — concorrente diretto — proviene già da strumenti di coding come GitHub Copilot e Cursor, per un totale di 14 miliardi di dollari. Il campo di battaglia non è più la barra di ricerca: è l'interfaccia tra intenzione umana e azione digitale (🐦 ff.126.2 Non è la fine di Google).
2.3.4 — Il collo di bottiglia fisico
Il prossimo salto non è nel modello, ma nella fisica che lo sostiene. L'embargo sulle GPU avanzate ha costretto la Cina a spremere efficienza da hardware meno performante, trasformando il watt in metrica competitiva (🌊 ff.135.2 Onda anomala energetica). Mark Zuckerberg annuncia la costruzione di Hyperion, un data center AI da 5 GW — cinque volte più grande degli attuali. Nuovi display per realtà mista avvicinano il metaverso all'uso quotidiano: non mondi virtuali separati, ma livelli informativi sovrapposti al mondo reale, sempre attivi e contestuali.
Lo stesso vale per l'energia di accumulo: senza batterie più economiche e dense, l'AI resta una promessa costosa. La traiettoria è chiara: catene industriali orientate a chimiche più abbondanti e meno dipendenti da materiali critici, con il baricentro produttivo che si sposta verso soluzioni scalabili per rete elettrica, mobilità e datacenter (🔋 ff.42 Made in China). Per contestualizzare il consumo: un cheeseburger McDonald's equivale all'energia di 80.000 richieste ChatGPT. La vera corsa, quindi, non è solo al modello migliore: è al sistema integrato chip + elettricità + storage + interfaccia.
Ma il collo di bottiglia non è solo energetico: è anche fisico, nel senso più letterale. Le strade si rompono, i marciapiedi si sgretolano, i cantieri restano aperti per anni. Sidewalk AI, progetto del MIT Senseable Lab di Carlo Ratti, usa l'intelligenza artificiale per mappare lo stato di salute dei marciapiedi in tempo reale — crepe, avvallamenti, accessibilità — trasformando dati grezzi in priorità di intervento. Il secondo tassello sono i robot da cantiere: Figure AI collabora con BMW per velocizzare le linee di produzione, ma lo stesso principio si applica alle infrastrutture urbane, dove un robot può operare di notte, senza straordinari e senza fermare il traffico. In attesa della rivoluzione robotica completa, c'è chi ha già trovato una via poetica: a Lione, lo street artist Ememem pratica il flacking, riempiendo le buche stradali con mosaici colorati secondo il principio giapponese del kintsugi — l'arte di riparare con l'oro. La metafora funziona anche per la tecnologia: non nascondere le fratture, ma trasformarle in punti di forza (🤤 ff.110.4 Robot e AI: opportunità).
Il cantiere infinito non è solo una battuta da bar: è un dato strutturale. Lo Stato fatica a finanziare la manutenzione del costruito, e gli eventi climatici estremi — come l’alluvione di Valencia — non aiutano. Intorno a noi si moltiplicano cantieri sorvegliati da pensionati, talmente lenti da diventare spettacolo: il dipartimento dei trasporti della Pennsylvania ha messo in streaming il cantiere dell’interstate I-95, in stile Grande Fratello. Ma dietro l’ironia c’è un precipizio di produttività. McKinsey certifica che la produttività nell’edilizia è bloccata ai livelli degli anni 2000 — ferma mentre ogni altro settore accelerava. Eppure l’America sapeva essere veloce: in 138 giorni dall’idea, Apollo 8 atterrò sulla Luna. La distanza tra quella velocità e un cantiere autostradale del 2024 misura esattamente il costo della complessità burocratica accumulata in sessant’anni (🚧 ff.110.2 Un cantiere infinito).
C'è poi un punto che nel dibattito pubblico viene spesso rimosso: la tecnologia non è neutra nemmeno quando sembra solo “utile”. Ogni interfaccia decide cosa rendere visibile e cosa far sparire; ogni automazione sposta potere da una persona a un protocollo; ogni scorciatoia cognitiva può liberare tempo o ridurre autonomia, dipende da come è disegnata. La promessa giusta non è “fare tutto con un prompt”, ma aumentare lucidità nelle scelte ad alto impatto: cosa automatizzare, cosa mantenere umano, cosa misurare davvero. Chip, batterie e modelli sono solo metà della storia; l'altra metà è governance quotidiana dell'attenzione. Una buona tecnologia non ti toglie il giudizio: ti restituisce margine per esercitarlo meglio, con meno rumore e più responsabilità (🧰 ff.123 L'AI con il coltellino svizzero; 🎼 ff.129 Il valzer di Tesla).
Un cheeseburger McDonald's equivale all'energia di 80.000 richieste ChatGPT. Mark Zuckerberg annuncia Hyperion, un data center AI da 5 GW — cinque volte più grande degli attuali. Chip, batterie e modelli sono solo metà della storia; l'altra metà è governance quotidiana dell'attenzione. Una buona tecnologia non ti toglie il giudizio: ti restituisce margine per esercitarlo meglio.
Si può studiare la tecnologia con una teoria evoluzionistica: come una specie evolve in base a pressioni esterne, così lo sviluppo tecnologico va di pari passo con accettazione e blocchi della società. La co-evoluzione tecnologica. QWERTY è tutt’altro che l’ottimo nella disposizione dei caratteri di una tastiera, ma ci siamo adattati e ora cambiarla è un casino. Un altro esempio di interazione società-tecnologia: il blocco nucleare post Fukushima e il revisionismo post invasione Ucraina. Se volete approfondire il tema, suggerisco il libro Come saremo, di Telmo Pievani e Luca de Biase (🗃️ ff.59.2 Pressioni sociali e burocrazia).
Se la co-evoluzione blocca le innovazioni tramite resistenza sociale, la “deflazione mentale” le blocca ancor prima — nella testa dei ricercatori. Aristotle, il modello AI di HarmonicMath, ha risolto il problema di Erdős #124, rimasto aperto per 30 anni: l’AI raggiunge gli apici della matematica pura. Professori come Aryeh Kontorovich dell’Università di Ben-Gurion si chiedono se valga ancora la pena scrivere paper. La deflazione mentale è analoga a quella economica: se domani un’idea costerà meno, non ha senso investirci oggi. L’effetto è paralizzante: chi può competere con un sistema che risolve in secondi ciò che ha richiesto trent’anni di lavoro umano? (🧮 ff.140.3 Deflazione mentale e crisi accademica).
Il primo vero terremoto è arrivato dal sottosuolo della biologia strutturale. Per mezzo secolo, determinare la forma tridimensionale di una proteina richiedeva mesi di cristallografia a raggi X e milioni di dollari. Poi DeepMind ha rilasciato AlphaFold e in pochi mesi ha predetto la struttura dell'intero proteoma umano — circa ventimila proteine — estendendo poi il catalogo a oltre trecentocinquantamila proteine di altri organismi. Da cinquant'anni di tentativi a un database universale in un anno: non un miglioramento incrementale, ma un cambio di paradigma nel modo in cui la scienza interroga la materia vivente. La farmacologia, la bioingegneria e persino l'agricoltura ne sono state ridisegnate (🧬 ff.4.1 La struttura delle proteine).
Ma AlphaFold è solo una metà della storia. L’altra metà si legge in un grafico che assomiglia a una cascata: il prezzo per sequenziare il DNA è crollato negli ultimi vent’anni di un fattore centomila. Un altro pezzo fondamentale di come la biologia, nel prossimo decennio, sconvolgerà le nostre vite esattamente come fatto dai PC negli ultimi venti. Oggi sequenziare un intero genoma umano costa meno dell’ultimo iPhone — circa 1.000 dollari. Quella curva di costo è il segnale più chiaro che la biologia sta seguendo la stessa traiettoria dell’informatica: ciò che ieri era ricerca di frontiera, domani sarà routine. Avete già prenotato il vostro test? (📉 ff.4.4 DNA meglio dei microchip!).
Se AlphaFold ha dato occhi molecolari alla biologia, la visione artificiale ha dato occhi letterali alle macchine. Da quando GPT ha integrato input visivi, l'intelligenza artificiale non si limita più a leggere testo: interpreta immagini, decifra grafie illeggibili, localizza oggetti nascosti in una scena. Cognizione e vista — i due pilastri del nostro successo evoluzionistico — convergono ora in un sistema artificiale che, in molti compiti percettivi, supera la mediana umana. La domanda non è più se le macchine vedranno: è cosa faranno con ciò che vedono, e chi deciderà i confini di quello sguardo (🤖 ff.71.2 ChatGPT (ti) vede).
Ma la tecnologia non si misura solo in parametri e benchmark: si misura anche in energia consumata, in contesto compreso e in chilometri percorsi senza conducente. Partiamo dall'elefante nella stanza cripto: si stima che il consumo energetico per mantenere operativa la blockchain di Bitcoin sia pari a quello dell'intera Finlandia (🇫🇮 ff.1.5 Il consumo energetico di Bitcoin). Il dato è impressionante, eppure fuorviante se lo si isola dal contesto: una quota crescente del mining utilizza energia rinnovabile — idroelettrica in Islanda, geotermica in El Salvador, solare nel Texas occidentale — e il trasferimento digitale di valore evita costi ecologici tangibili legati al trasporto fisico di denaro, oro e documenti. Non si tratta di assolvere Bitcoin, ma di rifiutare la contabilità parziale: ogni sistema energetico va confrontato con l'alternativa che sostituisce, non con un'utopia a consumo zero.
La smart TV sarà pure il modo più tradizionale e comodo di fruire contenuti, sempre più provenienti da piattaforme online. Eppure le dimensioni non contano come ci si aspetterebbe: gli smartphone generano introiti ben superiori alla vendita di televisori e PC messi insieme. Gli accessori per smartphone superano di gran lunga le vendite di tablet, wearable, console e altri dispositivi tech. Il multiverso digitale, per ora, è relegato a uno schermo piccolissimo — quello che teniamo in tasca e guardiamo un quarto della giornata (📱 ff.8.3 Schermi piccoli).
Il peso degli schermi piccoli si riflette anche nella distribuzione dei ricavi dell’AI. Circa metà del fatturato API di Anthropic proviene da soli due strumenti: GitHub Copilot e Cursor, per un totale di 1,4 miliardi di dollari tra i due. La concentrazione è rivelatrice: l’intelligenza artificiale genera valore non dove parla, ma dove scrive codice — e chi controlla l’interfaccia di programmazione controlla il flusso economico dell’intera catena.
Lo stesso principio — il contesto è tutto — si applica al salto generazionale dell'intelligenza artificiale. Quando GPT-4 ha sostituito la versione 3.5 nel motore di ChatGPT, centocinquanta pagine di analisi di Microsoft Research ne hanno documentato la superiorità qualitativa: ragionamento multimodale, capacità di seguire istruzioni complesse, comprensione di sfumature emotive che la versione precedente ignorava del tutto (🥃 ff.54.1 Il contesto: l'amaro dell'impotenza). Il miglioramento non è stato lineare, ma esponenziale — il tipo di curva che, osservata dal basso, sembra piatta e poi verticale. GPT-3 sapeva riassumere; GPT-4 sa riscrivere un messaggio usando solo parole che iniziano con la lettera A, mantenendo il senso emotivo intatto. È la differenza tra un traduttore meccanico e un interprete che coglie il sottotesto: non un aggiornamento, ma un cambio di categoria cognitiva.
I dati sulla guida autonoma cominciano a parlare con una chiarezza difficile da ignorare. Con cinquantasette milioni di miglia di dati raccolti, Waymo registra l’ottantacinque per cento in meno di lesioni gravi e il settantanove per cento in meno di lesioni complessive rispetto ai guidatori umani. Non è più una promessa da laboratorio: è una statistica da flotta operativa, e il divario con la guida umana si allarga a ogni trimestre.
E quando l'intelligenza artificiale esce dallo schermo e sale su quattro ruote, il futuro si misura in yuan al chilometro. A Wuhan — sì, la stessa Wuhan — 3 taxi su 100 sono già robotaxi Baidu: dieci chilometri per quattro yuan, circa 0,55 dollari, un quinto del costo di un taxi convenzionale (🚕 ff.102.2 Wuhan: dal Covid a Baidu). La flotta di cinquecento veicoli raddoppierà entro fine anno, e le proiezioni McKinsey indicano che per il 2035 i taxi autonomi cresceranno di dieci volte, raggiungendo ricavi paragonabili a quelli di Apple. Il filo che lega questi tre fenomeni è lo stesso: l'energia di Bitcoin, i parametri di GPT-4 e i chilometri dei robotaxi sono tutti indicatori di densità tecnologica — quanto lavoro utile un sistema riesce a comprimere in un'unità sempre più piccola di tempo, spazio o costo. La vera misura del progresso non è la potenza grezza, ma il rapporto tra complessità gestita e risorse impiegate. E quel rapporto, in tutti e tre i casi, sta migliorando più in fretta di quanto il dibattito pubblico riesca a registrare.