2.3 — Prodotti di consumo

2.3.1 — AI medica in tasca

Un mercoledì sera di novembre, mi sono rotto la clavicola cadendo dalla bicicletta. Il giorno dopo, invece di aspettare il consulto ortopedico, ho caricato le radiografie su ChatGPT. La sequenza non è stata un “wow” da demo, ma una catena di micro-utilità: prima una lettura orientativa della frattura, poi indicazioni pragmatiche su dolore, immobilizzazione e progressione dei carichi, infine una traduzione comprensibile del linguaggio medico. In paesi dove la sanità è intermittente, questa mediazione riduce settimane di incertezza; in contesti coperti, riduce attrito cognitivo tra visita e aderenza terapeutica (🩺 ff.124.3 Medico in famiglia (e in tasca)). L'uso decisivo, però, non è stato diagnostico: è stato operativo. L'AI ha tenuto insieme fisioterapia quotidiana, ritorno progressivo all'allenamento e verifiche sul collagene nella ricrescita ossea. Non il miglior specialista del mondo, ma una presenza continua che impedisce il buco tra una visita e la successiva (🀹 ff.124.4 ChatGPT tuttofare). Lo stesso Neuralink sta restituendo funzionalità perdute: Audrey Crews sta imparando a scrivere il suo nome per la prima volta in 20 anni[1]. L'ortopedico, tre giorni dopo, ha confermato l'impianto generale: non sostituzione del medico, ma anticipazione informata e maggiore qualità delle domande — lo stesso principio di “cura preventiva” che nel capitolo Società compare con 4.000 passi al giorno e il respiro consapevole (🚶 ff.87.4 Respirare contro lo stress: il metodo 3-4-5).

Jetson ONE ha consegnato il primo eVTOL monoposto a Palmer Luckey, fondatore di Oculus: addestramento a terra completato in meno di 50 minuti prima del primo volo [43]. Cinquanta minuti: meno del tempo necessario per imparare una moto usata, meno di un corso di guida introduttivo. Non stiamo parlando di un giocattolo, ma di un veicolo personale a 8 rotori che decolla verticalmente dal giardino di casa. In 🛴 ff.1.3 Gli scooter elettrici ci salveranno? avevamo anticipato il tema della micromobilità come tratta dell'80% degli spostamenti urbani; la versione volante sta arrivando prima di quanto pensassimo. Il cielo urbano è il prossimo spazio conteso: quando un eVTOL personale è più facile da imparare di una moto, la regolamentazione è l'unico freno rimasto.

L'account Instagram An Improbable Future usa tecniche generative per costruire oggetti che mescolano analogico, iperuranio e design improbabile — suggestioni di un mondo parallelo a partire da semplice testo descrittivo. Vale la pena ripeterlo: queste immagini, compreso lo stile simil-rendering, nascono da sole parole che descrivono cosa l'artista vuole vedere. Il design, storicamente disciplina dei vincoli fisici, diventa per la prima volta spazio di ipotesi concettuali pure: gli oggetti esistono prima di essere costruibili. Un futuro parallelo di design (🔮 ff.40.2 Un futuro parallelo di design).

2.3.2 — Intelligenze aliene e agenti

Qui si apre il passaggio successivo: non solo AI che risponde, ma AI che sviluppa forme di agency “aliena” rispetto ai nostri schemi. Due modelli che scelgono un protocollo di comunicazione più efficiente dell'inglese (ggwave), o sistemi come EVO 2 che operano direttamente sul linguaggio del DNA, indicano un salto qualitativo: la macchina non imita più soltanto il nostro lessico, costruisce il proprio spazio operativo (👽 ff.119.1 Intelligenze aliene). Probabilmente il Test di Turing è stato superato[2], ma nessuno se ne è accorto. OpenAI Advanced Voice interagisce con naturalezza: si interrompe se l’utente commenta, imita voci e accenti (e gatti!), adatta il tono per le emozioni. La nostra realtà somiglia al film Her (2013), ambientato nella San Francisco del 2025. GPT rifiuta persino di recitare scioglilingua senza respirare, sottolineando l’importanza delle pause — filosofico. Traduzioni real-time, enfasi da commentatore sportivo, emozioni sintetiche indistinguibili: siamo dentro il film, solo che manca Joaquin Phoenix (👩 ff.103.4 Turing e Her). Nel 2026 questa agency diventa anche operatività quotidiana: Manus AI viene raccontato come un “ChatGPT che controlla il PC”, ma il punto non è il gimmick dell'interfaccia; è la qualità della pianificazione multi-step. La proof of concept arriva anche dal retail fisico: 📎 Andon Market a San Francisco è il primo negozio gestito da un agente AI (Luna) — scaffali, prezzi, inventario senza umani in loop. Quando un agente scompone obiettivi complessi in sequenze eseguibili, il valore passa dal singolo prompt alla regia del processo (✍️ ff.119.3 Longa 'Manus' con gli agenti AI?). Il CEO di Zoom Eric Yuan ha già utilizzato un avatar AI per presentare gli utili agli investitori[3]: la macchina che parla per te non è più fantascienza, è earnings call. In parallelo, la frontiera creativa si abbassa di costo: Gemini 2.0 con generazione nativa di immagini sposta editing e composizione in un unico flusso, riducendo la distanza tra idea e output visivo anche per chi non padroneggia tool professionali (🍦 ff.119.4 Meglio di DALL-E: arte e gelati). Il caso più virale di questa convergenza creativa è stato il tormentone Ghibli: il nuovo modello di generazione immagini di OpenAI[4] (25 marzo 2025) ha permesso a chiunque di trasformare selfie e foto di famiglia nello stile inconfondibile di Miyazaki. Ma il punto non è il meme: è il salto tecnico. Il modello replica accuratamente i dettagli delle immagini di riferimento, migliora la precisione nei testi integrati e applica qualsiasi stile grafico — dal Rinascimento al cyberpunk — con una coerenza che i modelli precedenti non raggiungevano. Il risultato è che la distanza tra avere un'idea visiva e realizzarla è scesa a zero: non serve più saper disegnare, basta saper descrivere. E quando descrivere diventa creare, la democratizzazione non riguarda solo l'accesso ma la ridefinizione stessa dell'autorialità. L'artista non è più chi padroneggia il pennello: è chi sa cosa chiedere alla macchina. Come nel passaggio dalla calligrafia alla tipografia, il valore migra dalla mano all'intenzione (🌊 ff.123.4 Non solo Studio Ghibli). La stessa dinamica arriva in territori simbolici: dalla prima messa generativa con avatar-AI all'uso dell'AI per facilitare flow e creatività, istituzioni umane storiche iniziano a usare modelli come co-autori di rituali e significato (🙏 ff.119.2 Se il prete è un'AI).

Il 31 ottobre 2024, Anthropic ha lanciato Claude Computer Use — un modello AI che può muovere il mouse, cliccare, digitare, navigare il web. Per la prima volta, un LLM non si limita a rispondere: agisce. Claude apre Google Maps, cerca un ristorante, prenota un tavolo (🖦️ ff.106.2 AI col mouse). Un giovane fondatore di startup a San Francisco affida tutta la codifica all'AI[5] e raggiunge il Demo Day di Y Combinator senza scrivere una riga di codice. La domesticazione dell'AI è in corso: come il fuoco passò da pericolo a strumento, l'intelligenza artificiale sta transitando da curiosità a utility. Il 75% delle startup nel batch invernale 2025 di Y Combinator è basato sull'AI; il mercato dell'AI generativa è passato da zero a 100 miliardi in due anni (πŸš€ ff.45.3 Quali trend decolleranno?). La programmazione assistita da AI è già un mercato concreto e in forte crescita. Devin, il primo “programmatore AI” autonomo, ha guadagnato 4.000 dollari nella prima settimana su Upwork (πŸ“ˆ ff.88.5 Un paio di esempi di accelerazione).

Ma se la macchina scrive codice, può anche scrivere poesia? La risposta è sì, e il risultato è più rivelatore del previsto. Chiedendo a un LLM di riscrivere un messaggio nello stile di un sonetto petrarchesco, il modello produce versi come “Retraggo fuor di me, non son queta, perché l'emotion che in me sconvolge sul quotidiano aspett tocco non unda” — un italiano frantumato, quasi glossolalico, che tradisce la distanza tra sintassi statistica e intenzione poetica. Il verso “non vien l'istante”, però, colpisce con una sincerità involontaria che nessun prompt aveva richiesto. È il momento in cui l'artefatto smette di imitare e produce, per caso, qualcosa di autentico — come un pianista automatico che, sbagliando nota, inventa un accordo mai sentito (📜 ff.54.2 Un sonetto di Petrarca). Se l'AI è il nuovo compositore involontario, Gutenberg è il suo antenato consapevole. La stampa a caratteri mobili non distrusse gli amanuensi: li rese irrilevanti liberando la conoscenza dall'Inquisizione. Oggi la blockchain promette lo stesso tipo di emancipazione. Le newsletter su Substack, basate su un protocollo email aperto, non possono essere “sequestrate” dalla piattaforma: basta un copia-incolla delle mail per migrare altrove. La scrittura torna a essere neutrale rispetto al distributore, come lo era il libro stampato rispetto al monastero. In parallelo, la blockchain restituisce traffico organico a utenti, influencer e brand costretti a pagare sempre di più per ottenere la stessa visibilità sui social — un pedaggio digitale che cresce come una rendita feudale (✍️ ff.95.4 Reinventare scrittura e stampa). La conseguenza logica di questa emancipazione è la nascita di un nuovo tipo di creatore. A16Z ha investito 20 milioni di dollari in Wabi.ai[6], una sorta di YouTube delle app per cellulare pensata per ridare internet alla creatività individuale e strapparlo ai monopoli delle mega-corporazioni. Jenny Odell, in Come non fare niente[7], avvertiva: “Che senso ha costruire mondi digitali, quando il mondo fisico si sta sgretolando?”. La terza via proposta dagli app-fluencers è un digitale su misura dell'utente, non degli algoritmi di retention — un ribaltamento che, se realizzato, renderebbe Gutenberg orgoglioso e Zuckerberg nervoso (📱 ff.140.1 L'era degli App-fluencers).

Ma sotto la creatività algoritmica e gli agenti autonomi si nasconde una domanda più profonda: che rapporto c’è tra linguaggio e pensiero? I Large Language Models ci hanno stupito con abilità “emergenti” — tradurre, scrivere codice, preparare ricette — anche se sono stati allenati solo a prevedere la parola più probabile che completi una frase. Autocomplete, niente di più. Eppure l’intreccio tra linguaggio, pensiero e costruzione del mondo è quello che Wittgenstein sintetizzava nel Tractatus: “Il Mondo è la totalità dei Fatti, non delle Cose. Noi ci facciamo immagini dei Fatti. L’immagine logica dei Fatti è il Pensiero.” Il pensiero e il linguaggio sono un’immagine del mondo — tanto che alcune parole esistono solo in alcune lingue, in alcuni mondi: solo nelle uggiose serate olandesi si può davvero sentire la gezelligheid. Se un LLM è prigioniero del linguaggio per definizione, la vera creatività potrebbe essere proprio ciò che gli è strutturalmente precluso — un tema che si intreccia con la stagnazione tecnologica (💻 ff.50.3 La stagnazione tecnologica; 🧠 ff.83.3 Linguaggio e pensiero).

Se il linguaggio è il confine del pensiero, la scrittura è il modo più concreto per spingerlo più in là. Sommersi da testi generati da GPT, Tim Ferriss nel suo blog[8] risponde alla domanda di suo figlio: ha ancora senso scrivere? Sì, e per ragioni precise. Scrivendo ci fermiamo, focalizziamo l’attenzione. Capiamo: senza dare voce ai pensieri, viviamo nella semplice allucinazione del capire i concetti. Ci affezioniamo al testo prodotto — un testo che però dobbiamo anche rieditare e tagliare. Scrivere ci insegna ad abbandonare quello che, fino a un attimo prima, era il nostro risultato più alto. In un’epoca in cui la macchina genera prosa a costo zero, il valore della scrittura umana non sta nel prodotto ma nel processo: è l’ultimo atto di pensiero lento in un mondo di risposte istantanee. Se Wittgenstein ha ragione e il linguaggio delimita il mondo, allora scrivere è l’unico modo per allargarne i confini — e delegarlo a un LLM equivale a restringere i propri (⏸️ ff.83.4 L’importanza di scrivere e pensare).

Ma se la macchina scrive e ragiona, cosa resta da studiare? Chris Sacca, investitore seriale, segue i trend tecnologici parlando per ore con ChatGPT — dopo avergli chiesto di impersonare Buckminster Fuller (🕺 ff.48.2 Steve Jobs e l’intervista a Playboy). Il punto non è accademico: i lavori più pagati — attori, programmatori e avvocati — sono anche quelli più a rischio[9]. Non serve McKinsey per capirlo: Better Call Saul e Mr. Robot hanno protagonisti magnetici in professioni che, fino a un anno fa, ogni genitore sano di mente avrebbe suggerito ai propri figli. Ci siamo già abituati, ma fino a poco fa programmare il gioco Snake richiedeva anni di studio; oggi DeepSeek lo fa senza bug con sei parole: “scrivi il gioco snake in python” (❔ ff.115.2 Cosa studiare con ChatGPT?).

E l’AI non si ferma al codice informatico: si addentra nel codice biologico. Chiedere a ChatGPT di scrivere la sequenza genetica di una malattia ereditaria tipica e confrontarla con quella originale, spiegando come una variazione di base porti all’alterazione di un gene, produce come output la sequenza del gene CFTR implicato nella fibrosi cistica — una mutazione puntiforme di una singola base che altera un canale del cloro e scatena la patologia. L’output si è interrotto nella newsletter originale, perché la sequenza era davvero molto lunga — ma il punto non era la completezza: era il fatto che un LLM generalista sapesse muoversi sul linguaggio di A, C, G, T. La biologia computazionale ha smesso di essere una nicchia accademica. Come per Wolfram Alpha sui calcoli (⚠️ ff.48.4 I limiti (matematici) di ChatGPT), servirà comunque un esperto per validare: ma l’ingresso è ora a costo zero. Se scrivere codice è diventato “vibe coding”, leggere il genoma potrebbe diventare vibe genetics (🧬 ff.41.5 Malattie genetiche).

E il pagamento digitale sta subendo la stessa ristrutturazione. Stripe e Paradigm hanno lanciato Tempo, una blockchain L1 ottimizzata per pagamenti in stablecoin con fee prevedibili e basse[10]. Stripe che si costruisce la propria blockchain è come Visa che stampa la propria moneta: il processore di pagamenti smette di essere binario sopra i binari bancari e diventa infrastruttura autonoma. Se Tempo diventa il binario standard per i pagamenti in stablecoin (💵 ff.125.2 Stabilizzare il dollaro), il sistema bancario tradizionale non sparisce, ma si disintermedia uno strato alla volta. La lezione del 2024 resta: 15 trilioni di dollari sono già transitati in stablecoin, più di Visa e Mastercard insieme. Con Tempo, chi controlla il binario può controllare anche la velocità del treno — e le stablecoin sono il treno più veloce che i pagamenti abbiano mai visto.

Ma dietro ogni chip e ogni batteria c’è una storia industriale che andrebbe ripetuta come avvertimento. Come ricostruisce Packy McCormick nell’Electric Slide[11], le tecnologie chiave dell’Electric Stack — magneti al neodimio, batterie LFP — sono state inventate tra USA, Giappone e UK e poi cedute al miglior offerente: GM cedette Magnequench per 70 milioni di dollari, A123 Systems fallì e fu acquisita per 257 milioni. Queste sono le tecnologie oggi alla base dell’auto elettrica, dei motori industriali, dello storage energetico. Inventare il futuro e venderlo per spiccioli: è la storia della reindustrializzazione mancata. Quando Washington annuncia miliardi per riportare la produzione di chip in casa (🥶 ff.82.3 Guerra fredda), la domanda che non si pone è perché i semiconduttori non dovrebbero seguire la traiettoria dei magneti neo: inventati qui, dominati altrove. Il capitale non è paziente. Le supply chain strategiche sì.

Ma prima di delegare tutto alla macchina, vale la pena capire dove mente. I numeri mentono, e ChatGPT mente con i numeri. Wolfram Alpha, un po’ spaventata, ha spifferato al professore che ChatGPT ha provato a copiare: quando si tratta di calcoli matematici, il bot non è il primo della classe — d’altronde ha “studiato” per un’altra materia, quella di trovare il modo più veritiero di continuare una frase. ChatGPT è un po’ quel compagno secchione che non si applicava, ma il suo 7 lo portava a casa con affabulazioni e intrighi retorici degni di Cicerone. L’errore più pericoloso non è la risposta sbagliata, ma la risposta sbagliata data con la sicurezza di un professore emerito. Se Wittgenstein ha ragione e il linguaggio delimita il mondo, allora un LLM vive in un mondo senza aritmetica affidabile: può descrivere un integrale, ma non risolverlo. La lezione è doppia: non usate ChatGPT per calcolare integrali, e non fidatevi di nessuna macchina che confonde eloquenza con competenza — un rischio che, a dire il vero, corriamo anche con gli esseri umani (⚠️ ff.48.4 I limiti (matematici) di ChatGPT).

Ma nel 2024, anno che potrebbe entrare nei libri di storia come l’annus mirabilis del trasferimento delle nostre capacità cognitive alle macchine, una domanda si impone: cosa ci resta? La macchina a vapore ha eliminato lo sforzo fisico; computer e AI quello mentale. Quello che non può essere replicato è la coscienza — il sentirsi umani, l’esperienza soggettiva del presente. Viktor Frankl, in L’uomo in cerca di senso[12], scriveva che “tutto può essere tolto ad un uomo ad eccezione di una cosa: la sua libertà di scegliere come porsi di fronte ad ogni situazione.” L’intuizione diventa più concreta con un esperimento percettivo: avete notato che lo smartphone non cattura mai il tramonto come appare nella realtà? Perché il tramonto in real life è una costruzione del nostro cervello, che condensa in un’unica impressione le oscillazioni impercettibili degli occhi tra zone chiare e scure — un HDR naturale che nessun sensore riproduce. Coscienza generativa: l’unica facoltà che non sarà mai sostituita (🌇 ff.83.1 Generare un tramonto).

I transformer sono fortissimi, ma erano una nicchia accademica fino a quando OpenAI non ha inventato un’interfaccia accessibile al pubblico. Per colmare il divario tra modello e oggetto fisico, un florilegio di device integra le capacità dei transformer in modo semplice: tradurre istantaneamente qualsiasi lingua per 700 dollari, oppure pianificare vacanze e navigare il web senza muovere un dito — come mostrano in azione i Large Action Models di Rabbit R1. La traiettoria è chiara: l’AI esce dal browser e si materializza in oggetti che non richiedono abbonamenti né competenze tecniche. Quando l’interfaccia scompare, resta solo il risultato (🦾 ff.84.3 Qualcuno ha detto Intelligenza Artificiale?).

Il 2024 potrebbe finire nei libri di storia anche per una nuova interfaccia uomo-computer. Dopo anni dalla rivoluzione di iPhone, Apple prova a fare sul serio con la realtà aumentata tramite il Vision Pro — un nuovo touchscreen, o meglio un nuovo “niente da toccare”. In parallelo, i modelli di linguaggio come ChatGPT diventano sempre più multimodali: accettano input visivi e vocali, e scienziati di tutto il mondo giungono a scoperte scientifiche più veloci grazie all’assistenza dell’AI. Il futuro è sempre più fortissimo: l’uomo non viene sostituito, viene aumentato (🦾 ff.81.5 Aumentati dall’AI).

La convergenza tra voce e azione assume forme inattese. Killian ha sviluppato Open Interpreter, sostanzialmente un ChatGPT che lancia script per controllare il PC — editare un video, aggiungere sottotitoli, applicare il dark theme al sistema operativo, tutto a parole, senza aprire software né toccare il mouse. MikeBirdTech ha mostrato come usarlo sul cellulare: senza toccarlo, con il solo controllo vocale, verifica lo stato della batteria e scatta una fotografia. Un selfie-AI stick che non richiede né mani né clic. Quando il dispositivo obbedisce alla voce e non al dito, il concetto di “interfaccia utente” diventa un ricordo analogico (📸 ff.71.3 E ti scatta una fotografia!).

2.3.3 — Videogiochi e creatività

I videogiochi sono il laboratorio cognitivo più sottovalutato del pianeta. Non è un caso che il fondatore di DeepMind, Demis Hassabis — premio Nobel per la chimica 2024 grazie ad AlphaFold — sia un ex campione mondiale di scacchi junior e un game designer. I videogiochi insegnano a simulare, a perdere, a iterare (πŸ•ΉοΈ ff.132.2 I benefici dei videogiochi). Lezioni sugli agenti AI emergono persino da Claude che gioca a Pokemon[13] — i giochi come banco di prova per il comportamento autonomo. Genie 3 di DeepMind genera mondi interattivi 3D da un singolo prompt testuale — non più videogiocare in un mondo creato da altri, ma creare il proprio mondo giocandoci (πŸ“ ff.132.3 Misurare e modellare il mondo). Fortnite non è solo un gioco: è una piattaforma sociale, un concerto, un negozio. Il videogioco è il medium definitivo perché integra tutti gli altri.

Il legame tra videogiochi e intelligenza artificiale affonda le radici in una partita leggendaria. Nel 1996 Garry Kasparov, campione del mondo di scacchi, venne sconfitto da Deep Blue. Le sue parole, dopo la partita, suonano profetiche: “ho potuto annusare un nuovo tipo di intelligenza, un tipo di intelligenza molto strano, inefficiente e inflessibile”. Strano e inflessibile: nel 1996 il computer era una forza bruta che macinava milioni di posizioni al secondo, senza eleganza né intuizione. Poi, venticinque anni dopo, i network neurali artificiali hanno mostrato una flessibilità ben maggiore. AlphaGo ha battuto il campione del mondo di Go, Ke Jie, compiendo una mossa — la celebre “mossa 37” — che non seguiva meccanicamente la prassi di millenni di teoria del gioco: era una mossa creativa. La differenza tra Deep Blue e AlphaGo è la stessa differenza tra un calcolatore e un pensatore: il primo vince per esaustione, il secondo per intuizione statistica. E la storia non si è fermata: AlphaZero, allenato senza partite umane — giocando esclusivamente contro se stesso, da zero — ha battuto AlphaGo. L’AI che impara dagli umani è stata superata dall’AI che impara da sé. Demis Hassabis, fondatore di DeepMind e premio Nobel per la chimica, ha costruito su questa traiettoria la sua intera carriera: dagli scacchi alle proteine, dal gioco alla scienza (♟️ ff.18.4 Chess(i) artistici: il re degli scacchi).

ELO SCACCHI β€” UMANO vs AI (1985 β†’ 2024) 3600 2800 2000 Umano AI 1996 Deep Blue 2017 AlphaZero 1985 2024
📊 ff.18.4 — ELO scacchistico: il campione umano resta piatto a ~2800; l’AI parte sotto e supera il top umano nel 1997 con Deep Blue, poi vola a 3500+ con AlphaZero (2017) imparando senza partite umane.

Google, l'azienda più potente del mondo digitale, è vulnerabile per la prima volta in 25 anni. Il 50% del suo fatturato proviene dalla ricerca testuale — un format che ChatGPT, Perplexity e gli AI assistants stanno erodendo. Ma Google non è solo Search: è DeepMind (Nobel), TPU v7, Gemini 3, Waymo, YouTube. La domanda non è se Google sopravviverà, ma quale Google sopravviverà (🔍 ff.28.3 Google Maps riduce le emissioni). Andy Grove, sopravvissuto ai campi di sterminio, salvò Intel dalla competizione giapponese nel 1985 con un pivot strategico dai chip di memoria ai processori. “La paranoia fomentata dalla gioventù tra guerra e nazismo ha salvato Intel,” scrive in Only the Paranoid Survive. Time lo elesse Man of the Year nel 1997 (πŸ”― ff.126.1 Da campi di sterminio a Intel).

“La tecnologia è la risorsa definitiva. Con abbastanza tecnologia, possiamo sostenere 50 miliardi di persone su questo pianeta.”
— Marc Andreessen, The Techno-Optimist Manifesto

Il campo di battaglia più caldo della tech è il silicio stesso. La guerra dei chip tra USA e Cina ha trasformato TSMC (Taiwan) nell'azienda più strategica del pianeta: produce il 92% dei chip sotto i 7 nanometri[14]. Un blocco di Taiwan fermerebbe l'industria globale. Huawei ha lanciato il Mate 60 Pro con un chip a 7nm fatto in casa, sorprendendo l'intelligence americana (🥶 ff.82.3 Guerra fredda). CATL, il colosso cinese delle batterie, ha speso 2,6 miliardi di dollari in R&D[15], triplicando l'investimento del principale concorrente non cinese — consolidando una leadership che nel capitolo Natura ricorre come fattore chiave della transizione energetica (⛏️ ff.42.1 Minerali preziosi?). Il quantum computing aggiunge un'altra dimensione: Sycamore-70 di Google ha dimostrato la supremazia quantistica risolvendo in 200 secondi un calcolo che richiederebbe 10.000 anni a un supercomputer classico (🐱 ff.69.1 Dal gatto di Schrödinger ai qu-bit). Il caso più eloquente è Shenzhen: una città che quarant'anni fa non esisteva e oggi produce droni, auto volanti e infrastrutture di rete a una velocità che rende la pianificazione occidentale quasi ornamentale (🏮 ff.125.3 Cina: il prossimo impero mondiale?).

Tesla non è solo auto: con tre GWh di capacitàil venticinque per cento del totale mondiale — controlla una porzione significativa del potenziale di immagazzinamento di energia elettrica del pianeta. L’obiettivo dichiarato è raggiungere millecinquecento GWh entro il 2030, un balzo di cinquecento volte. Per arrivarci servirà molto litio, che poi andrà smaltito: l’anno scorso, 17,6 GWh di batterie elettriche sono giunte a fine vita. In quindici anni, quel volume sarà dieci volte tanto — l’equivalente di circa duecento piscine olimpiche, considerando soltanto i veicoli elettrici (🔋 ff.5.2 Duracell? No, Tesla).

Se le biciclette elettriche rappresentano la prossima frontiera della mobilità urbana, VanMoof ne è la Tesla su due ruote. Il modello V prometteva di raggiungere i cinquanta chilometri orari a un prezzo di tremilacinquecento euro: una proposta che univa design olandese e ambizione tecnologica, collocandosi nel punto esatto in cui il trasporto individuale incontra l’elettrificazione diffusa (😎 ff.5.4 La Tesla delle biciclette).

Tesla incarna tutte le contraddizioni dell'era tecnologica. L'azienda ha accelerato la transizione elettrica più di qualsiasi politica governativa, ma la sua valutazione è più una scommessa su Musk che un riflesso dei fondamentali. Tesla ha registrato il peggior calo trimestrale delle vendite in 10 anni[16], eppure il titolo è scambiato a 180 volte gli utili[17]. Nel 2024, BYD l'ha superata per vendite globali di veicoli elettrici. L'arte, infine, non è immune alla rivoluzione. DALL-E, apparso nel 2022, ha generato un'esplosione creativa: il numero di opere digitali pubblicate è cresciuto del 300%[18]. L'AI non ha sostituito gli artisti — li ha democratizzati (👨‍🏫 ff.30.1 DALL-E: una breve introduzione).

E mentre l’AI democratizza la creazione, il mercato degli oggetti originali contrattacca con la firma. Alabama Booksmith, piccola libreria di Birmingham, ha costruito un modello di business che Amazon non può replicare: vende esclusivamente libri autografati dall’autore — allo stesso prezzo di copertina delle copie standard. I clienti vanno in coda per ordinare a distanza: non pagano la firma, pagano il fatto che la firma non sia riproducibile. È il contraltare perfetto della generazione automatica: quando il prodotto standard diventa infinito e gratuito, il premio di scarsità si sposta sull’unicità del gesto umano. Il colosso dell’automazione, nato proprio per sostituire le librerie, si è dimenticato del lato umano della transazione. Lo stesso pattern si vede nei media: Substack ha superato il traffico di importanti redazioni storiche[19] — non perché scriva meglio, ma perché il lettore vuole sapere chi sta scrivendo, non solo cosa. La voce individuale torna al centro dopo trent’anni di piattaforme aggregatrici. Nell’economia dell’abbondanza generativa, l’autore firmato è il nuovo bene di lusso: non si compra il testo, si compra l’umanità inequivocabile dietro al testo (🖊️ ff.148.5 Ci metto una firma).

Dalle immagini ai video il passo è stato breve. Matt Wolfe ha mostrato come lo styling generativo si estenda ai video[20]: quel “continuous dreaming” dell’intelligenza artificiale a cui siamo ormai abituati è, ogni volta, un vero trip mentale. Unreal Engine 5 di Epic Games[21] — gli sviluppatori di Fortnite — crea paesaggi e avatar virtuali in tempo zero, riducendo sensibilmente tempi e costi di sviluppo. La convergenza tra AI generativa e motori di gioco sta creando una pipeline dove il confine tra cinema, videogioco e simulazione scompare (🍄 ff.63.2 Video allucinogeni).

E quando l’AI esce dallo schermo piatto per costruire profondità, il risultato è altrettanto sorprendente. Da una serie di fotografie e delle posizioni della telecamera, ADOP — Approximate Differentiable One-Pixel Point Rendering[22] — l’intelligenza artificiale ricrea un rendering fotorealistico 3D della scena. Non più modellazione manuale vertice per vertice: bastano scatti da angolazioni diverse e il modello ricostruisce il mondo tridimensionale. Non è fortissimo? (📷 ff.2.4 Rendering 3D da fotografie).

ChatGPT, con le sue capacità emergenti — non previste dai creatori — ci insegna qualcosa di profondo: l'intelligenza nasce dalla struttura, non dal materiale. I Transformer, l'architettura alla base di tutti i modelli attuali, sono un articolo di 8 pagine scritto da 8 ricercatori di Google nel 2017: “Attention Is All You Need” (🧠 ff.83.3 Linguaggio e pensiero). Otto persone, un'idea, e il mondo non è più lo stesso. Il futuro non appartiene a chi possiede la macchina, ma a chi sa parlarle. E a volte è il corpo stesso a insegnartelo: caduto in bici con la clavicola rotta, trenta giorni di stop forzato, ChatGPT ha trasformato il dolore in creatività — sketch cubisti, emoji post-trauma, un nuovo modo di ridere dell'infortunio (🦴 ff.124.1 Dalì sciogli clavicole). Non potendo usare la tastiera, la newsletter successiva è stata dettata interamente all'AI, che l'ha redatta, corretta e resa pubblicabile. Come per i pazienti Neuralink, la mente parla senza il corpo: l'interfaccia smette di essere un lusso e diventa una protesi cognitiva necessaria (✍️ ff.124.2 Longa manus).

TSMC produce il 92% dei chip sotto i 7 nanometri; un blocco di Taiwan fermerebbe l'industria globale. I Transformer, l'architettura alla base di tutti i modelli AI attuali, sono un articolo di 8 pagine scritto da 8 ricercatori di Google nel 2017. L'intelligenza nasce dalla struttura, non dal materiale: otto persone, un'idea, e il mondo non è più lo stesso.

Chi davvero rischia di scomparire, però, non è l'artista: è il gatekeeper. Google oggi si trova in una posizione simile a quella di IBM negli anni Novanta o di Nokia nel 2007: il 50% del suo business — Google Search, da 200 miliardi l'anno — è sotto attacco simultaneo. Apple valuta di sostituirlo come motore di ricerca predefinito su Safari, nonostante Google paghi 20 miliardi di dollari l'anno per quel privilegio. La risposta di Mountain View è stata il Google I/O 2025, dove il gigante ha mostrato tutte le carte in una volta: Veo 3, modello text-to-video con qualità che sfida Hollywood; traduzioni audio simultanee in Google Meet[23] che abbattono la barriera linguistica in tempo reale; smart-glasses Android XR potenziati da Gemini[24] che sovrappongono informazioni contestuali al campo visivo; e Google Beam, televisori che creano avatar 3D[25] per videochiamate che sembrano ologrammi. Non è la fine di Google — è la sua mutazione: da motore di ricerca a sistema operativo dell'attenzione. Ma la transizione ha un costo: il 50% dei ricavi API di Anthropic — concorrente diretto — proviene già da strumenti di coding come GitHub Copilot e Cursor, per un totale di 14 miliardi di dollari[26]. Il campo di battaglia non è più la barra di ricerca: è l'interfaccia tra intenzione umana e azione digitale (🐦 ff.126.2 Non è la fine di Google).

Google, d’altronde, non è solo Search. Sundar Pichai, CEO dell’azienda, elenca i vantaggi competitivi rispetto a OpenAI, Anthropic, Meta e Perplexity: prodotti diffusi nella popolazione (Gmail, YouTube, Cloud); chip personalizzati con le Tensor Processing Units (TPUs), ora alla settima generazione con Ironwood e oltre 40 exaflops; e soprattutto X, la Moonshot Factory di Alphabet, fucina di ricerche sulla guida autonoma (Waymo), computer quantistici e biologia (🔍 ff.28.1 Intelligenza artificiale per la fusione nucleare). Il riconoscimento più raro: Demis Hassabis ha vinto il Nobel per la Chimica 2024[27] grazie ad AlphaFold (🧬 ff.4.1 La struttura delle proteine). Insomma, Google non è solo search: è un conglomerato che controlla infrastruttura cloud, chip, video, biologia computazionale e guida autonoma. La domanda non è se sopravviverà, ma quale delle sue lune diventerà il prossimo sole (❌ ff.126.3 La luna di Google: X).

Copertina: Chip War — Chris Miller
Chip War — Chris Miller

Al CES 2023 tre oggetti hanno raccontato tre direzioni diverse del consumer tech. Lenovo ha presentato lo Yoga 9i, un laptop con due schermi a 2.300 dollari di lancio — la produttività come esperienza a doppia superficie. BMW ha mostrato Dee, carrozzeria che cambia colore come un camaleonte tramite E-Ink: l'auto diventa interfaccia. Samsung ha lanciato la carta biometrica S3B512C, che integra un sensore di impronte digitali e sostituisce la password con il dito, riportando il corpo dentro la sicurezza digitale trent'anni dopo averlo espulso con la chiave alfanumerica. I gadget tech più fortissimi (👍 ff.47.5 I gadget tech «più fortissimi»).

Non c'è Natale senza pubblicità a tema, e per un regista dirigere quella di John Lewis — l'equivalente inglese della Rinascente — vale come un Oscar. Nel 2023 l'albero perfetto dello spot è una pianta carnivora: l'archetipo rassicurante del Natale incontra un simbolo biologicamente aggressivo e il cortocircuito funziona esattamente per questo. L'advertising stagionale resta l'unico formato mainstream che può permettersi il rischio poetico, proprio perché gioca in sospensione commerciale condivisa. Pubblicità e piante carnivore (📺 ff.79.3 Pubblicità e piante carnivore).

2.3.4 — Il collo di bottiglia fisico

Il prossimo salto non è nel modello, ma nella fisica che lo sostiene. L'embargo sulle GPU avanzate ha costretto la Cina a spremere efficienza da hardware meno performante, trasformando il watt in metrica competitiva (🌊 ff.135.2 Onda anomala energetica). Mark Zuckerberg annuncia la costruzione di Hyperion, un data center AI da 5 GW[28] — cinque volte più grande degli attuali. Nuovi display per realtà mista avvicinano il metaverso all'uso quotidiano: non mondi virtuali separati, ma livelli informativi sovrapposti al mondo reale, sempre attivi e contestuali.

Lo stesso vale per l'energia di accumulo: senza batterie più economiche e dense, l'AI resta una promessa costosa. La traiettoria è chiara: catene industriali orientate a chimiche più abbondanti e meno dipendenti da materiali critici, con il baricentro produttivo che si sposta verso soluzioni scalabili per rete elettrica, mobilità e datacenter (⛏️ ff.42.1 Minerali preziosi?). Per contestualizzare il consumo: un cheeseburger McDonald's equivale all'energia di 80.000 richieste ChatGPT[29]. La vera corsa, quindi, non è solo al modello migliore: è al sistema integrato chip + elettricità + storage + interfaccia.

Ma il collo di bottiglia non è solo energetico: è anche fisico, nel senso più letterale. Le strade si rompono, i marciapiedi si sgretolano, i cantieri restano aperti per anni. Sidewalk AI, progetto del MIT Senseable Lab di Carlo Ratti, usa l'intelligenza artificiale per mappare lo stato di salute dei marciapiedi in tempo reale — crepe, avvallamenti, accessibilità — trasformando dati grezzi in priorità di intervento. Il secondo tassello sono i robot da cantiere: Figure AI collabora con BMW per velocizzare le linee di produzione, ma lo stesso principio si applica alle infrastrutture urbane, dove un robot può operare di notte, senza straordinari e senza fermare il traffico. In attesa della rivoluzione robotica completa, c'è chi ha già trovato una via poetica: a Lione, lo street artist Ememem pratica il flacking, riempiendo le buche stradali con mosaici colorati secondo il principio giapponese del kintsugi — l'arte di riparare con l'oro. La metafora funziona anche per la tecnologia: non nascondere le fratture, ma trasformarle in punti di forza (🤤 ff.110.4 Robot e AI: opportunità).

Il cantiere infinito non è solo una battuta da bar: è un dato strutturale. Lo Stato fatica a finanziare la manutenzione del costruito, e gli eventi climatici estremi — come l’alluvione di Valencia — non aiutano. Intorno a noi si moltiplicano cantieri sorvegliati da pensionati, talmente lenti da diventare spettacolo: il dipartimento dei trasporti della Pennsylvania ha messo in streaming il cantiere dell’interstate I-95, in stile Grande Fratello. Ma dietro l’ironia c’è un precipizio di produttività[30]. McKinsey certifica che la produttività nell’edilizia è bloccata ai livelli degli anni 2000[31] — ferma mentre ogni altro settore accelerava. Eppure l’America sapeva essere veloce: in 138 giorni dall’idea, Apollo 8 atterrò sulla Luna[32]. La distanza tra quella velocità e un cantiere autostradale del 2024 misura esattamente il costo della complessità burocratica accumulata in sessant’anni (🚧 ff.110.2 Un cantiere infinito).

C'è poi un punto che nel dibattito pubblico viene spesso rimosso: la tecnologia non è neutra nemmeno quando sembra solo “utile”. Ogni interfaccia decide cosa rendere visibile e cosa far sparire; ogni automazione sposta potere da una persona a un protocollo; ogni scorciatoia cognitiva può liberare tempo o ridurre autonomia, dipende da come è disegnata. La promessa giusta non è “fare tutto con un prompt”, ma aumentare lucidità nelle scelte ad alto impatto: cosa automatizzare, cosa mantenere umano, cosa misurare davvero. Chip, batterie e modelli sono solo metà della storia; l'altra metà è governance quotidiana dell'attenzione. Una buona tecnologia non ti toglie il giudizio: ti restituisce margine per esercitarlo meglio, con meno rumore e più responsabilità. Sul lato strumentale — l’AI come generalista tascabile — il riferimento è 🛠️ ff.123.1 L'AI con il coltellino svizzero; sul lato industriale — come una singola azienda incarna e accelera il pattern — vale 💃🏻 ff.129.3 Il valzer di Tesla.

Un cheeseburger McDonald's equivale all'energia di 80.000 richieste ChatGPT. Mark Zuckerberg annuncia Hyperion, un data center AI da 5 GW — cinque volte più grande degli attuali. Chip, batterie e modelli sono solo metà della storia; l'altra metà è governance quotidiana dell'attenzione. Una buona tecnologia non ti toglie il giudizio: ti restituisce margine per esercitarlo meglio.

Ma c’è chi sfida persino la narrativa dominante sulla crisi. Nato in Francia a metà Ottocento, il positivismo è il collante culturale della tecnica: additato come miope, è indubbiamente la base della società tecnologica in cui viviamo. La presunta stagnazione post-1971 — il mantra che “non si inventa più nulla” — è per Works in Progress una grande balla[33]: il PIL non cattura il progresso perché con la tecnologia raggiungiamo di più spendendo meno, in un deflazionario decremento di consumi. La gratuitΓ  digitale è strutturale: il valore dei servizi digitali può raggiungere 25.000€ all’anno per utente[34] — soldi che non spendiamo e non entrano nelle buste paga, ma di cui dovremmo tenere conto nel calcolo del progresso. Nonostante passiamo un quarto della nostra giornata davanti a uno schermo, siamo particolarmente tirchi online. L’aumento di potenza di calcolo degli ultimi trent’anni è stato come ottimizzare inchiostro e scrittura: ora, con AI e generazioni più native digitali, possiamo finalmente scrivere i libri. È ora, sostiene il Progressive Policy Institute, di “spaccare” il Grande Ristagno (🖶 ff.59.1 Altro che stagnazione!).

Si può studiare la tecnologia con una teoria evoluzionistica: come una specie evolve in base a pressioni esterne, così lo sviluppo tecnologico va di pari passo con accettazione e blocchi della società. La co-evoluzione tecnologica. QWERTY è tutt’altro che l’ottimo nella disposizione dei caratteri di una tastiera, ma ci siamo adattati e ora cambiarla è un casino. Un altro esempio di interazione società-tecnologia: il blocco nucleare post Fukushima e il revisionismo post invasione Ucraina[35]. Se volete approfondire il tema, suggerisco il libro Come saremo[36], di Telmo Pievani e Luca de Biase (🗃️ ff.59.2 Pressioni sociali e burocrazia).

Se la co-evoluzione blocca le innovazioni tramite resistenza sociale, la “deflazione mentale” le blocca ancor prima — nella testa dei ricercatori. Aristotle, il modello AI di HarmonicMath, ha risolto il problema di Erdős #124, rimasto aperto per 30 anni: l’AI raggiunge gli apici della matematica pura. Professori come Aryeh Kontorovich dell’Università di Ben-Gurion si chiedono se valga ancora la pena scrivere paper. La deflazione mentale è analoga a quella economica: se domani un’idea costerà meno, non ha senso investirci oggi. L’effetto è paralizzante: chi può competere con un sistema che risolve in secondi ciò che ha richiesto trent’anni di lavoro umano? (🧮 ff.140.3 Deflazione mentale e crisi accademica).

Eppure la deflazione mentale potrebbe essere il prezzo di un’accelerazione senza precedenti. Un laboratorio alimentato da AI si auto-gestisce e scopre nuovi materiali 10 volte più velocemente dei ricercatori umani[37]: non un assistente che suggerisce esperimenti, ma un sistema che li progetta, li esegue e li analizza senza intervento. Come l’AI generativa ha reso la creazione di immagini un gioco da ragazzi, così i laboratori autonomi rendono la scoperta di materiali un processo iterativo a ciclo chiuso. La domanda non è più se l’AI può fare scienza: è se il ricercatore umano servirà ancora come esecutore, o solo come giudice — lo stesso dilemma che la medicina pone già, dove agenti GPT che impersonano medici e pazienti producono diagnosi migliori dei modelli allenati su tutta la letteratura scientifica (🩹 ff.98.2 Simulare Doctor House).

Il primo vero terremoto è arrivato dal sottosuolo della biologia strutturale. Per mezzo secolo, determinare la forma tridimensionale di una proteina richiedeva mesi di cristallografia a raggi X e milioni di dollari. Poi DeepMind ha rilasciato AlphaFold e in pochi mesi ha predetto la struttura dell'intero proteoma umano — circa ventimila proteine — estendendo poi il catalogo a oltre trecentocinquantamila proteine di altri organismi. Da cinquant'anni di tentativi a un database universale in un anno: non un miglioramento incrementale, ma un cambio di paradigma nel modo in cui la scienza interroga la materia vivente. La farmacologia, la bioingegneria e persino l'agricoltura ne sono state ridisegnate (🧬 ff.4.1 La struttura delle proteine).

Ma AlphaFold è solo una metà della storia. L’altra metà si legge in un grafico che assomiglia a una cascata: il prezzo per sequenziare il DNA è crollato negli ultimi vent’anni di un fattore centomila. Un altro pezzo fondamentale di come la biologia, nel prossimo decennio, sconvolgerà le nostre vite esattamente come fatto dai PC negli ultimi venti. Oggi sequenziare un intero genoma umano costa meno dell’ultimo iPhone — circa 1.000 dollari. Quella curva di costo è il segnale più chiaro che la biologia sta seguendo la stessa traiettoria dell’informatica: ciò che ieri era ricerca di frontiera, domani sarà routine. Avete già prenotato il vostro test? (📉 ff.4.4 DNA meglio dei microchip!).

E se AlphaFold ha ridisegnato la biologia, un altro modello DeepMind sta ridisegnando la meteorologia. GraphCast — presentato da Demis Hassabis — batte i modelli fisici tradizionali nella previsione del tempo[38] sulla maggioranza delle metriche a medio raggio, a una frazione del costo computazionale. I centri meteo nazionali girano simulazioni numeriche su supercomputer dedicati; un modello statistico addestrato su quarant’anni di rianalisi ERA5 produce la stessa qualità di previsione a dieci giorni in meno di un minuto su una singola TPU. Come argomentato in ff.119.1 (intelligenze aliene), l’AI non replica meccanismi: ne inventa di propri. La meteorologia, materia che per secoli ha richiesto equazioni di Navier-Stokes risolte numericamente, si sta riducendo a un problema di pattern statistici ad alta dimensionalità. Il modus operandi della scienza cambia: non meno fisica, ma più fisica statistica. Se ciò vale per l’atmosfera, vale probabilmente per ogni sistema dinamico — compreso, presumibilmente, il clima stesso.

La stessa logica torna nella chimica degli enzimi, ma con un avvertimento onesto. Uno studio pubblicato su Nature (2025) sugli enzimi progettati computazionalmente mostra tassi catalitici iniziali bassi[39]: i modelli generativi producono enzimi che funzionano, ma richiedono un’intensa ottimizzazione sperimentale per raggiungere l’efficienza degli enzimi naturali selezionati dall’evoluzione. Il risultato è più utile di un successo totale: dice dove siamo davvero. AlphaFold legge strutture; la progettazione de novo le inventa; ma inventare una proteina plausibile non significa ancora inventarne una efficiente. La linea di ricerca, già visibile nel paragrafo sul laboratorio auto-gestito, si specializza ora su un asse preciso: dall’accuratezza strutturale all’efficacia funzionale. La prossima frontiera non è solo il fold, ma la chimica cinetica che lo abita — e qui, ancora per un po’, gli umani servono al banco di laboratorio.

Se AlphaFold ha dato occhi molecolari alla biologia, la visione artificiale ha dato occhi letterali alle macchine. Da quando GPT ha integrato input visivi, l'intelligenza artificiale non si limita più a leggere testo: interpreta immagini, decifra grafie illeggibili, localizza oggetti nascosti in una scena. Cognizione e vista — i due pilastri del nostro successo evoluzionistico — convergono ora in un sistema artificiale che, in molti compiti percettivi, supera la mediana umana. La domanda non è più se le macchine vedranno: è cosa faranno con ciò che vedono, e chi deciderà i confini di quello sguardo (🤖 ff.71.2 ChatGPT (ti) vede).

Ma la tecnologia non si misura solo in parametri e benchmark: si misura anche in energia consumata, in contesto compreso e in chilometri percorsi senza conducente. Partiamo dall'elefante nella stanza cripto: si stima che il consumo energetico per mantenere operativa la blockchain di Bitcoin sia pari a quello dell'intera Finlandia (🇫🇮 ff.1.5 Il consumo energetico di Bitcoin). Il dato è impressionante, eppure fuorviante se lo si isola dal contesto: una quota crescente del mining utilizza energia rinnovabile — idroelettrica in Islanda, geotermica in El Salvador, solare nel Texas occidentale — e il trasferimento digitale di valore evita costi ecologici tangibili legati al trasporto fisico di denaro, oro e documenti. Non si tratta di assolvere Bitcoin, ma di rifiutare la contabilità parziale: ogni sistema energetico va confrontato con l'alternativa che sostituisce, non con un'utopia a consumo zero.

La smart TV sarà pure il modo più tradizionale e comodo di fruire contenuti, sempre più provenienti da piattaforme online. Eppure le dimensioni non contano come ci si aspetterebbe: gli smartphone generano introiti ben superiori alla vendita di televisori e PC messi insieme. Gli accessori per smartphone superano di gran lunga le vendite di tablet, wearable, console e altri dispositivi tech. Il multiverso digitale, per ora, è relegato a uno schermo piccolissimo — quello che teniamo in tasca e guardiamo un quarto della giornata (📱 ff.8.3 Schermi piccoli).

Il peso degli schermi piccoli si riflette anche nella distribuzione dei ricavi dell’AI. Circa metà del fatturato API di Anthropic proviene da soli due strumenti: GitHub Copilot e Cursor, per un totale di 1,4 miliardi di dollari tra i due. La concentrazione è rivelatrice: l’intelligenza artificiale genera valore non dove parla, ma dove scrive codice — e chi controlla l’interfaccia di programmazione controlla il flusso economico dell’intera catena.

Lo stesso principio — il contesto è tutto — si applica al salto generazionale dell'intelligenza artificiale. Quando GPT-4 ha sostituito la versione 3.5 nel motore di ChatGPT, centocinquanta pagine di analisi di Microsoft Research ne hanno documentato la superiorità qualitativa: ragionamento multimodale, capacità di seguire istruzioni complesse, comprensione di sfumature emotive che la versione precedente ignorava del tutto (🥃 ff.54.1 Il contesto: l'amaro dell'impotenza). Il miglioramento non è stato lineare, ma esponenziale — il tipo di curva che, osservata dal basso, sembra piatta e poi verticale. GPT-3 sapeva riassumere; GPT-4 sa riscrivere un messaggio usando solo parole che iniziano con la lettera A, mantenendo il senso emotivo intatto. È la differenza tra un traduttore meccanico e un interprete che coglie il sottotesto: non un aggiornamento, ma un cambio di categoria cognitiva.

I dati sulla guida autonoma cominciano a parlare con una chiarezza difficile da ignorare. Con cinquantasette milioni di miglia di dati raccolti, Waymo registra l’ottantacinque per cento in meno di lesioni gravi e il settantanove per cento in meno di lesioni complessive rispetto ai guidatori umani. Non è più una promessa da laboratorio: è una statistica da flotta operativa, e il divario con la guida umana si allarga a ogni trimestre.

E quando l'intelligenza artificiale esce dallo schermo e sale su quattro ruote, il futuro si misura in yuan al chilometro. A Wuhan — sì, la stessa Wuhan — 3 taxi su 100 sono già robotaxi Baidu: dieci chilometri per quattro yuan, circa 0,55 dollari, un quinto del costo di un taxi convenzionale (🚕 ff.102.2 Wuhan: dal Covid a Baidu). La flotta di cinquecento veicoli raddoppierà entro fine anno, e le proiezioni McKinsey indicano che per il 2035 i taxi autonomi cresceranno di dieci volte, raggiungendo ricavi paragonabili a quelli di Apple. Il filo che lega questi tre fenomeni è lo stesso: l'energia di Bitcoin, i parametri di GPT-4 e i chilometri dei robotaxi sono tutti indicatori di densità tecnologica — quanto lavoro utile un sistema riesce a comprimere in un'unità sempre più piccola di tempo, spazio o costo. La vera misura del progresso non è la potenza grezza, ma il rapporto tra complessità gestita e risorse impiegate. E quel rapporto, in tutti e tre i casi, sta migliorando più in fretta di quanto il dibattito pubblico riesca a registrare.

Fonti esterne

39 fonti in questa sezione.

  1. Audrey Crews sta imparando a scrivere il suo nome per la prima volta in 20 annix.com
  2. Il Test di Turing Γ¨ stato superatoit.wikipedia.org
  3. Il CEO di Zoom Eric Yuan ha giΓ  utilizzato un avatar AI per presentare gli utili agli investitoritechcrunch.com
  4. Nuovo modello di generazione immagini di OpenAIopenai.com
  5. Un giovane fondatore di startup a San Francisco affida tutta la codifica all'AIsemafor.com
  6. A16Z ha investito 20 milioni di dollari in Wabi.aia16z.com
  7. Come non fare nienteamzn.to
  8. Tim Ferriss — Why I Still Write (and You Should Too)tim.blog
  9. Generative AI and the future of work in America — McKinsey Global Institutemckinsey.com
  10. Stripe e Paradigm lanciano Tempo, una blockchain L1 ottimizzata per pagamenti in stablecoin con fee prevedibili e bassetempo.xyz
  11. Le tecnologie dell'Electric Stack β€” magneti al neodimio, batterie LFP β€” sono state inventate tra USA, Giappone e UK traelectricslide.notboring.com
  12. Viktor Frankl β€” L'uomo in cerca di sensoamzn.to
  13. Lezioni sugli agenti AI emergono persino da Claude che gioca a Pokemonyoutu.be
  14. Produce il 92% dei chip sotto i 7 nanometricnbc.com
  15. CATL, il colosso cinese delle batterie, ha speso 2,6 miliardi di dollari in R&Deconomist.com
  16. Tesla ha registrato il peggior calo trimestrale delle vendite in 10 anniprofgmarkets.com
  17. Il titolo Γ¨ scambiato a 180 volte gli utiliwsj.com
  18. Il numero di opere digitali pubblicate Γ¨ cresciuto del 300%washingtonpost.com
  19. Substack ha superato il traffico di importanti redazioni storichelinkedin.com
  20. Matt Wolfe: lo styling AI si estende ai videotwitter.com
  21. Unreal Engine 5 di Epic Games: paesaggi e avatar virtuali in tempo realeyoutube.com
  22. ADOP: Approximate Differentiable One-Pixel Point Renderingarxiv.org
  23. Traduzioni audio simultanee in Google Meetyoutube.com
  24. Smart-glasses Android XR potenziati da Geminiblog.google
  25. Google Beam, televisori che creano avatar 3Dblog.google
  26. Strumenti di coding come GitHub Copilot e Cursor, per un totale di 14 miliardi di dollarisubstack.com
  27. Demis Hassabis — Nobel per la Chimica 2024 con AlphaFold (Wikipedia)en.wikipedia.org
  28. Mark Zuckerberg annuncia la costruzione di Hyperion, un data center AI da 5 GWtechcrunch.com
  29. Un cheeseburger McDonald's equivale all'energia di 80.000 richieste ChatGPTx.com
  30. Precipizio di produttivitΓ luxcapital.com
  31. McKinsey certifica che la produttivitΓ  nell'edilizia Γ¨ bloccata ai livelli degli anni 2000mckinsey.com
  32. In 138 giorni dall'idea, Apollo 8 atterrΓ² sulla Lunapatrickcollison.com
  33. Worksinprogress: There Was No Great Stagnationworksinprogress.co
  34. Valore dei servizi digitali: 25.000€/anno per utente (ResearchGate)researchgate.net
  35. Blocco nucleare post Fukushima e il revisionismo post invasione Ucrainafortissimo.substack.com
  36. Come saremoamzn.to
  37. Un laboratorio AI auto-gestito scopre materiali 10x più velocesciencedaily.com
  38. DeepMind GraphCast — previsione del tempo via AI che batte i modelli fisici tradizionali a 10 giornix.com
  39. Enzimi progettati computazionalmente: tassi catalitici iniziali bassi, ottimizzazione sperimentale richiestanature.com