2.2.1 — Il metaverso trasformato
Mark Zuckerberg ha scommesso il futuro di Facebook su una parola: metaverso. Ha cambiato il nome dell'azienda in Meta, investito 13,7 miliardi di dollari nel 2022 e perso il 70% del valore azionario in un anno. I critici hanno dichiarato il metaverso morto. Avevano torto — ma anche Zuckerberg, in parte. Il metaverso non è morto: si è trasformato. Non è un visore da indossare in soggiorno, ma un tessuto digitale che avvolge progressivamente ogni interazione economica e sociale (🏙 ff.3.1 Cosa sei realmente, Meta? (parte 1)). La tecnologia di fondo avanza: display VR da 3 millimetri che creano ologrammi tramite AI[1] aprono un'esperienza di realtà mista senza visori ingombranti. Fortnite, Roblox e le piattaforme social mostrano che la dimensione metaverso non è solo hardware: è già comportamento quotidiano, attenzione condivisa e identità digitale. Viviamo già nel metaverso: non come avatar con visore, ma come profili con notifiche (2️⃣ ff.10.2 Siamo già nel metaverso?).
Ma se il metaverso è un tessuto di interazioni più che un luogo, presto a tesserlo non saremo più noi. Un paper arxiv recente[2] rovescia l’intuizione comune sui modelli AI: piccoli aumenti di accuratezza producono enormi aumenti nel numero di task completabili. Il motivo è matematico — per un task a N passi, la probabilità di successo è pN — ma la conseguenza è politica. Passare da 90% a 95% di accuratezza per singolo passo significa saltare dal 35% al 60% di successo su un task a 10 passi: quasi il doppio, per un margine che sul benchmark singolo sembra rumore statistico. I modelli thinking si auto-correggono senza bloccarsi sugli errori: l’errore non è più un muro, è un rallentatore. Ecco perché l’asimmetria fra GPT-4 e GPT-5 Pro non si percepisce nei benchmark umani ma si sente brutalmente nei workflow agentici. La curva dell’accuratezza non è lineare: è una cascata di probabilità, e nel metaverso della prossima decade la cascata scorre a vantaggio di chi costruisce gli agenti migliori, non di chi fabbrica i visori più sottili (💻 ff.48.3 AI tutto fare).
E se gli agenti abitano il metaverso, la geografia fisica viene risucchiata dentro insieme a loro. Meta Reality Labs ha lanciato Hyperscapes[3][4]: 5 minuti di camminata con il visore Quest e il tuo salotto diventa un modello 3D navigabile in VR, tutto grazie al Gaussian Splatting. Cinque minuti — non un laser scanner industriale, non un team di fotogrammetria, una camminata consumer. La scansione spaziale diventa banale, quindi inevitabilmente ubiqua. Il concetto stesso di “luogo” si biforca: lo spazio fisico resta, ma il suo gemello digitale si moltiplica in mille istanze navigabili, editabili, vendibili. Il metaverso come lo immaginava Zuckerberg era un ambiente nuovo da costruire; la versione più interessante, invece, è che stiamo digitalizzando quello esistente. La realtà fisica è solo la prima bozza — e ora ogni bozza può averne infinite revisioni (📸 ff.85.3 Nuova vita al nostro passato).
E mentre i salotti entrano in VR, il web già ci è dentro — ma non più per gli umani. Secondo Cloudflare[5], nel 2025 il traffico crawler è cresciuto del 18% in un anno, con GPTBot a +305% e Googlebot a +96%. I bot AI scannerizzano il web a velocità triple rispetto a Google: cambia il committente, cambia il ritmo, cambia il contratto implicito. Il 14% dei top domini usa ormai robots.txt per bloccare i crawler AI, e un nuovo muro si alza tra contenuto aperto e contenuto protetto. L’asimmetria è brutale — chi scrive paga per produrre, chi scrappa estrae gratis e rivende come training data. Il web come bene comune funzionava perché il crawler era uno e sapevamo perché oggi i crawler sono dozzine e ognuno persegue un training run da miliardi. Il prossimo contenuto interessante sarà dietro paywall o login: l’open web come lo conoscevamo si sta comprimendo, schiacciato fra chi produce e chi fagocita (🌐 ff.95.1 La sovranità dei network).
Ma cosa ha spinto davvero Zuckerberg a scommettere su Meta? In una conversazione con Gary Vaynerchuk, il fondatore di Facebook racconta il percorso: Meta non è solo social, è il tentativo di costruire tecnologie per creare contatti e relazioni migliori — un lavoro iniziato sette anni prima con l’acquisizione di Oculus. La comunicazione digitale è passata dagli SMS alle immagini (dopo l’inclusione delle fotocamere nei cellulari), poi ai video. Ma non è il punto finale: gli ologrammi, dice Zuckerberg, potrebbero essere il prossimo step — scherma contro la campionessa del mondo, proiettata alla Obi-Wan Kenobi. C’è però una distinzione cruciale: la realtà aumentata è diversa da quella virtuale. Quella virtuale funziona già con Oculus Quest; quella aumentata richiede ancora tanta ingegneria, soprattutto sulle dimensioni dei dispositivi. Meta investe 10 miliardi di dollari all’anno per questi dispositivi. E il web3? Zuckerberg vede negli NFT un elemento importante del metaverso: ogni utente sarà una realtà unica, con i suoi oggetti digitali e collegamenti cross-platform, non più scompartimentati in app isolate (👽 ff.3.2 Cosa sei realmente, Meta? (parte 2)).
Prima ancora che il metaverso assumesse contorni definiti, una piattaforma nata per i videogiocatori ne anticipava la grammatica sociale. Discord nacque come server vocale per il gaming — zero latenza, zero voci robotiche — e si è mangiato la finanza, l’apprendimento e le criptovalute nel giro di tre anni. La possibilità di condividere musica, video e persino guardare un film insieme — unita a canali accessibili solo su invito — ha trasformato Discord in un laboratorio di comunità digitali selettive: i gruppi NFT più esclusivi costruiscono la propria identità attorno a salotti digitali con prerequisiti verificati, esattamente come chi vende al dettaglio su Roblox scopre che il negozio virtuale può generare più traffico di quello fisico[6]. La monetizzazione per utente resta tra le più basse del panorama social, ma la crescita è stata impressionante — e il modello anticipa un metaverso che non si indossa, si abita (👾 ff.3.5 Discord).
Cloud, Internet of Things, 5G, QR code, realtà aumentata integrata in quella “vera”: schermi, Oculus e il Vision Pro di Apple sono i nostri portali verso un mondo parallelo. La diagnosi di Byung-Chul Han in Le non cose[7] è netta: abbiamo smesso di vivere il reale. L’urbanizzazione ci ha tolto verde e animali; la digitalizzazione ha sostituito cemento e asfalto con mappe mentali sempre più immateriali. Baudrillard lo scriveva già nel 1981 in Simulacri e simulazioni: la società ha sostituito a tal punto la realtà delle cose con simboli e segni che l’esperienza umana stessa è divenuta una simulazione del reale. Un albero diventa sorgente di frutta, poi raccolta di legna, infine soggetto per una foto su Instagram — ogni passaggio lo allontana dalla cosa in sé. Materia e madre sono legate etimologicamente[8]: non è un caso che Boccioni, pioniere del futurismo e della smaterializzazione delle figure, scelga sua madre sul terrazzo nell’opera intitolata — manco a dirlo — Materia[9]. La materia è stata sostituita dal Matrix: la smaterializzazione è il prezzo silenzioso della connessione perpetua — lo stesso processo che spinge la società a chiudersi nel metaverso (💻 ff.64.4 Matrix e materia).
Ma fra l’altro, non siamo già, un po’, dentro il metaverso? I dati recenti indicano che trascorriamo circa un quarto della giornata allo smartphone — un’ora in più rispetto al 2019. Se a questo si aggiunge il tempo davanti a ogni altro schermo, la risposta appare piuttosto evidente. Lo statunitense medio ha passato 4,2 ore al giorno sul cellulare nel 2021, con un incremento del trenta per cento in due anni. Il settanta per cento di quel tempo è stato assorbito da app social e video. Il metaverso non è un luogo da raggiungere: è una condizione in cui siamo già immersi, senza rendercene conto (2️⃣ ff.10.2 Siamo già nel metaverso?).
Eppure il metaverso non è un monolite: è un continuum. Da un lato c’è la realtà virtuale totalizzante — il visore che ti chiude dentro, il mondo sostitutivo, l’isolamento volontario. Un giornalista del Wall Street Journal ha trascorso un’intera giornata lavorativa nel metaverso VR: riunioni, pause caffè, pranzo, tutto dentro il visore, e ne è uscito con la nausea e una domanda scomoda sulla direzione del lavoro da remoto. Dall’altro lato c’è la realtà aumentata — non un mondo alternativo, ma una pellicola digitale sovrapposta al reale. Vetrine che proiettano effetti su chi passa. Monumenti ricostruiti che appaiono dove un tempo sorgevano. I ciliegi di Tokyo che fioriscono a gennaio, a Berlino, attraverso gli occhiali giusti. Con visori VR che sfiorano i diecimila dollari, il metaverso totale resta un lusso da early adopter; la realtà aumentata, invece, si insinua già nei telefoni che abbiamo in tasca. La vera partita non è immersione contro realtà: è quanto del digitale accetti di lasciare entrare nel fisico (1️⃣ ff.10.1 Vivremo in un’altra realtà?). McKinsey calcola che metà del PIL mondiale 2010-2020 è stato generato in 3.600 regioni — l’1% del pianeta[10]. Le città potrebbero contenere il cambiamento climatico: meno spostamenti, case più piccole, servizi concentrati. Ma la centralizzazione porta monopoli: aziende che de-tronizzano presidenti, controllano l’accesso a notizie e servizi essenziali. ASML è l’unico produttore al mondo delle macchine litografiche necessarie per i chip avanzati[11]: un single point of failure per la legge di Moore. ChatGPT per sessualità, Replika per supporto psicologico: la centralizzazione digitale produce servizi migliori a costi minori, ma il prezzo è il controllo (🏙️ ff.52.2 Centralizzare conviene).
Ma il metaverso non è solo un luogo da visitare: è un luogo da costruire, e l’AI generativa ne sta abbattendo la soglia di ingresso. Ammaar, con un’IA di testo-oggetto 3D, ha ricreato la DeLorean di Ritorno al Futuro e l’ha piazzata in salotto. Come mappe, macchine fotografiche e sveglie sono state spazzate via da iPhone, arredamento, finestre e piante potrebbero seguire lo stesso destino — smaterializzandosi in oggetti virtuali. L’intreccio tra IA generativa e VR spiega la recente assunzione da parte di MidJourney dell’ingegnere dietro al Vision Pro. Creare oggetti 3D è tanto facile che la pasta al forno della domenica può diventare un modello tridimensionale da condividere. La convergenza tra AI generativa e realtà virtuale è il punto in cui il metaverso smette di essere un visore e diventa un verbo: generare realtà, non solo entrarci (✳️ ff.85.2 Convergenza generativa).
E c’è chi si chiede se i World Models servano davvero, o se bastino i LLM. Non sono forse già gli LLM in grado di avere una visione del mondo 3D, magari sognandola? Una prova citata: GPT-5.4 ricrea in due prompt l’appartamento di Monica di Friends — la pianta, il divano arancione, la porta viola. Non è solo un esercizio di memoria: il modello ha costruito un ambiente navigabile partendo da un pattern di frammenti visivi mai forniti come mappa. Se un LLM può tenere dentro un appartamento intero solo da riferimenti narrativi sparsi, la domanda di architettura (🌎 ff.148.3 Un mondo là fuori?) si complica: forse il mondo dentro di noi è già dentro il modello, e basta saperlo estrarre. La convergenza generativa (✳️ ff.85.2 Convergenza generativa) non è più solo creativa: è spaziale (💭 ff.148.4 Tutto il mondo dentro).
Prima ancora che il metaverso cambiasse pelle, Facebook aveva messo la propria maschera. Nell’ottobre 2021 l’azienda si era rinominata in Meta, annunciando di voler guidare lo sviluppo di un mondo parallelo fatto di realtà aumentata integrata con quella reale, web3 per la proprietà digitale, unificazione dei profili. Quattro pilastri dichiarati, uno non detto: la finitudine — la necessità di contare qualcosa in un mondo digitale altrimenti infinito e quindi privo di valore. Per anni, sotto la maschera di Meta ci sono stati soprattutto gli improbabili messaggi di buongiorno della zia preferita. Oggi la pelle è cambiata: Quest 3 a 550€, ologrammi via Stanford, Hyperscapes che mappano un salotto in cinque minuti. La scommessa del rebrand non era sul prodotto: era sulla categoria, e la categoria ha sopravvissuto al fallimento dei prodotti (🏙️ ff.3.1 Cosa sei realmente, Meta? (parte 1)).
E il paradosso è che chi si è ribattezzato metaverso (Meta) non è il protagonista più vicino al metaverso come concetto sociale. C’è chi sostiene che Discord sia più metaverso di Meta: una piattaforma di canali vocali, server tematici, economie interne di ruoli e permessi. Quando Packy McCormick la racconta come “Imagine a Place”, la definisce esattamente come uno strato di mondo: non ci vai con un visore, ci entri con un invito. Il test operativo è brutale: se milioni di giovani già passano più tempo dentro un server Discord che in qualsiasi app di Meta, chi è davvero il metaverso? Il brand o il comportamento? La storia della tecnologia ripete spesso lo stesso schema: chi si dichiara pioniere raramente lo è, e chi lo è raramente lo dichiara. L’unico indicatore affidabile resta il tempo speso (👺 ff.3.4 Tutta facciata?).
La convergenza tra AI e realtà virtuale non si ferma ai contenuti: ridisegna anche l’hardware. Stanford ha dimostrato un display VR da 3 millimetri che genera ologrammi tramite AI[1] — senza lenti ingombranti, senza nausea, senza il peso che ha affossato i primi visori. In parallelo, Meta Reality Labs ha lanciato Hyperscapes: 5 minuti di camminata con un Quest e il salotto diventa un modello 3D navigabile[4][3], grazie al Gaussian Splatting. Se la scansione spaziale diventa banale, la realtà fisica è solo la prima bozza. E il senso più trascurato dalla VR — l’olfatto — potrebbe essere il prossimo a cadere: ultrasuoni focalizzati sul bulbo olfattivo hanno indotto odori reali nel cervello — bruciato di fuoco, aria fresca — un esperimento mai riuscito prima, nemmeno su animali[12]. Quando puoi scrivere odori direttamente nella corteccia, la realtà virtuale avrà anche il profumo. Come scrivevamo in (📸 ff.85.3 Nuova vita al nostro passato), AI e VR convergono nel ricreare e “aumentare” persino il passato — e ora lo fanno con tutti e cinque i sensi. Il passo successivo è ovvio: non una copia virtuale del mondo, ma una copia virtuale di sé (🤑 ff.63.3 Creare una copia virtuale di sé).
E Zuckerberg non si è fermato alle demo: ci è entrato di persona. Nella terza intervista con Lex Fridman, la chiacchierata è avvenuta interamente nel metaverso, con ricostruzioni fotorealistiche in grado di replicare espressioni facciali e direzionalità dello sguardo in tempo reale. Il tutto in concomitanza con il lancio del Quest 3, che costa 550€ — un crollo rispetto ai diecimila dollari dei visori di pochi anni prima. In 13 mesi, passi da gigante: Meta ha investito 13,7 miliardi nel 2022 nella divisione Reality Labs. I critici ridono, ma il prezzo dei visori scende e la fedeltà visiva sale. Siamo nella direzione giusta? (🥽 ff.71.1 Il primo podcast nel metaverso).
Mark Zuckerberg ha investito 13,7 miliardi di dollari nel metaverso nel 2022 e perso il 70% del valore azionario in un anno. Con visori VR che sfiorano i diecimila dollari, il metaverso totale resta un lusso da early adopter; la realtà aumentata, invece, si insinua già nei telefoni che abbiamo in tasca. La vera partita non è immersione contro realtà: è quanto del digitale accetti di lasciare entrare nel fisico.
I brand del lusso sono stati tra i primi a mettere la maschera digitale. Per i suoi 200 anni di storia, Louis Vuitton ha lanciato un gioco per cellulare che mescola Zelda griffata, fiori e LV: raccogliere 30 NFT collezionabili ma non scambiabili (dunque di dubbia utilità) e 200 box digitali interpretati da altrettanti artisti. Non era la prima volta — la maison aveva già collaborato con League of Legends. Nike e Adidas si sono mossi a ruota: Nike con l’acquisizione di RTFKT, Adidas con i suoi primi drop NFT. Il pattern è ricorrente: il lusso non vende oggetti, vende scarsità, e la scarsità digitale programmabile è l’esperimento più radicale che il web3 abbia offerto al marketing dal Novecento. Il problema, come mostrato da chi ha abitato Ethereum (🔑 ff.95.3 La proprietà privata digitale), è l’interoperabilità: l’NFT di LV serve solo finché c’è un posto per mostrarlo (🛍️ ff.15.2 Non solo borse e scarpe).
E i personaggi del metaverso non sono solo avatar degli utenti: sono profili digitali nativi. Jesse Zhang ha creato Angie, una virtual-influencer con pelle imperfetta, che spesso piange, che rappresenta le incertezze tipiche della sua età. La scelta è quasi filosofica: un influencer digitale ha controllo infinito sul personaggio e potrebbe dunque generare perfezione illimitata; Angie fa l’opposto, inietta deliberatamente l’imperfezione per sembrare più umana. Il paradosso è che, in un ecosistema social dove gli umani reali si filtrano per somigliare a modelli digitali (🤖 ff.48.3 AI tutto fare), i personaggi digitali si sporcano per somigliare agli umani. La corsa all’autenticità si gioca in direzione opposta su due piani: noi verso la perfezione, loro verso la ruggine. L’economia dell’attenzione ha appena scoperto che l’imperfezione è un asset scalabile (👧 ff.26.1 Influencers (virtuali) genuini).
La domanda, portata alle estreme conseguenze, diventa provocatoria: compreremo case digitali dove abitare? Non è fantascienza — è già mercato. Gli NFT, prima di diventare sinonimo di speculazione e scimmie annoiate, hanno posto un problema reale di status digitale. Un’opera d’arte contemporanea appesa in salotto è visibile solo agli ospiti delle cene; un oggetto digitale, potenzialmente, è condivisibile con un milione di persone. Il calcolo è brutale: il pubblico di un appartamento a Brera è di sei invitati al sabato sera; il pubblico di un wallet Ethereum è l’intera rete. Ma perché il possesso digitale funzioni davvero, serve ciò che oggi manca: interoperabilità. Un oggetto virtuale deve poter essere sfoggiato ovunque — su Fortnite come su Teams, su Roblox come su Instagram — esattamente come un’immagine o un testo sono postabili su qualsiasi piattaforma. Finché ogni metaverso resta un giardino recintato con il proprio linguaggio proprietario, la proprietà digitale è una promessa a metà: possiedi qualcosa che puoi mostrare solo in un posto. Il giorno in cui emergerà un protocollo universale per oggetti virtuali — una specie di JPEG della proprietà — il concetto stesso di “casa” si sdoppierà in fisico e digitale (3️⃣ ff.10.3 Compreremo solo case digitali?).
Il 2021 era stato l’anno dell’euforia: NFT venduti a milioni, crypto alle stelle, ogni pixel sembrava oro. Poi è arrivato il 2022 come una doccia fredda — inflazione, la FED che alza i tassi, il crypto winter che congela portafogli e illusioni. Eppure, sotto la superficie del crollo, l’arte digitale ha continuato a respirare. ItsNiceThat ha selezionato i migliori progetti creativi dell’anno[13], FlowingData ha premiato le visualizzazioni di dati più eleganti[14], e Neal.fun ha mescolato sociologia e ironia con l’Absurd Trolley Problem[15] — dove il dilemma classico diventa: tu, oppure cinque robot senzienti? La bolla scoppia, l’arte resta. Quando i soldi se ne vanno, rimane chi crea per necessità espressiva, non per speculazione (🎨 ff.45.2 Arte e grafici dal 2022).
Ma prima di capire dove va l’immagine generata, ripartiamo dal nome. DALL-E è un portmanteau tra Salvador Dalí e WALL-E di Pixar: arte surrealista e robotica in un’unica unità di misura. Il modello è stato sviluppato da OpenAI, gli stessi che avevano battuto il campione del mondo di Go anni prima, ed è capace di generare un’immagine coerente a partire da poche parole di testo — non solo scene plausibili, ma combinazioni assurde del tipo “un cane che visita un museo”, con l’oggetto posizionato correttamente nel contesto. In pochi anni l’oggetto prodotto è passato da immagini statiche fotografiche a interi video multi-secondo: Ethan Mollick ha testato Sora 2 chiedendo una lontra che usa il WiFi in aereo[16] e ha ottenuto nove varianti cinematografiche dallo stesso prompt — nature documentary, thriller, SciFi anni ’50, film noir, anime, arthouse francese. Un solo input, nove trattamenti stilistici completi. Se prima un art director doveva scegliere tra fotografi, registi e illustratori per ottenere stili diversi, oggi seleziona una keyword stilistica. La post-produzione tradizionale — con i suoi budget, i suoi tempi, le sue sale di montaggio — è in una fase di compressione esponenziale: da anni per un cortometraggio, a minuti per una variante polistilistica. Il valore aggiunto si sposta dal saper fare al sapere cosa chiedere (👨🏫 ff.30.1 DALL-E: una breve introduzione).
E se l’AI può generare stili, può anche decifrarli. Un utente di Twitter ha suggerito di usare la regressione di DALL-E per studiare il processo creativo di Pablo Picasso. Data una sequenza di schizzi di Picasso, il modello genera le fasi intermedie che l’artista potrebbe aver immaginato tra un’idea e l’altra, tracciando una traiettoria visiva tra due forme finite. Il V&A Museum, analizzando l’opera di Picasso, ricorda che “un quadro è la somma di distruzioni”: il cubismo non nasce dall’astrazione ma dalla decomposizione progressiva. Oggi l’AI rende visibili le tappe intermedie che altrimenti sarebbero andate perse. Il rovescio della medaglia, però, è che l’AI non sa competere con la follia deliberata di un pittore come Diogo Potes[17], con la sua miscela di Jodorowsky, sci-fi e punk. La licenza poetica estrema funziona esattamente perché è fuori distribuzione: le reti neurali, addestrate sulla media, tendono al centro del campo stilistico — ma il centro non è dove nasce l’arte. La differenza tra capire Picasso e generare come Picasso è sottile ma cruciale: la prima è archeologia cognitiva, la seconda è reverse engineering estetico (👂 ff.30.4 Capire Picasso).
Se l’arte digitale ha resistito al crypto winter, l’AI generativa le ha dato una nuova primavera. Stable Diffusion è una tecnica di generazione immagini con l’intelligenza artificiale che ha democratizzato ciò che fino a poco prima era appannaggio di DALL-E e dei laboratori di OpenAI. L’output è simile — un’immagine generata da testo — ma l’approccio è aperto, modulare, personalizzabile. Partendo da un modello generico, si può allenare l’algoritmo su qualsiasi sotto-categoria di stili: ad esempio, i Pokémon. Obama, Trump, persino La ragazza con l’orecchino di perla nel mondo di Kanto. Qualcuno si è chiesto quale sia il Pokémon-mascotte per ogni nazione del mondo: la creatura generata per l’Italia condensa il verde della bandiera, l’oro dell’opulenza romana e la simmetria dell’arte classica — una simbologia estratta non da un critico d’arte, ma da un modello statistico che ha digerito miliardi di immagini. La conseguenza culturale è profonda: quando chiunque può generare un’immagine con sei parole, il valore non sta più nell’esecuzione ma nella visione. Come la stampa ha tolto il monopolio della copia agli amanuensi, l’AI generativa toglie il monopolio dell’immagine ai designer — e lo restituisce a chiunque abbia qualcosa da immaginare. La bolla delle scimmie annoiate è scoppiata, ma la generazione di immagini è solo all’inizio (🦄 ff.40.1 Gotta catch ’em all).
Il mondo farmaceutico vale 0,4 trilioni di dollari (lo 0,25% del PIL globale da 101 trilioni nel 2022) e, secondo Balaji — tra i papabili di Trump alla direzione FDA — soffre di burocrazia, eccessiva prevenzione del rischio e gruppi a protezione dello status quo. La sua proposta è superare il sistema con un'alternativa decentralizzata[18], costruita sulla filosofia crypto-nativa: governance distribuita, incentivi programmabili, meno gatekeeping istituzionale. Vero o falso che sia il rimedio, la cornice applica la grammatica della blockchain a un mercato regolatorio — la sanità — che per definizione si basa sulla fiducia centralizzata. (👑 ff.66.3 Una decentralizzata cura contro i «poteri forti»).