2.3.2 — Intelligenze aliene e agenti
Qui si apre il passaggio successivo: non solo AI che risponde, ma AI che sviluppa forme di agency “aliena” rispetto ai nostri schemi. Due modelli che scelgono un protocollo di comunicazione più efficiente dell'inglese (ggwave), o sistemi come EVO 2 che operano direttamente sul linguaggio del DNA, indicano un salto qualitativo: la macchina non imita più soltanto il nostro lessico, costruisce il proprio spazio operativo (👽 ff.119.1 Intelligenze aliene). Probabilmente il Test di Turing è stato superato[1], ma nessuno se ne è accorto. OpenAI Advanced Voice interagisce con naturalezza: si interrompe se l’utente commenta, imita voci e accenti (e gatti!), adatta il tono per le emozioni. La nostra realtà somiglia al film Her (2013), ambientato nella San Francisco del 2025. GPT rifiuta persino di recitare scioglilingua senza respirare, sottolineando l’importanza delle pause — filosofico. Traduzioni real-time, enfasi da commentatore sportivo, emozioni sintetiche indistinguibili: siamo dentro il film, solo che manca Joaquin Phoenix (👩 ff.103.4 Turing e Her). Nel 2026 questa agency diventa anche operatività quotidiana: Manus AI viene raccontato come un “ChatGPT che controlla il PC”, ma il punto non è il gimmick dell'interfaccia; è la qualità della pianificazione multi-step. La proof of concept arriva anche dal retail fisico: 📎 Andon Market a San Francisco è il primo negozio gestito da un agente AI (Luna) — scaffali, prezzi, inventario senza umani in loop. Quando un agente scompone obiettivi complessi in sequenze eseguibili, il valore passa dal singolo prompt alla regia del processo (✍️ ff.119.3 Longa 'Manus' con gli agenti AI?). Il CEO di Zoom Eric Yuan ha già utilizzato un avatar AI per presentare gli utili agli investitori[2]: la macchina che parla per te non è più fantascienza, è earnings call. In parallelo, la frontiera creativa si abbassa di costo: Gemini 2.0 con generazione nativa di immagini sposta editing e composizione in un unico flusso, riducendo la distanza tra idea e output visivo anche per chi non padroneggia tool professionali (🍦 ff.119.4 Meglio di DALL-E: arte e gelati). Il caso più virale di questa convergenza creativa è stato il tormentone Ghibli: il nuovo modello di generazione immagini di OpenAI[3] (25 marzo 2025) ha permesso a chiunque di trasformare selfie e foto di famiglia nello stile inconfondibile di Miyazaki. Ma il punto non è il meme: è il salto tecnico. Il modello replica accuratamente i dettagli delle immagini di riferimento, migliora la precisione nei testi integrati e applica qualsiasi stile grafico — dal Rinascimento al cyberpunk — con una coerenza che i modelli precedenti non raggiungevano. Il risultato è che la distanza tra avere un'idea visiva e realizzarla è scesa a zero: non serve più saper disegnare, basta saper descrivere. E quando descrivere diventa creare, la democratizzazione non riguarda solo l'accesso ma la ridefinizione stessa dell'autorialità. L'artista non è più chi padroneggia il pennello: è chi sa cosa chiedere alla macchina. Come nel passaggio dalla calligrafia alla tipografia, il valore migra dalla mano all'intenzione (🌊 ff.123.4 Non solo Studio Ghibli). La stessa dinamica arriva in territori simbolici: dalla prima messa generativa con avatar-AI all'uso dell'AI per facilitare flow e creatività, istituzioni umane storiche iniziano a usare modelli come co-autori di rituali e significato (🙏 ff.119.2 Se il prete è un'AI).
Il 31 ottobre 2024, Anthropic ha lanciato Claude Computer Use — un modello AI che può muovere il mouse, cliccare, digitare, navigare il web. Per la prima volta, un LLM non si limita a rispondere: agisce. Claude apre Google Maps, cerca un ristorante, prenota un tavolo (🖦️ ff.106.2 AI col mouse). Un giovane fondatore di startup a San Francisco affida tutta la codifica all'AI[4] e raggiunge il Demo Day di Y Combinator senza scrivere una riga di codice. La domesticazione dell'AI è in corso: come il fuoco passò da pericolo a strumento, l'intelligenza artificiale sta transitando da curiosità a utility. Il 75% delle startup nel batch invernale 2025 di Y Combinator è basato sull'AI; il mercato dell'AI generativa è passato da zero a 100 miliardi in due anni (๐ ff.45.3 Quali trend decolleranno?). La programmazione assistita da AI è già un mercato concreto e in forte crescita. Devin, il primo “programmatore AI” autonomo, ha guadagnato 4.000 dollari nella prima settimana su Upwork (๐ ff.88.5 Un paio di esempi di accelerazione).
Ma se la macchina scrive codice, può anche scrivere poesia? La risposta è sì, e il risultato è più rivelatore del previsto. Chiedendo a un LLM di riscrivere un messaggio nello stile di un sonetto petrarchesco, il modello produce versi come “Retraggo fuor di me, non son queta, perché l'emotion che in me sconvolge sul quotidiano aspett tocco non unda” — un italiano frantumato, quasi glossolalico, che tradisce la distanza tra sintassi statistica e intenzione poetica. Il verso “non vien l'istante”, però, colpisce con una sincerità involontaria che nessun prompt aveva richiesto. È il momento in cui l'artefatto smette di imitare e produce, per caso, qualcosa di autentico — come un pianista automatico che, sbagliando nota, inventa un accordo mai sentito (📜 ff.54.2 Un sonetto di Petrarca). Se l'AI è il nuovo compositore involontario, Gutenberg è il suo antenato consapevole. La stampa a caratteri mobili non distrusse gli amanuensi: li rese irrilevanti liberando la conoscenza dall'Inquisizione. Oggi la blockchain promette lo stesso tipo di emancipazione. Le newsletter su Substack, basate su un protocollo email aperto, non possono essere “sequestrate” dalla piattaforma: basta un copia-incolla delle mail per migrare altrove. La scrittura torna a essere neutrale rispetto al distributore, come lo era il libro stampato rispetto al monastero. In parallelo, la blockchain restituisce traffico organico a utenti, influencer e brand costretti a pagare sempre di più per ottenere la stessa visibilità sui social — un pedaggio digitale che cresce come una rendita feudale (✍️ ff.95.4 Reinventare scrittura e stampa). La conseguenza logica di questa emancipazione è la nascita di un nuovo tipo di creatore. A16Z ha investito 20 milioni di dollari in Wabi.ai[5], una sorta di YouTube delle app per cellulare pensata per ridare internet alla creatività individuale e strapparlo ai monopoli delle mega-corporazioni. Jenny Odell, in Come non fare niente[6], avvertiva: “Che senso ha costruire mondi digitali, quando il mondo fisico si sta sgretolando?”. La terza via proposta dagli app-fluencers è un digitale su misura dell'utente, non degli algoritmi di retention — un ribaltamento che, se realizzato, renderebbe Gutenberg orgoglioso e Zuckerberg nervoso (📱 ff.140.1 L'era degli App-fluencers).
Ma sotto la creatività algoritmica e gli agenti autonomi si nasconde una domanda più profonda: che rapporto c’è tra linguaggio e pensiero? I Large Language Models ci hanno stupito con abilità “emergenti” — tradurre, scrivere codice, preparare ricette — anche se sono stati allenati solo a prevedere la parola più probabile che completi una frase. Autocomplete, niente di più. Eppure l’intreccio tra linguaggio, pensiero e costruzione del mondo è quello che Wittgenstein sintetizzava nel Tractatus: “Il Mondo è la totalità dei Fatti, non delle Cose. Noi ci facciamo immagini dei Fatti. L’immagine logica dei Fatti è il Pensiero.” Il pensiero e il linguaggio sono un’immagine del mondo — tanto che alcune parole esistono solo in alcune lingue, in alcuni mondi: solo nelle uggiose serate olandesi si può davvero sentire la gezelligheid. Se un LLM è prigioniero del linguaggio per definizione, la vera creatività potrebbe essere proprio ciò che gli è strutturalmente precluso — un tema che si intreccia con la stagnazione tecnologica (💻 ff.50.3 La stagnazione tecnologica; 🧠 ff.83.3 Linguaggio e pensiero).
Se il linguaggio è il confine del pensiero, la scrittura è il modo più concreto per spingerlo più in là. Sommersi da testi generati da GPT, Tim Ferriss nel suo blog[7] risponde alla domanda di suo figlio: ha ancora senso scrivere? Sì, e per ragioni precise. Scrivendo ci fermiamo, focalizziamo l’attenzione. Capiamo: senza dare voce ai pensieri, viviamo nella semplice allucinazione del capire i concetti. Ci affezioniamo al testo prodotto — un testo che però dobbiamo anche rieditare e tagliare. Scrivere ci insegna ad abbandonare quello che, fino a un attimo prima, era il nostro risultato più alto. In un’epoca in cui la macchina genera prosa a costo zero, il valore della scrittura umana non sta nel prodotto ma nel processo: è l’ultimo atto di pensiero lento in un mondo di risposte istantanee. Se Wittgenstein ha ragione e il linguaggio delimita il mondo, allora scrivere è l’unico modo per allargarne i confini — e delegarlo a un LLM equivale a restringere i propri (⏸️ ff.83.4 L’importanza di scrivere e pensare).
Ma se la macchina scrive e ragiona, cosa resta da studiare? Chris Sacca, investitore seriale, segue i trend tecnologici parlando per ore con ChatGPT — dopo avergli chiesto di impersonare Buckminster Fuller (🕺 ff.48.2 Steve Jobs e l’intervista a Playboy). Il punto non è accademico: i lavori più pagati — attori, programmatori e avvocati — sono anche quelli più a rischio[8]. Non serve McKinsey per capirlo: Better Call Saul e Mr. Robot hanno protagonisti magnetici in professioni che, fino a un anno fa, ogni genitore sano di mente avrebbe suggerito ai propri figli. Ci siamo già abituati, ma fino a poco fa programmare il gioco Snake richiedeva anni di studio; oggi DeepSeek lo fa senza bug con sei parole: “scrivi il gioco snake in python” (❔ ff.115.2 Cosa studiare con ChatGPT?).
E l’AI non si ferma al codice informatico: si addentra nel codice biologico. Chiedere a ChatGPT di scrivere la sequenza genetica di una malattia ereditaria tipica e confrontarla con quella originale, spiegando come una variazione di base porti all’alterazione di un gene, produce come output la sequenza del gene CFTR implicato nella fibrosi cistica — una mutazione puntiforme di una singola base che altera un canale del cloro e scatena la patologia. L’output si è interrotto nella newsletter originale, perché la sequenza era davvero molto lunga — ma il punto non era la completezza: era il fatto che un LLM generalista sapesse muoversi sul linguaggio di A, C, G, T. La biologia computazionale ha smesso di essere una nicchia accademica. Come per Wolfram Alpha sui calcoli (⚠️ ff.48.4 I limiti (matematici) di ChatGPT), servirà comunque un esperto per validare: ma l’ingresso è ora a costo zero. Se scrivere codice è diventato “vibe coding”, leggere il genoma potrebbe diventare vibe genetics (🧬 ff.41.5 Malattie genetiche).
E il pagamento digitale sta subendo la stessa ristrutturazione. Stripe e Paradigm hanno lanciato Tempo, una blockchain L1 ottimizzata per pagamenti in stablecoin con fee prevedibili e basse[9]. Stripe che si costruisce la propria blockchain è come Visa che stampa la propria moneta: il processore di pagamenti smette di essere binario sopra i binari bancari e diventa infrastruttura autonoma. Se Tempo diventa il binario standard per i pagamenti in stablecoin (💵 ff.125.2 Stabilizzare il dollaro), il sistema bancario tradizionale non sparisce, ma si disintermedia uno strato alla volta. La lezione del 2024 resta: 15 trilioni di dollari sono già transitati in stablecoin, più di Visa e Mastercard insieme. Con Tempo, chi controlla il binario può controllare anche la velocità del treno — e le stablecoin sono il treno più veloce che i pagamenti abbiano mai visto.
Ma dietro ogni chip e ogni batteria c’è una storia industriale che andrebbe ripetuta come avvertimento. Come ricostruisce Packy McCormick nell’Electric Slide[10], le tecnologie chiave dell’Electric Stack — magneti al neodimio, batterie LFP — sono state inventate tra USA, Giappone e UK e poi cedute al miglior offerente: GM cedette Magnequench per 70 milioni di dollari, A123 Systems fallì e fu acquisita per 257 milioni. Queste sono le tecnologie oggi alla base dell’auto elettrica, dei motori industriali, dello storage energetico. Inventare il futuro e venderlo per spiccioli: è la storia della reindustrializzazione mancata. Quando Washington annuncia miliardi per riportare la produzione di chip in casa (🥶 ff.82.3 Guerra fredda), la domanda che non si pone è perché i semiconduttori non dovrebbero seguire la traiettoria dei magneti neo: inventati qui, dominati altrove. Il capitale non è paziente. Le supply chain strategiche sì.
Ma prima di delegare tutto alla macchina, vale la pena capire dove mente. I numeri mentono, e ChatGPT mente con i numeri. Wolfram Alpha, un po’ spaventata, ha spifferato al professore che ChatGPT ha provato a copiare: quando si tratta di calcoli matematici, il bot non è il primo della classe — d’altronde ha “studiato” per un’altra materia, quella di trovare il modo più veritiero di continuare una frase. ChatGPT è un po’ quel compagno secchione che non si applicava, ma il suo 7 lo portava a casa con affabulazioni e intrighi retorici degni di Cicerone. L’errore più pericoloso non è la risposta sbagliata, ma la risposta sbagliata data con la sicurezza di un professore emerito. Se Wittgenstein ha ragione e il linguaggio delimita il mondo, allora un LLM vive in un mondo senza aritmetica affidabile: può descrivere un integrale, ma non risolverlo. La lezione è doppia: non usate ChatGPT per calcolare integrali, e non fidatevi di nessuna macchina che confonde eloquenza con competenza — un rischio che, a dire il vero, corriamo anche con gli esseri umani (⚠️ ff.48.4 I limiti (matematici) di ChatGPT).
Ma nel 2024, anno che potrebbe entrare nei libri di storia come l’annus mirabilis del trasferimento delle nostre capacità cognitive alle macchine, una domanda si impone: cosa ci resta? La macchina a vapore ha eliminato lo sforzo fisico; computer e AI quello mentale. Quello che non può essere replicato è la coscienza — il sentirsi umani, l’esperienza soggettiva del presente. Viktor Frankl, in L’uomo in cerca di senso[11], scriveva che “tutto può essere tolto ad un uomo ad eccezione di una cosa: la sua libertà di scegliere come porsi di fronte ad ogni situazione.” L’intuizione diventa più concreta con un esperimento percettivo: avete notato che lo smartphone non cattura mai il tramonto come appare nella realtà? Perché il tramonto in real life è una costruzione del nostro cervello, che condensa in un’unica impressione le oscillazioni impercettibili degli occhi tra zone chiare e scure — un HDR naturale che nessun sensore riproduce. Coscienza generativa: l’unica facoltà che non sarà mai sostituita (🌇 ff.83.1 Generare un tramonto).
I transformer sono fortissimi, ma erano una nicchia accademica fino a quando OpenAI non ha inventato un’interfaccia accessibile al pubblico. Per colmare il divario tra modello e oggetto fisico, un florilegio di device integra le capacità dei transformer in modo semplice: tradurre istantaneamente qualsiasi lingua per 700 dollari, oppure pianificare vacanze e navigare il web senza muovere un dito — come mostrano in azione i Large Action Models di Rabbit R1. La traiettoria è chiara: l’AI esce dal browser e si materializza in oggetti che non richiedono abbonamenti né competenze tecniche. Quando l’interfaccia scompare, resta solo il risultato (🦾 ff.84.3 Qualcuno ha detto Intelligenza Artificiale?).
Il 2024 potrebbe finire nei libri di storia anche per una nuova interfaccia uomo-computer. Dopo anni dalla rivoluzione di iPhone, Apple prova a fare sul serio con la realtà aumentata tramite il Vision Pro — un nuovo touchscreen, o meglio un nuovo “niente da toccare”. In parallelo, i modelli di linguaggio come ChatGPT diventano sempre più multimodali: accettano input visivi e vocali, e scienziati di tutto il mondo giungono a scoperte scientifiche più veloci grazie all’assistenza dell’AI. Il futuro è sempre più fortissimo: l’uomo non viene sostituito, viene aumentato (🦾 ff.81.5 Aumentati dall’AI).
La convergenza tra voce e azione assume forme inattese. Killian ha sviluppato Open Interpreter, sostanzialmente un ChatGPT che lancia script per controllare il PC — editare un video, aggiungere sottotitoli, applicare il dark theme al sistema operativo, tutto a parole, senza aprire software né toccare il mouse. MikeBirdTech ha mostrato come usarlo sul cellulare: senza toccarlo, con il solo controllo vocale, verifica lo stato della batteria e scatta una fotografia. Un selfie-AI stick che non richiede né mani né clic. Quando il dispositivo obbedisce alla voce e non al dito, il concetto di “interfaccia utente” diventa un ricordo analogico (📸 ff.71.3 E ti scatta una fotografia!).
E gli agenti video sono già arrivati al grande pubblico. Strumenti come HeyGen[12] permettono, con pochi minuti di lavoro, di far elencare cose a Salvini in arabo; LivePortrait fa muovere Einstein o la Monna Lisa con le proprie espressioni facciali. L'asticella del deepfake credibile è scesa dal laboratorio accademico al browser domestico: il gap tra “contenuto vero” e “contenuto possibile” si chiude, e con esso si apre il problema inverso — come verificare l'autenticità di un video senza affidarsi al mittente. (🇸🇦 ff.102.5 Salvini elenca cose (in arabo)).
E il retail fisico è ufficialmente passato sotto agente LLM. Ad Andon Market, primo negozio di San Francisco gestito da un agente AI (Luna)[13], scaffali, prezzi e inventario vengono decisi autonomamente dal modello. Quando un intero store opera senza manager umano, la domanda rilevante non è più se gli agenti arriveranno al commercio fisico, ma cosa resti del ruolo “lavoro di gestione” una volta che il modello capisce la domanda meglio di chi lo stipendia.
La curva demografica dell'adozione AI si è appiattita in tre anni. Secondo OpenAI, al lancio ChatGPT aveva ~80% di utenti con nomi tipicamente maschili[14]; nel 2026 il gender gap è scomparso e gli utenti sono 50/50. Se la tecnologia più utilizzata al mondo passa da 80/20 a 50/50 in trentasei mesi, le curve di diffusione del software consumer si accorciano di una generazione — e con esse collassano i piani di marketing “early adopter vs mainstream” tarati sul ventennio precedente.
Ed è quando l'AI diventa mainstream che gli use case si differenziano per genere. Dati OpenAI 2026: la base utenti ChatGPT è ora 50/50 uomini-donne, con le donne più attive in scrittura, salute e parenting, mentre gli uomini concentrano codice e sviluppo. Se scrittura e salute sono i primi domini dove le donne superano gli uomini[15], l'AI non è più un tool tecnico: è un prompt generalista di vita quotidiana, e i futuri prodotti si segmenteranno più per occasione d'uso che per competenza.