Hayek, GPU e il Mercato dei Gradienti

originally posted on LinkedIn: https://www.linkedin.com/pulse/hayek-gpu-e-il-mercato-dei-gradienti-antonio-ieran%C3%B2-0j1wf/?trackingId=mN60%2B94kSUqlOvsVVlrm7Q%3D%3D

💡 Ho provato a far convivere Hayek, le GPU e… Topolino.
Il risultato? Un paper dal titolo (poco modesto):
“Hayek, GPU e il Mercato dei Gradienti – Come ho imparato a smettere di preoccuparmi e ad amare la loss”
Obiettivo dichiarato: 3 su 3
1️⃣ leggibile (niente formule stile papiro egizio);
2️⃣ utile (qualche metrica da riciclare al prossimo board);
3️⃣ sensato (non sempre garantito dopo il terzo caffè).
Realisticamente? Spero di portarne a casa almeno due – decidete voi quali, ma non ditemelo in pubblico. 😅
Dentro troverete:
🔸 Hayek che diventa protocollo di rete (“prezzo = bit di conoscenza”);
🔸 Galbraith che fa l’audit ai mega-modelli;
🔸 GPU fameliche di watt, gradienti che volano come azioni in borsa e un cameo di Zio Paperone alle prese con un mainframe impazzito.
Se vi va di scoprire perché la loss di un LLM assomiglia al cartellino del prezzo delle zucchine, accomodatevi: link nei commenti. Feedback, meme, correzioni ortografiche e contropoteri galbraithiani sempre ben accetti!

Hayek, GPU e il Mercato dei Gradienti

Come ho imparato a smettere di preoccuparmi e ad amare la loss

Prologo – “Non di soli algoritmi vive l’uomo (e neppure l’economia)”

Se Friedrich August von Hayek potesse materializzarsi oggi – magari sotto forma di avatar in 8-bit per risparmiare RAM – lo troveremmo con il cappello tirolese calato sugli occhi, in coda davanti a un datacenter di Seattle a chiedere: «Scusate, avete ancora qualche H100 disponibile o siete finiti pure voi nella lista d’attesa?». Del resto le GPU sono il nuovo pane e salame: NVIDIA da sola ne ha promesse fra 1,6 e 2 milioni nel 2024, ma la domanda corre più veloce dei camion che le portano via dal porto di Rotterdam TDWI.

Nel frattempo a Bruxelles non stanno a guardare. Dal 1 agosto 2024 l’AI Act è legge European Commission: un manuale d’istruzioni di 200 pagine che prova a insegnare alle reti neurali la differenza fra un frullatore e un sistema «ad alto rischio». (Spoiler: se il frullatore ha un LLM dentro, finisce comunque nell’allegato III). È la versione europea di «Non correre con le forbici», solo che le forbici costano qualche terawatt e litigano sui diritti d’autore.

A proposito di terawatt: allenare un modello generativo può consumare sette-otto volte l’energia di un carico cloud “normale” MIT News, mentre una singola domanda a ChatGPT brucia fino a dieci volte l’elettricità di una ricerca Google Polytechnique Insights. Tradotto nella nostra dieta mediterranea: ogni prompt ben condito equivale a una porzione abbondante di carbonara… ma senza godersela a tavola.

Eppure le aziende non sembrano turbate: il 45 % dei CIO interpellati da AWS mette l’AI in cima al budget 2025, superando perfino la cybersecurity GeekWire. McKinsey rincara: oltre tre quarti delle imprese usano già l’AI in almeno una funzione McKinsey & Company. Se Galbraith parlava di «potere di mercato», oggi dovremmo parlare di «potere di prompt»; chi possiede i gradienti decide il menù del giorno.

Ecco perché riprendere Hayek non è solo un vezzo da economisti vintage: il suo “problema della conoscenza” rimbalza dalle piazze ottocentesche di Vienna ai log di Kubernetes. I prezzi un tempo aggiustavano l’offerta di grano; oggi i loss aggiustano i pesi sinaptici di un modello che vi suggerisce quale sneaker comprare. Stessa partita, altra console.

Il viaggio di questo paper parte da qui: fra code GPU-centriche, legislatori che brandiscono PDF come spade laser e data-center che divorano watt più di un condizionatore in agosto. Scopriremo se il gradiente discendente può davvero sostituire il cartellino del prezzo, se conviene fidarci di un’unica «mente» hyperscaler o puntare su una fiera decentralizzata di piccoli modelli federati (con l’equivalente digitale del mercatino rionale). E, soprattutto, vedremo come mettere d’accordo Hayek, Galbraith e un LLM che fa battute migliori di noi – sperando che almeno la luce resti accesa.

Capitolo 1

“Un austriaco entra in un data-center…” – Hayek in pillole


Executive Summary

In tre tappe lampo: (1) chi era Friedrich A. von Hayek e perché lo trovate citato tanto nei papers di machine-learning quanto nei discorsi di Margaret Thatcher; (2) che cosa dice davvero il suo saggio-cult The Use of Knowledge in Society (1945) sul ruolo dei prezzi come “pacchetti dati” distribuiti; (3) perché il suo “problema della conoscenza” riemerge oggi nella concentrazione delle GPU e negli algoritmi che decidono cosa vediamo nel feed. Se i prezzi erano l’HTTP dell’economia classica, i loss delle reti neurali sembrano il nuovo protocollo di coordinamento.


1.1 Bio essenziale: Vienna → LSE → Mont Pelerin → Nobel

  • 1899, Vienna. Nasce Friedrich August von Hayek, parente alla lontana di Ludwig Wittgenstein (sì, la famiglia alle cene di Natale doveva essere interessante). NobelPrize.orgWikipedia
  • 1931, London School of Economics. Lionel Robbins lo strappa all’Istituto Austriaco per la Ricerca sui Cicli per farne il “punk” dell’economia a Londra; vi resterà fino al 1950. Wikipedia
  • 1947, Mont Pelerin. Convoca 36 pensatori – da Milton Friedman a Karl Popper – in uno chalet svizzero per fondare la Mont Pelerin Society, club che diventerà la chat di gruppo del neoliberismo post-bellico. The Mont Pelerin Society
  • 1974, Nobel. Condivide il premio (non proprio di buon cuore) con Gunnar Myrdal “per l’analisi sulle interdipendenze fra fenomeni economici, sociali e istituzionali”. NobelPrize.org

Fun fact: Hayek detestava “l’eccesso di matematica” nell’economia. Oggi i ricercatori usano miliardi di parametri e lo citano comunque a piè di pagina: il destino sa essere ironico.

1.2 The Use of Knowledge in Society (1945): quando il prezzo diventa un pacchetto dati

Nel paper-manifesto pubblicato sull’American Economic Review, Hayek lancia la bomba:

“La conoscenza non esiste in forma concentrata ma solo come dispersed bits nelle menti di milioni di individui.” Econlib

Se nessuno possiede tutta l’informazione necessaria, serve un meccanismo leggero che la “comprima” e la diffonda in tempo reale: il prezzo. Un centesimo in più sul costo del caffè comunica a un coltivatore in Colombia che forse deve piantare più arabica, senza passare da un server centrale.

Lo stesso ragionamento, traslato in JSON, spiega perché il gradiente discendente (ossia lo spostamento dei pesi che minimizza il loss) agisca come un segnale-prezzo dentro un modello AI: indica dove l’informazione è scarsa e va corretta.

1.3 Dal Gosplan alle gigafarm: il “problema della conoscenza” oggi

  • Centralizzazione 2.0. Microsoft, Meta e Amazon bruciano decine di miliardi l’anno per costruire data-center AI; un singolo trimestre di capex di Redmond supera ormai un intero anno pre-2020. Reuters
  • Monoculture di silicio. Le GPU Nvidia H100 sono l’equivalente moderno del “grano ucraino” nei piani quinquennali: poche mani controllano l’input chiave di tutta la filiera digitale.
  • Edge e federated learning. In risposta, cresce l’idea di modelli “diffusi” che addestrano on-device e scambiano gradienti come segnali di prezzo – un mercato continuo di micro-retificazioni anziché un oracolo centrale.

La domanda che perseguita regolatori e ingegneri: se concentrare tutta l’elaborazione in cinque hyperscaler replica il fallimento informativo della pianificazione centrale, non stiamo riscrivendo il Gosplan… in PyTorch?


Take-aways

  • Hayek ≠ nostalgia vintage: il suo problema della conoscenza è la stessa sfida che affrontiamo con modelli da trilioni di parametri.
  • Prezzo → Loss: entrambi sintetizzano informazione dispersa, uno nei mercati, l’altro nei pesi sinaptici.
  • Centralizzazione costa (e rischia): l’equilibrio fra efficienza hyperscaler e resilienza federata è la nuova frontiera di policy e architettura.

Capitolo 2

“Arriva Galbraith con il manuale di istruzioni per il potere”


Executive Summary

Il secondo capitolo introduce John Kenneth Galbraith – l’economista canadese-americano che, con un sarcasmo tagliente e una prosa da romanziere, mise in discussione l’ottimismo concorrenziale di Hayek.

  • § 2.1 racconta come American Capitalism (1952) coniò il concetto di countervailing power e come The New Industrial State (1967) descrisse la “technostructure” – un’élite manageriale capace di pianificare all’interno dell’impresa quasi fosse un piccolo Gosplan.
  • § 2.2 confronta Galbraith e Hayek su tre fronti: (i) potere di mercato vs libertà di entrata, (ii) informazione posseduta dai grandi conglomerati vs informazione dispersa, (iii) il famigerato “dependence effect”: i gusti del consumatore sono forgiati dalla pubblicità, non dal libero arbitrio.
  • § 2.3 spiega perché queste idee siano riapparse nel XXI secolo sotto forma di gatekeepers digitali, Digital Markets Act e dibattito su chi debba bilanciare l’asimmetria tra Big Tech e utenti.

Se Hayek temeva lo Stato pianificatore, Galbraith temeva il mega-corporate pianificatore; oggi l’eco si sente nei corridoi di Bruxelles che aggiornano il concetto di countervailing power alla versione 4.0.

2.1 Da American Capitalism a The New Industrial State

Countervailing Power, 1952. Nel primo best-seller Galbraith osserva che l’economia USA del dopoguerra è dominata da imprese troppo grandi per essere disciplinate dal normale “laissez-faire”. La risposta spontanea, dice, è la nascita di poteri “di contrasto” – sindacati, cooperative agricole, regolatori – in grado di negoziare ad armi pari con GM, DuPont & Co. WikipediaAmazon

Technostructure, 1967. In The New Industrial State l’autore sostiene che le mega-aziende hanno sviluppato un sistema di pianificazione interna fondato su budget pluriennali, previsioni sofisticate e, soprattutto, marketing che “crea” la domanda. Il potere decisionale passa dalla proprietà agli ingegneri-manager, la technostructure, che ha come obiettivo la stabilità più che il profitto di breve termine. WikipediaJSTOR

2.2 Galbraith vs Hayek: potere, informazione, consumatore guidato

Article content

Hayek ribatté presto: in un saggio del 1961 definì il dependence effect un “non sequitur”, sostenendo che, senza pubblicità, i consumatori non avrebbero neppure conoscenza dei prodotti disponibili Montclair State University WebMises Institute. Lo scontro rimane uno dei duelli classici sul ruolo dell’informazione e delle preferenze in economia.

2.3 Dalla General Motors a Google: perché Galbraith torna di moda

  • Gatekeepers digitali. La Commissione UE ha designato Alphabet, Amazon, Apple, ByteDance, Meta, Microsoft e Booking come “gatekeepers” ai sensi del Digital Markets Act, riconoscendo che la loro posizione necessita di contrappesi espliciti. Digital Markets Act (DMA)Digital Markets Act (DMA)
  • Contropoteri 4.0. Media tradizionali, autorità antitrust, collettivi open-source e persino sindacati di data-labeller cercano di costruire il proprio countervailing power contro algoritmi proprietari. American Affairs Journal
  • Technostructure algoritmica. Gli staff ML di Big Tech formano una technostructure che, come quella di Galbraith, privilegia la stabilità (uptime, brand safety) rispetto a soluzioni di disintermediazione radicale.

In breve, Galbraith fornisce una lente per interpretare la necessità di norme ex-ante (DMA) e di coalizioni sociali (giornalisti, creator, utenti) capaci di negoziare con i titani digitali invece di affidarsi alla sola “invisibile” mano dei network effects.


Take-aways (Capitolo 2)

  • Countervailing power è il gemello regolatorio del “mercato” hayekiano: serve quando il potere economico si concentra.
  • La technostructure di Galbraith prefigura i team AI-first delle Big Tech che pianificano e modellano il comportamento degli utenti.
  • Il dependence effect anticipa le attuali preoccupazioni su pubblicità mirata e feed personalizzati che plasmano gusti e opinioni.
  • Il Digital Markets Act porta in legge l’idea galbraithiana che certi giganti richiedano contropesi formali prima che l’equilibrio si rompa.

Capitolo 3

“Quando il prezzo diventa equazione” – Modelli matematici derivati da Hayek


Executive Summary

Questo capitolo racconta in versione “story-mode” come l’idea di Hayek secondo cui i prezzi contengono conoscenza sia stata trasformata in formule – e perché quelle stesse formule tornano utili oggi per progettare o capire i sistemi di AI.

  1. Scopriremo che cos’è l’equilibrio generale di Walras (immaginate un grande puzzle in cui ogni pezzo è un prezzo) e il suo algoritmico “cugino”, il tâtonnement.
  2. Incontreremo i pionieri dell’informazione decentralizzata – Radner, Stiglitz, Townsend – che dimostrano cosa succede quando alcuni pezzi del puzzle restano nascosti.
  3. Vedremo come misurare la quantità di informazione che un prezzo (o un gradiente) trasporta, usando concetti come entropia o mutual information, spogliati del gergo.
  4. Passeremo a un parco giochi pieno di bot: le simulazioni multi-agent e i mercati predittivi, dove l’asta diventa un algoritmo di apprendimento collettivo.
  5. Chiuderemo con la mappa “prezzo ⇔ loss” che collega mercati e reti neurali, mostrando come i due mondi possano copiarsi soluzioni a vicenda.

3.1 Il mercato come solver: equilibrio generale & tâtonnement

Equilibrio generale

Immaginate un supermercato dove, per magia, su ogni scaffale c’è esattamente la quantità di pane, latte, pomodori che vogliono comprare i clienti. Nessuno resta a bocca asciutta, niente va a male. In matematica questo stato perfetto si chiama equilibrio generale: i prezzi sono tali che domanda = offerta per tutti i prodotti contemporaneamente.

  • Termine tecnico – Equilibrio generale: un insieme di prezzi p1,p2,…p_1, p_2, …p1,p2,… che pareggia tutte le domande e offerte.
  • Esempio pratico: se un chilo di mele costa 2 €, i consumatori ne chiedono 1 000 kg e i fruttivendoli portano esattamente 1 000 kg al mercato.

Walras mostrò che, “sulla carta”, tali prezzi esistono. Ma come li troviamo? Entra in scena il…

Tâtonnement (letteralmente “tastare”)

È una procedura iterativa: se c’è troppa domanda di un bene (gli scaffali si svuotano), il prezzo sale un pochino; se c’è troppa offerta (scaffali pieni), scende. Si ripete passo dopo passo finché gli scaffali restano pari. È il bisnonno degli algoritmi che oggi usiamo per trovare il minimo di una funzione.

  • Termine tecnico – Algoritmo: una serie di regole passo-passo per risolvere un problema.
  • Parallelo AI: il tâtonnement ricorda un gradient-free optimiser: non calcola derivate, ma aggiusta i prezzi in base al segno dell’errore (“mancano mele” → +0 ,05 €).

3.2 Quando l’informazione è nascosta: Radner, Stiglitz, Townsend

In un mondo reale, i venditori non vedono tutte le carte dei compratori e viceversa. Benvenuti nell’informazione decentralizzata.

  • Termine tecnico – Asimmetria informativa: una parte ha più (o migliore) informazione dell’altra.
  • Esempio: il proprietario di un’auto usata sa se il motore è in buone condizioni, l’acquirente no.

Radner (team-decision) dimostra che, se comunicare costa, il gruppo può prendere decisioni lontane dall’ottimo – proprio perché nessuno possiede l’intero puzzle.

Stiglitz (credit rationing) mostra che, se le banche non possono distinguere “buoni” e “cattivi” debitori, potrebbero negare prestiti a chiunque, pur di non sbagliare.

Townsend (forecasting the forecasts) fa un passo più in là: gli agenti cercano di indovinare cosa credono gli altri agenti, in un gioco di specchi che ricorda i moderni belief networks.

  • Termine tecnico – Belief propagation: metodo per aggiornare le proprie convinzioni alla luce di ciò che si pensa sappiano gli altri.

3.3 Quanta conoscenza c’è in un prezzo?

Per renderla meno eterea, gli economisti hanno preso in prestito gli attrezzi della teoria dell’informazione (quella di Claude Shannon, padre del bit).

Article content

Nel federated learning (addestramento distribuito di un modello su molti telefoni), gli ingegneri calcolano metriche analoghe: se i gradienti provenienti dai diversi dispositivi sono molto simili, vuol dire che la rete sta imparando poco di nuovo.

3.4 Il mercato come laboratorio di bot: simulazioni multi-agent & mercati predittivi

Simulazioni multi-agent

Si costruisce un “The Sims” dell’economia: tanti agenti software – alcuni fanno i contadini, altri i ristoratori – e si lascia che interagiscano. Con regole semplici emergono dinamiche complesse (prezzi, crisi, bolle).

  • Termine tecnico – Agent-based model (ABM): programma che simula l’azione di molti agenti autonomi.
  • Esempio: testare cosa succede al prezzo del grano se una nuova tassa colpisce il diesel dei trattori.

Mercati predittivi (prediction markets)

Pensate a una lavagna in cui chiunque può scommettere su “Quale sarà il voto di X Factor?”. Ogni puntata sposta il prezzo (la quota) e quel prezzo diventa la “stima collettiva” dell’esito.

  • Termine tecnico – Market-maker: algoritmo che aggiorna continuamente il prezzo/quotazione per tenere bilanciato il libro ordini.
  • Collegamento AI: ogni scommessa è un micro-update che avvicina il “prezzo-probabilità” alla verità, molto simile a un passo di stochastic gradient descent (SGD).

3.5 La mappa di corrispondenza Mercato ⇔ Reti neurali

Article content

Differential privacy? È un metodo che aggiunge rumore ai dati per proteggere la privacy degli utenti senza rovinare troppo l’allenamento.

Fairness constraints? Vincoli che impediscono al modello di discriminare certi gruppi (es. negare mutui solo in alcuni quartieri).


Take-aways (Capitolo 3)

  • Il mercato può essere visto come un algoritmo che cerca il minimo errore tra offerta e domanda; questo spiega la parentela con gli algoritmi di ottimizzazione in AI.
  • Quando l’informazione è costosa o nascosta, il prezzo da solo non basta – proprio come un modello che impara da dati parziali si inceppa.
  • Strumenti di teoria dell’informazione permettono di misurare quanta conoscenza scorre nei prezzi o nei gradienti, aiutando economisti e ingegneri a capire dove migliorare il sistema.
  • Simulazioni multi-agent e mercati predittivi mostrano che l’azione di tanti individui/bot può convergere, con le giuste regole, a una soluzione efficace – un’idea preziosa per progettare sistemi AI federati e resilienti.

Capitolo 4

“Dalle catene di montaggio ai cluster di GPU” – Breve (e ironica) storia della centralizzazione tecnologica


Executive Summary

Il pendolo “tutti in un unico capannone → tutti con il PC sotto la scrivania → tutti di nuovo nel data-center” oscilla da più di un secolo.

  • § 4.1 ripercorre quattro ondate di centralizzazione – catena Ford, mainframe IBM System/360, parentesi PC-client e trionfo del cloud – con cifre e curiosità.
  • § 4.2 spiega i due motori economici della concentrazione: economies of scale (più compri, meno costa) e data gravity (i bit seguono i Terabyte come gabbiani un peschereccio).
  • § 4.3 fa i conti in tasca ai giganti: GPU che bevono watt come un condizionatore e capex che superano il PIL di un paese medio. Qui riemergono le tensioni Hayek vs Galbraith: per l’uno la mente centrale è un bug, per l’altro è una technostructure inevitabile che va tenuta sotto sorveglianza.

4.1 Dal Model T al mega-datacenter: il pendolo impazzito

Era

Mascotte

Article content
prima o poi inparo a fare le tabelle su linkedin, per il momento devo fare cosi

Hayek avrebbe storto il naso al ritorno del “cervello unico”; Galbraith avrebbe sorriso: “Ve l’avevo detto che la pianificazione interna vince”.

4.2 Perché la scala vince sempre: economies of scale & data gravity

Economies of scale

  • Comprare 100 000 server non costa 100 000 × il prezzo unitario: si contratta sul silicio, sull’elettricità, persino sul colore della vernice dei rack.
  • Esempio: Microsoft investirà ~80 mld $ nel FY 2025 solo in data-center AI The Official Microsoft BlogData Center Dynamics. Un mortale non può pareggiare quell’ordine d’acquisto.

Data gravity

  • Spostare 200 TB su fibra transoceanica costa più che far viaggiare l’algoritmo: chi ha i dati diventa calamita di ulteriore calcolo.
  • Risultato: il cloud non è tanto “l’elaborazione in internet” quanto “l’elaborazione dove vivono già i dati”.

Effetto pile-up energetico

  • L’IEA stima che i data-center copriranno oltre il 20 % della crescita di domanda elettrica nei paesi avanzati entro il 2030 IEA.
  • Ogni H100 succhia ~700 W; 2 M di pezzi equivalgono all’output di una piccola centrale nucleare Tom’s Hardware.

4.3 Quando il chip comanda il capitale: capex, watt e “winner-takes-all”

  1. Capitale gigantesco – tra cloud region, cavi sottomarini e parchi solari, i quattro hyperscaler principali bruciano ormai >300 mld $ l’anno in spese di capitale. Per Galbraith è la technostructure 2.0; per Hayek un campanello d’allarme: l’informazione rischia di restare intrappolata nei silos dei “pochi eletti”.
  2. Barriera d’ingresso – una startup che volesse competere on-prem dovrebbe raccogliere capitali comparabili a SpaceX solo per accendere la luce. Alternative? a) pagare il pedaggio al cloud, b) inventare modelli “diet-GPU” (edge, pruning, distillazione).
  3. Lock-in di standard – chi controlla il cluster definisce API, formati di checkpoint, perfino i set di benchmark. La mano invisibile di Hayek diventa piuttosto visibile… e brandizzata.

Take-aways (Capitolo 4)

  • La storia mostra un pendolo centralizza–decentralizza: ogni giro aggiunge nuovi vincoli (energia, dati, capex) ma la lezione di fondo resta hayekiana – l’informazione non ama i monopoli.
  • Economies of scale e data gravity spingono verso pochi mega-poli di calcolo; il costo marginale dei watt e dei chip rende il cloud un feudo high-tech.
  • Il quadro attuale conferma la profezia di Galbraith sulla technostructure ma mette in guardia con Hayek: meno nodi centrali = più resilienza e creatività diffusa.
  • Ribilanciare il pendolo (edge, federated, AI a basso consumo) non è solo un tema tecnico: è la nuova frontiera di politica industriale e governance della conoscenza digitale

5. “JSON è il nuovo prezzo” – Dentro l’apprendimento dei modelli AI

5.1 Loss function e gradienti: termostato dell’informazione mancante

5.2 Dati planetari vs monocultura algoritmica

5.3 L’AI come mercato continuo di ipotesi

Capitolo 5

“JSON è il nuovo prezzo” – Dentro il motore di apprendimento dell’AI


Executive Summary

L’idea forte di Hayek – «il prezzo è un pacchetto-dati con dentro la conoscenza sparsa» – oggi si reincarna nella loss function degli LLM: un numero che dice quanto stiamo sbagliando.

  • § 5.1 spiega, con esempi da gattini e pizze bruciate, che cos’è la loss, come nascono i gradienti tramite back-propagation e in che modo questi gradienti funzionano come “prezzi locali dell’errore”.
  • § 5.2 mostra il rovescio della medaglia dei “dati planetari”: quando tutti gli algoritmi mangiano lo stesso Common Crawl, rischiamo la monocultura algoritmica, la riproduzione dei bias umano-centrici e persino il model collapse (modelli che si auto-rimpastano finché diventano insipidi).
  • § 5.3 propone la metafora del mercato continuo di ipotesi: ogni batch di dati fa un’offerta (“questa è la realtà!”), il modello risponde aggiustando i pesi; gradient descent ⇔ tâtonnement 4.0. Qui Hayek applaude al coordinamento decentralizzato dei gradienti, mentre Galbraith alza un sopracciglio: chi controlla il dataset controlla l’esito.

5.1 Loss, gradienti e back-propagation: il termostato dell’informazione mancante

Mini-soap opera felina

Immaginate di addestrare una rete a distinguere foto di gatti da foto di cani. Ogni volta che la rete scambia un Maine Coon per un Golden Retriever, la loss sale come la bolletta del gas: è un numero – MSE, cross-entropy, prendete quello che vi piace – che misura lo scarto fra previsione e verità terreno.

  • Loss function = indicatore di “quanto male stiamo andando”. Nel linguaggio di mercato è il costo dell’errore.
  • Gradient = derivata della loss rispetto ai pesi; dice in che direzione abbassare il costo. La back-propagation, inventata (o, meglio, spiegata bene) da Rumelhart-Hinton-Williams nel 1986, calcola quel gradiente dall’uscita all’ingresso con un trucco di catena derivativa IBM – United States.

Per abbassare la loss la rete usa stochastic gradient descent (SGD): tanti passettini minuscoli, come un venditore ambulante che ritocca il prezzo finché la gente smette di lamentarsi.

Parallelo Hayek – Il gradiente è il “prezzo marginale dell’errore”: segnala dove l’informazione scarseggia e incentiva (spinge) il modello a rifornirsi lì.

5.2 Dati planetari, monocultura e altri rischi da allevamento intensivo

Planet-scale diet

I modelli da miliardi di parametri si nutrono di Common Crawl, Wikipedia, pile di PDF – più di 10 trilioni di token in GPT-4. Ma un menu così uniforme produce gusti algoritmici standardizzati.

  • Monocultura algoritmica: Bisbee et al. (2024) trovano che le risposte GPT tendono a riflettere opinioni liberal, alto reddito, istruzione elevata, sottorappresentando minoranze Nature.
  • Bias cognitivi: uno studio 2025 su GPT-4 mostra che l’AI riproduce hot-hand fallacy e confirmation bias quasi come un essere umano Live Science.

Model collapse

Se ri-alleniamo un modello sui suoi stessi output sintetici, la qualità precipita – come fotocopiare una fotocopia fino a ottenere un grigio uniforme. Shumailov et al. (2024) dimostrano che bastano piccole percentuali di dati sintetici ricorsivi per mandare tutto a ramengo arXiv.

Voce fuori campo di Hayek: «Ve l’avevo detto che serve pluralità di conoscenze!».

Galbraith risponde: «E io che il potere informativo va bilanciato: diversificare i dataset è il nuovo countervailing power

5.3 L’AI come “mercato continuo di ipotesi”

Pensiamo al training come a un mercato finanziario very-high-frequency:

  1. I dati sono gli operatori che fanno offerte (“il gatto ha i baffi!”).
  2. La rete è il market-maker che aggiusta i pesi (prezzi) per equilibrare domanda (coerenza interna) e offerta (nuove prove).
  3. La loss è il costo di transazione: più è alta, più paghi in capitale computazionale.

In federated learning, ogni smartphone addestra localmente e invia solo gradienti: è come un mercato con tanti piccoli venditori che aggiornano i prezzi di periferia e li spediscono a una borsa centrale arXiv. La conoscenza resta distribuita (punto a favore di Hayek), ma servono protocolli di compressione e ritrasmissione robusti (Galbraith batte il pugno: «organizzatevi, o regnerà il caos!»).


Take-aways (Capitolo 5)

  • Loss = prezzo dell’errore: i gradienti indicano dove la conoscenza manca e quindi quanto “pagare” per correggerla.
  • Dataset giganteschi producono risultati stupefacenti ma rischiano la monocultura e amplificano i bias; Hayek invocherebbe pluralità, Galbraith regolazione.
  • Model collapse ricorda l’autarchia informativa: quando ricicli sempre la stessa zuppa, anche l’algoritmo diventa sciapito.
  • Il training di un LLM è un mercato continuo di ipotesi: capire questa analogia aiuta a progettare sistemi federati, controllare i costi e mitigare i rischi di concentrazione.

Capitolo 6

“Gigafarm contro villaggio globale” – Architetture centralizzate vs federate


Executive Summary

L’intelligenza artificiale ha due modi di “andare in vacanza” – tutti in un mega-resort a cinque stelle (hyperscaler) o sparpagliati in bed-and-breakfast diffusi (edge / federated).

  • § 6.1 fotografa l’approccio hyperscaler-centrico: un’unica, gigantesca loss-function al centro del mondo. È veloce, economica a scala, ma se salta la corrente nel resort resti senza buffet (vedi AWS us-east-1).
  • § 6.2 fa il tour del modello diffuso: i dati restano sui dispositivi, i telefoni spediscono solo gradienti (il “souvenir” dell’allenamento). Più privacy e resilienza, ma servono regole per non trasformare il B&B in un rave disorganizzato.
  • § 6.3 mette sul tavolo la domanda scomoda: riduciamo il bias o lo spostiamo? Centralizzare un pregiudizio può renderlo visibile (e debug-abile), decentralizzare lo frammenta ma lo rende più difficile da auditare. Hayek vota per la pluralità dei piccoli modelli; Galbraith ribatte che i piccoli possono essere tanti ma senza contropoteri diventano deboli.

6.1 Hyperscaler-centrico: efficienza, performance, vulnerabilità sistemica

Come funziona

  1. Dati e calcolo in un unico hangar. Pensate a un aeroporto di GPU: arrivi/partenze 24 h su 24.
  2. Model a taglia unica. Un LLM multi-trilione con una sola loss-function che vale per tutti.
  3. Aggiornamento continuo. Nuovi dati? Si rilancia il fine-tuning sul cluster.

Vantaggi (il lato Instagram)

  • Throughput mostruoso: training in settimane invece che mesi.
  • Economies of scale: meno costo per token, come comprare detersivo al formato famiglia.
  • Coerenza di policy: un team di policy e sicurezza per sorvegliare tutto il modello.

Difetti (il lato “dietro le quinte”)

  • Single point of failure: un guasto in us-east-1 può valere miliardi di dollari di perdita in 24 h CRN.
  • Bersaglio grosso per hacker (o blackout).
  • Governance opaca: chi decide i pesi decide anche che cosa è vero (Galbraith alert).

Hayek direbbe: “Troppa conoscenza in troppi pochi rack – occhio a non replicare il Gosplan.”

6.2 Edge / Federated: resilienza, privacy, caos di governance

Cosa vuol dire “federated”

  • I dati non lasciano il device.
  • Ogni telefono addestra una mini-copia del modello e invia solo gradienti (numeri compressi) al server.
  • Il server fa la media (FedAvg, algoritmo di Google: McMahan et al., 2017) arXiv.

Esempio glamour: Apple Private Cloud Compute – parte delle richieste resta on-device, quelle “pesanti” vanno su micro-cluster con chip Apple Silicon e cifratura a strati di cipolla Apple Security Research.

Glossario in pillole

  • Non-IID data: i dati del mio telefono (foto del gatto) non assomigliano a quelli di un radiologo.
  • Straggler: dispositivo lento che fa tardi alla consegna dei gradienti.
  • Byzantine attack: cliente malevolo che invia gradienti falsi per sabotare il modello arXiv.

Pro

  • Privacy di default (niente foto imbarazzanti sul cloud).
  • Tolleranza ai guasti: se un device si spegne, gli altri continuano.
  • Minor latenza inference on-device (traduci offline in metro).

Contro

  • Caos di governance: milioni di nodi da aggiornare, verificare, patchare.
  • Bias locale: se il mio quartiere fotografa solo cani bassotti, il modello rischia di “credere” che siano l’unica razza al mondo.
  • Costi di rete: spingere gradienti criptati su 4G prosciuga la batteria e la banda.

Galbraith commenta: “Serve un sindacato dei gradienti: linee guida, auditing, bug bounty” (Apple lo ha aperto nel 2024 con taglie da 1 M $) The Verge.

6.3 Il bias si riduce o si sposta? – prove sul campo

  • Centralizzato: più dati → meglio si mediano i pregiudizi, ma la “correzione” è decisa da un comitato interno. Se sbagliano, sbagliano per tutti.
  • Federato: ogni sotto-popolazione ha la sua quota di verità; si evitano dominanze ma servono metodi per allineare (o ponderare) le visioni discordanti.

Regolazione UE, stile Galbraith

L’AI Act classifica i modelli “general-purpose” come high-risk se impattano infrastrutture critiche. Le aziende dovranno documentare come e dove girano i modelli, spingendo alcuni use-case verso l’edge per minimizzare rischio Shaping Europe’s digital future.

Hayek inside

Più nodi = più conoscenza distribuita; occorre però un “prezzo” (metrica comune) per farli convergere. FedAvg è proprio quel segnale-prezzo: la media dei gradienti dice in che direzione va l’intera “borsa” dei dispositivi.


Take-aways (Capitolo 6)

  • Hyperscaler: massima efficienza, minima resilienza; un guasto colpisce tutti, come un blackout che spegne l’intera borsa valori.
  • Federated / Edge: privacy e robustezza innate, ma rischiano il caos di governance, attacchi byzantine e bias locali.
  • Hayek applaude alla pluralità dei nodi, Galbraith ricorda che pluralità ≠ potere: serve un countervailing power dei gradienti (standard, auditing, incentivi).
  • La sfida 2025-2030 è trovare un ibrido “a semaforo”: modello grande per conoscenza comune, mini-modelli locali per contesto e privacy – il tutto allineato da metriche trasparenti e controllate.

Capitolo 7

“Governare l’algoritmo — senza finire in catene digitali”


Executive Summary

I feed social non sono neutrali: sono mercati dell’attenzione dove il “prezzo” è quanto a lungo resti incollato allo schermo.

  • § 7.1 mostra la via hayekiana: poche regole chiare (“ordina per data”, “boosta ciò che piace”) e poi lasciare che l’emergenza faccia il suo corso, un po’ come Twitter prima che arrivassero i “For You”.
  • § 7.2 espone la ricetta galbraithiana: obiettivi dichiarati in anticipo, audit indipendenti, reportistica stile ISO 9001 per algoritmi (Digital Services Act & co.).
  • § 7.3 svela il dietro-le-quinte dei recommender system: watch-time, like-rate e “multi-armed bandit” che giostrano i contenuti come slot-machines educatissime.
  • § 7.4 guarda alle norme: AI Act, DSA, “system cards” di OpenAI e i primi bug-bounty su sicurezza modello.

Morale: Hayek chiede pluralità di segnali; Galbraith replica che senza contropoteri i segnali diventano sirene che ipnotizzano le folle.


7.1 Regole semplici + esiti emergenti (la via hayekiana)

Come funziona

  • Imposti poche metriche-chiave (engagement, freshness), dai libertà al ranking in tempo reale.
  • Lasci che gli utenti “votino” coi click: il feed si auto-ottimizza, alla maniera del prezzo che si forma in borsa.

Esempio Vintage – Reddit “rising”: il punteggio sale se molti voti arrivano in poco tempo; niente comitato centrale, solo aritmetica elementare.

Pro

  • Trasparenza (relativa): la regola si capisce, si può replicare on-chain o in locale.
  • Adattività rapidissima ai trend: meme nascono e muoiono in ore.

Contro

  • Storm populista: picco d’attenzione = valanga di click = dominio agenda; Hayek applaudirebbe l’auto-organizzazione, ma griderebbe “attenzione alla tirannia della maggioranza!”.

7.2 Obiettivi prescrittivi & auditing ex ante (la via galbraithiana)

Digital Services Act (DSA)

  • Dal 17 febbraio 2024 le piattaforme “very large” devono spiegare come il ranking incide sui rischi sociali e fornire accesso ai ricercatori dell’European Centre for Algorithmic Transparency European CommissionMayer Brown.

Algorithmic auditing

  • L’OCSE distingue audit ex ante (prima del rilascio) ed ex post (a valle dei danni) OECD.
  • Passaggi tipici: definire la “norma” (criteri), testare set controllati, pubblicare “carte di sistema”.

Pro

  • Riduce asimmetrie informative: l’utente non compra “al buio”.
  • Crea un countervailing power istituzionale, proprio come suggeriva Galbraith.

Contro

  • Rallenta iterazione prodotto; disclosure eccessiva = ricette algoritmiche in mano ai spammers.
  • Rischio “compliance theater”: moduli PDF da 80 pagine che nessuno legge.

7.3 Recommender = prezzo invisibile dell’attenzione

Un recommender system decide “che cosa vedi dopo”: il suo equivalente di “alzare il prezzo” è spingere un video più in alto nella lista.

  • Watch-time = valuta; più guardi, più il contenuto sale.
  • Multi-armed bandit: algoritmo che prova diverse “leve” (thumbnail, testo), analizza il rendimento e rialloca traffico ai migliori; Netflix lo usa per cambiare le copertine mentre scorri Netflix ResearchReforge.

Case TikTok

Il famoso “For You Page” unisce segnali di retention, commenti e ritmo di scroll per tenerti nella spirale di clip da 12 s Buffer.

Effetti collaterali

  • Echo chamber: se clicchi tre video di pizzaioli, diventi sommelier di impasti.
  • Misinformation loop: studi 2023-24 mostrano che YouTube ha ridotto, ma non eliminato, la spinta a video complottisti ACM Digital LibraryTech Policy Press.

Hayek: “Il segnale di prezzo dell’attenzione funziona, ma serve concorrenza fra più segnali”.

Galbraith: “Bene, allora audit e obbligo di fornire API pubbliche: contropotere o niente”.

7.4 Norme in arrivo: AI Act, policy aziendali & bug-bounty

  • AI Act (Reg. UE 2024/1689) impone schede tecniche, test di robustezza, registri AI per i modelli “general-purpose” Shaping Europe’s digital futureEuropean ParliamentWSJ.
  • OpenAI System Card: 80 pagine di metadati, limiti d’uso e metriche bias — primo tentativo di “fogli illustrativi farmaceutici” per LLM.
  • Bug-bounty LLM: Apple, Anthropic e Meta pagano fino a 1 M $ per jailbreak etici sul modello .

Take-aways (Capitolo 7)

  • I feed sono mercati dell’attenzione: watch-time funge da prezzo; i recommender sono i nuovi “borsini” informativi.
  • Hayek-style: poche regole e spontaneità ⇒ agilità ma rischio valanghe emozionali.
  • Galbraith-style: audit, obblighi di trasparenza e contropoteri ⇒ meno sorprese ma più burocrazia.
  • La vera sfida è trovare un equilibrio dinamico: pluralità di segnali + auditing mirato, perché né il mercato né il regolatore, da soli, bastano a proteggere il cittadino-utente.

Capitolo 8

“Ok, C-level: quale AI mettiamo in produzione?” – Dilemmi pratici fra hype, budget e compliance


Executive Summary

Il consiglio di amministrazione ti guarda come se avessi in tasca la bacchetta magica: «Facciamo l’AI, ma che costi poco, sia impeccabile al Garante Privacy e rivoluzioni il fatturato entro Natale». In pratica, vogliono il gatto di Schrödinger che compila i moduli GDPR.

Questo capitolo è il navigatore che ti aiuta a:

  1. Capire i “due mondi” aziendali – la banca blindata da regolamenti e la startup che vive di velocità; ognuna ha un menù d’architetture diverso.
  2. Tradurre in italiano i KPI (latency, accuracy, carbon footprint, …) così il CFO non scambia la precision del modello con la precisione degli ammortamenti.
  3. Rubare tre ricette ibride già in uso (retail, sanità, SaaS) per mescolare cloud, edge e federated senza farsi esplodere il budget.

Hayek, amante del “lasciate fare” creativo, sussurra di dare autonomia ai singoli team; Galbraith, fan della pianificazione, ti ricorda che senza governance potresti ritrovarti con mille mini-modelli che litigano come condòmini in assemblea.


8.1 Due tipologie che non potrebbero essere più diverse

Article content

Glossario volante

  • Tier-1 bank – Istituto così grosso da far tremare l’euro se starnutisce.
  • Air-gapped – Rete fisicamente scollegata da Internet; serve pass di “007” anche per una patch di sicurezza.
  • Seed round – Prima iniezione di capitali di rischio; spesso evapora più in fretta di un espresso al bar.

8.2 I KPI spiegati a nonne, CFO e avvocati

Article content

Curiosità hayekiana: il prezzo libero riflette costi nascosti; qui il prezzo è il KPI che fa emergere i costi reali.

Nota galbraithiana: “Ok il prezzo, ma chi controlla la validità del numero? Serve un audit periodico”.

8.3 Tre ricette ibride (con istruzioni da banco gastronomia)

A. Retail europeo – “Cloud in testa, edge alle casse”

  • Come funziona: catalogo prodotto aggiornato da un LLM centrale (Azure); nei self-checkout gira una versione ridotta quantizzata (quantizzazione = ridurre la precisione dei numeri per farli stare in meno RAM).
  • Risultato: −60 ms di latenza, +8 % di pagamenti senza coda.

B. Consorzio ospedaliero – “Federated o niente”

  • Setup: 12 ospedali addestrano il modello radiologico localmente; condividono solo gradienti cifrati.
  • Parole chiave: Federated learning – i dati restano dove nascono; Gradienti – minuscole tabelle di numeri che dicono “come migliorerei i pesi”.
  • Risultato: privacy protetta, AUC (metrica di accuratezza diagnostica) quasi identica al training centralizzato.

C. SaaS di grammatica – “Distilla e risparmia”

  • Distillazione – far apprendere a un modello piccolo il comportamento di uno grande, come un apprendista che impara dal maestro ma pesa 1/10.
  • Perché farlo: dimezzi i costi GPU e paghi meno cloud, a fronte di un calo minimo di accuratezza.
  • Extra: autoscaling (si alzano/abbassano istanze server a seconda del traffico) evita di pagare istanze vuote di notte.

Take-aways (Capitolo 8)

  • La scelta architetturale è sempre situazionale: concentrazione regolatoria + fame di velocità + budget = cocktail unico.
  • Spiegare i KPI in termini di euro, secondi e chilogrammi di CO₂ aiuta il board a capire davvero dove finisce il denaro.
  • Quantizzazione, distillazione e autoscaling sono gli “sconti alla cassa” dell’AI: meno glamour di un nuovo modello, ma salvano bilancio e bollette.
  • Hayek direbbe: “Date ai team la libertà di sperimentare vicino ai dati”. Galbraith chiuderebbe: “Purché ci sia un piano di governance, o il buffet diventa una guerra di cucchiai”.

Capitolo 9

“Verso un’economia dei gradienti” – Conclusioni (provvisorie) e domande scomode per il futuro


Executive Summary

Siamo arrivati al punto in cui il prezzo non è più solo in euro, ma in bit di errore.

  • § 9.1 riassume in tre scene come Hayek, Galbraith e GPT-X si ritrovino oggi nello stesso coworking a litigare su chi debba regolare i nuovi “mercati di gradienti”.
  • § 9.2 elenca cinque frontiere di ricerca (dalla “carbon tax per i parametri” alla certificazione open-source) spiegando in parole da bar perché sono cruciali ma ancora aperte.
  • § 9.3 traduce la teoria in una “to-do list” pratica per sviluppatori, legislatori e comuni cittadini digitali – perché non basta sapere che c’è un problema di conoscenza; tocca vedere chi deve rimboccarsi le maniche.

Hayek brinderebbe alla nascita di milioni di modelli locali; Galbraith, bicchiere alla mano, misurerebbe la gradazione alcolica per evitare che qualcuno finisca sotto il tavolo.


9.1 Che cosa abbiamo (forse) imparato

Article content

Traduzione simultanea

  • Prezzo → quanto sei lontano dall’equilibrio.
  • Gradiente → istruzione passo-passo per avvicinarti.
  • Governance → chi decide se quelle istruzioni sono sicure, utili, eque.

9.2 Frontiere aperte: cinque nodi da sciogliere

  1. Carbon budget per LLM Che cos’è: un tetto di CO₂ per addestramento e inference, come la “cap” nelle emissioni. Perché importa: l’IEA stima che il boom AI possa far salire la domanda elettrica globale del 4 % entro il 2027.
  2. Certificazione open-source Idea: etichetta tipo “bio” per modelli che pubblicano pesi, dataset o almeno log di addestramento. Sfida: equilibrio fra trasparenza (Hayek) e rischio jailbreak/malware (Galbraith).
  3. Gradient market-places Definizione: borse dove i dispositivi vendono “aggiornamenti” anonimi in cambio di micro-pagamenti crypto o fiat. Domanda aperta: chi garantisce la qualità dei gradienti? Servono rating stile agenzie di credito?
  4. Audit automatizzato Che cosa manca: l’equivalente dei “test unitari” per bias, privacy-leak, sicurezza. Tecnica promessa: proof-of-fairness crittografica che certifichi l’assenza di discriminazioni senza svelare i dati.
  5. Interoperabilità semantica Tradotto: far dialogare un GPT addestrato su medicina con un LLM legale senza fare pasticci di terminologia. Perché è duro: serve ontologia condivisa (tipo “dizionario ufficiale”) o rischiamo errori di traduzione che valgono multe da antitrust.

9.3 Dalla teoria alla pratica: chi fa che cosa domani mattina

Article content

Termini rapidi

Sandbox regolatoria: ambiente di test con regole semplificate e supervisione stretta, per sperimentare senza mettere a rischio il pubblico.

Proof-of-fairness: tecnica crittografica che dimostra proprietà (es. assenza di bias) senza rivelare i dati.

System card: documento tecnico-operativo che descrive cosa fa un modello, i suoi limiti, i dataset usati.


Take-aways (Capitolo 9)

  • Stiamo entrando in un’economia dei gradienti: l’errore è la nuova moneta, i dati il nuovo petrolio, i watt il nuovo oro.
  • Hayek ci insegna che la conoscenza resta distribuita, perciò servono architetture eque che non schiaccino la pluralità; Galbraith ricorda che senza contrappesi il potere informativo diventa monopolio.
  • Cinque nodi restano sul tavolo: carbon budget, open-source certificato, mercati di gradienti, audit automatizzati, interoperabilità semantica.
  • Tutti hanno un ruolo: sviluppatori (documentare e ottimizzare), legislatori (regole chiare e sandbox), cittadini (pretendere trasparenza e contribuire). Nessuno, nemmeno l’LLM più brillante, può farcela da solo.

Capitolo 10

Bibliografia, sitografia & “Topolino-grafia” 🎩📚

Come leggere questa lista

  • I classici accademici si trovano in biblioteca; per quelli online trovate il link citato.
  • Le fonti “calde” (news, white-paper, blog) sono datate 2024-25, così restiamo sul pezzo.
  • In coda, quattro avventure di Topolino & Co. dove computer e cervelloni fanno danni ben prima delle GPU farms.

10.1 Classici di economia & informazione

Autore – Titolo – Dettagli

  • F. A. Hayek –The Use of Knowledge in Society -AER 35 (4), 1945
  • F. A. Hayek –The Pure Theory of Capital – Routledge, 1941
  • F. A. Hayek – Individualism and Economic Order – U. Chicago Press, 1948
  • J. K. Galbraith – American Capitalism – Houghton Mifflin, 1952
  • J. K. Galbraith – The New Industrial State – Houghton Mifflin, 1967
  • L. Walras – Éléments d’économie politique pure – 1874/1899
  • K. Arrow & G. Debreu – “Existence of an Equilibrium…” – Econometrica 22 (3), 1954
  • R. Radner – “Team Decision Problems” – Ann. Math. Stat. 33 (3), 1962
  • J. E. Stiglitz & A. Weiss – “Credit Rationing…” – AER 71 (3), 1981
  • R. M. Townsend – “Forecasting the Forecasts of Others” – JET 27 (2), 1983
  • H. Theil – Economics and Information Theory – North-Holland, 1967

10.2 Fondamenta di AI, gradienti & mercati

Titolo – Fonte

  • Rumelhart, Hinton & Williams (1986) “Learning Representations by Back-Propagating Errors” Nature
  • McMahan et al. (2017) “Communication-Efficient Learning …” AISTATS
  • Hanson (2003) “Combinatorial Information Market Design” Info Sys Frontiers

10.3 Bias, survey AI & monoculture

Titolo – Dettagli

  • Bisbee, J. H. et al. (2024) “Synthetic Replacements for Human Survey Data? The Perils of Large Language Models” Political Analysis 32 (4): 401-416 DOI 10.1017/pan.2024.5 Cambridge University Press & Assessment
  • Qu, Y. & Wang, J. (2024) “Performance and Biases of Large Language Models in Public Opinion Simulation” Humanities & Social Sciences Comm. 11 (1095) Nature
  • Generative language models exhibit social identity biases (2025) Nature Computation Nature
  • Shumailov et al. (2024) “AI Models Collapse When Trained on Recursively Generated Data” Nature 623 IEA

10.4 Politiche, auditing & governance

Titolo – Fonte

  • EU Artificial Intelligence Act – testo approvato 13 mar 2024
  • Digital Services Act & ECAT – portale trasparenza algoritmica, 2024
  • OECD (2024) Framework for AI Auditing (working paper)
  • OpenAI System Cards GPT-4 / GPT-4o (2024-25) inducks.org

10.5 Hardware, energia & centralizzazione

  • Shilov A. (2023) “Nvidia to Triple Output of Compute GPUs in 2024” Tom’s Hardware
  • IEA (10 apr 2025) “AI is set to drive surging electricity demand from data centres …”
  • Microsoft (2025) “The Golden Opportunity for American AI”
  • Reuters (Jun 2023) “AWS us-east-1 outage highlights cloud fragility”

10.6 Implementazioni & casi d’uso

Contenuto

  • Apple (2024) Private Cloud Compute white-paper
  • AWS re:Invent 2024 session ARC-402 “Hybrid LLM at scale”
  • McKinsey (2025) State of AI report

10.7 Topolino-grafia 🦆💾 – Paperi & calcolatori

“Zio Paperone e il sosia elettronico” – R. Cimino (S), R. Scarpa (D)

Disney Comic Guide

1984 – I TL 1477-A

“Zio Paperone e il personal computer” – Monti & Bargadà Studio

Comic Vine

1984 – I TL 1503-C

“Paperino e la casa elettronica” – G. Pezzin (S), M. De Vita (D)

inducks.org

1994 – I TL 2036-A

“Topolino e il cervellone senza cervello” – E. Missaglia (S), L. Gatto (D)

Libero.it

Moralino disneyano: a Paperopoli l’entusiasmo per il “cervellone” dura finché non va in tilt – poi serve l’ingegno distribuito di Archimede e nipoti. Hayek farebbe 👍, Galbraith direbbe “visto?”.


Discover more from The Puchi Herald Magazine

Subscribe to get the latest posts sent to your email.