La nuova frontiera dell’informatica: il computer quantistico, di Giorgio Bagnasco

Quando pensiamo ai padri dell’informatica, ci vengono in mente Turing, Von Neumann o i geniali ingegneri della Silicon Valley. Eppure, la storia comincia con una donna, quasi due secoli fa, in un’Inghilterra intrisa di carbone, vapore e rivoluzione industriale. Si chiamava Ada Lovelace, figlia del poeta Lord Byron, e fu lei a intuire — descrivendolo nero su bianco nel 1843 — che una macchina poteva andare oltre il semplice calcolo numerico. Poteva manipolare simboli, creare relazioni logiche, persino produrre musica: era l’idea del software, quando il software ancora non esisteva. Quel filo rosso che lega l’Ottocento vittoriano ai laboratori ipertecnologici di oggi c’è ancora, è l’idea — quasi mistica, prima ancora che matematica — che il pensiero umano possa essere tradotto in istruzioni, algoritmi, simboli. Ada Lovelace, nel suo commento alla macchina analitica di Charles Babbage, ebbe l’audacia di pensare che potesse manipolare concetti astratti come fa una mente.

E lo scrisse in modo così chiaro che, a distanza di quasi due secoli, viene considerata il primo programmatore della storia. Babbage immaginò l’hardware, Ada intuì il software.
L’umanità avrebbe impiegato più di cento anni per concretizzare quella visione.

Il computer classico: un mondo a base di 0 e 1

Dall’intuizione visionaria di una signorina borghese di metà 800, siamo passati alle gigantesche macchine con valvole e un rumore di fondo quasi militare degli anni ’40 e ’50; poi ai transistor, ai circuiti integrati, ai microprocessori; al personal computer sulle scrivanie; a internet; agli smartphone in tasca, che fanno più operazioni di quante ne facesse la NASA ai tempi dell’Apollo 11. Una cavalcata impressionante, ma ancora basata sullo stesso pilastro: il bit.

Ogni dispositivo digitale che usiamo oggi, dal laptop al bancomat passando per la smart TV, funziona così:

  • i dati vengono tradotti in sequenze di 0 e 1,
  • i transistor aprono o chiudono il passaggio di corrente,
  • e l’elaborazione avviene attraverso logiche sì/no.

Questo modello è potentissimo, affidabile, ripetibile. Ma ha un limite: è binario.
E soprattutto — fisicamente — si avvicina a un punto di non ritorno. I transistor sono arrivati a essere grandi pochi nanometri. Tutto questo si basa ancora su un principio elementare: la precisione con cui controlliamo il passaggio di elettroni attraverso una rete logica. Più veloci, più piccoli, più economici — ma pur sempre confinati nel paradigma di un bit alla volta.

Andare oltre significa sfidare direttamente le leggi della fisica classica. Ed è proprio lì che entra in scena la prossima rivoluzione.

Dal mastodontico al tascabile: un’evoluzione vertiginosa

Negli anni ’40, l’ENIAC riempiva un’intera stanza, consumava come una piccola cittadina e si programmava inserendo a mano migliaia di cavi.

Poi arrivarono:

  • Il transistor (1947) — l’invenzione che ha permesso di miniaturizzare tutto.
  • Il circuito integrato (1958) — componenti microscopici su una lastra di silicio.
  • Il microprocessore (1971) — l’intero cervello del computer in poche decine di millimetri.
  • Il personal computer (anni ’80) — l’informatica entra nelle case.
  • Internet (anni ’90) — le case entrano nell’informatica.
  • Lo smartphone (anni 2000/2010) — elaborazione e connessione sempre con noi.
  • L’intelligenza artificiale moderna — i dati come carburante del pensiero automatico.

Oggi siamo arrivati a transistor di 1-2 nanometri: pochi atomi.

A queste dimensioni, la fisica classica cede il passo alla quantistica: gli elettroni “non si comportano più come si è sempre pensato”. Tunneling, instabilità, interferenze: il limite fisico è dietro l’angolo.

È come voler scolpire su un granello di polvere.

Il computer quantistico: quando il bit diventa qubit

La nuova frontiera si chiama quantum computing e non sostituisce l’informatica tradizionale: la trasforma. Il cuore della differenza sta in una singola lettera: dal bit al qubit.

  • Il bit è o 0 o 1
  • Il qubit è 0, 1 e una combinazione dei due contemporaneamente

Sembra assurdo, ma è esattamente ciò che accade su scala subatomica: una particella può trovarsi in più stati allo stesso tempo fino a quando non viene osservata. È il principio della sovrapposizione.

Poi c’è un altro fenomeno: l’entanglement.

Due qubit possono diventare collegati in modo tale che conoscere lo stato di uno significa automaticamente sapere quello dell’altro, anche se si trovano a chilometri di distanza.

Einstein lo chiamava, con un misto di fascino e sospetto, “azione spettrale a distanza”.

Messa così sembra filosofia, invece è ingegneria pura.

Perché sono così rivoluzionari

I computer quantistici non sono semplicemente più veloci: pensano in un altro modo.

Dove una macchina tradizionale deve provare una soluzione alla volta, quella quantistica può esplorarne molte nello stesso momento.

Non serve immaginare miliardi di operazioni al secondo, ma miliardi di combinazioni elaborate contemporaneamente. E questo apre scenari concreti in campi finora proibitivi come:

  • crittografia e sicurezza (o la loro fine, in alcuni casi),
  • simulazioni chimiche e molecolari per farmaci e materiali,
  • ottimizzazione logistica per reti, traffico e rotte,
  • intelligenza artificiale e machine learning avanzato,
  • previsione ambientale, energetica e climatica.

Un esempio: progettare una nuova molecola efficace contro un tumore oggi richiede anni di tentativi, simulazioni, costi astronomici. Un computer quantistico potrebbe farlo in ore.

Il paradigma quantistico: cambiare le regole del gioco

Il quantum computing non è il prossimo passo dell’informatica: è un passo fuori dal sentiero.

L’idea non è solo “fare più calcoli”, ma esplorare simultaneamente possibilità diverse, grazie a due fenomeni:

1️ Sovrapposizione → un qubit non è 0 o 1 ma 0 e 1 fino alla misura.

Significa che un processore quantistico può valutare in parallelo molte configurazioni.

2️ Entanglement → i qubit possono essere legati in modo istantaneo.

Cambiare lo stato di uno influisce sull’altro indipendentemente dalla distanza.

Se i bit classici sono lampadine accese o spente, i qubit sono lampadine che possono essere accese, spente e in tutte le sfumature intermedie nello stesso istante.

Un computer tradizionale esplora un percorso per volta, anche se molto velocemente.
Un computer quantistico lavora come se percorresse più strade contemporaneamente.

Perché questa differenza sconvolge la nostra idea di calcolo

Facciamo un esempio semplice: un lucchetto con 100 cifre possibili.

  • Un computer classico deve provare una combinazione alla volta.
  • Un computer quantistico può valutare moltissime combinazioni in parallelo.

Ora pensa questo non applicato ai lucchetti, ma a:

  • decrittare sistemi di sicurezza,
  • ottimizzare la logistica globale,
  • simulare il comportamento di proteine nel corpo umano,
  • prevedere cosa accadrà a una rete elettrica o una catena di forniture.

Il quantum computing non renderà obsolete le nostre tecnologie, ma lavorerà dove “il classico” non ce la fa. Il fisico Richard Feynman lo riassunse con una frase storica: “Se vuoi simulare la natura, devi usare meccaniche naturali.”

E la natura — nel suo livello più intimo — è quantistica.

Le sfide: fragilità, errori, costi e… temperature impossibili

Se tutto ciò sembra fantascienza è perché, per certi aspetti, lo è ancora.

I qubit sono incredibilmente delicati: basta interagire con l’ambiente per perdere lo stato di sovrapposizione — il problema della decoerenza. Per farli funzionare servono condizioni da laboratorio:

  • temperature vicine allo zero assoluto (-273 °C),
  • vibrazioni ridotte al minimo,
  • campi elettromagnetici schermati,
  • sistemi complessi di correzione degli errori.

E nonostante tutto, oggi parliamo di computer quantistici con centinaia di qubit.
Per applicazioni mature ne serviranno migliaia, forse milioni.

Eppure, la corsa è iniziata: Google, IBM, Intel, Amazon, Microsoft, e un ecosistema di startup stanno scommettendo su questa tecnologia con investimenti miliardari.

Cosa cambia per noi e perché ci riguarda tutti

La rivoluzione potrebbe toccare aspetti molto concreti della vita quotidiana, anche se indirettamente.

  • Sanità
    Farmaci personalizzati, simulazioni di molecole, terapie ottimizzate.
  • Energia
    Batterie più resistenti, materiali più leggeri, pannelli più efficienti.
  • Ambiente e clima
  • Modelli predittivi più accurati, gestione smart delle risorse.
  • Finanza
    Ottimizzazione dei portafogli, rilevamento frodi, simulazioni complesse.
  • Intelligenza artificiale
  • Addestramento di modelli oltre i limiti attuali.
  • Sicurezza
    Qui sta la parte delicata: se un computer quantistico riuscisse a rompere gli algoritmi di cifratura attuali, interi sistemi bancari, militari, sanitari andrebbero ripensati.

Non a caso si parla già di post-quantum cryptography: nuove tecniche di sicurezza pensate apposta per resistere ai futuri computer quantistici.

Dalla visione alla realtà: dove siamo oggi

Siamo dove eravamo con l’informatica negli anni ’50: le macchine esistono, sono costose, instabili, usate quasi solo da enti governativi e grandi centri di ricerca. Ma la traiettoria è definita.

Nel 1943, il presidente di IBM Thomas Watson disse: “Penso ci sia mercato mondiale per al massimo cinque computer.”

Nel 2005, chi avrebbe pensato che un telefono sarebbe stato una videocamera, un navigatore, un traduttore, un ufficio completo? Quando il paradigma cambia, cambiano le previsioni, le possibilità, e persino le paure.

Cosa NON faranno, per ora

Non avremo un “quantum smartphone” in tasca. Non sostituiranno Word o Netflix. Non useremo un PC quantistico per controllare l’home banking.

Saranno macchine specializzate, enormi, costosissime, con tecnologie estreme (tipo lavorare a -273 gradi vicino allo zero assoluto). Ma saranno le macchine che sbloccheranno i problemi che oggi sembrano irrisolvibili.

E Ada Lovelace cosa direbbe?

Col suo piglio di pioniera in un’era ostile alle donne vedeva la musica. Turing vedeva la logica. Oggi noi vediamo una nuova frontiera. La storia dell’informatica ci ha dimostrato che ogni salto appariva impossibile fino al giorno prima. E se i computer classici ci hanno portato a internet, all’IA e alla conquista dei dati, i computer quantistici potrebbero portarci a qualcosa che non abbiamo ancora un linguaggio per descrivere.

Ada forse sorriderebbe. Perché i computer quantistici non sono solo macchine più potenti: stanno realizzando la sua visione originaria. Non più dispositivi che “contano numeri”, ma strumenti che modellano la realtà, che manipolano le possibilità prima ancora che le certezze. Non più soltanto macchine che eseguono istruzioni, ma che esplorano scenari.

E in quella intuizione c’è tutto: un computer non è semplicemente un calcolatore, ma un’estensione del pensiero umano. Dopotutto — come si racconta nell’ambiente — se l’informatica classica ci ha insegnato a elaborare l’informazione, quella quantistica potrebbe insegnarci a comprenderla.