Il Web è pieno di giornali, riviste e giornalisti.
Noi di Paid To Write siamo convinti che TU possa fare meglio di loro.
partecipa al nostro progetto

La Rete Del Futuro


11 settembre 2017 ore 18:12   di RobBov80  
Categoria Tecnologia e Scienze  -  Letto da 445 persone  -  Visualizzazioni: 468

Quando si pensa al progresso tecnologico del web, normalmente i nostri pensieri corrono subito allo sviluppo software che ha portato alla nascita dei social, di YouTube, delle app, ecc.
Curiosamente, ci stiamo sempre più dimenticando che alla base di questo universo virtuale c’è un’architettura hardware, la cui evoluzione non si è fermata e che, anzi, sta per affacciarsi a due importanti rivoluzioni che cambieranno per i decenni a venire il volto di Internet: siamo parlando della Grid e dei computer quantistici.

Il 2008 è stato un anno cruciale per la fisica delle alte energie: in quell’anno, infatti, cominciarono i primi esperimenti all’LHC – Large Hadron Collider – ovvero il più grande strumento scientifico mai realizzato dall’uomo; un acceleratore di particelle di 27 km di diametro situato al confine tra Francia e Svizzera, il cui scopo è quello di verificare le principali previsioni del Modello Standard, la teoria che descrive le particelle elementari e le loro interazioni.


La quantità di dati prodotta dai suddetti esperimenti che è stata memorizzata ed elaborata è enorme: circa 15 petabytes (ovvero 15 milioni di miliardi di bytes), una mole tale da richiedere una capacità di calcolo equivalente a quella di decine di migliaia di elaboratori di ultima generazione, impossibili da contenere tutti in un solo centro di ricerca, per quanto grande esso sia.
Per aggirare l’ostacolo, al CERN hanno pensato bene di creare Grid, una vasta rete telematica mondiale che utilizza il calcolo distribuito per analizzare i risultati e per metterli poi, in un secondo tempo, a disposizione di tutti gli utenti del web.

La Rete Del Futuro

Il calcolo distribuito è una tecnica che usufruisce delle risorse di un certo numero di computer collegati fra loro, generalmente attraverso internet, per risolvere problemi computazionali su scala molto estesa. In altri termini, una infrastruttura per il calcolo distribuito si fonda su software che utilizzano i processori degli elaboratori, connessi a reti locali o globali, come se fossero processori disposti sulla stessa scheda madre di un calcolatore destinato per calcolo parallelo. Requisito necessario è che i computer partecipanti abbiano un software che sfrutta i tempi morti di utilizzo della CPU, a mo’ di screensaver, in maniera da non ridurre le funzioni delle piattaforme su cui operano, elaborando parti minori di un progetto di ricerca molto più ampio.
Uno dei più famosi esempi di calcolo distribuito è quello di SETI@home, un progetto nato nel 1999 dal SETI institute per la ricerca di vita extraterrestre, al quale poteva partecipare qualunque utente di Internet semplicemente installando il programma specifico.

Grid è un progetto che ha mosso i primi passi nel 2000, e che in breve tempo ha coinvolto 12 grandi centri di calcolo, tra cui l'Istituto nazionale di fisica nucleare di Bologna, e 20 centri di dimensioni inferiori. Il potere di trasmissione dati di questa rete è impressionante: il 15 febbraio 2006, durante la conferenza internazionale Computing for High Energy and Nuclear Physics a Mumbai, in India, è stato registrato per la Grid il record di 1200 megabytes di informazione trasferiti al secondo, sufficienti per scaricare il contenuto di un intero Dvd in meno di cinque secondi!

La Grid è dotata di prestazioni molto superiori a quelle del web: esso, infatti consente principalmente solo di scambiare in rete testi, immagini o filmati preesistenti. La Grid permetterà invece di condividere grandi risorse di calcolo e di accedere a banche dati di ogni tipo e di dimensioni molto grandi, consentendo così anche di creare e rendere continuamente disponibili nuovi prodotti e nuove conoscenze. Si prospetta, insomma, per il prossimo futuro una rivoluzione telematica paragonabile alla nascita del World Wide Web che, tanto per cambiare, nacque proprio nei laboratori del CERN!

Il computer del futuro?

Immaginate che un giorno la capacità di miniaturizzare i circuiti elettronici giunga ad un limite, con la nefasta conseguenza di non poter più migliorare le prestazioni dei microprocessori che stanno alla base dei nostri computer. Ebbene, quel giorno non è poi così lontano, e la causa di tutto è da ricondursi ai bizzarri effetti della meccanica quantistica che dominano i fenomeni fisici quanto più ci si avvicina alla scala di grandezza di atomi e molecole. Ma da qualche anno a questa parte, è nata una nuova speranza per il progresso dei futuri elaboratori elettronici: il suo nome è "qubit".

Uno, nessuno, o… entrambi!

Com’è noto, l’unità base dell’informazione trattata da un elaboratore è il bit, rappresentato dai soli valori 0 e 1. Nel nuovo paradigma quantistico, l’analogo del bit si chiama "quantum bit" o, brevemente, "qubit".
Immaginiamo un atomo che si trovi nel suo stato fondamentale, ed associamo ad esso il valore 0; poi immaginiamo che lo stesso atomo venga eccitato da un fotone – particella della luce – e associamogli ora il valore 1. In una visione classica della realtà, il nostro atomo può assumere solo i valori 0 e 1, comportandosi quindi come un perfetto bit classico. Ma, come insegnano i postulati della meccanica quantistica, quello che viene identificato come lo stato globale dell’atomo prima che ne venga effettuata una misura (ossia quando il sistema è ancora imperturbato) è in realtà una sovrapposizione di entrambi i valori 0 e 1, e questo stato ibrido è il nostro qubit. Solo in un secondo tempo, quando effettueremo la misura, il qubit "collasserà" in un bit ordinario assumendo o il valore 0, o il valore 1.
Il vantaggio di questa nuova unità di misura è la possibilità, da parte della macchina, di effettuare calcoli in parallelo – a differenza dei calcolatori classici che lavorano linearmente – aumentando perciò in maniera esponenziale la velocità di elaborazione dei dati.
Ad esempio, con appena una quarantina di qubit si potrebbe rappresentare ogni numero binario da zero a più di un trilione simultaneamente!

La Rete Del Futuro

Qui sopra è rappresentata la "sfera di Bloch", oggetto matematico in cui un qubit viene rappresentato come un raggio vettore di essa.

Isolamento forzato.

Così come il qubit rappresenta la controparte quantistica del bit, esiste già un ampio bagaglio teorico sulle porte logiche preposte al trattamento dei dati in regime quantistico. La principale peculiarità di queste strutture, però, risiede nell’assoluta necessità di un loro completo isolamento dal mondo esterno, in quanto ogni possibile interazione con esso provocherebbe il collasso dei nostri qubit prima che la loro elaborazione sia compiuta.
In sostanza, gli ostacoli maggiori sono i seguenti: come si può creare un sistema di elaborazione che sia totalmente e permanentemente isolato dal mondo esterno? Ma soprattutto, come si può sperare di inserire dei dati in tale sistema e di leggere i risultati in uscita senza comprometterne lo status d’isolamento?
A questi e a molti altri importanti quesiti stanno rispondendo in questi ultimi anni parecchi fisici e ingegneri di tutto il mondo, e la produzione scientifica al riguardo diventa ogni anno sempre più prolifica.

Specchi, magneti e trappole ioniche.

Un sistema fisico che pare promettere abbastanza bene nella rappresentazione dei qubit è il fotone, al quale possiamo associare il valore 0 o 1 a seconda della sua polarizzazione (es.: 0° per il valore 0 e 90° per il valore 1). La fonte generatrice dei nostri fotoni, quindi degli input, sarà un fascio laser fortemente attenuato; l’elaborazione dei dati verrà poi eseguita da porte logiche composte da specchi e divisori di fascio, ed i risultati verranno letti da appositi rivelatori come, ad esempio, tubi fotomoltiplicatori.
Un’ altra grande promessa per la realizzazione del computer quantistico viene dalla risonanza magnetica nucleare (NMR): nel 2000 Isaac Chuang, dell’Ibm-Almaden Research Center, in collaborazione con Michael Nielsen, ha realizzato un dispositivo a 7 qubit facendo interagire 7 nuclei di fluoro attraverso impulsi radio, rilevati poi da un apparecchio per risonanza magnetica nucleare molto simile a quelli utilizzati negli ospedali.

La Rete Del Futuro

Qui sopra, Isaac Chuang e il suo dispositivo a 7 qubit.

La trappola ionica è invece un congegno che associa un qubit ad un particolare stato d’eccitazione di singoli ioni mantenuti separati da una griglia di minuscoli elettrodi, e la computazione dei qubit è affidata a impulsi laser che alterano lo stato dello ione interessato.
Attualmente, i gruppi di ricerca che lavorano sugli sviluppi della trappola ionica, tra cui i ricercatori del Bell Labs di Lucent Technologies, sono riusciti a raggiungere capacità di calcolo fino a 10 qubit.
Finora questi sono i candidati più promettenti per la nascita del primo vero computer quantistico, anche se molti altri sono i sistemi presi in considerazione e oggetto di innumerevoli esperimenti, come il condensato di Bose-Einstein, la cavità quanto-elettrodinamica, i materiali superconduttori, ecc. Il problema primario rimane sempre quello di riuscire a realizzare un elaboratore con un numero consistente di qubit senza che intervenga il cosiddetto fenomeno della decoerenza, ossia di collasso dello stato dei qubit in bit classici, prima che l’elaborazione richiesta sia compiuta.

La chimera quantica?

Nonostante gli incoraggianti e numerosi progressi, il campo della computazione quantistica è ancora nella sua fase embrionale, e molti addetti ai lavori non prevedono la nascita di un elaboratore completo prima del 2020. Inoltre, l’allettante prospettiva di una macchina quantistica dotata di capacità milioni di volte superiori a quelle degli attuali calcolatori è al momento più vicina al sogno che alla realtà.
Tuttavia, la ricerca in questo campo sta offrendo un aiuto preziosissimo nello studio dei misteriosi fenomeni del mondo quantistico (come, ad esempio, l’entanglement o la dualità onda-particella), inoltre fondamentale è anche il contributo fornito allo sviluppo delle comunicazioni e della tecnologia informatica.
Il computer quantistico è insomma ancora più una bella speranza che una certezza prossima ventura, ed ogni previsione attuale sulle sue reali potenzialità appare oggi un po’ troppo azzardata.
Ma proprio come amava ripetere il grande fisico Niels Bohr, uno dei padri della meccanica quantistica: "le predizioni sono molto difficili, specialmente per il futuro".

Roberto Bovolenta

Articolo scritto da RobBov80 - Vota questo autore su Facebook:
RobBov80, autore dell'articolo La Rete Del Futuro
Fai conoscere ad altre persone questo articolo: condividi o promuovi questa notizia su Facebook e su tanti altri canali:
Condividi Questo Articolo!

 

Inserisci un Commento:

( ti consigliamo di effettuare il login per commentare più efficacemente )
Codice di Verifica:
Per ragioni di sicurezza verrà registrato anche l'indirizzo IP del tuo computer

Seguici Su...


 
 
 
 
Diventa anche tu parte di
Paid To Write Clicca qui!
segui paid to write su facebook

Articoli Più Letti

Tecnologia e Scienze
Oggi    Sett.    Mese    Sempre   

Articoli Più Votati

Tecnologia e Scienze
Oggi    Sett.    Mese    Sempre   

Paid To Write - Il Giornalista Sei Tu

Tutti i contenuti pubblicati su Paid To Write sono soggetti alla licenza Creative Commons.
Licenza Creative Commons
È permesso riportare i nostri articoli ma solo se accompagnati da un backlink dofollow (senza cioè il tag nofollow) verso il nostro contenuto originale.
Paid To Write
Il Giornalista Sei Tu
© 2012 PI 00877530147
Paid To Write Network
Contattaci
Privacy
Disclaimer e Redazione