Finestre.  Virus.  I Quaderni.  Internet.  ufficio.  Utilità.  Autisti

(Centro per la Ricerca Applicata delle Reti di Calcolatori)

TSPIKS è un progetto di ricerca per creare tecnologie e prodotti per reti di computer nuova generazione in Russia. Sviluppiamo e implementiamo gli ultimi e tecnologie promettenti nel campo delle reti informatiche e di Internet, dimostriamo e testiamo l'efficacia di queste tecnologie nei compiti dell'industria e degli affari. Residente del cluster IT della Skolkovo Innovation Foundation.

Tendenze nello sviluppo delle reti di computer e di Internet

Il materiale è stato preparato appositamente per la rivistaRecensione Skolkovo

Oggi è impossibile immaginare la nostra vita senza Internet e la tecnologia dell'informazione. Sono entrati saldamente nella nostra vita, semplificandola notevolmente. Con lo sviluppo della tecnologia dell'informazione, ci vengono resi disponibili nuovi strumenti che rendono i processi a cui siamo abituati più veloci, convenienti ed economici. Tuttavia, i cambiamenti che stiamo vedendo ora sono solo la punta dell'iceberg. Il networking è solo all'inizio del suo percorso di crescita e le grandi innovazioni sono davanti a noi. Allora, quale evoluzione per i prossimi decenni si può prevedere già oggi, visto in quale direzione sta andando lo sviluppo delle reti informatiche e di Internet?
1. La portata del pubblico crescerà, Internet apparirà nei luoghi più remoti del pianeta.
Entro la fine del 2012, il numero di utenti Internet in tutto il mondo ha raggiunto 2,4 miliardi di utenti in tutto il mondo. Entro il 2020, secondo le previsioni della US National Science Foundation, il numero di utenti di Internet salirà a 5 miliardi e Internet diventerà più distribuito geograficamente. La maggiore crescita di utenti nei prossimi 10 anni proverrà dai paesi in via di sviluppo dell'Africa (che ora utilizzano non più del 7%), dell'Asia (circa il 19%) e del Medio Oriente (circa il 28%). In confronto, oltre il 72% dei nordamericani utilizza attualmente Internet. Questa tendenza significa che entro il 2020 Internet non solo raggiungerà luoghi remoti nel mondo, ma supporterà molte più lingue e non solo il sistema di codifica ASCII a cui siamo abituati. Gli utenti russi di Internet, secondo il Ministero delle Comunicazioni della Federazione Russa, all'inizio del 2012 erano 70 milioni di persone. Secondo questo indicatore, la Russia è risultata prima in Europa e sesta nel mondo. Secondo i risultati di uno studio dell'agenzia RBC.research, il livello di penetrazione di Internet in Russia nel 2018 supererà l'80%.
2. Dentro tecnologie dell'informazione inizia un'era Software.
Ora siamo in una fase di intellettualizzazione del "ferro", quando il software diventa più importante dell'hardware stesso. L'industria del software crescerà a un ritmo rapido: nel 2010. il tasso di crescita annuale del software è stato di almeno il 6%, nel 2015 il volume di mercato raggiungerà i 365 miliardi di dollari, un quarto dei quali ricade sul mercato delle applicazioni aziendali. Il mercato dell'hardware si ridurrà: la dimensione del mercato nel 2013 era di 608 miliardi di dollari, il tasso di crescita dal 2008 al 2013 è negativo -0,7%. Fino al 2018 è prevista una crescita del 2,1%, dovuta principalmente alla crescita del mercato dei PC (crescerà del 7,5%) e delle periferiche (stampanti, scanner, ecc.). Il XXI secolo è il secolo tecnologie senza fili. Solo nel 2009, il numero di abbonati alla banda larga mobile (3G, WiMAX e altre tecnologie di trasmissione dati ad alta velocità) è aumentato dell'85%. Entro il 2014, si prevede che 2,5 miliardi di persone in tutto il mondo utilizzeranno la banda larga mobile.
3. Aumento della velocità di trasferimento dei dati e della larghezza di banda.
Ad oggi, la velocità di trasferimento dati in buoni computer- 40 Gbps Ad esempio, 4 volumi del romanzo "Guerra e pace" di L. Tolstoy sono circa 40 Mbps, ad es. 1000 volte più piccolo! Questi 4 volumi possono essere trasferiti in meno di 1 microsecondo. Ma nel prossimo futuro sarà possibile trasferire dati alla velocità della luce. Già oggi esiste la tecnologia WiGik, che consente di trasferire informazioni a una velocità di 7 Gbit / s su una distanza di diversi chilometri. metodo di codifica delle informazioni livello fisico. Lo stesso vale per la larghezza di banda. Secondo Cisco, oggi Skype ha oltre 35 milioni di utenti simultanei, Facebook ne ha oltre 200 milioni e ogni minuto vengono caricate 72 ore di video su YouTube. Gli esperti prevedono che entro il 2015 il numero di dispositivi in ​​rete sarà il doppio della popolazione mondiale. Entro il 2014, circa l'80% di questo traffico sarà traffico video. Immagini e file video che vengono costantemente scambiati sul World Wide Web richiedono una maggiore larghezza di banda. E le tecnologie si svilupperanno in questa direzione. Gli utenti comunicheranno e condivideranno informazioni tramite video e voce in tempo reale. Stanno emergendo sempre più applicazioni di rete che richiedono un'interazione role-time.
4. WEB semantico.
Si va giustamente verso un "web semantico" in cui all'informazione viene attribuito un significato preciso che consente ai computer di "comprenderla" ed elaborarla a livello semantico. Oggi i computer lavorano a livello sintattico, a livello di segni, leggono ed elaborano informazioni secondo segni esterni. Il termine Semantic Web è stato coniato per la prima volta da Sir Tim Berners-Lee (uno degli inventori del World Wide Web) su Scientific American. Il WEB semantico ti consentirà di trovare informazioni cercando: "Trova informazioni su animali che utilizzano la posizione del suono, ma non sono né un pipistrello né un delfino", ad esempio.
5. Nuovi oggetti di trasferimento.
Grazie allo sviluppo delle nuove tecnologie sarà possibile trasmettere attraverso reti informatiche ciò che prima sembrava impossibile. Ad esempio, l'olfatto. La macchina analizza la composizione molecolare dell'aria in un punto e trasmette questi dati attraverso la rete. In un altro punto della rete, questa composizione molecolare, cioè l'odore è sintetizzato. Un prototipo di tale dispositivo è già stato rilasciato dalla società americana Mint Foundry, si chiama Olly, fino a quando non è stato messo in vendita. Tuttavia, presto potremo vedere l'incarnazione di queste possibilità nella vita di tutti i giorni.
6. Internet diventerà una rete di cose, non solo computer. Oggi ci sono oltre 700 milioni di computer su Internet (secondo CIA World Factbook 2012). Ogni anno aumenta il numero di dispositivi che vanno online per l'utente: computer, telefoni, tablet, ecc. Già oggi il numero di indirizzi IP supera la popolazione della Terra (gli indirizzi IP sono necessari per il funzionamento degli elettrodomestici). Con la nuova architettura delle reti informatiche arriverà l'era dell'"Internet delle cose". Le cose e gli oggetti interagiranno attraverso le reti, questo aprirà grandi opportunità per tutte le sfere della vita umana. Uno degli sviluppi più vicini è la "polvere intelligente": sensori sparsi su una vasta area che raccolgono informazioni. La US National Science Foundation prevede che quasi un miliardo di sensori su edifici, ponti e strade saranno connessi a Internet per scopi quali il monitoraggio dell'uso dell'elettricità, la sicurezza e così via. In generale, si prevede che entro il 2020 il numero di sensori connessi a Internet sarà di un ordine di grandezza superiore al numero di utenti. In continuità con questo pensiero si possono citare le riflessioni di Vinton Gray Cerf (matematico americano, considerato uno degli inventori del protocollo TCP/IP, vicepresidente Google): “Supponiamo che tutti i prodotti che metti in frigorifero siano dotati di uno speciale codice a barre o microchip in modo che il frigorifero registri tutto ciò che ci metti dentro. In questo caso, mentre sei all'università o al lavoro, puoi visualizzare queste informazioni dal tuo telefono, orologio diverse varianti ricette e il frigorifero ti suggerirebbe cosa cucinare oggi. Se espandiamo questa idea, otteniamo approssimativamente la seguente immagine. Vai al negozio e mentre sei lì, il tuo cellulare squilla: questo è lo squillo del frigorifero, che ti consiglia esattamente cosa vale la pena acquistare. La Smart Internet trasformerà i social network (così come li abbiamo oggi) in sistemi di social media. Le telecamere saranno installate nei locali vari sensori. Attraverso il tuo account, puoi nutrire gli animali domestici e correre lavatrice, Per esempio.
7. Robotizzazione della società.
Già oggi conosciamo esempi di veicoli aerei senza equipaggio, aspirapolvere automatici, robot della polizia che "lavorano" in Giappone: tutte queste tecnologie svolgono le loro funzioni senza intervento umano. E ogni anno la penetrazione di tali macchine non farà che aumentare. Uno dei problemi irrisolvibili nelle tecnologie informatiche è il problema di ricreare il pensiero da un computer. Tuttavia, è possibile collegare il cervello umano con quello cibernetico, sistema informatico. Considera il film Robocop. Già oggi ci sono esperimenti simili, quando una protesi della gamba o del braccio di una persona è attaccata al midollo spinale. Ricordiamo l'esempio del corridore sudafricano Oscar Pistorius, che fin dall'infanzia è stato privato di entrambe le gambe, ma nelle competizioni ha superato concorrenti assolutamente sani, grazie alle protesi in carbonio. Secondo gli esperti, il primo di questi "superuomini", organismo cibernetico apparirà prima del 2030. Lui f fisicamente perfetto, resistente alle malattie, alle radiazioni e alle temperature estreme. Eppure avrà un cervello umano.
8. Il nuovo status di una persona su Internet.
Internet sta cambiando la vita di una persona. " Il World Wide Web» diventa non solo una piattaforma per ottenere informazioni e comunicazioni, ma anche uno strumento per l'attuazione esigenze domestiche: come fare acquisti, pagare bollette, ecc. Internet ha cambiato il rapporto di una persona con lo Stato. La comunicazione personale, gli appelli personali a servizi speciali saranno ridotti al minimo. Invia documenti all'università, chiama un'ambulanza, scrivi una dichiarazione alla polizia, rilascia un passaporto: tutto questo può già essere fatto elettronicamente oggi. Lo stato continuerà ad essere costretto a generare servizi via Internet. Già oggi la gestione elettronica dei documenti in tutto il paese è la priorità più importante del Ministero delle telecomunicazioni e delle comunicazioni di massa della Federazione Russa. È necessario parlare del nuovo status di una persona nel mondo delle tecnologie Internet. L'accesso alla rete diventerà un diritto civile di ogni persona, sarà sacro tutelato e controllato dalla legge insieme ad altre libertà civili. Questo è il prossimo futuro. Pertanto, il concetto di democrazia nella società sta cambiando. Per volontà dei cittadini non servono più piattaforme speciali, tribune e media. A questo proposito, ci sarà un minimo di anonimato. Il lusso di cambiare password e creare account con nomi inesistenti, lasciando commenti caustici sotto un cappello dell'invisibilità, molto probabilmente non lo farà. Il login / password per l'accesso alla rete può diventare un mezzo per identificare una persona e ad essa saranno legati i dati del suo vero passaporto. Inoltre, molto probabilmente non verrà piantato "dall'alto", come tentativo di censura e controllo. E il desiderio della società stessa, il bisogno "dal basso". Perché più la vita su Internet è reale, più trasparenza vorranno i suoi utenti. La reputazione di una persona nella vita determinerà la sua reputazione nella rete globale, non ci saranno biografie inventate. Dopo aver determinato i dati di una persona, la rete stessa creerà filtri e pass per accedere alle informazioni su limitazioni d'età, alle informazioni private, ai vari servizi conformi alla solvibilità e anche all'affidabilità sociale.
9. Cambiamenti nel mercato del lavoro e nell'istruzione.
Penetrazione attiva tecnologie di rete e Internet porterà cambiamenti nel mercato del lavoro e nell'istruzione. Internet è già diventato uno strumento di comunicazione globale e chiave, si sta sempre più trasformando da piattaforma di intrattenimento a piattaforma di lavoro. Mezzi sociali, E-mail Skype, risorse informative, siti aziendali e programmi integrati nel computer vincolano le persone non tanto a un ufficio specifico quanto al computer stesso. E qui non importa da dove lo usi: dal lavoro, da casa, da un bar o dalla costa dell'Oceano Indiano. Ci saranno sempre più dipendenti che svolgeranno il proprio lavoro da remoto. E ci saranno sempre più uffici in "tasca", ad es. imprese virtuali che esistono solo su Internet. Anche le persone che ricevono istruzione a distanza attraverso nuovi formati forniti da Internet. Ad esempio, oggi alla Stanford University, 25.000 persone ascoltano contemporaneamente una lezione di due professori!
10. Internet diventerà più verde.
La tecnologia di rete consuma troppa energia, il suo volume sta crescendo e gli esperti concordano sul fatto che la futura architettura delle reti di computer dovrebbe essere più efficiente dal punto di vista energetico. Secondo il Lawrence National Laboratory dell'Università di Berkeley, la quantità di energia consumata dalla rete globale è raddoppiata (!) tra il 2000 e il 2006 (!). Internet occupa il 2% del consumo mondiale di elettricità, che equivale alla capacità di 30 centrali nucleari: 30 miliardi di watt. La tendenza verso l'"inverdimento" o l'"inverdimento" di Internet accelererà con l'aumento dei prezzi dell'energia.
11. Armi informatiche e guerre informatiche.
Lo sviluppo delle tecnologie Internet e delle capacità delle reti informatiche ha un altro lato della medaglia. Si va dai crimini informatici associati all'aumento dell'e-commerce su Internet, alle guerre informatiche. Il cyberspazio è già ufficialmente riconosciuto come il quinto "campo di battaglia" (lo stesso di terra, mare, spazio aereo e spazio). La Marina degli Stati Uniti ha persino creato le truppe informatiche CYBERFOR nel 2010, che sono direttamente subordinate al comando della Marina degli Stati Uniti. Oggi, non solo i PC degli utenti ordinari, ma anche i sistemi industriali che controllano i processi di produzione automatizzati sono soggetti agli attacchi dei virus da parte degli hacker. Il worm dannoso può essere utilizzato per lo spionaggio, così come per il sabotaggio di centrali elettriche, aeroporti e altre imprese di supporto alla vita. Ad esempio, nel 2010, il worm informatico Stuxnet ha colpito gli impianti nucleari iraniani, riportando indietro di due anni il programma nucleare di quel paese. Applicazione malware Si è rivelato paragonabile per efficacia a un'operazione militare a tutti gli effetti, ma in assenza di vittime tra le persone. L'unicità di questo programma è stata che per la prima volta nella storia degli attacchi informatici, il virus ha distrutto fisicamente l'infrastruttura. Più di recente, il 27 marzo di quest'anno, si è verificato il più grande attacco hacker della storia, che ha persino ridotto la velocità di trasferimento dei dati dell'intera Internet. L'obiettivo dell'attacco era Spamhaus, una società europea anti-spam. La potenza degli attacchi DDoS era di 300 Gb/s, nonostante la potenza di 50 Gb/s sia sufficiente per disabilitare l'infrastruttura di una grande organizzazione finanziaria. Il problema della sicurezza nazionale è uno dei temi più importanti all'ordine del giorno nei paesi sviluppati. L'attuale architettura delle reti informatiche non può fornire tale sicurezza. Pertanto, l'industria antivirus / protezione web e lo sviluppo di nuove tecnologie di sicurezza cresceranno ogni anno.
12. Il rilascio di Internet e delle tecnologie di rete nello spazio.
Oggi Internet è su scala planetaria. All'ordine del giorno c'è lo spazio interplanetario, Internet nello spazio esterno.

La Stazione Spaziale Internazionale è connessa a Internet, il che accelera notevolmente il lavoro e l'interazione della stazione con la Terra. Ma la normale istituzione della comunicazione tramite fibra ottica o semplice cavo, che è molto efficace in condizioni terrestri, non è possibile nello spazio. In particolare, a causa dell'impossibilità di utilizzare il solito protocollo TCP / IP nello spazio interplanetario (il protocollo è un "linguaggio" speciale delle reti di computer per "comunicare" tra loro).

Sono in corso i lavori di ricerca per creare un nuovo protocollo, grazie al quale Internet potrebbe funzionare sia sulle stazioni lunari che su Marte. Quindi, uno di questi protocolli si chiama Disruption Tolerant Networking (DTN). Le reti informatiche con questo protocollo sono già state utilizzate per collegare la ISS con la Terra, in particolare, tramite canali di comunicazione sono state inviate fotografie di sali, ottenute in uno stato di assenza di gravità. Ma gli esperimenti in questo settore continuano.

Internet per più di due decenni del suo sviluppo non è praticamente cambiato concettualmente e architettonicamente. Da un lato sono state introdotte nuove tecnologie di trasmissione dati, dall'altro sono stati creati nuovi servizi, ma il concetto base di rete, l'architettura delle reti informatiche rimane al livello degli anni '80 del secolo scorso. Il cambiamento non è solo atteso da tempo, ma vitale. Perché nessuna innovazione è possibile sulla base della vecchia architettura. Le reti di computer operano già oggi al limite delle loro capacità e potrebbero semplicemente non essere in grado di sopportare il carico che le reti subiranno con una crescita così attiva. Lo sviluppo e l'implementazione di tutte queste tendenze è possibile solo dopo l'introduzione di una nuova architettura più flessibile delle reti di computer. Nell'intero mondo dell'informatica scientifica, questa è la domanda numero 1.

La tecnologia/architettura delle reti informatiche più promettente oggi, che è in grado di uscire dalla crisi, lo è tecnologia di rete definita dal software (Softwaredefinitorete). Nel 2007, il personale della Stanford and Berkeley University ha sviluppato un nuovo "linguaggio" per comunicare le reti di computer: protocollo openflow e un nuovo algoritmo per il funzionamento delle reti di computer: la tecnologia PCS . Il suo valore principale è che ti permette di allontanarti dalla gestione "manuale" della rete. Nelle reti moderne le funzioni di controllo e trasmissione dei dati sono combinate, il che rende molto difficile il controllo e la gestione. L'architettura PCS separa il processo di controllo e il processo di trasmissione dei dati. Ciò apre enormi opportunità per lo sviluppo delle tecnologie Internet, poiché il PCS non ci limita in nulla, portando in primo piano il software. In Russia, il Centro per la ricerca applicata alle reti di computer è impegnato nello studio del PCN.

Tecnologie Internet del futuro. I 3 modi più insoliti di trasmettere informazioni

Dove si sposterà il progresso scientifico, cosa accadrà in futuro al mercato globale delle telecomunicazioni, quali tecnologie saranno disponibili per i normali utenti di Internet, quanto potrà aumentare la velocità di accesso a Internet nei prossimi 5-10 anni? Cercheremo di rispondere a queste e ad altre domande sulle tecnologie Internet del futuro. Vi presentiamo la nostra valutazione dei primi 3 modi più insoliti di trasmettere informazioni. Ad oggi si tratta di evoluzioni sperimentali, ma tra qualche anno potranno entrare strettamente nella nostra quotidianità.

3. Al terzo posto la tecnologia di trasmissione dati wireless più veloce al mondo - utilizzando vortici di luce . È stato inventato e utilizzato per la prima volta nel 2011-2012. scienziati della University of Southern California, della Tel Aviv University e del Jet Propulsion Laboratory della NASA. Questa tecnologia consente di accelerare la trasmissione wireless delle informazioni fino a 2,5 Tbps (circa 320 GB/s).

L'essenza della tecnologia: le onde elettromagnetiche fungono da canale di trasmissione dati, che si attorcigliano in vortici di forma rigorosamente definita. Allo stesso tempo, all'interno di un'onda, può essercene un numero qualsiasi flussi informativi. Pertanto, è possibile trasferire enormi quantità di dati a velocità ultra elevate. Tali "vortici di luce" utilizzano il momento angolare orbitale (Orbital Angular Momentum, OAM), che è un ordine di grandezza più grave e tecnologicamente più avanzato del momento angolare di spin (spin angular momentum, SAM) utilizzato nei moderni protocolli di trasmissione dati per Wi -Reti Fi e LTE. Gli scienziati nel processo di test della tecnologia hanno utilizzato un singolo raggio di luce, costituito da 8 raggi separati con diversi valori del momento OAM.

Applicazione: finora, questa tecnologia non può essere utilizzata nella costruzione di reti wireless, ma è ottima per le reti in fibra ottica. Questi ultimi si stanno appena avvicinando ai loro limiti fisici - semplicemente non c'è nessun posto dove aumentare significativamente la velocità e il volume del trasferimento dei dati - quindi, la tecnologia dei vortici di luce può diventare un nuovo passo nello sviluppo di una connessione Internet in fibra ottica.

Screpolatura: questa tecnologiaè ancora allo stadio iniziale di sviluppo, pertanto è possibile trasmettere dati attraverso vortici di luce solo a brevissima distanza. Gli scienziati sono stati in grado di trasmettere stabilmente informazioni solo a una distanza di 1 metro.

2. Ha vinto la seconda posizione la tecnologia wireless più potente al mondo: i fasci di neutrini può essere utilizzato per trasmettere un segnale attraverso qualsiasi oggetto. Le particelle di neutrino possono attraversare qualsiasi ostacolo senza interagire con il materiale. Quindi, gli scienziati dell'Università di Rochester sono riusciti a trasmettere un messaggio attraverso un blocco di pietra di 240 metri, cosa che nessuna delle tecnologie wireless attualmente disponibili può fare. Se i fasci di neutrini iniziano ad essere utilizzati nella pratica, il segnale non avrà bisogno di fare il giro della Terra, ma può semplicemente attraversarla. Ciò semplificherebbe notevolmente la connessione Internet tra i continenti e altri punti distanti tra loro.

L'essenza della tecnologia: i dati vengono trasmessi in modalità wireless utilizzando fasci di neutrini. Allo stesso tempo, le particelle I neutrini vengono accelerati alla velocità della luce (o qualcosa del genere) e attraversano qualsiasi materiale senza interagire con esso.

Applicazione: in futuro, se la tecnologia si svilupperà, i fasci di neutrini potranno essere utilizzati per trasmettere informazioni su distanze estremamente lunghe e in luoghi difficili da raggiungere. Oggi, tutte le tecnologie wireless richiedono una linea di vista tra trasmettitore e ricevitore, e questo non è sempre possibile. Ecco perché la tecnologia dei neutrini è così interessante e utile per il mercato delle telecomunicazioni.

Screpolatura: al momento le apparecchiature per la trasmissione dei dati tramite fasci di neutrini sono molto costose e ingombranti (ma lo stesso dicevamo di cellulari e computer 10-15 anni fa). Questa tecnologia di trasferimento delle informazioni richiede un potente acceleratore di particelle, di cui esistono solo pochi al mondo. Gli scienziati che studiano la trasmissione dei dati tramite fasci di neutrini utilizzano l'acceleratore di particelle Fermilab (4 km di diametro) e il rilevatore di particelle MINERvA (5 tonnellate).

1. Il leader della classifica era Tecnologia RedTacton , che utilizza il canale di trasmissione dati più biologico è la pelle umana . Hai mai guardato un film sulle spie con i loro strumenti high-tech e volevi anche ottenere informazioni sul telefono con un semplice tocco della mano, scambiare biglietti da visita elettronici e qualsiasi altro dato con una stretta di mano o stampare documenti semplicemente scorrendo la mano sopra la stampante? Tutto questo e molto altro può diventare realtà se la tecnologia RedTacton viene sviluppata.

L'essenza della tecnologia: la tecnologia si basa sul fatto che ogni persona ha un campo elettromagnetico e la sua pelle può fungere da canale di trasmissione del segnale tra più persone dispositivi elettronici. La tecnologia si basa sull'uso di cristalli elettro-ottici, le cui proprietà cambiano sotto l'influenza di un campo elettromagnetico umano. E già con l'aiuto di un laser, i cambiamenti vengono letti dai cristalli e convertiti in un formato digeribile.

Inoltre, il sistema RedTacton può funzionare non solo in condizioni normali, ma anche sott'acqua, nel vuoto, nello spazio.

Applicazione: oggi spesso dobbiamo utilizzare cavi, adattatori e quant'altro diversi. per collegare, ad esempio, un telefono a un laptop o una stampante a un PC. Se la tecnologia RedTacton si sviluppa, presto tutti questi cavi diventeranno inutili. Sarà sufficiente prendere un gadget in una mano e toccare il secondo dispositivo con l'altra. E la connessione tra loro avverrà attraverso la nostra pelle. Già oggi la maggior parte degli smartphone è dotata di schermi alimentati da impulsi elettromagnetici a portata di mano.

E questi sono solo i primi passi nella divulgazione di questa tecnologia. Può essere utilizzato in medicina (tutti i tuoi dati medici possono essere registrati su un chip speciale che avviserà il medico di allergie e intolleranze a un particolare farmaco dopo averti toccato), militare (puoi realizzare un'arma che reagirà solo al mani del proprietario), e i tuoi figli non potranno mai farsi del male se trovano in casa la tua pistola o il tuo fucile da caccia), nella vita di tutti i giorni (non servono più le chiavi della porta d'ingresso, basta toccare la serratura e si funzionerà da un impulso elettromagnetico), in produzione (nelle fabbriche possono essere installati sensori che avvisano di aree pericolose e guasti, puoi risolvere rapidamente il problema semplicemente toccando il dispositivo) e molto altro. altri

Screpolatura: la tecnologia non è stata ancora studiata abbastanza per poter affermare con certezza che sia assolutamente innocua per il corpo umano. Sarà possibile presentare RedTacton alle masse solo dopo aver effettuato molti esperimenti e studi. Le persone con ipersensibilità e alcuni problemi medici (specialmente quelli con malattie cardiache) possono essere a rischio in primo luogo. Inoltre, gli hacker onnipresenti alla fine troveranno un modo per rubare i dati delle persone o scappare virus informatici toccandoli durante i trasporti o per strada. Ma il problema principale con questa tecnologia potrebbe essere la psicologia delle persone: molti oggi hanno paura dei computer, delle reti Wi-Fi e dei forni a microonde, ma puoi immaginare cosa succederà loro se il loro stesso corpo diventa un trasmettitore di informazioni?

La scienza e la tecnologia stanno avanzando. E le tecnologie Internet si stanno sviluppando quasi più velocemente di tutte le altre. Ogni anno, gli scienziati inventano nuovi modi per scambiare informazioni, comunicare a distanza, raccogliere, archiviare e trasmettere vari dati. Ci vorranno altri dieci anni e useremo ogni giorno quei dispositivi e quelle opportunità che oggi possiamo solo sognare. E la nostra classifica dei primi 3 modi più insoliti per trasmettere informazioni potrebbe averti leggermente aperto il velo del futuro.

Di recente, l'investitore americano Mike Maples ha parlato del networking come il business del futuro, secondo Fortune. Maples ha iniziato a investire oltre 10 anni fa. In precedenza, era un imprenditore privato, quindi investire era una nuova sfida per lui.

Già allora si rese conto che il futuro appartiene alle tecnologie di rete e non alle aziende nel loro senso comune. Ecco perché sono stati fatti i primi investimenti nei progetti appena nati di Twitter e Twitch. Poco dopo, insieme al partner AnnMiura-Ko, sono stati implementati Lyft, Okta e molti altri progetti.

Ad oggi, Mike Maples è convinto di quanto segue:

– Le reti basate su software saranno l'attività più costosa e finiranno per soppiantare le aziende tradizionali

– Le reti possono migliorare significativamente il benessere della popolazione in tutte le regioni del mondo

– Le società di rete dovranno affrontare una dura resistenza da parte dei governi e delle società tradizionali

Per confermare le sue parole, Maples si rivolge alla storia. Dice che la creazione del motore a vapore e ferrovia Contemporaneamente all'avvento del mercato azionario, ha permesso alle imprese di fare un passo avanti, il che, a sua volta, ha portato a un salto nel benessere della popolazione. Tra il 1800 e il 2000, sostiene Maples, il reddito reale della popolazione è aumentato in media di 14 volte, cosa mai accaduta prima in un periodo storico così breve.

In precedenza, le grandi società avevano vantaggi significativi a causa del volume di produzione e di una significativa divisione del lavoro. Oggi, tuttavia, anche le più grandi aziende tradizionali stanno perdendo terreno rispetto alle reti, poiché queste ultime hanno un numero enorme di utenti che creano esse stesse i cosiddetti effetti di rete, inclusa la promozione istantanea di varie idee, opinioni, beni e servizi.

Non devi cercare lontano per esempi. Uber e Lyft sono leader nel mercato dei trasporti privati ​​negli Stati Uniti; Airbnb è il principale servizio di affitto di proprietà e Azienda Apple 10 anni fa, ha capovolto l'idea di un telefono cellulare.

Ora tutti possiamo già osservare l'intensificarsi della lotta tra i tradizionali sistemi aziendali con rete. Uber e Airbnb sono sotto pressione da parte delle autorità locali per le tasse e presumibilmente utilizzano metodi di concorrenza "non competitivi". Maples ritiene che lo sviluppo delle tecnologie di rete dovrebbe alla fine portare alla prosperità delle persone, sebbene nelle fasi intermedie della formazione alcune industrie reagiscano al progresso con tagli di posti di lavoro.

L'elettronica è alla base di quasi tutte le comunicazioni. Tutto ebbe inizio con l'invenzione del telegrafo nel 1845, seguito dal telefono nel 1876. La comunicazione è stata costantemente migliorata e il progresso nell'elettronica, avvenuto abbastanza di recente, ha posto una nuova fase nello sviluppo delle comunicazioni. Wireless è uscito oggi nuovo livello e occupava con sicurezza la parte dominante del mercato delle comunicazioni. E si prevede una nuova crescita nel settore delle comunicazioni wireless grazie all'evoluzione dell'infrastruttura cellulare, nonché alle moderne tecnologie come . In questo articolo considereremo le tecnologie più promettenti per il prossimo futuro.

Stato 4G

4G in inglese significa Long Term Evolution (LTE).LTE è una tecnologia OFDM che è la struttura dominante del sistema di comunicazione cellulare oggi.I sistemi 2G e 3G esistono ancora, sebbene l'introduzione del 4G sia iniziata nel 2011-2012 "Oggi, LTE è implementato principalmente dai principali operatori negli Stati Uniti, in Asia e in Europa.Il suo lancio non è ancora stato completato.LTE ha guadagnato un'immensa popolarità tra i possessori di smartphone, poiché le elevate velocità di trasferimento dei dati hanno aperto opportunità come lo streaming video per guardare film in modo efficiente.Tuttavia, Tuttavia, non tutto è così perfetto.

Sebbene LTE promettesse velocità di download fino a 100 Mbps, nella pratica ciò non è stato raggiunto. È possibile raggiungere velocità fino a 40 o 50 Mbps, ma solo in condizioni speciali. Con un numero minimo di connessioni e traffico minimo, tali velocità possono essere raggiunte molto raramente. Le velocità dati più probabili sono comprese tra 10 e 15 Mbps. Durante le ore di punta, la velocità scende a pochi Mbps. Naturalmente, questo non rende l'implementazione del 4G un fallimento, significa che finora il suo potenziale non è stato pienamente realizzato.

Uno dei motivi per cui il 4G non fornisce la velocità dichiarata è che ci sono troppi consumatori. Se viene utilizzato in modo troppo intenso, la velocità di trasferimento dei dati si riduce notevolmente.

Tuttavia, c'è speranza che questo possa essere corretto. La maggior parte dei gestori che forniscono servizi 4G deve ancora implementare LTE-Advanced, un miglioramento che promette di migliorare la velocità di trasferimento dei dati. LTE-Advanced utilizza la carrier aggregation (CA) per aumentare la velocità. "Carrier bundling" si riferisce alla combinazione di larghezza di banda LTE standard fino a 20 MHz in porzioni di 40 MHz, 80 MHz o 100 MHz per aumentare il throughput. LTE-Advanced ha anche una configurazione MIMO 8 x ​​8. Il supporto per questa funzione offre la possibilità di aumentare la velocità dei dati fino a 1 Gbps.

LTE-CA è anche noto come LTE-Advanced Pro o 4.5G LTE. Queste combinazioni di tecnologie sono definite dal gruppo di sviluppo degli standard 3GPP nella versione 13. Include l'aggregazione del vettore e l'accesso assistito con licenza (LAA), una tecnica che utilizza LTE nello spettro Wi-Fi a 5 GHz senza licenza. Implementa anche l'aggregazione di link LTE-Wi-Fi (LWA) e la doppia connettività, consentendo allo smartphone di "parlare" sia con un piccolo nodo del punto di accesso che con un Accesso Wi-Fi. Ci sono troppi dettagli in questa implementazione che non entreremo in dettaglio, ma l'obiettivo generale è estendere la durata dell'LTE abbassando la latenza e aumentando la velocità dei dati a 1 Gbps.

Ma non è tutto. LTE sarà in grado di fornire prestazioni più elevate man mano che i vettori inizieranno a semplificare la loro strategia con celle di piccole dimensioni, consentendo velocità di trasmissione dati più elevate per Di più iscritti. Le piccole cellule sono solo cellule in miniatura stazioni base, che può essere impostato ovunque per colmare le lacune nella copertura delle macrocelle, aggiungendo prestazioni dove necessario.

Un altro modo per migliorare le prestazioni è Utilizzo Wi-Fi. Questo metodo garantisce download veloci all'hotspot Wi-Fi più vicino quando disponibile. Solo pochi operatori lo hanno reso disponibile, ma la maggior parte sta cercando un miglioramento per LTE chiamato LTE-U (U per senza licenza). Questo è un metodo simile a LAA che utilizza la banda a 5 GHz senza licenza per download veloci quando la rete non è in grado di gestire il carico. Ciò crea un conflitto di spettro con quest'ultimo, che utilizza la banda a 5 GHz. Alcuni compromessi sono stati ideati per implementare questo.

Come possiamo vedere, le potenzialità del 4G non sono ancora del tutto svelate. Tutti o la maggior parte di questi miglioramenti saranno implementati nei prossimi anni. Vale la pena notare che i produttori di smartphone apporteranno anche modifiche hardware o software per migliorare le prestazioni LTE. È probabile che questi miglioramenti si verifichino quando inizierà l'adozione di massa dello standard 5G.

Scoperta del 5G

Non esiste ancora il 5G. Quindi, la forte dichiarazione su “uno standard completamente nuovo che può cambiare l'approccio a trasmissione senza fili informazioni" è troppo presto. Tuttavia, alcuni fornitori di servizi Internet stanno già discutendo su chi sarà il primo a implementare lo standard 5G. Ma vale la pena ricordare la disputa degli ultimi anni sul 4G. Dopotutto, non esiste ancora un vero 4G (LTE-A). Tuttavia, il lavoro sul 5G è in pieno svolgimento.

Il 3rd Generation Partnership Project (3GPP) sta lavorando allo standard 5G, che dovrebbe essere implementato nei prossimi anni. L'International Telecommunication Union (ITU), che "benedirà" e amministrerà lo standard, afferma che il 5G dovrebbe essere finalmente disponibile entro il 2020. Tuttavia, alcuni prime versioni Gli standard 5G appariranno ancora nella concorrenza dei fornitori. Alcuni requisiti 5G appariranno già nel 2017-2018 in una forma o nell'altra. La piena implementazione del 5G non sarà un compito facile. Un tale sistema sarebbe una delle reti wireless più complesse, se non la più complessa. Il suo pieno dispiegamento è previsto entro il 2022.

La logica alla base del 5G è superare i limiti del 4G e aggiungere opportunità per nuove applicazioni. I limiti del 4G sono principalmente la larghezza di banda dell'abbonato e velocità dati limitate. Le reti cellulari sono già passate dalla tecnologia vocale ai data center, ma in futuro sono necessari ulteriori miglioramenti delle prestazioni.

Inoltre, è previsto un boom di nuove applicazioni. Questi includono video HD 4K, realta virtuale, Internet delle cose (IoT), così come l'uso della struttura machine-to-machine (M2M). Molti prevedono ancora tra i 20 ei 50 miliardi di dispositivi online, molti dei quali si connetteranno a Internet tramite cellulare. Sebbene la maggior parte dei dispositivi IoT e M2M funzioni a basse velocità dati, lo streaming di dati (video) richiede velocità Internet elevate. Altre potenziali applicazioni che utilizzeranno lo standard 5G sono le città intelligenti e le comunicazioni per la sicurezza del trasporto su strada.

È probabile che il 5G sia più rivoluzionario che evolutivo. Ciò comporterà la creazione di una nuova architettura di rete che andrà a sovrapporsi alla rete 4G. La nuova rete utilizzerà piccole celle distribuite con fibra o mmWave canale inverso, e sarà anche economico, non volatile e facilmente scalabile. Inoltre, le reti 5G avranno più software di hardware. Verrà utilizzato anche rete del programma(SDN), virtualizzazione delle funzioni di rete (NFV), metodi di rete ad hoc (SON).

Ci sono anche alcune altre caratteristiche chiave:

  • L'uso delle onde millimetriche. Le prime versioni del 5G potrebbero utilizzare le bande da 3,5 GHz e 5 GHz. Sono allo studio anche opzioni di frequenza da 14 GHz a 79 GHz. La versione finale non è stata ancora selezionata, ma la FCC afferma che la scelta verrà effettuata nel prossimo futuro. I test vengono eseguiti alle frequenze di 24, 28, 37 e 73 GHz.
  • Vengono presi in considerazione nuovi schemi di modulazione. La maggior parte di loro sono una variante di OFDM. Due o più schemi possono essere definiti nello standard per diverse applicazioni.
  • Multiple Input Multiple Output (MIMO) sarà incluso in qualche forma per portata estesa, velocità dati e affidabilità del collegamento.
  • Le antenne saranno phased array con beamforming e governo adattativi.
  • La latenza inferiore è l'obiettivo principale. È specificato meno di 5 ms, ma l'obiettivo è inferiore a 1 ms.
  • Sono previste velocità dati da 1 Gbps a 10 Gbps con larghezze di banda di 500 MHz o 1 GHz.
  • I chip saranno realizzati con arseniuro di gallio, germanio di silicio e alcuni CMOS.

Una delle maggiori sfide nell'adozione del 5G dovrebbe essere l'integrazione dello standard in Telefono cellulare. IN smartphone moderni e così pieni di diversi trasmettitori e ricevitori, e con il 5G diventeranno ancora più difficili. È necessaria una simile integrazione?

Percorso di sviluppo Wi-Fi

Insieme a comunicazione cellulare una delle reti wireless più popolari è il Wi-Fi. Ad esempio, il Wi-Fi è una delle nostre "utilità" preferite. Non vediamo l'ora di connetterci con Reti Wi-Fi quasi ovunque e nella maggior parte dei casi otteniamo l'accesso. Come la maggior parte delle tecnologie wireless più diffuse, è costantemente in fase di sviluppo. L'ultima versione rilasciata si chiama 802.11ac e fornisce velocità fino a 1,3 Gbps nella banda a 5 GHz senza licenza. Si cercano anche applicazioni per lo standard 802.11ad ad altissima frequenza 60 GHz (57-64 GHz). È una tecnologia collaudata ed economica, ma chi ha bisogno di velocità da 3 a 7 Gbps a distanze fino a 10 metri?

SU questo momento Esistono diversi progetti di sviluppo per lo standard 802.11. Ecco alcuni dei principali:

  • 11af è la versione del Wi-Fi nelle bande bianche della banda TV (da 54 a 695 MHz). I dati vengono trasmessi in larghezze di banda locali di 6 (o 8) MHz che non sono occupate. Sono possibili velocità dati fino a 26 Mbps. A volte viene indicato come White-Fi, e l'attrazione principale di 11af è che il possibile raggio d'azione basse frequenzeè di molti chilometri e nessuna linea di vista (NLOS) (solo operazioni in area aperta). Questa versione del Wi-Fi non è ancora in uso, ma ha il potenziale per le applicazioni IoT.
  • 11ah - etichettato HaLow, è un'altra variante Wi-Fi che utilizza la banda ISM 902-928 MHz senza licenza. Si tratta di un servizio a bassa potenza ea bassa velocità (centinaia di kbit/s) con una portata fino a un chilometro. L'obiettivo è l'applicazione in IoT.
  • 11ax - 11ax è un aggiornamento a 11ac. Può essere utilizzato sulle bande da 2,4 e 5 GHz, ma molto probabilmente funzionerà sulla banda da 5 GHz esclusivamente per utilizzare la larghezza di banda da 80 o 160 MHz. Insieme a 4 x 4 MIMO e OFDA/OFDMA, sono previste velocità dati di picco fino a 10 Gb/s. La ratifica finale non avrà luogo fino al 2019, anche se è probabile che le versioni preliminari siano complete.
  • 11ay è un'estensione dello standard 11ad. Utilizzerà la banda di frequenza a 60 GHz e l'obiettivo è una velocità dati di almeno 20 Gbps. Un altro obiettivo è estendere la portata a 100 metri per avere più applicazioni come il traffico di ritorno per altri servizi. Questo standard non dovrebbe essere rilasciato nel 2017.

Reti wireless per IoT e M2M

Il wireless è sicuramente il futuro dell'Internet of Things (IoT) e del Machine-to-Machine (M2M). Sebbene anche le soluzioni cablate non siano escluse, ma il desiderio di comunicazone wirelessè ancora preferibile.

Tipico per i dispositivi IoT è a corto raggio, basso consumo energetico, bassa velocità di trasferimento dati, alimentazione a batteria o alimentazione a batteria con un sensore, come mostrato nella figura seguente:

Un'alternativa potrebbe essere una sorta di attuatore remoto, come mostrato nella figura seguente:

Oppure è possibile una combinazione dei due. Entrambi in genere si connettono a Internet tramite un gateway wireless, ma possono anche connettersi tramite uno smartphone. Anche la connessione al gateway è wireless. La domanda è, cosa norma senza fili sarà usato?

Il Wi-Fi diventa la scelta ovvia, poiché è difficile immaginare un luogo senza di esso. Ma per alcune applicazioni sarà ridondante e per altre richiederà un consumo eccessivo di energia. Il Bluetooth è un'altra buona opzione, specialmente la versione con basso consumo energetico(BL). Le nuove aggiunte alla rete e al gateway Bluetooth lo rendono ancora più attraente. ZigBee è un'altra alternativa pronta e in attesa, e non dimentichiamoci di Z-Wave. Esistono anche diverse varianti di 802.15.4, come 6LoWPAN.

Aggiungi a loro ultime opzioni, che fanno parte di reti a lungo raggio ad alta efficienza energetica (Low Power Wide Area Networks (LPWAN)). Queste nuove opzioni wireless offrono le connessioni di rete portata più lunga, cosa che di solito non è possibile con le tecnologie tradizionali sopra citate. La maggior parte di essi opera nello spettro senza licenza al di sotto di 1 GHz. Alcuni dei più recenti concorrenti per le applicazioni IoT sono:

  • LoRa è un'invenzione Semtech e gestita da Link Labs. Questa tecnologia utilizza la modulazione di frequenza lineare (chirp) a bassa velocità dati per ottenere una portata fino a 2-15 km.
  • Sigfox è uno sviluppo francese che utilizza uno schema di modulazione a banda ultra stretta a bassa velocità dati per inviare messaggi brevi.
  • Senza peso: utilizza spazi bianchi televisivi con tecniche di radio cognitive per distanze maggiori e velocità dati fino a 16 Mbps.
  • Nwave è simile a Sigfox, ma al momento non siamo stati in grado di raccogliere informazioni sufficienti.
  • Ingenu: a differenza di altri, questo utilizza la banda a 2,4 GHz e un esclusivo schema di accesso multiplo a fase casuale.
  • Halow è Wi-Fi 802.11ah, descritto sopra.
  • White-Fi è 802.11af, descritto sopra.

Il cellulare è sicuramente un'alternativa all'IoT, in quanto è stato la spina dorsale delle comunicazioni machine-to-machine (M2M) per oltre 10 anni. Le comunicazioni machine-to-machine utilizzano principalmente moduli wireless 2G e 3G per monitorare le macchine remote. Mentre il 2G (GSM) alla fine verrà gradualmente eliminato, il 3G sarà ancora vivo.

È ora disponibile un nuovo standard: LTE. In particolare, si chiama LTE-M e utilizza una versione ridotta di LTE in una larghezza di banda di 1,4 MHz. Un'altra versione di NB-LTE-M utilizza una larghezza di banda di 200 kHz per funzionare a una velocità inferiore. Tutte queste opzioni possono essere utilizzate reti esistenti LTE con software aggiornato. Moduli e chip per LTE-M sono già disponibili, così come sui dispositivi Sequans Communications.

Uno dei maggiori problemi con l'Internet of Things è la mancanza di uno standard unico. E nel prossimo futuro, molto probabilmente, non apparirà. Forse in futuro ci saranno diversi standard, solo quanto presto?

tecnologia di rete - si tratta di un insieme concordato di protocolli standard e di software e hardware che li implementa (ad esempio adattatori di rete, driver, cavi e connettori), sufficiente per costruire una rete di computer. L'epiteto "sufficiente" sottolinea il fatto che questo set è l'insieme minimo di strumenti con cui è possibile costruire una rete funzionante. Forse questa rete può essere migliorata, ad esempio, allocando al suo interno delle sottoreti, che richiederanno immediatamente, oltre ai protocolli standard Ethernet, l'uso del protocollo IP, nonché dispositivi di comunicazione speciali: i router. La rete migliorata sarà probabilmente più affidabile e più veloce, ma a costo di basarsi sulla tecnologia Ethernet che ha costituito la base della rete.

Il termine "tecnologia di rete" è spesso utilizzato nel senso stretto sopra descritto, ma a volte la sua interpretazione estesa viene utilizzata come qualsiasi insieme di strumenti e regole per la costruzione di una rete, ad esempio "tecnologia di routing end-to-end", " tecnologia del canale sicuro", "tecnologia IP". reti."

I protocolli sulla base dei quali viene costruita una rete di una determinata tecnologia (in senso stretto) sono stati sviluppati appositamente per il lavoro congiunto, pertanto lo sviluppatore della rete non richiede ulteriori sforzi per organizzare la propria interazione. La tecnologia di rete è talvolta indicata come tecnologie di base, tenendo presente che la base di qualsiasi rete è costruita sulla loro base. Insieme a Ethernet, le ben note tecnologie di rete locale come Token Ring e FDDI, o le tecnologie di rete area X.25 e frame relay, possono servire come esempi di tecnologie di rete di base. Per ottenere una rete funzionante in questo caso, è sufficiente acquistare software e hardware relativi a una tecnologia di base: adattatori di rete con driver, hub, switch, cavi, ecc. - e collegarli in conformità con i requisiti dello standard per questa tecnologia.

Creazione di tecnologie LAN standard

A metà degli anni '80, la situazione nelle reti locali iniziò a cambiare radicalmente. Sono state stabilite tecnologie standard per la connessione di computer a una rete: Ethernet, Arcnet, Token Ring. I personal computer sono stati un potente stimolo per il loro sviluppo. Questi prodotti prodotti in serie erano elementi ideali per la costruzione di reti: da un lato, erano abbastanza potenti da eseguire software di rete e, dall'altro, avevano chiaramente bisogno di unire la loro potenza di elaborazione per risolvere problemi complessi, oltre a separare periferiche costose e array di dischi. Pertanto, i personal computer iniziarono a predominare nelle reti locali, non solo come computer client, ma anche come centri di archiviazione ed elaborazione dati, ovvero server di rete, sostituendo minicomputer e mainframe da questi ruoli familiari.

Le tecnologie di rete standard hanno trasformato il processo di costruzione di una rete locale da un'arte in un lavoro ingrato. Per creare una rete era sufficiente acquistare adattatori di rete dello standard appropriato, come Ethernet, un cavo standard, collegare gli adattatori al cavo con connettori standard e installare uno dei sistemi operativi di rete più diffusi, come NetWare, su il computer. Successivamente, la rete ha iniziato a funzionare e la connessione di ogni nuovo computer non ha causato alcun problema, naturalmente, se su di essa era installato un adattatore di rete della stessa tecnologia.

Le reti locali rispetto alle reti globali hanno apportato molte novità al modo di organizzare il lavoro degli utenti. L'accesso alle risorse condivise è diventato molto più conveniente: l'utente potrebbe semplicemente visualizzare gli elenchi delle risorse disponibili e non ricordare i loro identificatori o nomi. Dopo essersi connessi a una risorsa remota, è stato possibile lavorarci utilizzando i comandi già familiari all'utente per lavorare con le risorse locali. La conseguenza e allo stesso tempo il motore di questo progresso fu l'emergere di un numero enorme di utenti non professionisti che non avevano bisogno di apprendere comandi speciali (e piuttosto complessi) per rete. E gli sviluppatori di reti locali hanno avuto l'opportunità di realizzare tutte queste comodità grazie alla comparsa di linee di comunicazione via cavo di alta qualità, sulle quali anche gli adattatori di rete di prima generazione fornivano velocità di trasferimento dati fino a 10 Mbps.

Naturalmente, gli sviluppatori di reti globali non potevano nemmeno sognare tali velocità: dovevano utilizzare i canali di comunicazione disponibili, poiché la posa di nuovi sistemi di cavi per reti di computer lunghe migliaia di chilometri richiederebbe enormi investimenti di capitale. E "a portata di mano" c'erano solo canali di comunicazione telefonica, poco adatti alla trasmissione ad alta velocità di dati discreti: una velocità di 1200 bps era un buon risultato per loro. Pertanto, l'uso economico della larghezza di banda dei canali di comunicazione è stato spesso il criterio principale per l'efficacia dei metodi di trasmissione dei dati nelle reti globali. In queste condizioni, varie procedure per l'accesso trasparente alle risorse remote, standard per le reti locali, sono rimaste a lungo un lusso insostenibile per le reti globali.

Tendenze moderne

Oggi le reti di computer continuano a svilupparsi e abbastanza rapidamente. Il divario tra reti locali e globali si riduce costantemente, in gran parte a causa dell'emergere di canali di comunicazione territoriali ad alta velocità che non sono di qualità inferiore ai sistemi via cavo delle reti locali. Nelle reti globali stanno emergendo servizi di accesso alle risorse convenienti e trasparenti quanto i servizi di rete locali. Esempi simili in in gran numero dimostra la rete globale più popolare: Internet.

Anche le reti locali stanno cambiando. Invece di un cavo passivo che collega i computer, in essi è apparsa una varietà di apparecchiature di comunicazione in grandi quantità: switch, router, gateway. Grazie a tali apparecchiature è stato possibile costruire grandi reti aziendali con migliaia di computer e una struttura complessa. C'è stata una rinascita dell'interesse per i computer di grandi dimensioni, in gran parte perché dopo che l'euforia per la facilità d'uso dei personal computer si è placata, è diventato chiaro che i sistemi con centinaia di server erano più difficili da mantenere rispetto a pochi computer di grandi dimensioni. Pertanto, in un nuovo ciclo della spirale evolutiva, i mainframe hanno iniziato a tornare nei sistemi informatici aziendali, ma già come nodi di rete a tutti gli effetti che supportano Ethernet o Token Ring, nonché lo stack del protocollo TCP / IP, che è diventato grazie al Internet norma di rete di fatto.

È emersa un'altra tendenza molto importante, che interessa sia le reti locali che quelle globali. Hanno iniziato a elaborare informazioni precedentemente insolite per le reti di computer: voce, immagini video, disegni. Ciò ha richiesto modifiche ai protocolli, ai sistemi operativi di rete e alle apparecchiature di comunicazione. La complessità della trasmissione di tali informazioni multimediali su una rete è correlata alla sua sensibilità ai ritardi nella trasmissione dei pacchetti di dati: i ritardi di solito portano alla distorsione di tali informazioni nei nodi finali della rete. Poiché i tradizionali servizi di rete di computer come il trasferimento di file o la posta elettronica generano traffico insensibile alla latenza e tutti gli elementi di rete sono progettati tenendo conto di ciò, l'avvento del traffico in tempo reale ha portato a grossi problemi.

Oggi questi problemi sono risolti in vari modi, anche con l'ausilio della tecnologia ATM appositamente studiata per la trasmissione di varie tipologie di traffico, ma, nonostante i notevoli sforzi compiuti in questa direzione, è ancora lontana da una soluzione accettabile al problema e molto resta da fare in questo settore per raggiungere l'obiettivo prefissato: la fusione di tecnologie non solo di reti locali e globali, ma anche di tecnologie di qualsiasi rete di informazione: computer, telefono, televisione, ecc. questa idea sembra a molti un'utopia, esperti seri ritengono che i prerequisiti per una tale sintesi esistano già e le loro opinioni differiscono solo nella stima dei termini approssimativi di tale associazione - i termini sono chiamati da 10 a 25 anni. Inoltre, si ritiene che la base per l'unificazione sarà la tecnologia di commutazione dei pacchetti utilizzata oggi reti di computer, piuttosto che la tecnologia a commutazione di circuito utilizzata nella telefonia, che dovrebbe probabilmente aumentare l'interesse per reti di questo tipo.

Se noti un errore, seleziona una parte di testo e premi Ctrl + Invio
CONDIVIDERE: