Finestre.  Virus.  I Quaderni.  Internet.  ufficio.  Utilità.  Autisti

Sulle questioni più ampiamente discusse nel settore della tecnologia dell'informazione (IT): Gigabit Ethernet contro ATM, Windows NT contro tutto il resto, intranet, ecc. Tra i relatori: Daniel Brier e Christine Heckart, rispettivamente Presidente e CEO di TeleChoice; Scott Bradner, consulente tecnologie dell'informazione dall'Università di Harvard; Tom Knoll, Presidente di CIMI Corporation; Mark Gibbs, presidente di Gibbs & Co.; Dave Kearns è uno scrittore e consulente freelance con sede ad Austin, NY. Texas.

NW: Molti lettori trovano difficile scegliere una strategia per la dorsale della rete locale (LAN). Gigabit Ethernet, ATM, Fast Ethernet, commutazione IP: ci sono abbastanza tecnologie, ma non è chiaro quale sia la principale direzione di sviluppo in quest'area. Quali aspetti dovrebbero considerare gli amministratori di rete quando pianificano una rete di nuova generazione?

Poggio: Il problema chiave è la scalabilità. migliore tecnologia la costruzione di una dorsale sarà integrabile con le reti esistenti senza spendere molto tempo e denaro. Ciò significa che sia ATM che Gigabit Ethernet troveranno impiego se costano all'incirca lo stesso. Il controllo dei costi diventa una priorità assoluta.

Gibbs: La domanda principale è: te lo puoi permettere? Tutte le principali implementazioni dovrebbero essere precedute da progetti pilota. Nei prossimi sei mesi, gli aspetti chiave della nuova era della tecnologia ferroviaria ad alta velocità dovrebbero assumere forme più distinte. Scopriremo quali standard saranno approvati, quali produttori si dimostreranno stabili e quanto siano problematiche queste tecnologie in termini di implementazione e successiva manutenzione.

Heckart: Quando si prende una decisione in quest'area, è necessario considerare solo tre questioni principali: prezzo, prestazioni e durata. Il problema è che gli analisti parlano di queste cose in termini assoluti, mentre gli amministratori di rete no. Tutto dipende da quale sia l'ambiente di rete specifico, quali applicazioni vengono utilizzate, quali sono le attività, qual è il budget, ecc.

Ciò che funziona abbastanza bene per un'azienda (o anche per un gruppo di utenti) non regge al controllo in relazione a un'altra. È necessario definire cosa significa "abbastanza buono", quindi implementare una soluzione che sia abbastanza economica, funzioni abbastanza bene e possa durare abbastanza a lungo per affrontare le sfide di oggi e del prossimo futuro. I problemi che molti utenti devono affrontare sono causati dai loro tentativi di determinare qual è il migliore. Ma il "migliore" cambia ogni settimana e non può essere implementato, perché quando accadrà, non sarà più il migliore.

rovo: Troppi manager stanno cercando di trovare soluzioni omogenee, mentre il miglior risultato di solito viene da una combinazione di diverse tecnologie. Molte aziende troveranno una combinazione di ATM, Fast Ethernet ed Ethernet (o qualche altro) perché diversi uffici e gruppi di utenti hanno esigenze diverse. La cosa principale è che la scelta della soluzione si basa su esigenze reali e non sul tentativo di implementare le ultime e migliori tecnologie.

Kern: La stragrande maggioranza delle connessioni di rete esistenti si basa sulla tecnologia Ethernet e continuerà ad esserlo anche in futuro. Attualmente, non ci sono motivi sufficientemente validi per passare a un'altra tecnologia per l'organizzazione delle autostrade. Dieci megabit per le connessioni desktop e 100 Mbps per le connessioni backbone continuano a funzionare (e non male) sulla maggior parte delle reti esistenti. Pianificare la migrazione a Gigabit Ethernet per dorsali e 100 Mbps per reti mainstream (ed eventualmente desktop) sembra avere senso.

L'obiettivo è quello portata le reti non sono sempre il "collo di bottiglia". Le prestazioni di server, router, switch, canali del disco, velocità del bus, dimensioni del buffer e altre cinque o sei cose richiedono un'attenzione non minore. I canali troppo "grassi" consumano semplicemente risorse inutilmente.

Bradner: Direi che il problema più grande per i progettisti di reti è la combinazione di conoscenza parziale e completa ipocrisia nei loro leader. Troppe decisioni sulla direzione dello sviluppo delle reti aziendali sono state prese sulla base di considerazioni generali e non di un'analisi delle reali esigenze della comunità di rete esistente. Qualcuno nel management ha letto in un rapporto di una delle maggiori società di consulenza che "ATM è la risposta" (e qual era la domanda, esattamente?) e ha preso una decisione di conseguenza. Ciò che era veramente necessario fare era eseguire un'analisi tecnica delle esigenze specifiche della rete e progettare in base ai risultati di tale analisi. Molte tecnologie sono promettenti perché tutte le reti sono diverse.

NW: ATM vs. Gigabit Ethernet: vera rivalità o assurdità?

Poggio: In realtà, questa è una rivalità tra diversi paradigmi di pianificazione della rete, che viene spesso presentata come una rivalità tecnologica. Il paradigma Gigabit Ethernet dice: "Investi nella larghezza di banda, non nella gestione della larghezza di banda, perché è abbastanza economico da sopraffare la tua rete". E il paradigma ATM è: "La gestione della larghezza di banda è molto importante; la larghezza di banda non può essere lasciata al caso, quindi è necessaria un'architettura di rete che consenta di controllarla". Il prezzo può essere il fattore decisivo, ma gli acquirenti sono fortemente attratti dalla semplicità dell'approccio fornito da Gigabit Ethernet. Il problema è che vorremmo che questa rivalità avvenisse a livello di capacità tecniche, ma in realtà le cose vanno diversamente.

Gibbs: Questa rivalità è dovuta al fatto che enormi fondi sono stati investiti in tecnologie precedenti. Se le tecnologie attuali si rivelano molto più semplici ed economiche, il passaggio ad esse promette ai produttori solidi guadagni. I produttori di prodotti ATM non vogliono investire questa tecnologia i soldi sono stati sprecati e cercheranno di "lanciare pietre" ai produttori di prodotti Gigabit Ethernet.

Heckart: L'assurdità di questa e di altre questioni legate ad ATM è che affermazioni che possono essere percepite solo dall'élite della rete iniziano ad essere esagerate dal grande pubblico. In effetti, questa è una domanda per un contingente limitato. Tuttavia, Gigabit Ethernet ha un terreno più stabile, più sostenitori, migliori canali forniture e praticamente tutto ciò di cui hai bisogno per vincere la guerra. ATM ha un esercito più agile armato con armi più sofisticate, ma i numeri e il posizionamento corretto di solito vincono.

Per qualsiasi cliente che non ha bisogno di sportelli automatici forniti caratteristiche aggiuntive- ad esempio, qualità del servizio garantita (QoS), - la soluzione più semplice è scegliere una tecnologia sufficientemente conveniente per risolvere i problemi esistenti. La larghezza di banda illimitata risolve, sebbene non tutto, ma moltissimi problemi di rete e Gigabit Ethernet fornisce una larghezza di banda illimitata per la maggior parte degli ambienti di rete.

rovo: Questo è un classico esempio della rivalità di un approccio elegante con opinioni consolidate. Per vincere una guerra basta vincere la maggior parte delle battaglie. Molti progetti sono stati implementati sulla base di ATM, dalle reti delle società di telecomunicazioni agli uffici aziendali e domestici. Operatori come Ameritech, PacBell, SBC e BellSouth si sono già resi conto che la tecnologia ATM può essere molto promettente per gli uffici aziendali e domestici. La domanda ora è fino a che punto questa tecnologia penetrerà nelle reti domestiche e aziendali. Se usi ATM a casa per connettere cinque dispositivi, non è la tua LAN domestica? Forse. Pertanto, l'ATM diventerà più diffuso di quanto molti pensino.

Kern: Questa rivalità è reale solo in termini di marketing, ma se non presti attenzione alla pubblicità, la risposta sarà ovvia. Gigabit Ethernet diventerà la tecnologia dominante per lo stesso motivo per cui 10 Mbps Ethernet batte Token Ring e 100 Mbps Ethernet batte FDDI. Sempre più amministratori di rete comprendono i vantaggi di Ethernet e si sentono più a loro agio nell'usarla.

Bradner: La rivalità delle tecnologie considerate esiste nel campo delle reti dorsali di campus. È facile vedere che Gigabit Ethernet renderà più facile ed economico (rispetto ad ATM) soddisfare la maggior parte (se non tutte) delle attuali esigenze delle dorsali dei campus. L'unico dubbio è QoS. Tuttavia, le funzionalità QoS sono raramente utilizzate nelle reti dei campus odierni. Questo perché le applicazioni esistenti e le reti Ethernet e Token Ring a cui sono collegati virtualmente tutti i sistemi desktop non supportano le funzionalità QoS.

Non c'è concorrenza nell'area delle reti geografiche (WAN). Gigabit Ethernet non supporta connessioni a lunga distanza (massimo 3 km) e richiede una linea in fibra ottica dedicata. Dubito anche del potenziale di un'intensa concorrenza nella spina dorsale degli edifici, dove Fast Ethernet e Gigabit Ethernet potrebbero sostituire completamente ATM.

NW: Al giorno d'oggi molte persone parlano di elaborazione incentrata sulla rete, sostenendo che ci stiamo allontanando dalle applicazioni pesantemente caricate. computer desktop a client più sottili che eseguiranno applet Java e ActiveX. Vale la pena credere?

Poggio: Senza senso! Nient'altro che un altro tentativo di resuscitare vecchia idea workstation senza disco, il che significa sostituire i terminali "stupidi" con computer di rete "semi-stupidi" e spiazzare i PC "intelligenti".

Gibbs: In linea di principio, tutto è corretto, ma ci sono una serie di problemi associati a questo. La transizione ai "thin" client è piuttosto difficile e ci vorrà molto tempo prima che i principali fornitori di software intraprendano passi seri per portare i propri prodotti su nuove piattaforme. L'idea di un computer in rete è buona, ma manca di praticità: gli utenti non potranno abbandonare i propri PC in meno di tre anni, quando la prossima generazione di applicazioni desktop sarà maturata.

Non tutti i problemi sono associati all'uso di applicazioni "grasse". Per computer di rete richiederà più larghezza di banda di rete rispetto alle applicazioni moderne; inoltre, i requisiti per le prestazioni dei server e la quantità della loro memoria su disco aumenteranno in modo significativo. E, naturalmente, protezione, protezione e protezione. Non è del tutto chiaro quale livello di protezione possano fornire le applet Java e ActiveX, anche se queste ultime sembrano essere molto meno convincenti in questo senso.

Heckart: Direi piuttosto che c'è del vero in questo. Tutti sanno che il problema che i computer in rete stanno cercando di risolvere esiste davvero. Siamo stanchi di installare nuovi programmi e trovarli consumare i nostri ultimi centimetri. spazio sul disco del nostro computer, che un anno fa era considerato l'ultimo traguardo della tecnologia (è particolarmente deludente se il 90% funzionalità, incorporati in questa miriade di righe di codice, non vengono utilizzati il ​​98% delle volte). Scaricare ciò di cui hai bisogno, quando ne hai bisogno, è un'ottima idea. Penso che i computer di rete possano cambiare l'architettura di rete, il modo in cui il software viene venduto e servizi di rete. Forse è tutto per il meglio.

rovo: Secondo me la situazione è troppo drammatica. Alcuni dei nostri clienti stanno cercando di implementare dispositivi fax di nuova generazione utilizzando le reti IP come meccanismo di trasporto. Questi dispositivi hanno elementi dei computer di cui parli. Come chiamarli: client "sottili", PC "deboli" o qualcos'altro? Ma li chiamiamo ancora dispositivi fax, che risolvono completamente compiti specifici. Ancora una volta voglio sottolineare che gli elementi del dispositivo possono avere una varietà di caratteristiche e l'etichettatura confonde solo la questione.

Kern: I programmatori di oggi non pensano alla compattezza del codice risultante, come era, diciamo, 10-15 anni fa. Di conseguenza, gli utenti trascorrono molto tempo in attesa che i singoli moduli delle applicazioni moderne vengano scaricati dalla rete e alla fine rinunciano a utilizzarli.

Bradner: In questi giudizi tutto è corretto, tranne che c'è un orientamento verso un insieme omogeneo di requisiti. Sembra esserci un urgente bisogno di trovare una risposta a tutto. problemi esistenti- forse perché il mondo reale è troppo complesso e disordinato. In molti luoghi, le applicazioni vengono eseguite su terminali "stupidi" o X-Window e il modello web thin-client funziona perfettamente. Ma ci sono molti altri posti in cui gli utenti stanno facendo bene il loro lavoro computer locali, che sono ottimi per risolvere i loro problemi e non richiedono la sostituzione.

NW: Un altro argomento caldo ampiamente discusso è la qualità del servizio (QoS). Quali sono le principali funzionalità QoS che gli amministratori di rete dovrebbero prendere in considerazione e cosa è necessario fare per implementarle?

Bradner: Questa è una storia molto antica, che risale almeno al 1964, quando si iniziò a discutere ampiamente della possibilità di creare reti di dati basate sulla trasmissione di pacchetti piuttosto che sulla creazione di connessioni. I sostenitori dell'approccio tradizionale già allora denunciavano l'idea di reti basate sulla trasmissione di pacchetti. Per molti anni (fortunatamente sono passati), gli esperti IBM hanno sostenuto che era impossibile costruire una rete dati aziendale basata su TCP/IP, poiché questo protocollo si basa sulla trasmissione di pacchetti instradati o commutati; la rete aziendale, secondo loro, necessita di una QoS garantita, ottenibile solo in reti orientate alla connessione.

Ci sono tre tipi di QoS di cui ha senso parlare: QoS probabilistico, che con un alto grado di probabilità garantisce la fornitura di risorse di rete e server sufficienti per eseguire determinate attività in un dato momento; QoS basato sull'applicazione, in cui determinate risorse sono riservate per ogni chiamata IP o applicazione affamata di risorse (all'avvio); QoS basato su classi, in cui vengono specificati diversi livelli (classi) di utilizzo della rete e il traffico di rete viene gestito in modo diverso per ogni classe.

La QoS probabilistica è ampiamente utilizzata nelle reti odierne e funziona particolarmente bene nelle reti di campus a larghezza di banda elevata. Vedrei QoS basato sulla classe come il prossimo passo in QoS e QoS su richiesta come una prospettiva allettante con molti problemi di scalabilità, autenticazione e contabilità da superare.

Poggio: Il concetto di QoS è ben definito, anche se non tutti sono d'accordo. Velocità dati di picco e media, valore del ritardo e relative fluttuazioni consentite, livello ammissibile gli errori sono tutti accettati come parametri chiave. La domanda non è cos'è la QoS, ma cosa bisogna fare per assicurarla. Ci sono due opzioni: gestire la larghezza di banda o spendere soldi per espanderla. L'amministratore di rete deve valutare il costo di ciascun approccio e soppesarne vantaggi e svantaggi. Tuttavia, deve ricordare che la distribuzione delle risorse è come la tassazione: per dare qualcosa a uno, devi prenderlo dagli altri. Questo è il motivo per cui l'acquisizione di ulteriori "bit al secondo" è un approccio così interessante per gli utenti.

Heckart: Di recente, il termine QoS ha iniziato a significare cose molto diverse. Sfortunatamente, molti fornitori di servizi definiscono la QoS in modo tale che solo un dottorato può comprenderla, ed è necessario almeno un analizzatore di protocollo per verificare l'applicazione della QoS. Quali sono allora i vantaggi per gli utenti finali?

Sprint ha una buona idea di fornire una certa qualità di servizio che corrisponda alle applicazioni specifiche dell'utente. E sebbene il modello stesso debba ancora essere migliorato, tutti i fornitori dovrebbero ricordare il principio di BIS (Keep It Easy, Dummy!). Molti manager si preoccupano di proteggere parametri come la disponibilità della rete (tempo di attività), il tempo di risposta e le prestazioni. Per alcune applicazioni, come la voce in tempo reale, è possibile aggiungere a questo elenco il tempo di ritardo della rete.

Per quanto riguarda le ultime specifiche QoS, la più grande preoccupazione per gli amministratori di rete è che è quasi impossibile tenere traccia di quanto ciò che ottieni corrisponda a ciò che ti è stato promesso. Il fornitore ideale dovrebbe definire chiaramente cosa intende per QoS, fornire al cliente la possibilità di verificare l'implementazione della qualità del servizio, nonché un sistema di penalizzazioni automatiche per non fornire il livello di servizio concordato. Una caratteristica utile di QoS è che gli utenti possono selezionare i servizi in modo più intelligente e comprendere meglio quali tipi di connessioni (frame relay, linee affittate o ATM) soddisfano meglio le esigenze di un particolare ufficio o applicazione.

rovo: Sto considerando QoS in relazione alle reti ATM/WAN dove singole applicazioni fornito accesso diverso alle risorse, a seconda di ciò che stanno cercando di fare. Per sfruttare QoS, gli amministratori di rete devono quantificare le proprie esigenze. Ciò li riporterà a una reale comprensione delle esigenze di ogni ufficio e applicazione e li renderà consapevoli che non esiste una soluzione adatta a tutte le dimensioni.

Kern: Per l'utente, QoS significa "Posso fare quello che voglio, quando voglio?" Per l'amministratore di rete, ciò si traduce in termini come "accesso" (disponibilità al 100% di tutti i servizi tramite clustering e ridondanza), "prestazioni" (throughput prevedibile sempre e ovunque) e "servizi di directory" (facile accesso a oggetti e servizi ).

NW: Torniamo un attimo alla questione dei thin client. I produttori di NetPC e NC promettono di ridurre i costi di amministrazione di reti e sistemi. Offriranno davvero i grandi risparmi previsti o trasferiranno semplicemente i costi su reti e server?

Kern: C'è una grande differenza tra NetPC e NC. Gli NC richiedono server più potenti e una maggiore larghezza di banda di rete. Ma in ogni caso, i costi sono inevitabili: per nuove attrezzature e infrastrutture, per formazione e supporto.

Poggio: Invia NetPC e NC alla discarica accanto alle workstation senza disco. Trasformati in stufette o divertenti collage di metallo high-tech montati su piedistalli di cemento davanti alla sede aziendale. NC è un sostituto dei terminali "stupidi" e NetPC non è altro che una campagna pubblicitaria.

Gibbs: Fino ad ora, non esiste un catalogo di applicazioni e strumenti che possano farci credere nella realtà dell'esistenza di computer in rete. Inoltre, il costo degli aggiornamenti dell'infrastruttura dovrebbe essere molto elevato. La maggior parte delle aziende avrà bisogno di due o tre anni prima di poter ammortizzare completamente i propri investimenti, quindi l'utilizzo di computer in rete è pratico solo a livello di sistemi di prova. I veri esperimenti non sono ancora stati condotti e possono essere semplicemente inestimabili. Certo, devi continuare a guardare gli sviluppi del mercato, ma consiglierei di non entusiasmarti fino a quando non ci saranno applicazioni reali e sistemi già pronti basati su NC o NetPC, e non solo scatole nude.

Bradner: Non vedo molta differenza tra NetPC, NC e terminali e dubito che differiranno molto nel prezzo. La società non può davvero risparmiare denaro scaricando i vecchi terminali 3270 e sostituendoli con NC (ad eccezione dei risparmi derivanti dalla mancata ristrutturazione del 3270). Dubito inoltre che il passaggio da PC "reali" a NetPC o NC comporterà risparmi significativi. L'insieme generale dei costi è ben noto: formazione, software, ecc. Penso che questi e molti altri costi riporteranno tutto in equilibrio.

NW: Le conversazioni con alcune persone danno l'impressione che le intranet siano la piattaforma informatica aziendale di oggi. Quali misure dovrebbero essere prese dagli specialisti competenti per avvicinarsi alla creazione di una intranet? Quali applicazioni rimarranno per sempre "in mare" sulla intranet? Qual è l'errore più grande quando si tratta di intranet?

Heckart: Le intranet sono adatte per quelle organizzazioni che devono fornire l'accesso alle informazioni a un gran numero di dipendenti o organizzare l'interazione in formato elettronico. Ecco perché devi prima creare una rete in quanto tale. L'errore più grande nella costruzione di una intranet è la mancanza di una chiara comprensione di ciò che deve essere raggiunto e, di conseguenza, di ciò che deve essere fatto. Di conseguenza, vengono create molte intranet separate per diversi gruppi di utenti e diversi risorse di rete che riduce o addirittura annulla i risparmi complessivi sui costi.

Poggio: Non so chi considererebbe le intranet una piattaforma informatica aziendale. Dopo aver condotto sondaggi speciali, abbiamo scoperto che sebbene oltre il 90% delle aziende dichiari il proprio impegno per l'idea di intranet, solo il 7% ha un'idea reale di cosa sia una intranet e di come si differenzi da una normale azienda informazioni o rete IP. Se si prova a valutare obiettivamente cos'è una intranet, diventa chiaro che non impone alcuna restrizione all'uso delle applicazioni (senza contare quelle inerenti a qualsiasi altra rete di trasmissione dati), tranne che per il loro costo.

Gibbs: Le applicazioni che hanno requisiti di database pesanti e quelle che hanno funzionalità molto complesse, come i media in tempo reale, non saranno mai compatibili con intranet.

rovo: L'errore più grande con le intranet è presumere che tutti i dettagli vengano trascurati. Secondo me, buon gestore dovrebbe definire l'intranet nei termini più generali - come la raccolta di informazioni condivise all'interno di un'organizzazione - e iniziare a dare priorità ai benefici che possono essere ottenuti più rapidamente e con il massimo ritorno, passando all'autostrada interna dell'informazione, o intranet.

Kern: L'intranet lo è buon modo ridurre lo spreco di carta e fornire un accesso tempestivo alle informazioni corrette. Ad oggi, gli esempi di maggior successo dell'utilizzo di intranet sono i registri del personale, la distribuzione di informazioni di marketing, l'automazione della compilazione di vari questionari (ad esempio, rapporti di viaggio o richieste di ferie) e la gestione dei progetti, ovvero aree in cui è possibile combinare le consuete informazioni operative con data warehouse. Tuttavia, le applicazioni di immissione dati non sono ancora pronte per l'uso nelle intranet.

L'intranet dovrebbe attrarre utenti non meno degli host Internet. Per fare questo è necessario porre molta attenzione alle problematiche progettuali e alla qualità del servizio offerto. Un cattivo design è un grave errore.

Bradner: Le intranet sono un altro esempio di come qualcosa viene presentato come una soluzione one-stop senza tener conto delle reali esigenze. Per la maggior parte delle persone, le intranet sono servizi di rete basati sul Web. Tuttavia, oggi stanno cercando di presentarli come un'unica risposta a tutte le domande. Penso che nei prossimi anni il TCP/IP diventerà il protocollo di rete principale per quasi tutte le reti aziendali; l'unica alternativa sarebbe SNA (nei sistemi legacy). Ma non sono pronto a parlare con la stessa sicurezza di quali applicazioni verranno utilizzate. In linea di principio, basato sul Web e Sistemi Java le applicazioni ad alta intensità di dati possono essere soddisfatte, ma in molti casi il software desktop specializzato rimarrà una soluzione molto migliore.

NW: Molti dei nostri lettori vorrebbero trasferirsi a lungo termine per utilizzare Internet come spina dorsale per la distribuzione rete aziendale. È un compito ragionevole?

Poggio: Questo punto di vista si basa su una serie di ipotesi economiche non realistiche. Le persone vedono che puoi ottenere un accesso illimitato a Internet per $ 20. al mese e pensa: "Se per 20 dollari posso ottenere una velocità di 28 kbps, allora per 140 dollari dovrei essere in grado di ottenere un canale T-1". La larghezza di banda "costa denaro" e qualcuno paga sempre quei soldi. C'è una sorta di sovvenzione in Internet: gli utenti che usano il Web pagano poco per quelli che lo usano attivamente. Se l'America aziendale ottiene un accesso illimitato a Internet, i fornitori di servizi affonderanno entro una settimana. I prezzi su Internet non dovrebbero scendere. Ad alcuni clienti vengono offerte tariffe ridotte, ma ciò è possibile solo se un numero limitato di persone usufruisce dei vantaggi.

Gibbs: Sì, l'attrattiva economica c'è e, combinata con le reti private virtuali (VPN) e la disponibilità degli ISP a contrattare per QoS garantito, sembra tutto molto plausibile. Le aziende devono abbandonare le proprie infrastrutture di rete private il più rapidamente possibile.

Heckart: Le aziende vorrebbero rendere la loro rete economica e onnipresente in modo che possa essere utilizzata per molti scopi. Per alcuni uffici remoti, Internet è adatto a questa capacità, per altri uffici e applicazioni no, ma domani potrebbe cambiare.

È probabile che il settore crei più intranet, extranet e Internet interconnessi progettati per supportare diverse applicazioni e comunità di utenti. Tali reti emergeranno nei prossimi anni e sostituiranno ampiamente le reti private e pubbliche utilizzate oggi per voce, fax, video e dati. I servizi forniti da queste reti non saranno economici, ma costeranno diversi ordini di grandezza in meno rispetto agli attuali costi delle reti private.

L'ostacolo principale a questo futuro più luminoso non è la tecnologia, ma gli enormi profitti degli odierni fornitori di servizi, le cui operazioni saranno fortemente limitate nella transizione ai servizi basati su Internet.

rovo: Non vi è alcun motivo per cui non sia possibile accedere alle applicazioni intranet allo stesso modo da reti frame relay e ATM. Perché rinunciarci? Hai soluzioni a cui è possibile accedere dai più reti diverse e utilizzare solo Internet per questo sarebbe un errore. Questo è solo uno dei possibili meccanismi di trasporto.

Kern: Farlo non è attualmente saggio, poiché perderai il controllo dell'azienda sull'uso della dorsale aziendale. Nella migliore delle ipotesi, Internet dovrebbe essere visto come un canale di riserva che può essere utilizzato in caso di guasto di una dorsale privata. Non rinunciare all'affidabilità, al controllo e alla sicurezza offerti dalle reti private per risparmiare qualche dollaro. È come il CIO che lascia la macchina e prende l'autobus...

Bradner: Ci sentiremmo meglio se Internet fosse definita un'infrastruttura informativa nazionale fornita da una società di telecomunicazioni? Questo è esattamente ciò che Internet sta diventando, ed è esattamente ciò che i fautori dell'Infrastruttura Informatica Nazionale, così fortemente imposta dal governo e dalla stampa alcuni anni fa, proponevano di sostituire Internet. Non sono d'accordo con l'affermazione secondo cui le reti private hanno qualcosa che Internet non può fornire, soprattutto perché praticamente tutte le WAN aziendali utilizzano TCP/IP. In base al set di funzionalità, è molto difficile distinguere tra reti private e reti TCP/IP pubbliche. Mi aspetto che le funzionalità QoS basate su classi si diffondano su Internet nei prossimi anni, rimuovendo uno degli ultimi grandi vantaggi delle reti di dati private rispetto a quelle pubbliche.

NW: Windows NT può conquistare il mondo? Ci sono carenze significative in questo sistema operativo?

Poggio: NT ha già conquistato il mondo, ma i produttori di Unix non sanno ancora di essere fuori dai giochi. L'identificazione delle carenze è di grande importanza, ma la proprietà più importante di qualsiasi sistema operativoè come si sentono gli utenti al riguardo. E trattano NT meglio di qualsiasi altro server o sistema multiutente. Fan di Unix, andate avanti e inviate le vostre e-mail malvagie in tutto il mondo! Prevedo solo il futuro, ma non ce la faccio.

Gibbs: Il campo anti-Microsoft che ha contrassegnato "Java" è molto attivo e indirettamente danneggia NT. Senza dubbio NT 4.0 è un ottimo sistema operativo, ma non può soddisfare tutte le esigenze, sostituendo NetWare e Unix. Darei a NT il dominio, ma non assegnerei la vittoria finale.

Kern: NT è un buon sostituto di Unix nel mercato dei server applicativi. Ma questo sistema operativo è ancora molto lontano dall'assumere una posizione dominante nel mercato dei sistemi operativi di rete. Potrebbe non accadere, perché non sembra che Microsoft stia iniziando a capire il networking. Questo produttore di software desktop rimarrà tale per sempre.

L'elettronica è alla base di quasi tutte le comunicazioni. Tutto ebbe inizio con l'invenzione del telegrafo nel 1845, seguito dal telefono nel 1876. La comunicazione è stata costantemente migliorata e il progresso nell'elettronica, avvenuto abbastanza di recente, ha posto una nuova fase nello sviluppo delle comunicazioni. Wireless è uscito oggi nuovo livello e occupava con sicurezza la parte dominante del mercato delle comunicazioni. E si prevede una nuova crescita nel settore delle comunicazioni wireless grazie all'evoluzione dell'infrastruttura cellulare, nonché alle moderne tecnologie come . In questo articolo, vedremo di più tecnologie promettenti per il prossimo futuro.

Stato 4G

4G in inglese significa Long Term Evolution (LTE).LTE è una tecnologia OFDM che è la struttura dominante del sistema di comunicazione cellulare oggi.I sistemi 2G e 3G esistono ancora, sebbene l'introduzione del 4G sia iniziata nel 2011-2012 "Oggi, LTE è implementato principalmente dai principali operatori negli Stati Uniti, in Asia e in Europa.Il suo lancio non è ancora completo.LTE ha guadagnato un'immensa popolarità tra i possessori di smartphone in quanto le elevate velocità di trasmissione dati hanno aperto opportunità come lo streaming video per una visione efficiente dei film.Tuttavia, tuttavia, tutto non è così perfetto.

Sebbene LTE promettesse velocità di download fino a 100 Mbps, nella pratica ciò non è stato raggiunto. È possibile raggiungere velocità fino a 40 o 50 Mbps, ma solo in condizioni speciali. Con un numero minimo di connessioni e traffico minimo, tali velocità possono essere raggiunte molto raramente. Le velocità dati più probabili sono comprese tra 10 e 15 Mbps. Durante le ore di punta, la velocità scende a pochi Mbps. Naturalmente, questo non rende l'implementazione del 4G un fallimento, significa che finora il suo potenziale non è stato pienamente realizzato.

Uno dei motivi per cui il 4G non fornisce la velocità pubblicizzata è che lo è anche lui un gran numero di consumatori. Se viene utilizzato in modo troppo intenso, la velocità di trasferimento dei dati si riduce notevolmente.

Tuttavia, c'è speranza che questo possa essere corretto. La maggior parte dei gestori che forniscono servizi 4G deve ancora implementare LTE-Advanced, un miglioramento che promette di migliorare la velocità di trasferimento dei dati. LTE-Advanced utilizza la carrier aggregation (CA) per aumentare la velocità. "Carrier bundling" si riferisce alla combinazione di larghezza di banda LTE standard fino a 20 MHz in porzioni di 40 MHz, 80 MHz o 100 MHz per aumentare il throughput. LTE-Advanced ha anche una configurazione MIMO 8 x ​​8. Il supporto per questa funzione offre la possibilità di aumentare la velocità dei dati fino a 1 Gbps.

LTE-CA è anche noto come LTE-Advanced Pro o 4.5G LTE. Queste combinazioni di tecnologie sono definite dal gruppo di sviluppo degli standard 3GPP nella versione 13. Include l'aggregazione del vettore e l'accesso assistito con licenza (LAA), una tecnica che utilizza LTE nello spettro Wi-Fi a 5 GHz senza licenza. Implementa anche l'aggregazione di link LTE-Wi-Fi (LWA) e la doppia connettività, consentendo allo smartphone di "parlare" sia con un piccolo nodo del punto di accesso che con un Accesso Wi-Fi. Ci sono troppi dettagli in questa implementazione che non entreremo in dettaglio, ma l'obiettivo generale è estendere la durata dell'LTE abbassando la latenza e aumentando la velocità dei dati a 1 Gbps.

Ma non è tutto. LTE sarà in grado di fornire prestazioni più elevate man mano che i vettori inizieranno a semplificare la loro strategia con celle di piccole dimensioni, consentendo velocità di trasmissione dati più elevate per Di più iscritti. Le piccole cellule sono solo cellule in miniatura stazioni base, che può essere impostato ovunque per colmare le lacune nella copertura delle macrocelle, aggiungendo prestazioni dove necessario.

Un altro modo per migliorare le prestazioni è Utilizzo Wi-Fi. Questo metodo garantisce download veloci all'hotspot Wi-Fi più vicino quando disponibile. Solo pochi operatori lo hanno reso disponibile, ma la maggior parte sta cercando un miglioramento per LTE chiamato LTE-U (U per senza licenza). Questo è un metodo simile a LAA che utilizza la banda a 5 GHz senza licenza per download veloci quando la rete non è in grado di gestire il carico. Ciò crea un conflitto di spettro con quest'ultimo, che utilizza la banda a 5 GHz. Alcuni compromessi sono stati ideati per implementare questo.

Come possiamo vedere, le potenzialità del 4G non sono ancora del tutto svelate. Tutti o la maggior parte di questi miglioramenti saranno implementati nei prossimi anni. Vale la pena notare che i produttori di smartphone apporteranno anche modifiche hardware o software per migliorare le prestazioni LTE. È probabile che questi miglioramenti si verifichino quando inizierà l'adozione di massa dello standard 5G.

Scoperta del 5G

Non esiste ancora il 5G. Quindi, è troppo presto per fare una dichiarazione forte su "uno standard completamente nuovo che può cambiare l'approccio alla trasmissione di informazioni wireless". Tuttavia, alcuni fornitori di servizi Internet stanno già discutendo su chi sarà il primo a implementare lo standard 5G. Ma vale la pena ricordare la disputa degli ultimi anni sul 4G. Dopotutto, non esiste ancora un vero 4G (LTE-A). Tuttavia, il lavoro sul 5G è in pieno svolgimento.

Il 3rd Generation Partnership Project (3GPP) sta lavorando allo standard 5G, che dovrebbe essere implementato nei prossimi anni. L'International Telecommunication Union (ITU), che "benedirà" e amministrerà lo standard, afferma che il 5G dovrebbe essere finalmente disponibile entro il 2020. Tuttavia, alcuni prime versioni Gli standard 5G appariranno ancora nella concorrenza dei fornitori. Alcuni requisiti 5G appariranno già nel 2017-2018 in una forma o nell'altra. La piena implementazione del 5G non sarà un compito facile. Un tale sistema sarebbe una delle reti wireless più complesse, se non la più complessa. Il suo pieno dispiegamento è previsto entro il 2022.

La logica alla base del 5G è superare i limiti del 4G e aggiungere opportunità per nuove applicazioni. I limiti del 4G sono principalmente la larghezza di banda dell'abbonato e velocità dati limitate. Le reti cellulari sono già passate dalla tecnologia vocale ai data center, ma in futuro sono necessari ulteriori miglioramenti delle prestazioni.

Inoltre, è previsto un boom di nuove applicazioni. Questi includono video HD 4K, realta virtuale, Internet delle cose (IoT), così come l'uso della struttura machine-to-machine (M2M). Molti prevedono ancora tra i 20 ei 50 miliardi di dispositivi online, molti dei quali si connetteranno a Internet tramite cellulare. Sebbene la maggior parte dei dispositivi IoT e M2M funzioni a basse velocità dati, lo streaming di dati (video) richiede velocità Internet elevate. Altre potenziali applicazioni che utilizzeranno lo standard 5G sono le città intelligenti e le comunicazioni per la sicurezza del trasporto su strada.

È probabile che il 5G sia più rivoluzionario che evolutivo. Ciò comporterà la creazione di una nuova architettura di rete che andrà a sovrapporsi alla rete 4G. La nuova rete utilizzerà piccole celle distribuite con fibra o mmWave canale inverso, e sarà anche economico, non volatile e facilmente scalabile. Inoltre, le reti 5G avranno più software di hardware. Verrà utilizzato anche rete del programma(SDN), virtualizzazione delle funzioni di rete (NFV), metodi di rete ad hoc (SON).

Ci sono anche alcune altre caratteristiche chiave:

  • L'uso delle onde millimetriche. Le prime versioni del 5G potrebbero utilizzare le bande da 3,5 GHz e 5 GHz. Sono allo studio anche opzioni di frequenza da 14 GHz a 79 GHz. La versione finale non è stata ancora selezionata, ma la FCC afferma che la scelta verrà effettuata nel prossimo futuro. I test vengono eseguiti alle frequenze di 24, 28, 37 e 73 GHz.
  • Vengono presi in considerazione nuovi schemi di modulazione. La maggior parte di loro sono alcune varianti di OFDM. Due o più schemi possono essere definiti nello standard per diverse applicazioni.
  • Multiple Input Multiple Output (MIMO) sarà incluso in qualche forma per portata estesa, velocità dati e affidabilità del collegamento.
  • Le antenne saranno phased array con beamforming e governo adattativi.
  • La latenza inferiore è l'obiettivo principale. È specificato meno di 5 ms, ma l'obiettivo è inferiore a 1 ms.
  • Sono previste velocità dati da 1 Gbps a 10 Gbps con larghezze di banda di 500 MHz o 1 GHz.
  • I chip saranno realizzati con arseniuro di gallio, germanio di silicio e alcuni CMOS.

Una delle maggiori sfide nell'adozione del 5G dovrebbe essere l'integrazione dello standard in Telefono cellulare. IN smartphone moderni e così pieni di diversi trasmettitori e ricevitori, e con il 5G diventeranno ancora più difficili. È necessaria una tale integrazione?

Percorso di sviluppo Wi-Fi

Insieme a comunicazione cellulare una delle reti wireless più popolari è il Wi-Fi. Ad esempio, il Wi-Fi è una delle nostre "utilità" preferite. Non vediamo l'ora di connetterci con Reti Wi-Fi quasi ovunque e nella maggior parte dei casi otteniamo l'accesso. Come i più popolari tecnologie senza fili, è costantemente in fase di sviluppo. L'ultima versione rilasciata si chiama 802.11ac e fornisce velocità fino a 1,3 Gbps nella banda a 5 GHz senza licenza. Si cercano anche applicazioni per lo standard 802.11ad ad altissima frequenza 60 GHz (57-64 GHz). È una tecnologia collaudata ed economica, ma chi ha bisogno di velocità da 3 a 7 Gbps a distanze fino a 10 metri?

SU questo momento Esistono diversi progetti di sviluppo per lo standard 802.11. Ecco alcuni dei principali:

  • 11af è la versione del Wi-Fi nelle bande bianche della banda TV (da 54 a 695 MHz). I dati vengono trasmessi in larghezze di banda locali di 6 (o 8) MHz che non sono occupate. Sono possibili velocità dati fino a 26 Mbps. A volte viene indicato come White-Fi, e l'attrazione principale di 11af è che il possibile raggio d'azione basse frequenzeè di molti chilometri e nessuna linea di vista (NLOS) (solo operazioni in area aperta). Questa versione del Wi-Fi non è ancora in uso, ma ha il potenziale per le applicazioni IoT.
  • 11ah - etichettato HaLow, è un'altra variante Wi-Fi che utilizza la banda ISM 902-928 MHz senza licenza. Si tratta di un servizio a bassa potenza ea bassa velocità (centinaia di kbit/s) con una portata fino a un chilometro. L'obiettivo è l'applicazione in IoT.
  • 11ax - 11ax è un aggiornamento a 11ac. Può essere utilizzato sulle bande da 2,4 e 5 GHz, ma molto probabilmente funzionerà sulla banda da 5 GHz esclusivamente per utilizzare la larghezza di banda da 80 o 160 MHz. Insieme a 4 x 4 MIMO e OFDA/OFDMA, sono previste velocità dati di picco fino a 10 Gb/s. La ratifica finale non avrà luogo fino al 2019, anche se è probabile che le versioni preliminari siano complete.
  • 11ay è un'estensione dello standard 11ad. Utilizzerà la banda di frequenza a 60 GHz e l'obiettivo è una velocità dati di almeno 20 Gbps. Un altro obiettivo è estendere la portata a 100 metri per avere più applicazioni come il traffico di ritorno per altri servizi. Questo standard non dovrebbe essere rilasciato nel 2017.

Reti wireless per IoT e M2M

Il wireless è sicuramente il futuro dell'Internet of Things (IoT) e del Machine-to-Machine (M2M). Sebbene anche le soluzioni cablate non siano escluse, ma il desiderio di comunicazone wirelessè ancora preferibile.

Tipico per i dispositivi Internet of Things è breve distanza azione, basso consumo energetico, bassa velocità di comunicazione, alimentazione a batteria o batteria con sensore, come mostrato nella figura seguente:

Un'alternativa potrebbe essere una sorta di attuatore remoto, come mostrato nella figura seguente:

Oppure è possibile una combinazione dei due. Entrambi in genere si connettono a Internet tramite un gateway wireless, ma possono anche connettersi tramite uno smartphone. Anche la connessione al gateway è wireless. La domanda è, cosa norma senza fili sarà usato?

Il Wi-Fi diventa la scelta ovvia, poiché è difficile immaginare un luogo senza di esso. Ma per alcune applicazioni sarà ridondante e per altre richiederà un consumo eccessivo di energia. Il Bluetooth è un'altra buona opzione, specialmente la versione con basso consumo energetico(BL). Le nuove aggiunte alla rete e al gateway Bluetooth lo rendono ancora più attraente. ZigBee è un'altra alternativa pronta e in attesa, e non dimentichiamoci di Z-Wave. Esistono anche diverse varianti di 802.15.4, come 6LoWPAN.

Aggiungi a loro ultime opzioni, che fanno parte di reti a lungo raggio ad alta efficienza energetica (Low Power Wide Area Networks (LPWAN)). Queste nuove opzioni wireless offrono le connessioni di rete portata più lunga, cosa che di solito non è possibile con le tecnologie tradizionali sopra menzionate. La maggior parte di essi opera nello spettro senza licenza al di sotto di 1 GHz. Alcuni dei più recenti concorrenti per le applicazioni IoT sono:

  • LoRa è un'invenzione Semtech e gestita da Link Labs. Questa tecnologia utilizza la modulazione di frequenza lineare (chirp) a bassa velocità dati per ottenere una portata fino a 2-15 km.
  • Sigfox è uno sviluppo francese che utilizza uno schema di modulazione a banda ultra stretta a bassa velocità dati per inviare messaggi brevi.
  • Senza peso: utilizza spazi bianchi televisivi con tecniche di radio cognitive per distanze maggiori e velocità dati fino a 16 Mbps.
  • Nwave è simile a Sigfox, ma al momento non siamo stati in grado di raccogliere informazioni sufficienti.
  • Ingenu: a differenza di altri, questo utilizza la banda a 2,4 GHz e un esclusivo schema di accesso multiplo a fase casuale.
  • Halow è Wi-Fi 802.11ah, descritto sopra.
  • White-Fi è 802.11af, descritto sopra.

Il cellulare è sicuramente un'alternativa all'IoT, in quanto è stato la spina dorsale delle comunicazioni machine-to-machine (M2M) per oltre 10 anni. Le comunicazioni machine-to-machine utilizzano principalmente moduli wireless 2G e 3G per monitorare le macchine remote. Mentre il 2G (GSM) alla fine verrà gradualmente eliminato, il 3G sarà ancora vivo.

È ora disponibile un nuovo standard: LTE. In particolare, si chiama LTE-M e utilizza una versione ridotta di LTE in una larghezza di banda di 1,4 MHz. Un'altra versione di NB-LTE-M utilizza una larghezza di banda di 200 kHz per funzionare a una velocità inferiore. Tutte queste opzioni saranno in grado di utilizzare esistenti Reti LTE con software aggiornato. Moduli e chip per LTE-M sono già disponibili, così come sui dispositivi Sequans Communications.

Uno dei maggiori problemi con l'Internet of Things è la mancanza di uno standard unico. E nel prossimo futuro, molto probabilmente, non apparirà. Forse in futuro ci saranno diversi standard, solo quanto presto?

Per capire come la rete locale , è necessario comprendere un concetto come tecnologia di rete.

La tecnologia di rete è costituita da due componenti: protocolli di rete e attrezzature che garantiscono il funzionamento di questi protocolli. Protocollo a sua volta, è un insieme di "regole" in base alle quali i computer della rete possono connettersi tra loro e scambiarsi informazioni. Usando tecnologie di rete abbiamo Internet, c'è una connessione locale tra i computer di casa tua. Di più tecnologie di rete chiamato di base, ma hanno anche un altro bel nome - architetture di rete.

Le architetture di rete definiscono diversi parametri di rete, di cui devi avere una piccola idea per capire il dispositivo della rete locale:

1) Velocità di trasferimento dati. Specifica la quantità di informazioni, generalmente misurate in bit, che possono essere inviate su una rete in un determinato periodo di tempo.

2) Formato dei frame di rete. Le informazioni trasmesse attraverso la rete esistono sotto forma di cosiddetti "frame" - pacchetti di informazioni. I frame di rete in diverse tecnologie di rete hanno diversi formati di pacchetti di informazioni trasmessi.

3) Tipo di codifica del segnale. Determina come, con l'aiuto di impulsi elettrici, le informazioni vengono codificate nella rete.

4) Mezzo trasmissivo. Questo è il materiale (di solito un cavo) attraverso il quale passa il flusso di informazioni, proprio quello che alla fine viene visualizzato sugli schermi dei nostri monitor.

5) Topologia di rete. Questo è un diagramma di rete in cui sono presenti "bordi" che sono cavi e "vertici" - computer a cui vengono tirati questi cavi. Sono comuni tre tipi principali di diagrammi di rete: anello, bus e stella.

6) Modalità di accesso al supporto telematico. Vengono utilizzati tre metodi di accesso ai supporti di rete: metodo deterministico, metodo di accesso casuale e trasmissione prioritaria. Il metodo deterministico più comune, in cui, utilizzando uno speciale algoritmo, il tempo di utilizzo del mezzo di trasmissione è diviso tra tutti i computer nel mezzo. Nel caso di un metodo di accesso alla rete casuale, i computer competono per l'accesso alla rete. Questo metodo presenta una serie di svantaggi. Uno di questi inconvenienti è la perdita di parte delle informazioni trasmesse a causa della collisione di pacchetti di informazioni nella rete. Accesso prioritario fornisce corrispondentemente la maggior quantità di informazioni alla stazione prioritaria stabilita.

×

L'insieme di questi parametri determinatecnologia di rete.

La tecnologia di rete è ormai diffusa IEEE802.3/Ethernet. Si è diffuso grazie a tecnologie semplici ed economiche. È anche popolare per il fatto che la manutenzione di tali reti è più semplice. La topologia delle reti Ethernet è generalmente costruita sotto forma di "stella" o "bus". Il mezzo di trasmissione in tali reti utilizza sia thin che thick cavi coassiali, E doppini intrecciati e cavi in ​​fibra ottica. La lunghezza delle reti Ethernet varia tipicamente da 100 a 2000 metri. La velocità di trasferimento dei dati in tali reti è in genere di circa 10 Mbps. Le reti Ethernet utilizzano comunemente il metodo di accesso CSMA/CD, che si riferisce a metodi di accesso alla rete casuale decentralizzati.

Ci sono anche opzioni di rete ad alta velocità Ethernet: IEEE802.3u/Fast Ethernet e IEEE802.3z/Gigabit Ethernet, fornendo rispettivamente velocità di trasferimento dati fino a 100 Mbps e fino a 1000 Mbps. Queste reti utilizzano principalmente fibra ottica, O doppino intrecciato schermato.

Esistono anche tecnologie di rete meno comuni ma onnipresenti.

tecnologia di rete IEEE802.5/Token Ringè caratterizzato dal fatto che tutti i vertici o nodi (computer) in tale rete sono uniti in un anello, utilizzano il metodo marker per accedere alla rete, supportano doppino intrecciato schermato e non schermato, E fibra ottica come mezzo di trasmissione. La velocità nella rete Token-Ring è fino a 16 Mbps. Il numero massimo di nodi in un tale anello è 260 e la lunghezza dell'intera rete può raggiungere i 4000 metri.

Leggi i seguenti articoli sull'argomento:

La rete locale IEEE802.4/ArcNetè speciale in quanto utilizza il trasferimento del metodo di accesso dell'autorità per trasferire i dati. Questa rete è una delle più antiche e precedentemente popolari al mondo. Tale popolarità è dovuta all'affidabilità e al basso costo della rete. Al giorno d'oggi, tale tecnologia di rete è meno comune, poiché la velocità in tale rete è piuttosto bassa, circa 2,5 Mbps. Come la maggior parte delle altre reti, utilizza come mezzo di trasmissione doppini intrecciati schermati e non schermati e cavi in ​​fibra ottica, che possono formare una rete lunga fino a 6000 metri e includere fino a 255 abbonati.

Architettura di rete FDDI (interfaccia dati distribuita in fibra), basato su IEEE802.4/ArcNet ed è molto popolare grazie alla sua elevata affidabilità. Questa tecnologia di rete include due anelli in fibra ottica, fino a 100 km di lunghezza. Allo stesso tempo, viene garantita anche un'elevata velocità di trasferimento dati nella rete, circa 100 Mbps. Lo scopo della creazione di due anelli in fibra ottica è che uno degli anelli ha un percorso con dati ridondanti. Ciò riduce la possibilità di perdere le informazioni trasmesse. Tale rete può contenere fino a 500 abbonati, il che rappresenta anche un vantaggio rispetto ad altre tecnologie di rete.

Di recente, l'investitore americano Mike Maples ha parlato del networking come il business del futuro, secondo Fortune. Maples ha iniziato a investire oltre 10 anni fa. In precedenza, era un imprenditore privato, quindi investire era una nuova sfida per lui.

Già allora si rese conto che il futuro appartiene alle tecnologie di rete e non alle aziende nel loro senso comune. Ecco perché sono stati fatti i primi investimenti nei progetti appena nati di Twitter e Twitch. Poco dopo, insieme al partner AnnMiura-Ko, sono stati implementati Lyft, Okta e molti altri progetti.

Ad oggi, Mike Maples è convinto di quanto segue:

– Reti basate su Software, sarà l'attività più costosa e finirà per spiazzare le aziende tradizionali

– Le reti possono migliorare significativamente il benessere della popolazione in tutte le regioni del mondo

– Le società di rete dovranno affrontare una dura resistenza da parte dei governi e delle società tradizionali

Per confermare le sue parole, Maples si rivolge alla storia. Dice che la creazione del motore a vapore e ferrovia Contemporaneamente all'avvento del mercato azionario, ha permesso alle imprese di fare un passo avanti, il che, a sua volta, ha portato a un salto nel benessere della popolazione. Tra il 1800 e il 2000, sostiene Maples, il reddito reale della popolazione è aumentato in media di 14 volte, cosa mai accaduta prima in un periodo storico così breve.

In precedenza, le grandi società avevano vantaggi significativi a causa del volume di produzione e di una significativa divisione del lavoro. Oggi, tuttavia, anche le più grandi aziende tradizionali stanno perdendo terreno rispetto alle reti, poiché queste ultime hanno un numero enorme di utenti che creano esse stesse i cosiddetti effetti di rete, inclusa la promozione istantanea di varie idee, opinioni, beni e servizi.

Non devi cercare lontano per esempi. Uber e Lyft sono leader nel mercato dei trasporti privati ​​negli Stati Uniti; Airbnb è il principale servizio di affitto di proprietà e Azienda Apple 10 anni fa, ha capovolto l'idea di un telefono cellulare.

Ora tutti possiamo già osservare l'escalation della lotta tra i sistemi aziendali tradizionali e quelli di rete. Uber e Airbnb sono sotto pressione da parte delle autorità locali per le tasse e presumibilmente utilizzano metodi di concorrenza "non competitivi". Maples ritiene che lo sviluppo delle tecnologie di rete dovrebbe alla fine portare alla prosperità delle persone, sebbene nelle fasi intermedie della formazione alcune industrie reagiscano al progresso con tagli di posti di lavoro.

Se noti un errore, seleziona una parte di testo e premi Ctrl + Invio
CONDIVIDERE: