Era dell'informazione - Information Age

Un laptop si connette a Internet per visualizzare le informazioni di Wikipedia ; la condivisione di informazioni tra sistemi informatici è un segno distintivo dell'era dell'informazione.

L'era dell'informazione (nota anche come era del computer , era digitale o era dei nuovi media ) è un periodo storico iniziato a metà del XX secolo, caratterizzato da un rapido passaggio epocale dall'industria tradizionale stabilita dalla rivoluzione industriale a un'economia principalmente basato sulla tecnologia dell'informazione . L'inizio dell'era dell'informazione può essere associato allo sviluppo della tecnologia dei transistor .

Secondo l' amministrazione di rete pubblica delle Nazioni Unite , l'Era era formata da capitalizzando sul computer di microminiaturization progressi, che porterebbero a modernizzato informazioni e processi di comunicazione in base all'utilizzo più ampio all'interno della società di diventare la forza trainante di evoluzione sociale .

Panoramica dei primi sviluppi

Espansione della biblioteca e legge di Moore

L'espansione della biblioteca è stata calcolata nel 1945 da Fremont Rider per raddoppiare la capacità ogni 16 anni se lo spazio disponibile è sufficiente. Ha sostenuto la sostituzione di opere stampate ingombranti e decadenti con fotografie analogiche microformate miniaturizzate , che potrebbero essere duplicate su richiesta per i clienti delle biblioteche e altre istituzioni.

Rider non prevedeva, tuttavia, la tecnologia digitale che sarebbe seguita decenni dopo per sostituire la microforma analogica con supporti di imaging , archiviazione e trasmissione digitali , per cui enormi aumenti della rapidità di crescita delle informazioni sarebbero stati possibili attraverso tecnologie digitali automatizzate e potenzialmente senza perdita di dati. . Di conseguenza, la legge di Moore , formulata intorno al 1965, calcolerebbe che il numero di transistor in un circuito integrato denso raddoppia circa ogni due anni.

All'inizio degli anni '80, insieme ai miglioramenti nella potenza di calcolo , la proliferazione dei personal computer più piccoli e meno costosi ha consentito l' accesso immediato alle informazioni e la capacità di condividerle e archiviarle per un numero crescente di lavoratori. La connettività tra i computer all'interno delle organizzazioni ha consentito ai dipendenti a diversi livelli di accedere a maggiori quantità di informazioni.

Archiviazione delle informazioni e legge di Kryder

Hilbert & López (2011). La capacità tecnologica mondiale di archiviare, comunicare e calcolare le informazioni. Scienza, 332(6025), 60–65. https://science.sciencemag.org/content/sci/332/6025/60.full.pdf

Il mondo è la capacità tecnologica per memorizzare le informazioni è cresciuto da 2,6 (in modo ottimale compressi ) exabyte (EB) in 1.986-15,8 EB nel 1993; oltre 54,5 EB nel 2000; e a 295 EB (compresso in modo ottimale) nel 2007. Questo è l'equivalente informativo di meno di un CD-ROM da 730 megabyte (MB) a persona nel 1986 (539 MB a persona); circa quattro CD-ROM a persona nel 1993; dodici CD-ROM a persona nell'anno 2000; e quasi sessantuno CD-ROM a persona nel 2007. Si stima che la capacità mondiale di memorizzare informazioni abbia raggiunto i 5 zettabyte nel 2014, l'equivalente informativo di 4.500 pile di libri stampati dalla terra al sole .

La quantità di dati digitali archiviati sembra crescere in modo esponenziale , ricordando la legge di Moore . In quanto tale, la legge di Kryder prescrive che la quantità di spazio di archiviazione disponibile sembra crescere in modo esponenziale.

Trasmissione di informazioni

La capacità tecnologica mondiale di ricevere informazioni attraverso reti di trasmissione unidirezionali era di 432 exabyte di informazioni ( compresse in modo ottimale ) nel 1986; 715 exabyte (compressi in modo ottimale) nel 1993; 1.2 zettabyte (compressi in modo ottimale) nel 2000; e 1,9 zettabyte nel 2007, l'equivalente informativo di 174 giornali per persona al giorno.

La capacità effettiva del mondo di scambiare informazioni attraverso reti di telecomunicazione bidirezionali era di 281 petabyte di informazioni (compresse in modo ottimale) nel 1986; 471 petabyte nel 1993; 2.2 exabyte (compressi in modo ottimale) nel 2000; e 65 exabyte (compressi in modo ottimale) nel 2007, l'equivalente informativo di 6 giornali per persona al giorno. Negli anni '90, la diffusione di Internet ha causato un improvviso balzo in avanti nell'accesso e nella capacità di condividere le informazioni nelle aziende e nelle case di tutto il mondo. La tecnologia si stava sviluppando così rapidamente che un computer che costava $ 3000 nel 1997 sarebbe costato $ 2000 due anni dopo e $ 1000 l'anno successivo.

Calcolo

La capacità tecnologica mondiale di calcolare le informazioni con computer generici guidati dall'uomo è cresciuta da 3,0 × 10 8 MIPS nel 1986 a 4,4 × 10 9 MIPS nel 1993; a 2,9 × 10 11 MIPS nel 2000; a 6,4 × 10 12 MIPS nel 2007. Un articolo apparso sulla rivista Trends in Ecology and Evolution nel 2016 riportava che:

[ La tecnologia digitale ] ha ampiamente superato la capacità cognitiva di ogni singolo essere umano e lo ha fatto un decennio prima del previsto. In termini di capacità, ci sono due misure importanti: il numero di operazioni che un sistema può eseguire e la quantità di informazioni che possono essere archiviate. Si stima che il numero di operazioni sinaptiche al secondo in un cervello umano sia compreso tra 10^15 e 10^17. Sebbene questo numero sia impressionante, anche nel 2007 i computer generici dell'umanità erano in grado di eseguire ben oltre 10^18 istruzioni al secondo. Le stime suggeriscono che la capacità di memorizzazione di un singolo cervello umano è di circa 10^12 byte. Su base pro capite, questo corrisponde all'attuale archiviazione digitale (5x10^21 byte per 7,2x10^9 persone).

Concettualizzazioni di diversi stadi

Tre fasi dell'era dell'informazione

Ci sono diverse concettualizzazioni dell'era dell'informazione. Alcuni si concentrano sull'evoluzione dell'informazione nel corso dei secoli, distinguendo tra l'era dell'informazione primaria e l'era dell'informazione secondaria. L'informazione nell'era dell'informazione primaria era gestita da giornali , radio e televisione . L'era dell'informazione secondaria è stata sviluppata da Internet , dalle televisioni satellitari e dai telefoni cellulari . L'Era dell'Informazione Terziaria è emersa dai media dell'Era dell'Informazione Primaria interconnessi con i media dell'Era dell'Informazione Secondaria come sperimentato attualmente.

LongWavesThreeParadigms.jpg

Altri lo classificano in termini di onde lunghe Schumpeterian consolidate o onde di Kondratiev . Qui gli autori distinguono tre diversi meta paradigmi a lungo termine , ciascuno con diverse onde lunghe. Il primo si è concentrato sulla trasformazione della materia, tra cui pietra , bronzo e ferro . La seconda, spesso definita rivoluzione industriale , era dedicata alla trasformazione dell'energia, compresa l' acqua , il vapore , l' elettricità e la combustione . Infine, il metaparadigma più recente mira a trasformare le informazioni . È iniziato con la proliferazione della comunicazione e dei dati archiviati ed è ora entrato nell'era degli algoritmi , che mira a creare processi automatizzati per convertire le informazioni esistenti in conoscenza attuabile.

Economia

Alla fine, le tecnologie dell'informazione e della comunicazione (TIC) - ovvero computer , macchinari computerizzati , fibre ottiche , satelliti di comunicazione , Internet e altri strumenti TIC - divennero una parte significativa dell'economia mondiale , poiché lo sviluppo dei microcomputer cambiò notevolmente molte aziende e industrie . Nicholas Negroponte ha catturato l'essenza di questi cambiamenti nel suo libro del 1995, Being Digital , in cui discute le somiglianze e le differenze tra prodotti fatti di atomi e prodotti fatti di bit . In sostanza, una copia di un prodotto fatto di bit può essere realizzata in modo economico e rapido, quindi spedita in modo conveniente in tutto il paese o nel mondo a costi molto bassi.

Posti di lavoro e distribuzione del reddito

L'era dell'informazione ha influenzato la forza lavoro in diversi modi, costringendo i lavoratori a competere in un mercato del lavoro globale . Una delle preoccupazioni più evidenti è la sostituzione del lavoro umano con computer in grado di svolgere il proprio lavoro in modo più rapido ed efficace, creando così una situazione in cui gli individui che svolgono compiti facilmente automatizzabili sono costretti a trovare un lavoro dove il loro lavoro non è così monouso. Ciò crea problemi soprattutto per quelli nelle città industriali , dove le soluzioni in genere comportano la riduzione dell'orario di lavoro , che è spesso molto contrastato. Pertanto, gli individui che perdono il lavoro possono essere spinti a passare a "lavoratori mentali" (ad esempio ingegneri , medici , avvocati , insegnanti , professori , scienziati , dirigenti , giornalisti , consulenti ), che sono in grado di competere con successo nel mercato mondiale e ricevere salari (relativamente) alti.

Insieme all'automazione, anche i lavori tradizionalmente associati alla classe media (ad es. catena di montaggio , elaborazione dati , gestione e supervisione ) hanno iniziato a scomparire a causa dell'outsourcing . Incapaci di competere con quelli dei paesi in via di sviluppo , i lavoratori della produzione e dei servizi nelle società postindustriali (cioè sviluppate) perdono il lavoro a causa dell'esternalizzazione, accettano tagli salariali o si accontentano di lavori di servizi a bassa qualificazione e basso salario . In passato, il destino economico degli individui sarebbe stato legato a quello della loro nazione. Ad esempio, i lavoratori negli Stati Uniti una volta erano ben pagati rispetto a quelli di altri paesi. Con l'avvento dell'era dell'informazione e il miglioramento della comunicazione, questo non è più il caso, poiché i lavoratori devono ora competere in un mercato del lavoro globale , in cui i salari dipendono meno dal successo o dal fallimento delle singole economie.

Nell'effettuare una forza lavoro globalizzata , Internet ha anche permesso maggiori opportunità nei paesi in via di sviluppo , consentendo ai lavoratori in tali luoghi di fornire servizi di persona, quindi competendo direttamente con le loro controparti in altre nazioni. Questo vantaggio competitivo si traduce in maggiori opportunità e salari più alti.

Automazione, produttività e guadagno di lavoro

L'era dell'informazione ha colpito la forza lavoro in quanto l' automazione e l'informatizzazione hanno portato a una maggiore produttività insieme alla perdita netta di posti di lavoro nel settore manifatturiero . Negli Stati Uniti, ad esempio, dal gennaio 1972 all'agosto 2010, il numero di persone impiegate nei lavori di produzione è sceso da 17.500.000 a 11.500.000 mentre il valore della produzione è aumentato del 270%.

Sebbene inizialmente sembrasse che la perdita di posti di lavoro nel settore industriale potesse essere parzialmente compensata dalla rapida crescita di posti di lavoro nella tecnologia dell'informazione , la recessione del marzo 2001 ha prefigurato un forte calo del numero di posti di lavoro nel settore. Questo modello di diminuzione dei posti di lavoro continuerà fino al 2003 ei dati hanno dimostrato che, nel complesso, la tecnologia crea più posti di lavoro di quanti ne distrugga anche nel breve periodo.

Industria ad alta intensità di informazioni

L'industria è diventata più ad alta intensità di informazioni mentre meno lavoro e capitale . Ciò ha lasciato importanti implicazioni per la forza lavoro , poiché i lavoratori sono diventati sempre più produttivi man mano che il valore del loro lavoro diminuisce. Per il sistema del capitalismo stesso, il valore del lavoro diminuisce, il valore del capitale aumenta.

Nel modello classico , gli investimenti in capitale umano e finanziario sono importanti predittori della performance di una nuova impresa . Tuttavia, come dimostrato da Mark Zuckerberg e Facebook , ora sembra possibile per un gruppo di persone relativamente inesperte con un capitale limitato avere successo su larga scala.

Innovazioni

Una visualizzazione dei vari percorsi attraverso una porzione di Internet.

L'Era dell'Informazione è stata resa possibile dalla tecnologia sviluppata durante la Rivoluzione Digitale , a sua volta resa possibile basandosi sugli sviluppi della Rivoluzione Tecnologica .

Transistor

L'inizio dell'era dell'informazione può essere associato allo sviluppo della tecnologia dei transistor . Il concetto di transistor ad effetto di campo fu teorizzato per la prima volta da Julius Edgar Lilienfeld nel 1925. Il primo transistor pratico fu il transistor a contatto puntuale , inventato dagli ingegneri Walter Houser Brattain e John Bardeen mentre lavoravano per William Shockley ai Bell Labs nel 1947. Questa è stata una svolta che ha gettato le basi per la tecnologia moderna. Il team di ricerca di Shockley ha anche inventato il transistor a giunzione bipolare nel 1952. Il tipo di transistor più utilizzato è il transistor ad effetto di campo (MOSFET) a metallo-ossido-semiconduttore , inventato da Mohamed M. Atalla e Dawon Kahng presso i Bell Labs nel 1960. Il Il processo di fabbricazione complementare MOS (CMOS) è stato sviluppato da Frank Wanlass e Chih-Tang Sah nel 1963.

Computer

Prima dell'avvento dell'elettronica , i computer meccanici , come il motore analitico nel 1837, erano progettati per fornire calcoli matematici di routine e semplici capacità decisionali. Le esigenze militari durante la seconda guerra mondiale guidarono lo sviluppo dei primi computer elettronici, basati su tubi a vuoto , tra cui lo Z3 , il computer Atanasoff-Berry , il computer Colossus e l' ENIAC .

L'invenzione del transistor ha permesso l'era dei computer mainframe (1950-1970), caratterizzata dall'IBM 360 . Questi grandi computer delle dimensioni di una stanza fornivano il calcolo e la manipolazione dei dati che era molto più veloce di quanto umanamente possibile, ma erano costosi da acquistare e mantenere, quindi inizialmente erano limitati a poche istituzioni scientifiche, grandi aziende e agenzie governative.

Il circuito integrato al germanio (IC) è stato inventato da Jack Kilby alla Texas Instruments nel 1958. Il circuito integrato al silicio è stato poi inventato nel 1959 da Robert Noyce alla Fairchild Semiconductor , utilizzando il processo planare sviluppato da Jean Hoerni , a sua volta basato su Mohamed Il metodo di passivazione della superficie del silicio di Atalla sviluppato presso i Bell Labs nel 1957. In seguito all'invenzione del transistor MOS di Mohamed Atalla e Dawon Kahng presso i Bell Labs nel 1959, il circuito integrato MOS è stato sviluppato da Fred Heiman e Steven Hofstein presso la RCA nel 1962. L' IC MOS con gate al silicio è stato successivamente sviluppato da Federico Faggin presso la Fairchild Semiconductor nel 1968. Con l'avvento del transistor MOS e dell'IC MOS, la tecnologia dei transistor è migliorata rapidamente e il rapporto tra potenza di calcolo e dimensioni è aumentato notevolmente, dando accesso diretto a computer a gruppi sempre più piccoli di persone.

Il primo microprocessore commerciale a chip singolo lanciato nel 1971, l' Intel 4004 , è stato sviluppato da Federico Faggin utilizzando la sua tecnologia MOS IC a gate di silicio, insieme a Marcian Hoff , Masatoshi Shima e Stan Mazor .

Insieme alle macchine arcade elettroniche e alle console per videogiochi domestiche negli anni '70, lo sviluppo di personal computer come il Commodore PET e l' Apple II (entrambi nel 1977) ha dato alle persone l'accesso al computer. Ma la condivisione dei dati tra i singoli computer era inesistente o in gran parte manuale , all'inizio utilizzando schede perforate e nastro magnetico e successivamente floppy disk .

Dati

I primi sviluppi per l'archiviazione dei dati si basarono inizialmente sulle fotografie, iniziando con la microfotografia nel 1851 e poi con la microforma negli anni '20, con la possibilità di archiviare documenti su pellicola, rendendoli molto più compatti. La prima teoria dell'informazione e i codici di Hamming furono sviluppati intorno al 1950, ma attendevano che le innovazioni tecniche nella trasmissione e memorizzazione dei dati venissero sfruttate appieno.

La memoria a nucleo magnetico è stata sviluppata dalla ricerca di Frederick W. Viehe nel 1947 e di An Wang all'Università di Harvard nel 1949. Con l'avvento del transistor MOS, la memoria a semiconduttore MOS è stata sviluppata da John Schmidt alla Fairchild Semiconductor nel 1964. Nel 1967, Dawon Kahng e Simon Sze dei Bell Labs descrissero nel 1967 come il gate flottante di un dispositivo a semiconduttore MOS potesse essere utilizzato per la cella di una ROM riprogrammabile. Dopo l'invenzione della memoria flash di Fujio Masuoka presso Toshiba nel 1980, Toshiba ha commercializzato la memoria flash NAND nel 1987.

Mentre i cavi che trasmettevano i dati digitali collegati ai terminali e alle periferiche dei computer ai mainframe erano comuni e negli anni '60 furono sviluppati per la prima volta speciali sistemi di condivisione dei messaggi che portavano alla posta elettronica , la rete indipendente da computer a computer iniziò con ARPANET nel 1969. Questo si espanse fino a diventare Internet (coniato nel 1974), e poi il World Wide Web nel 1991.

Il ridimensionamento dei MOSFET , la rapida miniaturizzazione dei MOSFET a una velocità prevista dalla legge di Moore , ha portato i computer a diventare più piccoli e più potenti, al punto da poter essere trasportati. Durante gli anni '80 e '90, i laptop sono stati sviluppati come una forma di computer portatile e gli assistenti digitali personali (PDA) potevano essere utilizzati stando in piedi o camminando. I cercapersone , ampiamente utilizzati negli anni '80, sono stati ampiamente sostituiti dai telefoni cellulari a partire dalla fine degli anni '90, fornendo funzionalità di rete mobile ad alcuni computer. Ormai comune, questa tecnologia è estesa alle fotocamere digitali e ad altri dispositivi indossabili. A partire dalla fine degli anni '90, i tablet e poi gli smartphone hanno unito ed esteso queste capacità di elaborazione, mobilità e condivisione delle informazioni.

Il video su Internet è stato reso popolare da YouTube , una piattaforma di video online fondata da Chad Hurley , Jawed Karim e Steve Chen nel 2005, che ha consentito lo streaming video di contenuti generati dagli utenti MPEG-4 AVC (H.264) da qualsiasi punto del World Wide Web. .

La carta elettronica , che ha origini negli anni '70, consente alle informazioni digitali di apparire come documenti cartacei.

Ottica

La comunicazione ottica ha svolto un ruolo importante nelle reti di comunicazione . La comunicazione ottica ha fornito la base hardware per la tecnologia Internet , ponendo le basi per la rivoluzione digitale e l'era dell'informazione.

Nel 1953, Bram van Heel dimostrò la trasmissione dell'immagine attraverso fasci di fibre ottiche con un rivestimento trasparente. Lo stesso anno, Harold Hopkins e Narinder Singh Kapany a Imperial College riusciti a rendere fasci di immagine di trasmissione con oltre 10.000 fibre ottiche, e successivamente raggiunti trasmissione di immagini attraverso 75 cm lungo fascio che combinate diverse migliaia di fibre.

I sensori di immagine metallo-ossido-semiconduttore (MOS) , che hanno iniziato ad apparire alla fine degli anni '60, hanno portato alla transizione dall'immagine analogica a quella digitale e dalle fotocamere analogiche a quelle digitali , durante gli anni '80-'90. I sensori di immagine più comuni sono il sensore del dispositivo ad accoppiamento di carica (CCD) e il sensore di pixel attivi CMOS (MOS complementare) (sensore CMOS).

Guarda anche

Riferimenti

Ulteriori letture

link esterno