Podcast di storia

Era dell'informazione

Era dell'informazione



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.


L'era dell'informazione

WASHINGTON, D.C.: A maggio lo Smithsonian's National Museum of American History aprirà la sua mostra più grande e ambiziosa di sempre, un'installazione permanente da 9,5 milioni di dollari e quattordicimila piedi quadrati chiamata "The Information Age: People, Information and Technology".

"'Information Age' tenterà di mostrare ai visitatori, in un modo emozionante e divertente, come le informazioni pervadono le nostre vite", afferma il curatore della mostra, David K. Allison. Inizia con un carosello rotante che drammatizza come abbiamo creato un mondo in cui conversiamo attraverso i continenti per telefono, riempiamo i nostri portafogli di contanti sboccati dai bancomat, documentiamo le nostre vacanze con videocamere e ammazziamo il tempo con Nintendo.

Si può dire che tutto sia iniziato 150 anni fa, con il telegrafo di Samuel Morse. La prima parte della mostra, "People, Information and Technology, 1835-1939", segue due percorsi paralleli dell'era dell'informazione in evoluzione: la comunicazione e l'elaborazione dell'informazione, quest'ultima che include non solo gli sviluppi tecnologici, come la calcolatrice e il contante registro, ma sviluppi sociali, come l'emergere di moderni sistemi di gestione. La sezione si conclude con una ricostruzione a grandezza naturale di una strada cittadina del 1939, dove i visitatori possono osservare come le tecnologie dell'informazione come il telefono e la radio fossero ormai diventate parte integrante della vita delle persone.

Nella sezione successiva, "La seconda guerra mondiale: la guerra dell'informazione, 1940-45", i due filoni della comunicazione e dell'elaborazione delle informazioni si fondono. "Questo è stato il punto di svolta dell'era dell'informazione", afferma il curatore collaboratore Steven Lubar (che ha scritto l'articolo sui brevetti in questo numero). Oltre a innovazioni come radar e sonar, "la vera spinta per la tecnologia informatica viene dalla seconda guerra mondiale". Durante la guerra, la tecnologia informatica embrionale ha decifrato ENIGMA, il codice apparentemente indecifrabile dei tedeschi, mentre l'ENIAC, uno dei primi computer digitali, ha calcolato le traiettorie dei missili per l'esercito.

La parte più interessante della sezione relativa alla seconda guerra mondiale è una ricostruzione dettagliata di un centro informazioni di combattimento a bordo di un cacciatorpediniere navale della seconda guerra mondiale, dove sono stati tracciati e analizzati i dati vitali raccolti da radio, sonar e radar. "Questa era la prima volta che usare dispositivi elettronici era meglio che uscire e guardare le cose", osserva Lubar.

L'ultima sezione ripercorre gli sviluppi ad ampio raggio della tecnologia dell'informazione fino ai giorni nostri, dal transistor e dall'alta fedeltà alla rivoluzione informatica e all'ascesa delle reti informatiche globali. Tra i display ci sono un robot industriale della General Motors e una ricostruzione dello studio televisivo dove ebbero luogo i dibattiti Kennedy-Nixon del 1960, eventi politici che confermarono il vasto potere dei media elettronici.

"Information Age" è animata da una serie di display interattivi. Tra le altre cose, i visitatori potranno crittografare il proprio nome con il codice ENIGMA, farsi scansionare le impronte digitali da un computer dell'FBI, produrre un segmento di un notiziario televisivo serale da filmati non elaborati e provare a gestire una chiamata di emergenza al 911. In linea con lo spirito del flusso illimitato di informazioni (e la consueta politica Smithsonian), l'ingresso al museo è gratuito.

NEWARK, DEL.: Quando Thomas Edison ha inventato il fonografo nel 1877, lo ha visto come uno strumento da ufficio e ne ha scoraggiato l'uso per l'intrattenimento. Secondo George Basalla, storico della tecnologia all'Università del Delaware, la morale di questa storia è che “la necessità non è la madre dell'invenzione. Non avevamo bisogno di strumenti di pietra o fuoco per sopravvivere”.

Gli storici della tecnologia, osserva Basalla, a differenza dei loro colleghi nella storia della scienza, hanno tradizionalmente evitato teorie radicali che attraversano secoli e confini culturali. "Mi piacciono le grandi teorie", aggiunge. Egli avanza una teoria molto grande nel suo recente libro The Evolution of Technology (Cambridge University Press). Il libro esamina ampiamente il processo di cambiamento tecnologico. Da dove vengono le invenzioni? Perché ce ne sono così tanti? La visione di Basalla del cambiamento tecnologico prende spunto dall'evoluzione biologica. Per lunghi periodi di tempo le generazioni successive di cose sia viventi che create dall'uomo subiscono un cambiamento graduale, diventando generalmente più complesso.

L'evoluzione tecnologica deve differire dall'evoluzione biologica in modi fondamentali, naturalmente, come ammette Basalla. Sia gli artefatti che le specie raggiungono la diversità ramificandosi lungo molteplici percorsi evolutivi, ma solo le cose create dall'uomo possono anche fondersi, come quando il motore a combustione interna, la bicicletta e la carrozza trainata da cavalli si unirono per formare l'automobile.

"È un'analogia vaga", ammette Basalla. “È un modo di pensare alla tecnologia.” Vede l'analogia evolutiva, tuttavia, come un antidoto a diverse idee sbagliate popolari su come si sviluppa la tecnologia.

Il primo, e forse il più irritante per gli storici, vede la tecnologia come una serie di doni prometeici di eroici inventori. Ciò promuove una visione semplicistica e “discontinuo” della tecnologia. Il modello evolutivo sottolinea la continuità tra generazioni successive di cose create dall'uomo. "Ogni nuovo manufatto", scrive Basalla, "si basa in una certa misura su un manufatto esistente correlato". Quindi l'Uzi può essere presumibilmente fatto risalire lungo una serie ininterrotta di armi, a cominciare dalla prima roccia lanciata da un ominide.

Prove più tangibili della continuità tecnologica possono essere trovate osservando ciò che Basalla chiama skeuomorphs, elementi strutturali o di design che non hanno alcuno scopo ma erano parte integrante delle precedenti incarnazioni del manufatto. Gli esempi includono i cubi in muratura non funzionali distanziati sotto la grondaia dei templi di pietra nell'antica Grecia, che sono vestigia modellate sulle estremità sporgenti delle travi di legno che avevano sostenuto i tetti delle precedenti strutture greche. In tempi più recenti i primi ponti in ferro sono stati spesso modellati su campate in legno e muratura invece di sfruttare appieno le proprietà proprie del metallo.

L'evoluzione tecnologica contrasta anche il mito persistente della tecnologia come mera scienza applicata. L'esame di Basalla dello sviluppo del motore a vapore e delle comunicazioni radio rivela un'interazione molto più complessa in cui le innovazioni tecnologiche spesso avvengono in anticipo rispetto alle scoperte scientifiche che ne spiegano i principi guida.

Forse influenzato dalla natura caotica dell'evoluzione biologica, Basalla si oppone a proporre un preciso meccanismo attraverso il quale la tecnologia si evolve. Descrive invece un duplice processo di “novità” e “selezione” in cui ispirazione, scienza e necessità condividono la scena con un assortimento di fattori psicologici, economici e socioculturali. Conclude: "È un processo disordinato".

CAMBRIDGE, MASS.: Rosalind Williams, assistente professore nel programma di scrittura del Massachusetts Institute of Technology, affronta grandi questioni sulla storia della tecnologia da una direzione opposta. Laddove George Basalla si occupa della trasformazione delle tecnologie, Williams, autore di Notes on the Underground (MIT Press), recentemente pubblicato, guarda oltre a come le tecnologie trasformano il mondo. "Alla fine del ventesimo secolo", scrive, "le nostre tecnologie assomigliano sempre meno a strumenti - oggetti discreti che possono essere considerati separatamente dall'ambiente circostante - e sempre più assomigliano a sistemi che sono intrecciati con sistemi naturali, a volte su scala globale. "

Nel suo libro scava negli strati della cultura occidentale in risposta alla domanda: "Quali sono le conseguenze quando gli esseri umani abitano in un ambiente che è prevalentemente costruito piuttosto che dato?" Dice che la domanda le è venuta per la prima volta diversi anni fa nel bel mezzo dei suoi studi letterari: "Ho notato che molte storie su un futuro immaginario erano ambientate sottoterra"—opere come "The Machine Stops" di EM Forster, When di HG Wells The Sleeper Wakes e Underground Man di Gabriel Tarde.

Gran parte dei suoi studi sono incentrati sul diciannovesimo e all'inizio del ventesimo secolo, l'era in cui la rivoluzione industriale trasformò città come Londra in mondi inferi avvolti dal fumo e quando l'emergere di moderne infrastrutture urbane - fognature, tubi di servizio, cavi telefonici - resero gli scavi un'attività regolare. parte della vita cittadina. Fu anche un periodo in cui la trasformazione tecnologica dell'ambiente influenzò la letteratura sull'alienazione di Kafka e Dostoevskij, la critica sociale di Dickens e la satira di H. G. Wells.

Williams ha concluso che è in atto una trasformazione fondamentale dell'esperienza umana. "L'obiettivo di trasformare l'ambiente può essere antico", scrive, "ma la nostra capacità di realizzare quell'obiettivo non ha precedenti". L'unico periodo paragonabile fu agli albori dell'agricoltura, quel momento traumatico in cui uomini e donne sacrificarono la loro libertà nomade di cacciatori-raccoglitori per la relativa sicurezza della vita legata alla terra. "Ora siamo imbarcati in un altro periodo di lutto e sconvolgimento culturale, mentre guardiamo a un modo di vivere che sta svanendo".

Williams riconosce che l'ascesa dell'ambiente fabbricato non è affatto negativa. "Quando vedi un bel prato sostituito da un centro commerciale e un parcheggio, può essere inquietante", dice. “Ma dentro, un centro commerciale può offrire un mondo che piace molto a molte persone. Molti dei disagi del mondo esterno vengono rimossi”. Inoltre, l'ambiente fabbricato è ancora più diffuso di quanto si possa pensare. È facile dimenticare che le distese lussureggianti di molti parchi pubblici sono un ambiente artificiale tanto quanto le trincee della prima guerra mondiale. Williams osserva che le recenti discussioni sull'ambiente potrebbero costringerci a modificare la nostra definizione di ambienti naturali e fabbricati. “Se guardi in termini globali, puoi vedere che non esiste una frontiera infinita. Viviamo in un sistema chiuso. Siamo già sotto la superficie».


La nuova era dell'informazione

Il fondatore di LinkedIn Reid Hoffman ha dichiarato, di recente, "che se Web 1.0 fosse coinvolto vai a cercare, ottieni dati e una certa interattività limitata, e se il Web 2.0 coinvolge identità reali e relazioni reali, allora Web 3.0 sarà identità reali che generano enormi quantità di dati.”

Reid è un visionario e certamente aveva ragione. Ma le informazioni descritte da Reid sono solo la punta dell'iceberg. Stiamo già raccogliendo mille volte più dati di così. La crescita è esponenziale e le opportunità di innovazione sono persino maggiori di quanto la Silicon Valley possa immaginare.

Spiegherò perché credo questo. Ma vorrei iniziare con una breve lezione di storia.

Nel corso dei secoli, abbiamo raccolto molti dati su cose come il clima, la demografia e le transazioni commerciali e governative. I nostri agricoltori tenevano traccia del tempo in modo che sapessero quando coltivare i loro raccolti, avevamo i registri dei terreni in modo da poter possedere proprietà e abbiamo sviluppato elenchi telefonici in modo da poter trovare persone. Il Web 1.0 ha reso possibile rendere queste informazioni disponibili e ricercabili a livello globale.

Questo si è rapidamente evoluto nel Web 2.0. Ora venivano acquisiti dati su quali notizie leggiamo, dove abbiamo fatto acquisti, quali siti abbiamo visitato, quale musica abbiamo ascoltato, quali film abbiamo visto e dove abbiamo viaggiato. E "i poteri forti" hanno iniziato a raccogliere informazioni sulla nostra età, salute, istruzione e stato socioeconomico.

Con l'avvento di LinkedIn, Myspace, Facebook, Twitter e di molti altri strumenti di social media, il Web è diventato "sociale" e "i poteri forti" hanno iniziato a conoscere tutto sulla nostra storia lavorativa, sui contatti sociali e di lavoro e su cosa ci piace: il nostro cibo, l'intrattenimento, le preferenze sessuali, ecc. Questo è ciò che Reid Hoffman chiama Web 3.0.

Ma c'è molto, molto di più che sta accadendo nel mondo del Web 3.0. Non è solo "sociale".

Nel 2009, il presidente Obama ha lanciato un ambizioso programma per modernizzare il nostro sistema sanitario rendendo tutte le cartelle cliniche standardizzate ed elettroniche. L'obiettivo è avere tutte le cartelle cliniche cartacee, per l'intera popolazione degli Stati Uniti, digitalizzate e disponibili online. In questo modo, un pronto soccorso avrà accesso immediato all'anamnesi di un paziente, l'efficacia dei farmaci può essere studiata su vaste popolazioni e i medici generici e gli specialisti possono coordinare i loro trattamenti.

Il governo sta anche aprendo i suoi enormi set di dati di informazioni con l'iniziativa Data.gov. Sono già disponibili quattrocentomila set di dati e ne vengono aggiunti altri ogni settimana. Includono dati regionali sull'efficienza dei servizi governativi, sulla povertà e sulla ricchezza, sull'istruzione, sulla spesa del governo federale, sui trasporti, ecc. Possiamo, ad esempio, creare applicazioni che sfidano le scuole o gli operatori sanitari a ottenere prestazioni migliori confrontando vari località’ prestazioni. E possiamo ritenere il governo più responsabile analizzando le sue spese e gli sprechi.

Ci sono più di 24 ore di video caricati su YouTube ogni minuto e molti più video vengono raccolti in tutto il mondo attraverso le telecamere di sorveglianza che vedi ovunque. Che ce ne rendiamo conto o no, i nostri telefoni cellulari sono in grado di tenere traccia di ogni nostro movimento: ovunque andiamo, quanto velocemente ci muoviamo a che ora ci svegliamo. Diverse applicazioni mobili stanno iniziando a registrare questi dati.

E poi c'è il genoma umano. Abbiamo imparato a sequenziarlo solo dieci anni fa a un costo di miliardi di dollari. Il prezzo del sequenziamento del genoma di un individuo sta scendendo a una velocità doppia esponenziale, da milioni a circa $ 10.000 per sequenza nel 2011. Si prevede che più di un milione di individui verranno sequenziati nel 2013. Non passerà molto tempo prima che il sequenziamento del genoma costi $ 100— o è gratuito, con i servizi acquistati (come con i telefoni cellulari).

Ora immagina le possibilità che potrebbero derivare dall'accesso a un'integrazione di queste raccolte di dati: essere in grado di abbinare il tuo DNA a quello di un altro e sapere quali malattie ha avuto l'altra persona e quanto sono stati efficaci i diversi farmaci nel curarle imparando le malattie dell'altra persona abilità, allergie, simpatie e antipatie chissà, forse essere in grado di trovare un'anima gemella nel DNA. Stiamo entrando nell'era della medicina crowd-sourced, data-driven, partecipativa e basata sul genoma. (Se sei interessato, il dottor Daniel Kraft, un medico-scienziato che presiede il corso di medicina per la Singularity University, ospiterà un programma chiamato FutureMed, il prossimo mese, che riunisce medici, esperti di intelligenza artificiale, bioinformatici, dispositivi medici e aziende farmaceutiche dirigenti, imprenditori e investitori per discutere di queste tecnologie.)

Potresti pensare che gli Stati Uniti siano i primi nella raccolta di informazioni. Ma il progetto più ambizioso al mondo sta accadendo in India. Il suo governo sta raccogliendo dati demografici, impronte digitali e scansioni dell'iride di tutti i suoi 1,2 miliardi di residenti. Ciò porterà alla creazione del database di identità più grande e complesso del mondo. Tratterò questo argomento in un pezzo futuro.

Non è tutto vino e rose. Ci sono importanti implicazioni per la privacy e la sicurezza come quelle che ho discusso in questo pezzo. Dimentica i "poteri che sono": solo le informazioni che Google sta raccogliendo oggi farebbero invidia al Grande Fratello. Dopotutto, Google è in grado di leggere le nostre e-mail anche prima di noi, sa chi sono i nostri amici e cosa ci dicono in confidenza mantiene i nostri diari e i nostri calendari può persino indovinare cosa stiamo pensando osservando le nostre abitudini di navigazione. Immagina cosa succede una volta che Google ha accesso alle informazioni sul nostro DNA.

Tuttavia, indipendentemente dai rischi e dalle implicazioni per la sicurezza, la tecnologia avanzerà.

Questo periodo della storia è stato chiamato l'era dell'informazione perché rende disponibile l'accesso istantaneo alla conoscenza che sarebbe stato difficile o impossibile da trovare in precedenza. Direi che siamo ben oltre questo siamo all'inizio di una nuova era: il Nuova Era dell'Informazione.

Nelle precedenti rivoluzioni tecnologiche sono nate aziende come IBM, Microsoft, Oracle, Google e Facebook. Questi giganti sono impantanati nelle tecnologie che hanno contribuito a creare, ristagnano perché stanno facendo troppi soldi e hanno paura di diventare obsoleti. Sono startup ambiziose che arrivano per cambiare il mondo. Non ho dubbi che i prossimi Facebook e Google siano già nati in un garage da qualche parte.

Ho discusso di tutto questo e molto altro in un keynote che ho tenuto alla recente conferenza midVentures Data 2.0. Questo video è qui sotto e puoi trovare molte altre discussioni sul sito web della conferenza.


Medioevo greco

La Grecia era diventata un importante centro di attività e cultura nel Mediterraneo durante la tarda età del bronzo. La civiltà micenea era ricca di ricchezza materiale derivante dal commercio. I micenei costruirono grandi palazzi e una società con una rigida gerarchia di classi.

Ma intorno al 1200 a.C. La Grecia micenea è crollata. La Grecia entrò in un periodo di turbolenze a volte chiamato Medioevo greco.

Gli archeologi ritengono che potrebbe esserci stato un periodo di carestia in cui la popolazione della Grecia è diminuita drasticamente durante questo periodo. Le principali città (ad eccezione di Atene) furono abbandonate. Mentre le società urbane si frammentavano, le persone si spostavano verso gruppi più piccoli e più pastorali focalizzati sull'allevamento del bestiame.

La Grecia micenea era stata una società alfabetizzata, ma i greci della prima età del ferro non lasciarono alcuna traccia scritta, portando alcuni studiosi a credere che fossero analfabeti. Pochi manufatti o rovine rimangono del periodo, che durò circa 300 anni.

Alla fine dell'età del ferro, l'economia greca si era ripresa e la Grecia era entrata nel suo periodo "classico". La Grecia classica fu un'era di conquiste culturali tra cui il Partenone, il dramma greco e filosofi tra cui Socrate.

Il periodo classico portò anche riforme politiche e introdusse il mondo in un nuovo sistema di governo noto come demokratia, o “rule by the people.”


Storia

Carta in Germania

La carta fu inventata dai cinesi nel 105 d.C. durante la dinastia Han e si diffuse lentamente verso ovest attraverso Samarcanda e Baghdad. La fabbricazione e la produzione della carta in Europa iniziarono nella penisola iberica, oggi Portogallo e Spagna e Sicilia nel X secolo dai musulmani che vivevano lì all'epoca, e lentamente si diffusero in Italia e nel sud della Francia raggiungendo la Germania nel 1400

Rinascimento

Invenzione della macchina da stampa

Periodo Tudor

Il periodo Tudor di solito si riferisce al periodo compreso tra il 1485 e il 1603, in particolare in relazione alla storia dell'Inghilterra e del Galles. Questo coincide con il dominio della dinastia Tudor in Inghilterra il cui primo monarca fu Enrico VII (1457 – 1509). In termini dell'intero secolo, Guy (1988) sostiene che "l'Inghilterra era economicamente più sana, più espansiva e più ottimista sotto i Tudor" che in qualsiasi altro periodo di mille anni.[1]

Modernità

Secondo uno dei libri di Marshall Berman (Berman 1982, 16-17), la modernità è periodizzata in tre fasi convenzionali (chiamate "Early", "Classical" e "Late", rispettivamente, da Peter Osborne (1992, 25):
Prima modernità: 1500-1789 (o 1453-1789 nella storiografia tradizionale)
Modernità classica: 1789–1900 (corrispondente al lungo XIX secolo (1789–1914) nello schema di Hobsbawm)
Tarda modernità: 1900-1989
Alcuni autori, come Lyotard e Baudrillard, ritengono che la modernità sia terminata alla metà o alla fine del XX secolo e abbiano quindi definito un periodo successivo alla modernità, ovvero

Età dell'Illuminismo

L'età dell'Illuminismo (o semplicemente l'Illuminismo o l'Età della Ragione) fu un movimento culturale di intellettuali del XVII e XVIII secolo, prima in Europa e poi nelle colonie americane. Il suo scopo era riformare la società usando la ragione, sfidare le idee fondate sulla tradizione e sulla fede e far progredire la conoscenza attraverso il metodo scientifico. Ha promosso la scienza, lo scetticismo e lo scambio intellettuale e si è opposto alla superstizione,[1] all'intolleranza e ad alcuni abusi da parte della chiesa e dello stato.

Rivoluzione industriale

La rivoluzione industriale fu un periodo dal 1750 al 1850 in cui i cambiamenti nell'agricoltura, nella produzione, nell'estrazione mineraria, nei trasporti e nella tecnologia ebbero un profondo effetto sulle condizioni sociali, economiche e culturali dei tempi. Ha avuto inizio in Gran Bretagna, poi si è successivamente diffuso in tutta l'Europa occidentale, nel Nord America, in Giappone e infine nel resto del mondo.

Veicolo stradale a vapore

A Nicolas-Joseph Cugnot è ampiamente attribuito il merito di aver costruito il primo veicolo meccanico o automobile semovente in scala reale nel 1769 circa, creando un triciclo a vapore.[12] Ha anche costruito due trattori a vapore per l'esercito francese, uno dei quali è conservato nel Conservatorio nazionale francese di arti e mestieri.[13] Le sue invenzioni furono tuttavia ostacolate da problemi con l'approvvigionamento idrico e il mantenimento della pressione del vapore.[13] Nel 1801, Richard Trevithick costruì e dimostrò la sua locomotiva stradale Puffing Devil, ritenuta da molti la prima dimostrazione di un veicolo stradale a vapore. Non era in grado di mantenere una pressione del vapore sufficiente per lunghi periodi ed era di scarsa utilità pratica.

Rivoluzione francese

La Rivoluzione francese (francese: Révolution française 1789-1799)

Voli fratelli Wright

I voli dei fratelli Wright nel 1903 sono riconosciuti dalla Fédération Aéronautique Internationale (FAI), l'ente che stabilisce e registra gli standard per l'aeronautica, come "il primo volo sostenuto e controllato a motore più pesante dell'aria".[14] Nel 1905, il Wright Flyer III era in grado di effettuare voli stabili e completamente controllabili per periodi considerevoli.

Guerra fredda

La Guerra Fredda, spesso datata 1945-1991, fu uno stato sostenuto di tensione politica e militare tra potenze del mondo occidentale, dominato dagli Stati Uniti con la NATO e altri alleati contro potenze del mondo orientale, dominato dall'Unione Sovietica con suo Patto di Varsavia e altri alleati. L'Unione Sovietica ha tenuto stati satellite soprattutto nel Patto di Varsavia nell'Europa orientale e in Asia.[1]

Operazioni sulla superficie lunare

Gli astronauti hanno pianificato il posizionamento dell'Early Apollo Scientific Experiment Package (EASEP)[23] e della bandiera degli Stati Uniti studiando il loro sito di atterraggio attraverso le doppie finestre triangolari di Eagle, che hanno fornito loro un campo visivo di 60°. La preparazione ha richiesto un tempo superiore alle due ore previste. Armstrong inizialmente ha avuto qualche difficoltà a spremere il portello con il suo Portable Life Support System (PLSS). Secondo il veterano camminatore della luna John Young, una riprogettazione dell'LM per incorporare un portello più piccolo non era stata seguita da una riprogettazione dello zaino PLSS, quindi alcune delle più alte frequenze cardiache registrate dagli astronauti dell'Apollo si sono verificate durante l'uscita e l'ingresso dell'LM.[ 24][25]

Aldrin bootprint parte di un esperimento per testare le proprietà della regolite lunare
Alle 02:39 UTC di lunedì 21 luglio 1969, Armstrong aprì il portello e alle 02:51 UTC iniziò la sua discesa sulla superficie lunare.

Nel 1972, Unix è stato riscritto nel linguaggio di programmazione C, contrariamente all'idea generale all'epoca "che qualcosa di così complesso come un sistema operativo, che deve affrontare eventi time-critical, doveva essere scritto esclusivamente in linguaggio assembly".[11] La migrazione dal linguaggio assembly al linguaggio di livello superiore C ha portato a un software molto più portabile, che richiedeva solo una quantità relativamente piccola di codice dipendente dalla macchina da sostituire durante il porting di Unix su altre piattaforme di elaborazione.

MITS Altair 8800

Il MITS Altair 8800 era un progetto di microcomputer del 1975 basato sulla CPU Intel 8080. L'interesse crebbe rapidamente dopo che fu presentato sulla copertina del numero di gennaio 1975 di Popular Electronics, e fu venduto per corrispondenza attraverso annunci pubblicitari lì, su Radio-Electronics e altre riviste di hobby. I designer speravano di vendere qualche centinaio di kit fai-da-te agli hobbisti e sono rimasti sorpresi quando ne hanno venduti migliaia nel primo mese.[1] L'Altair si rivolgeva anche a privati ​​e aziende che volevano solo un computer e ne acquistavano la versione assemblata.[2] Oggi l'Altair è ampiamente riconosciuto come la scintilla che ha portato alla rivoluzione dei microcomputer dei prossimi anni:

Commodoro Pet

Gennaio – Il primo personal computer all-in-one al mondo (tastiera/schermo/archiviazione su nastro), il Commodore PET, viene presentato al Consumer Electronics Show di Chicago

PC IBM

Il 12 agosto 1981, IBM ha rilasciato l'IBM Personal Computer.[6] Il PC IBM utilizzava l'allora nuovo processore Intel 8088. Come altre CPU a 16 bit, poteva accedere fino a 1 megabyte di RAM, ma utilizzava un bus dati a 8 bit per la memoria e le periferiche. Questo design ha consentito l'uso della grande famiglia di chip di supporto compatibili a 8 bit, prontamente disponibili e relativamente economici. IBM ha deciso di utilizzare l'Intel 8088 dopo aver preso in considerazione il Motorola 68000 e l'Intel i8086, perché gli altri due erano considerati troppo potenti per le loro esigenze.[7][8] La reputazione di IBM nel business computing, combinata con un rapido mercato di periferiche di terze parti e la successiva introduzione di PC IBM compatibili da altri fornitori, ha permesso all'architettura PC IBM di conquistare una quota di mercato sostanziale delle applicazioni aziendali.[9]

Fondazione per il software libero

4 ottobre – Viene fondata la Free Software Foundation in Massachusetts, USA.

Postmodernità

Postmodernità (anni '30/'50/'90-oggi). Altri teorici, tuttavia, considerano il periodo dalla fine del XX secolo a oggi semplicemente come un'altra fase della modernità Bauman chiama questa fase modernità "liquida", Giddens la chiama modernità "alta" (vedi le descrizioni della postmodernità).

Economia della conoscenza

L'economia della conoscenza è vista anche come l'ultimo stadio di sviluppo nella ristrutturazione economica globale. Finora, il mondo sviluppato è passato da un'economia agricola (età preindustriale, in gran parte il settore agrario) a un'economia industriale (con l'età industriale, in gran parte il settore manifatturiero) a un'economia post-industriale/di produzione di massa (metà del 1900, in gran parte il settore dei servizi) all'economia della conoscenza (fine 1900 - 2000, in gran parte il settore della tecnologia/capitale umano). Quest'ultima fase è stata segnata dagli sconvolgimenti nelle innovazioni tecnologiche e dalla necessità competitiva a livello globale di innovazione con nuovi prodotti e processi che si sviluppano dalla comunità di ricerca (cioè fattori di ricerca e sviluppo, università, laboratori, istituti di istruzione).

Internet

Nel dicembre 1974, RFC 675 - Specificazione del programma di controllo della trasmissione Internet, di Vinton Cerf, Yogen Dalal e Carl Sunshine, usò il termine internet, come abbreviazione per l'internetworking, in seguito le RFC ripetono questo uso, quindi la parola iniziò come un aggettivo piuttosto rispetto al nome che è oggi.[16] L'accesso ad ARPANET è stato ampliato nel 1981 quando la National Science Foundation (NSF) ha sviluppato la Computer Science Network (CSNET). Nel 1982, la Internet Protocol Suite (TCP/IP) è stata standardizzata ed è stato introdotto il concetto di una rete mondiale di reti TCP/IP completamente interconnesse chiamata Internet.
L'accesso alla rete TCP/IP si è ampliato di nuovo nel 1986, quando la National Science Foundation Network (NSFNET) ha fornito l'accesso ai siti di supercomputer negli Stati Uniti da organizzazioni di ricerca e istruzione, prima a 56 kbit/se poi a 1,5 Mbit/se 45 Mbit/ s.[17] I fornitori di servizi Internet commerciali (ISP) hanno cominciato ad emergere alla fine degli anni '80 e all'inizio degli anni '90. L'ARPANET è stato dismesso nel 1990. Internet è stato commercializzato nel 1995 quando NSFNET è stato dismesso, rimuovendo le ultime restrizioni all'uso di Internet per trasportare il traffico commerciale

Wikipedia

Wikipedia è stata lanciata il 15 gennaio 2001 da Jimmy Wales e Larry Sanger.[13] Sanger ha coniato il nome Wikipedia,[14] che è un portmanteau di wiki (un tipo di sito web collaborativo, dalla parola hawaiana wiki, che significa "veloce")[15] ed enciclopedia. L'abbandono di Wikipedia dallo stile di costruzione di un'enciclopedia guidato da esperti e la presenza di un ampio corpo di contenuti non accademici hanno ricevuto ampia attenzione nella stampa. Nel 2006, la rivista Time ha riconosciuto la partecipazione di Wikipedia alla rapida crescita della collaborazione e dell'interazione online di milioni di persone in tutto il mondo, oltre a YouTube, MySpace e Facebook.[16] Wikipedia è stata anche elogiata come fonte di notizie a causa degli articoli relativi alle ultime notizie che vengono spesso aggiornati rapidamente.[17][18][19]

Facebook

Facebook è un servizio di social network lanciato nel febbraio 2004, di proprietà e gestito da Facebook, Inc.[5] A settembre 2012, Facebook contava oltre un miliardo di utenti attivi,[6] più della metà dei quali utilizzava Facebook su un dispositivo mobile.[7] Gli utenti devono registrarsi prima di utilizzare il sito, dopodiché possono creare un profilo personale, aggiungere altri utenti come amici e scambiare messaggi, incluse notifiche automatiche quando aggiornano il proprio profilo. Inoltre, gli utenti possono unirsi a gruppi di utenti di interesse comune, organizzati per luogo di lavoro, scuola o università o altre caratteristiche, e classificare i propri amici in elenchi come "Persone dal lavoro" o "Amici intimi".

Twitter

Twitter è un servizio di social network online e un servizio di microblogging che consente ai suoi utenti di inviare e leggere messaggi di testo fino a 140 caratteri, noti come "tweets".
È stato creato nel marzo 2006 da Jack Dorsey e lanciato a luglio


3 delle più grandi invenzioni tecnologiche dell'epoca e i laboratori in cui furono scoperte

I progressi tecnologici sono arrivati ​​a definire le norme sociali, ma dove sono state concepite alcune di queste innovazioni?

I laboratori scientifici sono stati l'ambientazione di molte delle scoperte più emozionanti e significative della storia umana. Dalle principali scoperte nella ricerca medica ai notevoli progressi nella tecnologia, hanno approfondito le nostre conoscenze in un'intera gamma di aree.

Naturalmente, l'aspetto e l'atmosfera di questi ambienti possono variare notevolmente a seconda della natura della ricerca che si svolge al loro interno. Come notano gli esperti di installazioni di laboratorio di Innova Design Solutions, è essenziale personalizzare il design dei laboratori in modo che soddisfino le esigenze specifiche delle persone che li utilizzano.

A rafforzare questo punto, ecco tre delle più grandi invenzioni del nostro tempo e i laboratori molto diversi in cui sono state scoperte.

1. Impronta digitale del DNA

L'impronta digitale del DNA è ormai data per scontata. Che si tratti di processi penali, test di paternità e maternità, identificazione personale o diagnosi o trattamento di malattie ereditarie, vengono utilizzate persone che hanno accesso a questa tecnica.

Fornisce agli scienziati un mezzo per confrontare le parti degli oltre tre miliardi di unità nel genoma umano che mostrano la maggior variazione tra le persone.

L'approccio è stato scoperto per caso dal biologo molecolare Alec Jeffreys nel 1984. Stava lavorando a una tecnica che sperava lo avrebbe aiutato a studiare malattie ereditarie come la fibrosi cistica.

According to Jeffreys, he had a “eureka moment” when observing an X-ray film of a DNA experiment which unexpectedly revealed similarities and differences between the DNA of members of one of his technician’s family.

His university lab may have been fairly conventional, but what he did with it over the next couple of days was anything but. He and his staff had realised that DNA profiling could potentially be used at crime scenes, but they weren’t sure if it would be possible to take useable DNA samples from dead cells.

To test this, Jeffreys effectively turned his lab into the first ever setting for a crime scene DNA analysis. He spent two days cutting himself and leaving bloodstains on surfaces. These marks were then tested and the team proved the DNA was intact.

2. The internet

Sometimes, scientists like to escape the confines of a traditional lab and take their experiments into the field – or even into the pub.

In fact, one of these more unorthodox settings was used for a essential experiment in the history of the internet.

Of course, this communication network wasn’t invented in one experiment. It took decades for it to be transformed from its original incarnation, which was a network used by the military, into the vast global system we’re familiar with today.

However, there were a number of pivotal moments along the way, and one of the most significant occurred in a beer garden in Palo Alto, California.

In August 1976, a team of scientists from the Stanford Research Institute set up a computer terminal on a table around the back of the popular bar Rossotti’s.

While sipping beer from plastic cups in the California sunshine, the pioneering researchers conducted what can be described as the first internet transmission (via a mobile radio lab housed in a van in the car park). Their experiment in this makeshift open air lab helped to prove that the technology could work.

3. Wireless electricity

From smartphones, to laptops, to MP3 players, people’s lives are now dominated by technology that requires power – and they generally need wires to recharge these devices.

However, this may not be the case for much longer. In 2007, Professor Marin Soljačić from the Massachusetts Institute of Technology (MIT) had the idea of transferring power from wired infrastructure to devices using magnetic fields.

With his team at MIT, he set up a ground breaking lab experiment consisting of two copper wire coils, each suspended with a nylon thread. One of the coils was connected to an AC power supply, the other to a light bulb.

As the team predicted, when electricity was supplied to the first coil, this caused the light bulb connected to the other coil to light up – despite the fact the two coils were not connected.

To highlight the safety of the system, the scientists even had their picture taken sitting between the power source and power capture coils as the 60 watts of electricity were being transferred.

Following the successful experiment, a company called WiTricity was formed to take the research forward from the labs at MIT. It is working on a range of systems that can power devices up to eight feet away, including computers and even electric vehicles.

The company predicts that the technology will eventually be able to power many household appliances and gadgets.

From a conventional lab, to an impromptu crime scene, to a Californian beer garden, these examples show how varied the research settings of important discoveries and inventions can be.


About Information Age

We provide general intelligence for technologists in the information age.

We support CTOs, CIOs and other technology leaders in managing business critical issues both for today and in the future.

Information Age supports its growing community of CTO and technology leaders with its:

  • Online portal information-age.com which provides the latest news, analysis, guidance and research for our CTO community.
  • Live events program comprising a range of events to facilitate networking between CTOs and technology leaders, create forums for sharing best practice in the sector, and provide opportunities to celebrate the achievements of our CTO community. Our events include the Data Leadership Summit & Data Leaders Awards and Tech Leaders Summit & Awards. We also champion women in the technology sector with our Women in IT Awards series in the UK and USA (the largest technology diversity event series in the world), Tomorrow’s Tech Leaders Today careers fair and the Future Stars of Tech awards.

Our history

Information Age was founded in 1995 as a print magazine. The brand launched a website in 2001 and evolved into a fully digital proposition in 2017. The Data Leadership Summit was launched in 2011, expanding into the awards event, together with the launch of the Tech Leaders Summit, the following year. The Tech Leaders Awards was launched in 2017.

Get involved

Sign up for our weekly newsletter to receive insight, analysis and guidance on the latest news and technology trends impacting the CTO.


For the past few weeks in History of the Information Age, each student has been working on two entries on topics relevant to the Information Age to add to a class timeline. For my two entries, I chose to learn about Apple’s 1980s “Kid’s Can’t Wait” program, and the advent of EchoNYC, an early online&hellip Read More HIST 427: Information Age Timeline Entries

This week in History of the Information Age, we discussed a brief history of communication technology, cyber bullying in the age of social media, and the dark and deep web. Cyber Bullying Admittedly, when I saw that we were assigned readings on cyber bulling and social media, I was worried that I was about to&hellip Read More HIST 427: Cyber Bullying and the Dark Web


Beyond the Information Age

Image: infocux Technologies/Flickr

We live in the information age, which according to Wikipedia is a period in human history characterized by the shift from industrial production to one based on information and computerization.

Nothing surprising there, except for the idea that this is “a period in human history” — which tends to suggest it will come to an end at some point. The industrial revolution in the late nineteenth century ushered in the industrial age, and the digital revolution in the mid twentieth century spurred the emergence of the information age. So it is not entirely crazy to speculate about what might lie beyond the information age.

Of course, I am not arguing that information will become obsolete. Firms will always need to harness information in effective ways, just as most of them still need industrial techniques to make their products cheaply and efficiently. My point, instead, is that information will become necessary but not sufficient for firms to be successful. All this talk of “big data,” for example, feels like an attempt to strain a few more drops of juice out of an already-squeezed orange, just as Six Sigma was a way of squeezing more value out of the quality revolution. Both are valuable concepts, but their benefits are incremental, not revolutionary.

So just as night follows day, the information age will eventually be superseded by another age and it behooves those with senior executive responsibility to develop a point of view on what that age might look like.

So here is a specific question that helps us develop this point of view — one that was a topic of debate at our annual Global Leadership Summit at London Business School, focused this year on the rapid advance of technology and its impact on not only business, but society, politics and the economy: What would a world with too much information look like? And what problems would it create? I think there are at least four answers:

1. Paralysis through Analysis. In a world of ubiquitous information, there is always more out there. Information gathering is easy, and often quite enjoyable as well. My students frequently complain that they need more information before coming to a view on a difficult case-study decision. Many corporate decisions are delayed because of the need for further analysis. Whether due to the complexity of the decision in front of them, or because of the fear of not performing sufficient due diligence, the easy option facing any executive is simply to request more information.

2. Easy access to data makes us intellectually lazy. Many firms have invested a lot of money in “big data” and sophisticated data-crunching techniques. But a data-driven approach to analysis has a couple of big flaws. First, the bigger the database, the easier it is to find support for any hypothesis you choose to test. Second, big data makes us lazy – we allow rapid processing power to substitute for thinking and judgment. One example: pharmaceutical companies fell in love with “high throughput screening” techniques in the 1990s, as a way of testing out all possible molecular combinations to match a target. It was a bust. Most have now moved back towards a more rational model based around deep understanding, experience and intuition.

3. Impulsive and Flighty Consumers. Watch how your fellow commuters juggle their smartphone, tablet and Kindle. Or marvel at your teenager doing his homework. With multiple sources of stimulation available at our fingertips, the capacity to focus and concentrate on a specific activity is falling. This has implications for how firms manage their internal processes – with much greater emphasis being placed on holding people’s attention than before. It also has massive consequences for how firms manage their consumer relationships, as the traditional sources of “stickiness” in those relationships are being eroded.

4. A little learning is a dangerous thing. We are quick to access information that helps us, but we often lack the ability to make sense of it, or to use it appropriately. Doctors encounter this problem on a daily basis, as patients show up with (often incorrect) self-diagnoses. Senior executives second-guess their subordinates because their corporate IT system gives them line-of-sight down to detailed plant-level data. We also see this at a societal level: people believe they have the right to information that is in the public interest (think Wikileaks), but they are rarely capable of interpreting and using it in a sensible way. The broader point here is that the democratization of information creates an imbalance between the “top” and “bottom” of society, and most firms are not good at coping with this shift.

Consequences

So what are the consequences of a business world with “too much information”? At an individual level, we face two contrasting risks. One is that we become obsessed with getting to the bottom of a problem, and we keep on digging, desperate to find the truth but taking forever to do so. The other risk is that we become overwhelmed with the amount of information out there and we give up: we realise we cannot actually master the issue at hand, and we end up falling back on a pre-existing belief.

For firms, there are three important consequences. First, they have to become masters of “attention management” — making sure that people are focused on the right set of issues, and not distracted by the dozens of equally-interesting issues that could be discussed. A surplus of , as Nobel Laureate Herbert Simon noted, creates a deficit of attention. That is the real scarce resource today.

Second, firms have to get the right balance between information and judgment in making important decisions. As Jeff Bezos, founder and CEO of Amazon, observed, there are two types of decisions: “There are decisions that can be made by analysis. These are the best kind of decisions. They are fact-based decisions that overrule the hierarchy. Unfortunately there’s this whole other set of decisions you can’t boil down to a math problem.” One of the hallmarks of Amazon’s success, arguably, has been its capacity to make the big calls based on judgement and intuition.

Finally, the ubiquity of information means a careful balance is needed when it comes to sharing. Keeping everything secret isn’t going to work anymore — but pure transparency has its risks as well. Firms have to become smarter at figuring out what information to share with their employees, and what consumer information to keep track of for their own benefits.

For the last forty years, firms have built their competitive positions on harnessing information and knowledge more effectively than others. But with information now ubiquitous and increasingly shared across firms, these traditional sources of advantage are simply table-stakes. The most successful companies in the future will be smart about scanning for information and accessing the knowledge of their employees, but they will favour action over analysis, and they will harness the intuition and gut-feeling of their employees in combination with rational analysis.

Julian Birkinshaw is Professor and Chair of Strategy and Entrepreneurship at the London Business School.


Contenuti

Brief history Edit

The underlying technology was invented in the later quarter of the 19th century, including Babbage's Analytical Engine and the telegraph. Digital communication became economical for widespread adoption after the invention of the personal computer. Claude Shannon, a Bell Labs mathematician, is credited for having laid out the foundations of digitalization in his pioneering 1948 article, A Mathematical Theory of Communication. [5] The digital revolution converted technology from analog format to digital format. By doing this, it became possible to make copies that were identical to the original. In digital communications, for example, repeating hardware was able to amplify the digital signal and pass it on with no loss of information in the signal. Of equal importance to the revolution was the ability to easily move the digital information between media, and to access or distribute it remotely.

The turning point of the revolution was the change from analogue to digitally recorded music. [6] During the 1980s the digital format of optical compact discs gradually replaced analog formats, such as vinyl records and cassette tapes, as the popular medium of choice. [7]

1947–1969: Origins Edit

In 1947, the first working transistor, the germanium-based point-contact transistor, was invented by John Bardeen and Walter Houser Brattain while working under William Shockley at Bell Labs. [8] This led the way to more advanced digital computers. From the late 1940s, universities, military, and businesses developed computer systems to digitally replicate and automate previously manually performed mathematical calculations, with the LEO being the first commercially available general-purpose computer.

Other important technological developments included the invention of the monolithic integrated circuit chip by Robert Noyce at Fairchild Semiconductor in 1959 [9] (made possible by the planar process developed by Jean Hoerni), [10] the first successful metal-oxide-semiconductor field-effect transistor (MOSFET, or MOS transistor) by Mohamed Atalla and Dawon Kahng at Bell Labs in 1959, [11] and the development of the complementary MOS (CMOS) process by Frank Wanlass and Chih-Tang Sah at Fairchild in 1963. [12]

Following the development of MOS integrated circuit chips in the early 1960s, MOS chips reached higher transistor density and lower manufacturing costs than bipolar integrated circuits by 1964. MOS chips further increased in complexity at a rate predicted by Moore's law, leading to large-scale integration (LSI) with hundreds of transistors on a single MOS chip by the late 1960s. The application of MOS LSI chips to computing was the basis for the first microprocessors, as engineers began recognizing that a complete computer processor could be contained on a single MOS LSI chip. [13] In 1968, Fairchild engineer Federico Faggin improved MOS technology with his development of the silicon-gate MOS chip, which he later used to develop the Intel 4004, the first single-chip microprocessor. [14] It was released by Intel in 1971, and laid the foundations for the microcomputer revolution that began in the 1970s.

MOS technology also led to the development of semiconductor image sensors suitable for digital cameras. [15] The first such image sensor was the charge-coupled device, developed by Willard S. Boyle and George E. Smith at Bell Labs in 1969, [16] based on MOS capacitor technology. [15]

1969–1989: Invention of the Internet, rise of home computers Edit

The public was first introduced to the concepts that led to the Internet when a message was sent over the ARPANET in 1969. Packet switched networks such as ARPANET, Mark I, CYCLADES, Merit Network, Tymnet, and Telenet, were developed in the late 1960s and early 1970s using a variety of protocols. The ARPANET in particular led to the development of protocols for internetworking, in which multiple separate networks could be joined together into a network of networks.

The Whole Earth movement of the 1960s advocated the use of new technology. [17]

In the 1970s, the home computer was introduced, [18] time-sharing computers, [19] the video game console, the first coin-op video games, [20] [21] and the golden age of arcade video games began with Space Invaders. As digital technology proliferated, and the switch from analog to digital record keeping became the new standard in business, a relatively new job description was popularized, the data entry clerk. Culled from the ranks of secretaries and typists from earlier decades, the data entry clerk's job was to convert analog data (customer records, invoices, etc.) into digital data.

In developed nations, computers achieved semi-ubiquity during the 1980s as they made their way into schools, homes, business, and industry. Automated teller machines, industrial robots, CGI in film and television, electronic music, bulletin board systems, and video games all fueled what became the zeitgeist of the 1980s. Millions of people purchased home computers, making household names of early personal computer manufacturers such as Apple, Commodore, and Tandy. To this day the Commodore 64 is often cited as the best selling computer of all time, having sold 17 million units (by some accounts) [22] between 1982 and 1994.

In 1984, the U.S. Census Bureau began collecting data on computer and Internet use in the United States their first survey showed that 8.2% of all U.S. households owned a personal computer in 1984, and that households with children under the age of 18 were nearly twice as likely to own one at 15.3% (middle and upper middle class households were the most likely to own one, at 22.9%). [23] By 1989, 15% of all U.S. households owned a computer, and nearly 30% of households with children under the age of 18 owned one. [24] By the late 1980s, many businesses were dependent on computers and digital technology.

Motorola created the first mobile phone, Motorola DynaTac, in 1983. However, this device used analog communication - digital cell phones were not sold commercially until 1991 when the 2G network started to be opened in Finland to accommodate the unexpected demand for cell phones that was becoming apparent in the late 1980s.

Compute! magazine predicted that CD-ROM would be the centerpiece of the revolution, with multiple household devices reading the discs. [25]

The first true digital camera was created in 1988, and the first were marketed in December 1989 in Japan and in 1990 in the United States. [26] By the mid-2000s, they had eclipsed traditional film in popularity.

Digital ink was also invented in the late 1980s. Disney's CAPS system (created 1988) was used for a scene in 1989's The Little Mermaid and for all their animation films between 1990's The Rescuers Down Under and 2004's Home on the Range.

1989–2005: Invention of the World Wide Web, mainstreaming of the Internet, Web 1.0 Edit

The first public digital HDTV broadcast was of the 1990 World Cup that June it was played in 10 theaters in Spain and Italy. However, HDTV did not become a standard until the mid-2000s outside Japan.

The World Wide Web became publicly accessible in 1991, which had been available only to government and universities. [27] In 1993 Marc Andreessen and Eric Bina introduced Mosaic, the first web browser capable of displaying inline images [28] and the basis for later browsers such as Netscape Navigator and Internet Explorer. Stanford Federal Credit Union was the first financial institution to offer online internet banking services to all of its members in October 1994. [29] In 1996 OP Financial Group, also a cooperative bank, became the second online bank in the world and the first in Europe. [30] The Internet expanded quickly, and by 1996, it was part of mass culture and many businesses listed websites in their ads. By 1999 almost every country had a connection, and nearly half of Americans and people in several other countries used the Internet on a regular basis. However throughout the 1990s, "getting online" entailed complicated configuration, and dial-up was the only connection type affordable by individual users the present day mass Internet culture was not possible.

In 1989 about 15% of all households in the United States owned a personal computer. [ citazione necessaria ]

% [31] for households with children nearly 30% owned a computer in 1989, and in 2000 65% owned one.

Cell phones became as ubiquitous as computers by the early 2000s, with movie theaters beginning to show ads telling people to silence their phones. They also became much more advanced than phones of the 1990s, most of which only took calls or at most allowed for the playing of simple games.

Text messaging existed in the 1990s but was not widely used until the early 2000s, when it became a cultural phenomenon.

The digital revolution became truly global in this time as well - after revolutionizing society in the developed world in the 1990s, the digital revolution spread to the masses in the developing world in the 2000s.

By 2000, a majority of U.S. households had at least one personal computer and internet access the following year. [32] In 2002, a majority of U.S. survey respondents reported having a mobile phone. [33]

2005–present: Web 2.0, social media, smartphones, digital TV Edit

In late 2005 the population of the Internet reached 1 billion, [34] and 3 billion people worldwide used cell phones by the end of the decade. HDTV became the standard television broadcasting format in many countries by the end of the decade. In September and December 2006 respectively, Luxembourg and the Netherlands became the first countries to completely transition from analog to digital television. In September 2007, a majority of U.S. survey respondents reported having broadband internet at home. [35]

By 2012, over 2 billion people used the Internet, twice the number using it in 2007. Cloud computing had entered the mainstream by the early 2010s. In January 2013, a majority of U.S. survey respondents reported owning a smartphone. [36] By 2016, half of the world's population was connected [37] and as of 2020, that number has risen to 67%. [38]

In the late 1980s, less than 1% of the world's technologically stored information was in digital format, while it was 94% in 2007, with more than 99% by 2014. [39]

It is estimated that the world's capacity to store information has increased from 2.6 (optimally compressed) exabytes in 1986, to some 5,000 exabytes in 2014 (5 zettabytes). [39] [40]

1990 Edit

  • Cell phone subscribers: 12.5 million (0.25% of world population in 1990) [41]
  • Internet users: 2.8 million (0.05% of world population in 1990) [42]

2000 Edit

  • Cell phone subscribers: 1.5 billion (19% of world population in 2002) [42]
  • Internet users: 631 million (11% of world population in 2002) [42]

2010 Edit

  • Cell phone subscribers: 4 billion (68% of world population in 2010) [43]
  • Internet users: 1.8 billion (26.6% of world population in 2010) [37]

2020 Edit

  • Cell phone subscribers: 4.78 billion (62% of world population in 2020) [44]
  • Internet users: 4.54 billion (59% of world population in 2020) [45]

Conversion of below analog technologies to digital. (The decade indicated is the period when digital became dominant form.)

    to digital computer (1950s) to fax (1980s) , gramophone record and compact cassette to compact disc (1980s and 1990s, although sales of vinyl records have increased again in the 2010s among antique collectors) to DVD (2000s)
  • Analog photography (photographic plate and photographic film) to digital photography (2000s)
  • Analog cinematography (film stock) to digital cinematography (2010s)

Decline or disappearance of below analog technologies:

Disappearance of other technologies also attributed to digital revolution. (Analog–digital classification doesn't apply to these.)

Improvements in digital technologies.

    to laptop to tablet computer to Blu-ray Disc to 4K Blu-ray Disc to 3G to 4G to 5G to smartphone (2010s)
  • Digital watch to smartwatch
  • Analog weighing scale to digital weighing scale

The basic building block of the Digital Revolution is the metal-oxide-semiconductor field-effect transistor (MOSFET, or MOS transistor), [46] which is the most widely manufactured device in history. [47] It is the basis of every microprocessor, memory chip and telecommunication circuit in commercial use. [48] MOSFET scaling (rapid miniaturization of MOS transistors) has been largely responsible for enabling Moore's law, which predicted that transistor counts would increase at an exponential pace. [49] [50] [51]

Following the development of the digital personal computer, MOS microprocessors and memory chips, with their steadily increasing performance and storage, have enabled computer technology to be embedded into a huge range of objects from cameras to personal music players. Also important was the development of transmission technologies including computer networking, the Internet and digital broadcasting. 3G phones, whose social penetration grew exponentially in the 2000s, also played a very large role in the digital revolution as they simultaneously provide ubiquitous entertainment, communications, and online connectivity.

Positive aspects include greater interconnectedness, easier communication, and the exposure of information that in the past could have more easily been suppressed by totalitarian regimes. Michio Kaku wrote in his books Physics of the Future that the failure of the Soviet coup of 1991 was due largely to the existence of technology such as the fax machine and computers that exposed classified information.

The Revolutions of 2011 were enabled by social networking and smartphone technology however these revolutions in hindsight largely failed to reach their goals as hardcore Islamist governments and in Syria a civil war have formed in the absence of the dictatorships that were toppled.

The economic impact of the digital revolution has been wide-ranging. Without the World Wide Web (WWW), for example, globalization and outsourcing would not be nearly as feasible as they are today. The digital revolution radically changed the way individuals and companies interact. Small regional companies were suddenly given access to much larger markets. Concepts such as on-demand software services and manufacturing and rapidly dropping technology costs made possible innovations in all aspects of industry and everyday life.

After initial concerns of an IT productivity paradox, evidence is mounting that digital technologies have significantly increased the productivity and performance of businesses. [52]

The Digital transformation allowed technology to continuously adapt which resulted in a boost in the economy with an increase of productivity. With the increase of technical advances, digital revolution has created a demand for new job skills. Economically, retailers, trucking companies and banks have transitioned into digital format. In addition, the introduction of cryptocurrency like Bitcoin creates faster and secure transactions. [53]

Negative effects include information overload, Internet predators, forms of social isolation, and media saturation. In a poll of prominent members of the national news media, 65 percent said the Internet is hurting journalism more than it is helping [54] by allowing anyone no matter how amateur and unskilled to become a journalist causing information to be muddier and the rise of conspiracy theory in a way it didn't exist in the past.

In some cases, company employees' pervasive use of portable digital devices and work related computers for personal use—email, instant messaging, computer games—were often found to, or perceived to, reduce those companies' productivity. Personal computing and other non-work related digital activities in the workplace thus helped lead to stronger forms of privacy invasion, such as keystroke recording and information filtering applications (spyware and content-control software).

Information sharing and privacy Edit

Privacy in general became a concern during the digital revolution. The ability to store and utilize such large amounts of diverse information opened possibilities for tracking of individual activities and interests. Libertarians and privacy rights advocates feared the possibility of an Orwellian future where centralized power structures control the populace via automatic surveillance and monitoring of personal information in such programs as the CIA's Information Awareness Office. [55] Consumer and labor advocates opposed the ability to direct market to individuals, discriminate in hiring and lending decisions, invasively monitor employee behavior and communications and generally profit from involuntarily shared personal information.

The Internet, especially the WWW in the 1990s, opened whole new avenues for communication and information sharing. The ability to easily and rapidly share information on a global scale brought with it a whole new level of freedom of speech. Individuals and organizations were suddenly given the ability to publish on any topic, to a global audience, at a negligible cost, particularly in comparison to any previous communication technology.

Large cooperative projects could be endeavored (e.g. Open-source software projects, [email protected]). Communities of like-minded individuals were formed (e.g. MySpace, Tribe.net). Small regional companies were suddenly given access to a larger marketplace.

In other cases, special interest groups as well as social and religious institutions found much of the content objectionable, even dangerous. Many parents and religious organizations, especially in the United States, became alarmed by pornography being more readily available to minors. In other circumstances the proliferation of information on such topics as child pornography, building bombs, committing acts of terrorism, and other violent activities were alarming to many different groups of people. Such concerns contributed to arguments for censorship and regulation on the WWW.

Copyright and trademark issues Edit

Copyright and trademark issues also found new life in the digital revolution. The widespread ability of consumers to produce and distribute exact reproductions of protected works dramatically changed the intellectual property landscape, especially in the music, film, and television industries.

The digital revolution, especially regarding privacy, copyright, censorship and information sharing, remains a controversial topic. As the digital revolution progresses it remains unclear to what extent society has been impacted and will be altered in the future.

With the advancement of digital technology Copyright infringements will become difficult to detect. They will occur more frequently, will be difficult to prove and the public will continue to find loopholes around the law. Digital recorders for example, can be used personally and private use making the distributions of copywritten material discreet. [56]

While there have been huge benefits to society from the digital revolution, especially in terms of the accessibility of information, there are a number of concerns. Expanded powers of communication and information sharing, increased capabilities for existing technologies, and the advent of new technology brought with it many potential opportunities for exploitation. The digital revolution helped usher in a new age of mass surveillance, generating a range of new civil and human rights issues. Reliability of data became an issue as information could easily be replicated, but not easily verified. For example, the introduction of Cryptocurrency, opens possibility for illegal trade, such as the sale of drugs, guns and black market transaction. [53] The digital revolution made it possible to store and track facts, articles, statistics, as well as minutiae hitherto unfeasible.

From the perspective of the historian, a large part of human history is known through physical objects from the past that have been found or preserved, particularly in written documents. Digital records are easy to create but also easy to delete and modify. Changes in storage formats can make recovery of data difficult or near impossible, as can the storage of information on obsolete media for which reproduction equipment is unavailable, and even identifying what such data is and whether it is of interest can be near impossible if it is no longer easily readable, or if there is a large number of such files to identify. Information passed off as authentic research or study must be scrutinized and verified. [ citazione necessaria ]

These problems are further compounded by the use of digital rights management and other copy prevention technologies which, being designed to only allow the data to be read on specific machines, may well make future data recovery impossible. The Voyager Golden Record, which is intended to be read by an intelligent extraterrestrial (perhaps a suitable parallel to a human from the distant future), is recorded in analog rather than digital format specifically for easy interpretation and analysis.


Guarda il video: IL PARADOSSO DI BRAESS (Agosto 2022).