Memoria ad accesso casuale -Random-access memory

Esempio di memoria volatile ad accesso casuale scrivibile : moduli RAM dinamica sincrona , utilizzati principalmente come memoria principale in personal computer , workstation e server .

La memoria ad accesso casuale ( RAM ; / r æ m / ) è una forma di memoria del computer che può essere letta e modificata in qualsiasi ordine, generalmente utilizzata per memorizzare dati di lavoro e codice macchina . Un dispositivo di memoria ad accesso casuale consente di leggere o scrivere elementi di dati quasi nello stesso lasso di tempo indipendentemente dalla posizione fisica dei dati all'interno della memoria, a differenza di altri supporti di archiviazione dati ad accesso diretto (come dischi rigidi , CD- RW , DVD-RW e i vecchi nastri magnetici e la memoria del tamburo ), in cui il tempo necessario per leggere e scrivere i dati varia in modo significativo a seconda della loro posizione fisica sul supporto di registrazione, a causa di limitazioni meccaniche come la velocità di rotazione del supporto e il movimento del braccio.

La RAM contiene circuiti di multiplexing e demultiplexing , per collegare le linee dati alla memoria indirizzata per leggere o scrivere la voce. Di solito si accede a più di un bit di memoria con lo stesso indirizzo e i dispositivi RAM hanno spesso più linee dati e si dice che siano dispositivi "8-bit" o "16-bit", ecc.

Nella tecnologia odierna, la memoria ad accesso casuale assume la forma di chip a circuito integrato (IC) con celle di memoria MOS (metal-oxide-semiconductor) . La RAM è normalmente associata a tipi di memoria volatili (come i moduli di memoria dinamica ad accesso casuale (DRAM) ), in cui le informazioni archiviate vengono perse se viene rimossa l'alimentazione, sebbene sia stata sviluppata anche RAM non volatile. Esistono altri tipi di memorie non volatili che consentono l'accesso casuale per le operazioni di lettura, ma non consentono operazioni di scrittura o presentano altri tipi di limitazioni su di esse. Questi includono la maggior parte dei tipi di ROM e un tipo di memoria flash chiamata NOR-Flash .

I due tipi principali di memoria volatile a semiconduttore ad accesso casuale sono la memoria statica ad accesso casuale (SRAM) e la memoria dinamica ad accesso casuale (DRAM). Gli usi commerciali della RAM a semiconduttore risalgono al 1965, quando IBM introdusse il chip SP95 SRAM per il proprio computer System/360 Model 95 e Toshiba utilizzò celle di memoria DRAM per il suo calcolatore elettronico Toscal BC-1411 , entrambi basati su transistor bipolari . La memoria MOS commerciale, basata su transistor MOS , è stata sviluppata alla fine degli anni '60 e da allora è stata la base per tutta la memoria a semiconduttore commerciale. Il primo chip IC DRAM commerciale, l' Intel 1103 , è stato introdotto nell'ottobre 1970. La memoria sincrona dinamica ad accesso casuale (SDRAM) ha successivamente debuttato con il chip Samsung KM48SL2000 nel 1992.

Storia

Queste macchine tabulatori IBM della metà degli anni '30 utilizzavano contatori meccanici per memorizzare le informazioni
Chip da 1 megabit (Mbit), uno degli ultimi modelli sviluppati da VEB Carl Zeiss Jena nel 1989

I primi computer utilizzavano relè , contatori meccanici o linee di ritardo per le principali funzioni di memoria. Le linee di ritardo a ultrasuoni erano dispositivi seriali che potevano riprodurre i dati solo nell'ordine in cui erano stati scritti. La memoria del tamburo poteva essere espansa a un costo relativamente basso, ma il recupero efficiente degli elementi di memoria richiedeva la conoscenza della disposizione fisica del tamburo per ottimizzare la velocità. Latch costruiti con triodi a valvole e, successivamente, con transistor discreti , sono stati utilizzati per memorie più piccole e veloci come i registri. Tali registri erano relativamente grandi e troppo costosi da utilizzare per grandi quantità di dati; generalmente potrebbero essere fornite solo poche dozzine o poche centinaia di bit di tale memoria.

La prima forma pratica di memoria ad accesso casuale fu il tubo Williams a partire dal 1947. Memorizzava i dati come punti elettricamente carichi sulla faccia di un tubo a raggi catodici . Poiché il fascio di elettroni del CRT poteva leggere e scrivere i punti sul tubo in qualsiasi ordine, la memoria era ad accesso casuale. La capacità del tubo Williams era da poche centinaia a circa un migliaio di bit, ma era molto più piccolo, più veloce e più efficiente dal punto di vista energetico rispetto all'utilizzo di singoli fermi del tubo a vuoto. Sviluppato presso l' Università di Manchester in Inghilterra, il tubo Williams ha fornito il supporto su cui è stato implementato il primo programma memorizzato elettronicamente nel computer Manchester Baby , che per la prima volta ha eseguito con successo un programma il 21 giugno 1948. In effetti, piuttosto che la memoria del tubo Williams essendo progettato per il bambino, il bambino è stato un banco di prova per dimostrare l'affidabilità della memoria.

La memoria a nucleo magnetico è stata inventata nel 1947 e sviluppata fino alla metà degli anni '70. È diventata una forma diffusa di memoria ad accesso casuale, basata su una serie di anelli magnetizzati. Modificando il senso della magnetizzazione di ciascun anello, i dati potrebbero essere archiviati con un bit memorizzato per anello. Poiché ogni anello aveva una combinazione di fili di indirizzo per selezionarlo e leggerlo o scriverlo, era possibile l'accesso a qualsiasi posizione di memoria in qualsiasi sequenza. La memoria a nucleo magnetico era la forma standard del sistema di memoria del computer fino a quando non fu sostituita dalla memoria a semiconduttore MOS a stato solido ( ossido di metallo-silicio ) nei circuiti integrati (CI) all'inizio degli anni '70.

Prima dello sviluppo di circuiti integrati di memoria di sola lettura (ROM), la memoria ad accesso casuale permanente (o di sola lettura ) veniva spesso costruita utilizzando matrici di diodi guidate da decodificatori di indirizzi o piani di memoria a fune con nucleo avvolti in modo speciale .

La memoria a semiconduttore è iniziata negli anni '60 con la memoria bipolare, che utilizzava transistor bipolari . Sebbene migliorasse le prestazioni, non poteva competere con il prezzo più basso della memoria a nucleo magnetico.

MOS RAM

L'invenzione del MOSFET (transistor a effetto di campo a semiconduttore di ossido di metallo), noto anche come transistor MOS, da parte di Mohamed M. Atalla e Dawon Kahng presso i Bell Labs nel 1959, portò allo sviluppo del semiconduttore di ossido di metallo (MOS ) memoria di John Schmidt presso Fairchild Semiconductor nel 1964. Oltre a prestazioni più elevate, la memoria a semiconduttore MOS era più economica e consumava meno energia rispetto alla memoria a nucleo magnetico. Lo sviluppo della tecnologia del circuito integrato MOS silicon-gate (MOS IC) da parte di Federico Faggin alla Fairchild nel 1968 ha consentito la produzione di chip di memoria MOS . La memoria MOS ha superato la memoria a nucleo magnetico come tecnologia di memoria dominante all'inizio degli anni '70.

Una memoria bipolare statica ad accesso casuale (SRAM) integrata è stata inventata da Robert H. Norman presso Fairchild Semiconductor nel 1963. È stata seguita dallo sviluppo di MOS SRAM da parte di John Schmidt presso Fairchild nel 1964. SRAM è diventata un'alternativa alla memoria a nucleo magnetico , ma richiedeva sei transistor MOS per ogni bit di dati. L'uso commerciale della SRAM iniziò nel 1965, quando IBM introdusse il chip di memoria SP95 per il System/360 Model 95 .

La memoria dinamica ad accesso casuale (DRAM) ha consentito la sostituzione di un circuito latch a 4 o 6 transistor con un singolo transistor per ciascun bit di memoria, aumentando notevolmente la densità della memoria a scapito della volatilità. I dati venivano memorizzati nella minuscola capacità di ciascun transistor e dovevano essere periodicamente aggiornati ogni pochi millisecondi prima che la carica potesse disperdersi. Il calcolatore elettronico Toscal BC-1411 di Toshiba , introdotto nel 1965, utilizzava una forma di DRAM bipolare capacitiva, memorizzando dati a 180 bit su celle di memoria discrete , costituite da transistor bipolari al germanio e condensatori. Sebbene offrisse prestazioni migliori rispetto alla memoria a nucleo magnetico, la DRAM bipolare non poteva competere con il prezzo inferiore della memoria a nucleo magnetico allora dominante.

La tecnologia MOS è la base per la moderna DRAM. Nel 1966, il dottor Robert H. Dennard dell'IBM Thomas J. Watson Research Center stava lavorando sulla memoria MOS. Durante l'esame delle caratteristiche della tecnologia MOS, ha scoperto che era in grado di costruire condensatori e che immagazzinare una carica o nessuna carica sul condensatore MOS poteva rappresentare l'1 e lo 0 di un bit, mentre il transistor MOS poteva controllare la scrittura della carica sul condensatore. Ciò ha portato al suo sviluppo di una cella di memoria DRAM a transistor singolo. Nel 1967, Dennard ha depositato un brevetto presso IBM per una cella di memoria DRAM a transistor singolo, basata sulla tecnologia MOS. Il primo chip DRAM IC commerciale è stato l' Intel 1103 , prodotto su un processo MOS da 8  µm con una capacità di 1 kbit , ed è stato rilasciato nel 1970.  

La memoria dinamica sincrona ad accesso casuale (SDRAM) è stata sviluppata da Samsung Electronics . Il primo chip SDRAM commerciale è stato il Samsung KM48SL2000, che aveva una capacità di 16 Mbit . È stato introdotto da Samsung nel 1992 e prodotto in serie nel 1993. Il primo chip di memoria DDR SDRAM ( double data rate SDRAM) è stato il chip DDR SDRAM da 64 Mbit di Samsung, rilasciato nel giugno 1998. GDDR (graphics DDR) è una forma di DDR SGRAM (RAM grafica sincrona), rilasciata per la prima volta da Samsung come chip di memoria da 16 Mbit nel 1998.    

Tipi

Le due forme ampiamente utilizzate della moderna RAM sono la RAM statica (SRAM) e la RAM dinamica (DRAM). Nella SRAM, un po' di dati viene archiviato utilizzando lo stato di una cella di memoria a sei transistor , in genere utilizzando sei MOSFET (transistor a effetto di campo a semiconduttore a ossido di metallo). Questa forma di RAM è più costosa da produrre, ma generalmente è più veloce e richiede meno potenza dinamica rispetto alla DRAM. Nei computer moderni, la SRAM viene spesso utilizzata come memoria cache per la CPU . La DRAM memorizza un po' di dati utilizzando una coppia di transistor e condensatori (tipicamente rispettivamente un MOSFET e un condensatore MOS ), che insieme costituiscono una cella DRAM. Il condensatore mantiene una carica alta o bassa (1 o 0, rispettivamente) e il transistor funge da interruttore che consente al circuito di controllo sul chip di leggere lo stato di carica del condensatore o cambiarlo. Poiché questa forma di memoria è meno costosa da produrre rispetto alla RAM statica, è la forma predominante di memoria del computer utilizzata nei computer moderni.

Sia la RAM statica che quella dinamica sono considerate volatili , poiché il loro stato viene perso o ripristinato quando viene rimossa l'alimentazione dal sistema. Al contrario, la memoria di sola lettura (ROM) memorizza i dati abilitando o disabilitando permanentemente i transistor selezionati, in modo tale che la memoria non possa essere alterata. Le varianti scrivibili della ROM (come EEPROM e NOR flash ) condividono le proprietà sia della ROM che della RAM, consentendo ai dati di persistere senza alimentazione e di essere aggiornati senza richiedere attrezzature speciali. La memoria ECC (che può essere SRAM o DRAM) include circuiti speciali per rilevare e/o correggere errori casuali (errori di memoria) nei dati memorizzati, utilizzando bit di parità o codici di correzione degli errori .

In generale, il termine RAM si riferisce esclusivamente ai dispositivi di memoria a stato solido (DRAM o SRAM) e più specificamente alla memoria principale nella maggior parte dei computer. Nella memoria ottica, il termine DVD-RAM è in qualche modo improprio poiché, a differenza di CD-RW o DVD-RW , non è necessario cancellarlo prima di riutilizzarlo. Tuttavia, un DVD-RAM si comporta in modo molto simile a un disco rigido se un po' più lento.

Cella di memoria

La cella di memoria è l'elemento costitutivo fondamentale della memoria del computer . La cella di memoria è un circuito elettronico che memorizza un bit di informazioni binarie e deve essere impostata per memorizzare un 1 logico (livello di alta tensione) e resettarla per memorizzare uno 0 logico (livello di bassa tensione). Il suo valore viene mantenuto/memorizzato finché non viene modificato dal processo di impostazione/ripristino. Il valore nella cella di memoria è accessibile leggendolo.

In SRAM, la cella di memoria è un tipo di circuito flip-flop , solitamente implementato utilizzando FET . Ciò significa che la SRAM richiede un'alimentazione molto bassa quando non è accessibile, ma è costosa e ha una bassa densità di archiviazione.

Un secondo tipo, DRAM, è basato su un condensatore. Caricare e scaricare questo condensatore può memorizzare un "1" o uno "0" nella cella. Tuttavia, la carica in questo condensatore si disperde lentamente e deve essere aggiornata periodicamente. Grazie a questo processo di aggiornamento, la DRAM consuma più energia, ma può ottenere densità di archiviazione maggiori e costi unitari inferiori rispetto alla SRAM.

Cella SRAM (6 transistor)
Cella DRAM (1 transistor e un condensatore)

Indirizzamento

Per essere utili, le celle di memoria devono essere leggibili e scrivibili. All'interno del dispositivo RAM, i circuiti di multiplexing e demultiplexing vengono utilizzati per selezionare le celle di memoria. Tipicamente, un dispositivo RAM ha un insieme di linee di indirizzo A0... An, e per ogni combinazione di bit che può essere applicata a queste linee, viene attivato un insieme di celle di memoria. A causa di questo indirizzamento, i dispositivi RAM hanno praticamente sempre una capacità di memoria pari a una potenza di due.

Di solito più celle di memoria condividono lo stesso indirizzo. Ad esempio, un chip RAM "wide" a 4 bit ha 4 celle di memoria per ciascun indirizzo. Spesso la larghezza della memoria e quella del microprocessore sono diverse, per un microprocessore a 32 bit sarebbero necessari otto chip RAM a 4 bit.

Spesso sono necessari più indirizzi di quelli che possono essere forniti da un dispositivo. In tal caso, vengono utilizzati multiplexer esterni al dispositivo per attivare il dispositivo corretto a cui si sta accedendo.

Gerarchia della memoria

Si possono leggere e sovrascrivere dati nella RAM. Molti sistemi informatici hanno una gerarchia di memoria costituita da registri del processore , cache SRAM integrate, cache esterne , DRAM , sistemi di paging e memoria virtuale o spazio di scambio su un disco rigido. Questo intero pool di memoria può essere chiamato "RAM" da molti sviluppatori, anche se i vari sottosistemi possono avere tempi di accesso molto diversi , violando il concetto originale alla base del termine di accesso casuale nella RAM. Anche all'interno di un livello gerarchico come la DRAM, l'organizzazione specifica di riga, colonna, banca, rango , canale o interlacciamento dei componenti rende il tempo di accesso variabile, sebbene non nella misura in cui il tempo di accesso al supporto di archiviazione rotante o a un nastro sia variabile . L'obiettivo generale dell'utilizzo di una gerarchia di memoria è ottenere le prestazioni di accesso medie più elevate possibili riducendo al minimo il costo totale dell'intero sistema di memoria (generalmente, la gerarchia di memoria segue il tempo di accesso con i registri veloci della CPU in alto e il disco rigido lento in basso).

In molti personal computer moderni, la RAM è disponibile in una forma facilmente aggiornabile di moduli chiamati moduli di memoria o moduli DRAM delle dimensioni di pochi bastoncini di gomma da masticare. Questi possono essere sostituiti rapidamente se si danneggiano o quando le mutevoli esigenze richiedono una maggiore capacità di archiviazione. Come suggerito in precedenza, quantità minori di RAM (principalmente SRAM) sono integrate anche nella CPU e in altri circuiti integrati sulla scheda madre , nonché in dischi rigidi, CD-ROM e molte altre parti del sistema informatico.

Altri usi della RAM

Una chiavetta SO-DIMM di RAM per laptop, grande circa la metà della RAM desktop .

Oltre a fungere da memoria temporanea e spazio di lavoro per il sistema operativo e le applicazioni, la RAM viene utilizzata in numerosi altri modi.

Memoria virtuale

La maggior parte dei moderni sistemi operativi utilizza un metodo per estendere la capacità della RAM, noto come "memoria virtuale". Una parte del disco rigido del computer è riservata a un file di paging oa una partizione scratch e la combinazione di RAM fisica e file di paging costituisce la memoria totale del sistema. (Ad esempio, se un computer ha 2 GB (1024 3 B) di RAM e un file di paging da 1 GB, il sistema operativo dispone di 3 GB di memoria totale. Quando il sistema ha poca memoria fisica, può " scambiare " porzioni di RAM al file di paging per fare spazio a nuovi dati, nonché per leggere le informazioni precedentemente scambiate nella RAM. L'uso eccessivo di questo meccanismo provoca thrashing e generalmente ostacola le prestazioni complessive del sistema, principalmente perché i dischi rigidi sono molto più lenti della RAM.

Disco RAM

Il software può "partizionare" una parte della RAM di un computer, consentendogli di agire come un disco rigido molto più veloce chiamato disco RAM . Un disco RAM perde i dati archiviati quando il computer viene spento, a meno che la memoria non sia predisposta per avere una fonte di batteria in standby o le modifiche al disco RAM non vengano scritte su un disco non volatile. Il disco RAM viene ricaricato dal disco fisico al momento dell'inizializzazione del disco RAM.

RAM ombra

A volte, il contenuto di un chip ROM relativamente lento viene copiato nella memoria di lettura/scrittura per consentire tempi di accesso più brevi. Il chip ROM viene quindi disabilitato mentre le posizioni di memoria inizializzate vengono commutate sullo stesso blocco di indirizzi (spesso protetti da scrittura). Questo processo, a volte chiamato shadowing , è abbastanza comune sia nei computer che nei sistemi embedded .

Come esempio comune, il BIOS nei normali personal computer ha spesso un'opzione chiamata "usa il BIOS ombra" o simile. Quando abilitate, le funzioni che si basano sui dati della ROM del BIOS utilizzano invece posizioni DRAM (la maggior parte può anche attivare l'ombreggiatura della ROM della scheda video o di altre sezioni della ROM). A seconda del sistema, ciò potrebbe non comportare un aumento delle prestazioni e causare incompatibilità. Ad esempio, alcuni hardware potrebbero essere inaccessibili al sistema operativo se viene utilizzata la RAM shadow. Su alcuni sistemi il vantaggio potrebbe essere ipotetico perché il BIOS non viene utilizzato dopo l'avvio a favore dell'accesso diretto all'hardware. La memoria libera è ridotta dalla dimensione delle ROM in ombra.

Recenti sviluppi

Sono in fase di sviluppo diversi nuovi tipi di RAM non volatile , che preservano i dati quando sono spenti. Le tecnologie utilizzate includono nanotubi di carbonio e approcci che utilizzano la magnetoresistenza a tunnel . Tra le MRAM di prima generazione , nell'estate del 2003 è stato prodotto un chip da 128 kbit ( 128 × 2 10 byte) con tecnologia 0,18 µm. Nel giugno 2004, Infineon Technologies ha presentato un prototipo da 16  MB (16 × 2 20 byte) basato nuovamente su Tecnologia 0,18 µm. Attualmente sono in fase di sviluppo due tecniche di seconda generazione: la commutazione termica assistita (TAS) che è stata sviluppata da Crocus Technology e la coppia di trasferimento di spin (STT) su cui stanno lavorando Crocus , Hynix , IBM e molte altre società. Nantero ha costruito un prototipo di memoria a nanotubi di carbonio funzionante da 10  GB (10 × 2 30 byte) nel 2004. Tuttavia, resta da vedere se alcune di queste tecnologie possano alla fine conquistare quote di mercato significative dalla tecnologia DRAM, SRAM o memoria flash .

Dal 2006 sono diventate disponibili " unità a stato solido " (basate su memoria flash) con capacità superiori a 256 gigabyte e prestazioni di gran lunga superiori ai dischi tradizionali. Questo sviluppo ha iniziato a offuscare la definizione tra memoria ad accesso casuale tradizionale e "dischi", riducendo drasticamente la differenza di prestazioni.

Alcuni tipi di memoria ad accesso casuale, come " EcoRAM ", sono progettati specificamente per server farm , dove il basso consumo energetico è più importante della velocità.

Muro di memoria

Il "muro di memoria" è la crescente disparità di velocità tra CPU e memoria al di fuori del chip della CPU. Un motivo importante di questa disparità è la larghezza di banda di comunicazione limitata oltre i limiti del chip, che viene anche definita muro di larghezza di banda . Dal 1986 al 2000, la velocità della CPU è migliorata a un tasso annuo del 55% mentre la velocità della memoria è migliorata solo del 10%. Date queste tendenze, ci si aspettava che la latenza della memoria diventasse un enorme collo di bottiglia nelle prestazioni del computer.

I miglioramenti della velocità della CPU sono rallentati in modo significativo in parte a causa di importanti barriere fisiche e in parte perché gli attuali design della CPU hanno già colpito il muro di memoria in un certo senso. Intel ha riassunto queste cause in un documento del 2005.

Innanzitutto, quando le geometrie dei chip si restringono e le frequenze di clock aumentano, la corrente di dispersione del transistor aumenta, portando a un consumo di energia e calore eccessivi... In secondo luogo, i vantaggi di velocità di clock più elevate sono in parte annullati dalla latenza della memoria, poiché i tempi di accesso alla memoria sono non è stato in grado di tenere il passo con l'aumento delle frequenze di clock. Terzo, per alcune applicazioni, le architetture seriali tradizionali stanno diventando meno efficienti man mano che i processori diventano più veloci (a causa del cosiddetto collo di bottiglia di Von Neumann ), riducendo ulteriormente i guadagni che gli aumenti di frequenza potrebbero altrimenti acquistare. Inoltre, in parte a causa delle limitazioni nei mezzi di produzione dell'induttanza all'interno dei dispositivi a stato solido, i ritardi della capacità di resistenza (RC) nella trasmissione del segnale stanno aumentando man mano che le dimensioni delle caratteristiche si riducono, imponendo un ulteriore collo di bottiglia che gli aumenti di frequenza non affrontano.

I ritardi RC nella trasmissione del segnale sono stati rilevati anche in "Clock Rate versus IPC: The End of the Road for Conventional Microarchitectures" che prevedeva un miglioramento medio annuo delle prestazioni della CPU pari a un massimo del 12,5% tra il 2000 e il 2014.

Un concetto diverso è il divario di prestazioni processore-memoria, che può essere affrontato da circuiti integrati 3D che riducono la distanza tra gli aspetti logici e di memoria che sono più distanti in un chip 2D. La progettazione del sottosistema di memoria richiede un focus sul divario, che si sta ampliando nel tempo. Il metodo principale per colmare il divario è l'uso delle cache ; piccole quantità di memoria ad alta velocità che ospita operazioni e istruzioni recenti vicino al processore, velocizzando l'esecuzione di tali operazioni o istruzioni nei casi in cui vengono richiamate frequentemente. Sono stati sviluppati più livelli di memorizzazione nella cache per far fronte al crescente divario e le prestazioni dei computer moderni ad alta velocità si basano sull'evoluzione delle tecniche di memorizzazione nella cache. Può esserci una differenza fino al 53% tra la crescita della velocità del processore e la velocità di ritardo dell'accesso alla memoria principale.

I dischi rigidi a stato solido hanno continuato ad aumentare di velocità, da ~400 Mbit/s tramite SATA3 nel 2012 fino a ~3 GB/s tramite NVMe / PCIe nel 2018, colmando il divario tra RAM e velocità del disco rigido, sebbene la RAM continui a essere un ordine di grandezza più veloce, con DDR4 3200 single-lane capace di 25 GB/s e GDDR moderno ancora più veloce. Le unità a stato solido veloci, economiche e non volatili hanno sostituito alcune funzioni precedentemente eseguite dalla RAM, come la conservazione di determinati dati per la disponibilità immediata nelle server farm : 1 terabyte di spazio di archiviazione SSD può essere ottenuto per $ 200, mentre 1 TB di RAM costerebbe migliaia di dollari.

Sequenza temporale

SRAM

Memoria statica ad accesso casuale (SRAM)
Data di introduzione Nome del chip Capacità ( bit ) Tempo di accesso tipo SRAM Produttore/i Processi MOSFET Rif
marzo 1963 1 bit ? Bipolare ( cellula ) Fairchild
1965 ? 8 bit ? Bipolare IBM ?
SP95 16 bit ? Bipolare IBM ?
? 64 bit ? MOSFET Fairchild ? PMOS
1966 TMC3162 16 bit ? Bipolare ( TTL ) Transitrone ?
? ? ? MOSFET NEC ? ?
1968 ? 64 bit ? MOSFET Fairchild ? PMOS
144 bit ? MOSFET NEC ? NMOS
512 bit ? MOSFET IBM ? NMOS
1969 ? 128 bit ? Bipolare IBM ?
1101 256 bit 850 ns MOSFET Intel 12.000 nm PMOS
1972 2102 1 kbit ? MOSFET Intel ? NMOS
1974 5101 1 kbit 800 ns MOSFET Intel ? CMOS
2102A 1 kbit 350 ns MOSFET Intel ? NMOS ( esaurimento )
1975 2114 4 kbit 450 ns MOSFET Intel ? NMOS
1976 2115 1 kbit 70 ns MOSFET Intel ? NMOS ( HMOS )
2147 4 kbit 55 ns MOSFET Intel ? NMOS (HMOS)
1977 ? 4 kbit ? MOSFET Toshiba ? CMOS
1978 HM6147 4 kbit 55 ns MOSFET Hitachi 3.000 nm CMOS ( doppio pozzo )
TMS4016 16 kbit ? MOSFET Texas Instruments ? NMOS
1980 ? 16 kbit ? MOSFET Hitachi, Toshiba ? CMOS
64 kbit ? MOSFET Matsushita
1981 ? 16 kbit ? MOSFET Texas Instruments 2.500 nm NMOS
ottobre 1981 ? 4 kbit 18 ns MOSFET Matsushita, Toshiba 2.000 nm CMOS
1982 ? 64 kbit ? MOSFET Intel 1.500 nm NMOS (HMOS)
Febbraio 1983 ? 64 kbit 50 ns MOSFET Mitsubishi ? CMOS
1984 ? 256 kbit ? MOSFET Toshiba 1.200 nm CMOS
1987 ? 1 Mbit ? MOSFET Sony , Hitachi, Mitsubishi , Toshiba ? CMOS
dicembre 1987 ? 256 kbit 10 ns BiMOS Texas Instruments 800 nm BiCMOS
1990 ? 4 Mbit 15–23 nn MOSFET NEC, Toshiba, Hitachi, Mitsubishi ? CMOS
1992 ? 16 Mbit 12–15 nn MOSFET Fujitsu , NEC 400 nm
dicembre 1994 ? 512 kbit 2,5 ns MOSFET IBM ? CMOS ( SOI )
1995 ? 4 Mbit 6 ns Cache ( SyncBurst ) Hitachi 100 nm CMOS
256 Mbit ? MOSFET Hyundai ? CMOS

DRAM

Memoria dinamica ad accesso casuale (DRAM)
Data di introduzione Nome del chip Capacità ( bit ) Tipo DRAM Produttore/i Processi MOSFET La zona Rif
1965 1 bit DRAM ( cella ) Toshiba
1967 1 bit DRAM (cella) IBM MOS
1968 ? 256 bit DRAM ( IC ) Fairchild ? PMOS ?
1969 1 bit DRAM (cella) Intel PMOS
1970 1102 1 kbit DRAM (IC) Intel, Honeywell ? PMOS ?
1103 1 kbit DRAM Intel 8.000 nm PMOS 10 mm²
1971 μPD403 1 kbit DRAM NEC ? NMOS ?
? 2 kbit DRAM Strumento generale ? PMOS 13 mm²
1972 2107 4 kbit DRAM Intel ? NMOS ?
1973 ? 8 kbit DRAM IBM ? PMOS 19 mm²
1975 2116 16 kbit DRAM Intel ? NMOS ?
1977 ? 64 kbit DRAM NTT ? NMOS 35 mm²
1979 MK4816 16 kbit PSRAM Mostek ? NMOS ?
? 64 kbit DRAM Siemens ? VMOS 25 mm²
1980 ? 256 kbit DRAM NEC, NTT 1.000–1.500 nm NMOS 34–42 mm²
1981 ? 288 kbit DRAM IBM ? MOS 25 mm²
1983 ? 64 kbit DRAM Intel 1.500 nm CMOS 20 mm²
256 kbit DRAM NTT ? CMOS 31 mm²
5 gennaio 1984 ? 8 Mbit DRAM Hitachi ? MOS ?
Febbraio 1984 ? 1 Mbit DRAM Hitachi, NEC 1.000 nm NMOS 74–76 mm²
NTT 800 nm CMOS 53 mm²
1984 TMS4161 64 kbit DPRAM ( VRAM ) Texas Instruments ? NMOS ?
gennaio 1985 μPD41264 256 kbit DPRAM (VRAM) NEC ? NMOS ?
giugno 1986 ? 1 Mbit PSRAM Toshiba ? CMOS ?
1986 ? 4 Mbit DRAM NEC 800 nm NMOS 99 mm²
Texas Instruments, Toshiba 1.000 nm CMOS 100–137 mm²
1987 ? 16 Mbit DRAM NTT 700 nm CMOS 148 mm²
ottobre 1988 ? 512 kbit HSDRAM IBM 1.000 nm CMOS 78 mm²
1991 ? 64 Mbit DRAM Matsushita , Mitsubishi , Fujitsu , Toshiba 400 nm CMOS ?
1993 ? 256 Mbit DRAM Hitachi, NEC 250 nm CMOS ?
1995 ? 4 Mbit DPRAM (VRAM) Hitachi ? CMOS ?
9 gennaio 1995 ? 1 Gbit DRAM NEC 250 nm CMOS ?
Hitachi 160 nm CMOS ?
1996 ? 4 Mbit FRAM SAMSUNG ? NMOS ?
1997 ? 4 Gbit QLC NEC 150 nm CMOS ?
1998 ? 4 Gbit DRAM Hyundai ? CMOS ?
giugno 2001 TC51W3216XB 32 Mbit PSRAM Toshiba ? CMOS ?
Febbraio 2001 ? 4 Gbit DRAM SAMSUNG 100 nm CMOS ?

SDRAM

Memoria dinamica sincrona ad accesso casuale (SDRAM)
Data di introduzione Nome del chip Capacità ( bit ) Tipo SDRAM Produttore/i Processi MOSFET La zona Rif
1992 KM48SL2000 16 Mbit DSP SAMSUNG ? CMOS ?
1996 MSM5718C50 18 Mbit RDRAM Ok ? CMOS 325 mm2
N64 RDRAM 36 Mbit RDRAM NEC ? CMOS ?
? 1024 Mbit DSP Mitsubishi 150 nm CMOS ?
1997 ? 1024 Mbit DSP Hyundai ? COSÌ IO ?
1998 MD5764802 64 Mbit RDRAM Ok ? CMOS 325 mm2
marzo 1998 RDRAM diretta 72 Mbit RDRAM Rambus ? CMOS ?
giugno 1998 ? 64 Mbit DDR SAMSUNG ? CMOS ?
1998 ? 64 Mbit DDR Hyundai ? CMOS ?
128 Mbit DSP SAMSUNG ? CMOS ?
1999 ? 128 Mbit DDR SAMSUNG ? CMOS ?
1024 Mbit DDR SAMSUNG 140 nm CMOS ?
2000 GS eDRAM 32 Mbit eDRAM Sony , Toshiba 180 nm CMOS 279 mm2
2001 ? 288 Mbit RDRAM Hynix ? CMOS ?
? DDR2 SAMSUNG 100 nm CMOS ?
2002 ? 256 Mbit DSP Hynix ? CMOS ?
2003 EE+GS eDRAM 32 Mbit eDRAM Sony, Toshiba 90 nm CMOS 86 mm 2
? 72 Mbit DDR3 SAMSUNG 90 nm CMOS ?
512 Mbit DDR2 Hynix ? CMOS ?
Elpida 110 nm CMOS ?
1024 Mbit DDR2 Hynix ? CMOS ?
2004 ? 2048 Mbit DDR2 SAMSUNG 80 nm CMOS ?
2005 EE+GS eDRAM 32 Mbit eDRAM Sony, Toshiba 65 nm CMOS 86 mm 2
Xeno eDRAM 80 Mbit eDRAM NEC 90 nm CMOS ?
? 512 Mbit DDR3 SAMSUNG 80 nm CMOS ?
2006 ? 1024 Mbit DDR2 Hynix 60 nm CMOS ?
2008 ? ? LPDDR2 Hynix ?
aprile 2008 ? 8192 Mbit DDR3 SAMSUNG 50 nm CMOS ?
2008 ? 16384 Mbit DDR3 SAMSUNG 50 nm CMOS ?
2009 ? ? DDR3 Hynix 44 nm CMOS ?
2048 Mbit DDR3 Hynix 40 nm
2011 ? 16384 Mbit DDR3 Hynix 40 nm CMOS ?
2048 Mbit DDR4 Hynix 30 nm CMOS ?
2013 ? ? LPDDR4 SAMSUNG 20 nm CMOS ?
2014 ? 8192 Mbit LPDDR4 SAMSUNG 20 nm CMOS ?
2015 ? 12 Gbit LPDDR4 SAMSUNG 20 nm CMOS ?
2018 ? 8192 Mbit LPDDR5 SAMSUNG 10 nm FinFET ?
128 Gbit DDR4 SAMSUNG 10 nm FinFET ?

SGRAM e HBM

Memoria grafica sincrona ad accesso casuale (SGRAM) e memoria ad alta larghezza di banda (HBM)
Data di introduzione Nome del chip Capacità ( bit ) Tipo SDRAM Produttore/i Processi MOSFET La zona Rif
novembre 1994 HM5283206 8 Mbit SGRAM ( SDR ) Hitachi 350 nm CMOS 58 mm 2
dicembre 1994 μPD481850 8 Mbit SGRAM (SDR) NEC ? CMOS 280 mm2
1997 μPD4811650 16 Mbit SGRAM (SDR) NEC 350 nm CMOS 280 mm2
settembre 1998 ? 16 Mbit SGRAM ( GDDR ) SAMSUNG ? CMOS ?
1999 KM4132G112 32 Mbit SGRAM (SDR) SAMSUNG ? CMOS ?
2002 ? 128 Mbit SGRAM ( GDDR2 ) SAMSUNG ? CMOS ?
2003 ? 256 Mbit SGRAM (GDDR2) SAMSUNG ? CMOS ?
SGRAM ( GDDR3 )
marzo 2005 K4D553238F 256 Mbit SGRAM (GDDR) SAMSUNG ? CMOS 77 mm 2
ottobre 2005 ? 256 Mbit SGRAM ( GDDR4 ) SAMSUNG ? CMOS ?
2005 ? 512 Mbit SGRAM (GDDR4) Hynix ? CMOS ?
2007 ? 1024 Mbit SGRAM ( GDDR5 ) Hynix 60 nm
2009 ? 2048 Mbit SGRAM (GDDR5) Hynix 40 nm
2010 K4W1G1646G 1024 Mbit SGRAM (GDDR3) SAMSUNG ? CMOS 100 mm2
2012 ? 4096 Mbit SGRAM (GDDR3) SK Hynix ? CMOS ?
2013 ? ? HBM
marzo 2016 MT58K256M32JA 8 Gbit SGRAM ( GDDR5X ) Micron 20 nm CMOS 140 mm2
giugno 2016 ? 32 Gbit HBM2 SAMSUNG 20 nm CMOS ?
2017 ? 64 Gbit HBM2 SAMSUNG 20 nm CMOS ?
gennaio 2018 K4ZAF325BM 16 Gbit SGRAM ( GDDR6 ) SAMSUNG 10 nm FinFET 225 mm2

Guarda anche

Riferimenti

link esterno

  • Mezzi relativi alla RAM su Wikimedia Commons