Cosa c'è di nuovo?
HWReload

Registrati e partecipa alle attività del forum

m.2 quale prendere?

Asusgame

Utente
Iscritto dal:
17 Maggio 2021
Messaggi
34
Buonasera,vorrei prendere un buon m.2 per installarci win11,ma non so quale prendere,mi servirebbe uno da 2tb abbastanza veloce per il so e per il gaming,come badget potrei superare anche le 100.
grazie
 

Black

Top Contributor
Staff
Iscritto dal:
17 Marzo 2021
Messaggi
321
Ciao.
2TB e M.2 (suppongo NVMe)... un po' pochini 100 euro, non credi? :look

Se vuoi un SSD NVMe sui 100 euro che abbia sia buone performance e sia una buona affidabilità/durata ti tocca puntare su tagli inferiori, come 1TB. Un esempio è il Kioxia Exceria G2, che a 89 euro lo ritengo quasi un best buy onestamente. Se invece vuoi a tutti i costi un 2TB devi spendere di più, e se vuoi sempre un SSD di buona qualità ti consiglio di dare un'occhiata al WD SN750 o al Samsung 970 EVO Plus. Ce ne sono altri ben più economici, come il Crucial P2, ma tendono ad avere un design DRAM-less (cioè che manca di DRAM) o usare memorie di tipo QLC (cioè che memorizzano 4-bit per cella di memoria), o addirittura entrambi, quindi lì cadi in basso per quanto riguarda la qualità generale.

Sennò, come ultima alternativa, puntare su qualche SATA, come il Crucial MX500 (2TB) a 177 euro. È uno dei migliori SATA in commercio, e il prezzo non mi sembra neanche così male, e per il tuo utilizzo (cioè usare solo Windows) penso che sia più che sufficiente.
 

Liupen

Moderatore
Staff
Iscritto dal:
23 Dicembre 2017
Messaggi
533
Quoto tutto quello che ti ha detto Black, purtroppo per un 2TB decente devi salire abbastanza oltre le 100€.
@Asusgame indica magari anche il modello di scheda madre, ormai a volte le offerte fanno preferire quasi indicare un m.2 pcie 4 piuttosto dei pcie 3.
Si, alla fine se proprio vuoi un 2TB devi avere una buona pazienza e prendere l'occasione favorevole degli e-commerce ?
 

michelangelo

Utente
Iscritto dal:
10 Maggio 2022
Messaggi
30
Io sto utilizzando un FireCuda 530 2TB e mi trovo molto IMG-20220522-WA0000.jpg bene
 

Liupen

Moderatore
Staff
Iscritto dal:
23 Dicembre 2017
Messaggi
533
Io sto utilizzando un FireCuda 530 2TB e mi trovo moltoView attachment 2259 bene
Firecuda 530 come molti SSD che si basano sull'accoppiata Phison E18 e Micron TLC 176L CUA sono molto molto veloci.
Purtroppo il raddoppio della velocità casuale di lettura non si percepisce veramente (rispetto ad un semplice ssd sata) e un vantaggio per questi ssd come la compressione o decompressione dei file, è comunque limitata dalle capacità della cpu.
Insomma, è giusto nel 2022 avere una build con un ssd nvme gen4 (o gen3), ma ancora quei 7K non sono reali.
 

michelangelo

Utente
Iscritto dal:
10 Maggio 2022
Messaggi
30
Ciao
Su quale base pratica fai questa affermazione? Hai qualche prova pratica ? un software che non conosco? Oppure stiamo teorizzando?
 

Liupen

Moderatore
Staff
Iscritto dal:
23 Dicembre 2017
Messaggi
533
Ciao
Su quale base pratica fai questa affermazione? Hai qualche prova pratica ? un software che non conosco? Oppure stiamo teorizzando?
E' un insieme di cose; ti faccio alcuni esempi.
Ci tengo però a dirti che se faccio delle efferazioni non le faccio per smontarti o per fare il "chi rema contro"... W gli SSD a prescindere!!! :sisi

L'esempio tipico che senti dire un po a tutti: avevo il sistema operativo su ssd sata ed ora che ce l'ho su nvme (pcie gen 3 o 4 o 5) non si sente differenza.
Altro esempio: volevo spostare la mia libreria di film ma la velocità non sono i 7K MB/s
Ancora un esempio: ho installato un gioco tripla a sul mio nuovo ssd nvme gen4 ma la velocità di caricamento è di poco inferiore rispetto a prima.
Ultimo esempio, tanto per riempire tutti gli aspetti: ho installato un ssd nvme gen5 (questa e teoria) ma la velocità che ci metto a decomprimere un file non è migliorata.


Prima di tutto la tecnologia che stà alla base di questi dispositivi è la medesima: un controller con dei canali disponibili e delle celle di memoria con una propria velocità di accesso e programmazione.
Vero (vero) che gli IOPS di accesso e programmazione sono migliorati molto, raddoppiati se non di più, però non la latenza, cioè la capacità della cpu (il controller) nell'elaborare i dati.

Domanda: se la tecnologia, i "pezzi" che compongono l'ssd sata o nvme gen3 piuttosto di gen4 sono gli stessi, cosa cambia, cosa li rende più "veloci"?
Il canale pcie più ampio, prima cosa, seconda, la possibilità di avere una o più trasmissioni dati contemporanea in entrata o in uscita (sata no), ed in ultimo (ma meno importante rispetto al tutto), il miglioramento tecnologico spiegato prima.

Questo spiega molti degli esempi che ti ho fatto.

Il sistema operativo, l'host, si muove utilizzando la lettura di file (comandi) piccoli e frequenti ma con una coda che non supera solitamente i 32 QD.
Letture IOPS piccoli e tanti ma...non troppo tanti da sfruttare i canali paralleli del pcie (nvme). Quel tuo 83,04 del Firecuda 530 è certo maggiore del 50 MB/s di un samsung 870 evo, ma non abbastanza da farti dire: "Wuao! Che veloce che è diventato questo Windows!"

Altro aspetto (secondo esempio). Il trasferimento di file da e per l'nvme, deve prevedere che nella macchina ci siano almeno 2 ssd nvme di buone prestazioni se no ci si riduce a: download (velocità della rete), trasferimento da hdd (velocità dell'hdd), ecc. Capito no; è come avere la ram più veloce al mondo su un pc che ha una cpu di 4 generazioni prima! Non si sfrutta normalmente il potenziale.

I giochi. Ebbene un po si "sente" che si ha un ssd nvme gen4 ovviamente... ma quanto conta di più l'ottimizzazione fatta dal produttore. Quando arriveremo a directstorage allora ci si troverà un bel boost con questi cosini, ma ora si paga circa il 50% in più per una manciata di secondi in meno di latenza.

Ultimo esempio; si tratta del peso dell'elaborazione dell'overhead di qualsiasi trasferimento di dati. quando il trasferimento prevede compressione (e deconpressione) - ed oggi sempre più è così nel mondo informatico - il passaggio fondamentale lo fà l'elaborazione della cpu dalla quale il dato sulla linea pcie transita: se fa da collo di bottiglia, qualsiasi generazione di nvme sarà sempre limitata; oh certo, i bench mostreranno grandi numeri, ma nel mondo reale non sarà così.

Una parola sui banchmark, una cosa che forse non mi era mai capitato di dire.
Crystaldiskmark è un software molto facile e veloce da utilizzare, ma appunto per questo fa delle approssimazioni. Certo ci dice "tendenzialmente" le potenzialità dell'ssd e serve nel momento che si vanno ad effettuare dei confronti, però non ricalca l'uso reale.
Il file che elabora Crystal per il bench è di 1GB e la casualità del test è su pochi blocchi e non sull'intero GB. Il bench utilizza poi la cache, questo vuol dire che tiene in memoria attiva il file e non si può considerare come un comando host preso casualmente dal disco con tanto di fattore seek latency.
Fai una prova: realizza una cartella da 30GB e cronometra quanto ci impiega l'SSD a spostarla. Sei già nella condizione migliore: non devi spostarla dall'ssd A all'ssd B, ma nel ssd tuo stesso.
31000 MB dovrebbero essere trasferiti in poco più di 4 secondi... è così?
 

michelangelo

Utente
Iscritto dal:
10 Maggio 2022
Messaggi
30
Non ho visto nessuna prova pratica presentata da te. Al contrario hai chiesto a me di presentarle o di provarle io.
Scusa ma come funziona Crystal ed è spiegato dallo stesso autore nei suoi paper e non mi sembra così facile.
Concordo che non ricalchi l'uso reale ma lo scrive anche l'autore, comunque si si vede anche nell'uso pratico del computer, che un benchmark è diverso dall'uso reale a meno che non sei una sagoma si vede. Ma per valutare un disco mi baso su più fattori e il benchmark è solo uno dei tanti che servono a valutare pregi e difetti. Riguardo la latenza Robin Harris ha presentato PROVE PRATICHE a riguardo usando Atto Disk Benchmark ma spiega anche che la stessa è molto difficile da misurare, sembra stia tutto nei protocolli. Dai 10 ms di accesso dei vecchi HD siamo passati a 10 us, io direi che mi accontento Molto del mio FireCuda ?
 

michelangelo

Utente
Iscritto dal:
10 Maggio 2022
Messaggi
30
Ultimo esempio; si tratta del peso dell'elaborazione dell'overhead di qualsiasi trasferimento di dati. quando il trasferimento nel mondo reale non sarà così.
Parli del sender overhead ? Se no, mi dovresti spiegare in dettaglio molto tecnico cosa hai scritto tanto per capire meglio.
Parkdale lo hai mai usato? Ti specifica tutto MB IOPS e relativa latenza e fa tutti i test con QD32 random, quindi reali.
 
Ultima modifica:

Black

Top Contributor
Staff
Iscritto dal:
17 Marzo 2021
Messaggi
321
io direi che mi accontento Molto del mio FireCuda ?
Il fatto è che Liupen non ti sta dicendo che il FireCuda 530 non sia un buon SSD, anche perché è uno dei migliori in commercio, ma semplicemente che in tante condizioni che vengono eseguite da un utente "normale" (quindi non utente che usa l'SSD per carichi di lavoro pesanti) la differenza tra di esso e un PCIe 3.0/SATA di fascia alta non è notabile, seppure appunto faccia più di 7000 MB/s.
 

michelangelo

Utente
Iscritto dal:
10 Maggio 2022
Messaggi
30
Non me ne frega niente, dammi le prove PRATICHE di quello che affermi o per me hai solo voglia di chiacchierare che di per se non è un male ma cercati un altro con cui parlare di teorie, non sono ostile ma non mi interessa la teoria essendo che leggo già troppi libri da me
 

Liupen

Moderatore
Staff
Iscritto dal:
23 Dicembre 2017
Messaggi
533
Non ho visto nessuna prova pratica presentata da te. Al contrario hai chiesto a me di presentarle o di provarle io.
Scusa ma come funziona Crystal ed è spiegato dallo stesso autore nei suoi paper e non mi sembra così facile.
Concordo che non ricalchi l'uso reale ma lo scrive anche l'autore, comunque si si vede anche nell'uso pratico del computer, che un benchmark è diverso dall'uso reale a meno che non sei una sagoma si vede. Ma per valutare un disco mi baso su più fattori e il benchmark è solo uno dei tanti che servono a valutare pregi e difetti. Riguardo la latenza Robin Harris ha presentato PROVE PRATICHE a riguardo usando Atto Disk Benchmark ma spiega anche che la stessa è molto difficile da misurare, sembra stia tutto nei protocolli. Dai 10 ms di accesso dei vecchi HD siamo passati a 10 us, io direi che mi accontento Molto del mio FireCuda ?
Ciao. Scusami se non ti ho risposto subito ma ieri ero fuori per lavoro, ho letto ma non avevo la possibilità di risponderti con calma.

Prove pratiche diciamo che le ho fatte a suo tempo ed invece penso che il principio "San Tommaso" con me funziona e tendo sempre a pensare che gli altri siano diffidenti se non vedono con i propri occhi, come me..

@michelangelo non conoscendoti non so come approcciare ad una prima discussione, dirti: "ok che mi metti il bench e sei entusiasta, ma vorrei che quelle cifre fossero veramente un boost per il sistema operativo" era un modo di rompere il ghiaccio con te. Mi piace che le persone si interessino e chiedano info sugli ssd, un argomento che anche a me interessa.
Il firecuda 530 è un buonissimo acquisto e fai bene ad esserne contento. Diciamo che la joint venture toshiba-micron è ben riuscita.

Parli del sender overhead ? Se no, mi dovresti spiegare in dettaglio molto tecnico cosa hai scritto tanto per capire meglio.
No in effetti, o meglio non solo. Cerco di spiegarmi ma non mi addentro in termini tecnici perchè poi non ne ho neanche le competenze,

Dicendo "peso dell'elaborazione dell'overhead di qualsiasi trasferimento di dati", intendo proprio:
definizione - l'invio affidabile di un carico utile di dati su una rete di comunicazione richiede l'invio di qualcosa di più del semplice carico utile stesso. Implica anche l'invio di vari dati di controllo e segnalazione ( TCP ) necessari per raggiungere la destinazione. Ciò crea un cosiddetto sovraccarico di protocollo poiché i dati aggiuntivi non contribuiscono al significato intrinseco del messaggio
....
Anche la codifica di informazioni e dati introduce un sovraccarico. https://en.wikipedia.org/wiki/Overhead_(computing)

Assunto che la compressione/decompressione del transfert rate è una forma di overhead ora più che mai è un modo per trasferire più dati occupando meno spazio, che diventa... meno tempo, gli effetti:
(sono file compressi...) file crittografati, film, musica, immagini
....
La compressione dei dati tramite algoritmi di codifica consente a un'unità a stato solido (SSD) di scrivere meno dati, il che a sua volta produce una maggiore larghezza di banda di scrittura. Con una quantità significativa di dati comprimibile, i vantaggi in termini di prestazioni possono essere sostanziali. https://www.intel.com/content/www/us/en/support/articles/000006354/memory-and-storage.html

Il lavoro di codifica viene svolto dalla CPU

Il ragionamento logico è:
maggiore larghezza di banda avranno gli ssd nvme pcie gen 5-6....X ---> maggiore sarà il carico di overhead ed in particolare quello di compressione/decompressione che accompagna il transfert rate

La conclusione è che la CPU (con questa tecnologia) arriverà ad essere molto impegnata per l'ssd nvme pcie in maniera attualmente non ottimizzata... è un boottleneck per i futuri ssd pcie x

Parkdale lo hai mai usato? Ti specifica tutto MB IOPS e relativa latenza e fa tutti i test con QD32 random, quindi reali.
Non lo conosco, ma lo scopro volentieri se porta cose nuove e obbiettive (y)
 
Ultima modifica:

michelangelo

Utente
Iscritto dal:
10 Maggio 2022
Messaggi
30
Ti rispondo solo e velocemente ad una sola cosa per ora perché anche io sono al lavoro. Riguarda l'overhead e del significato, che credo si possa semplificare.
Il significato della parola stessa può variare molto a seconda del contesto e in generale si utilizza quando vengono utilizzate delle risorse che non contribuiscono
direttamente al risultato puro efficiente, ma sono richieste lavorazioni della/sulla tecnologia utilizzata.
Per esempio un sovraccarico del protocollo TCP richiede l'invio di pacchetti di handshake, pertanto
non è più possibile utilizzare l'intera larghezza di banda (di cui è in grado l'hardware) per inviare dati. OVVIAMENTE i pacchetti sono impacchettati.
 

Liupen

Moderatore
Staff
Iscritto dal:
23 Dicembre 2017
Messaggi
533
non è più possibile utilizzare l'intera larghezza di banda (di cui è in grado l'hardware)
Segui il ragionamento... e se l'ssd ti permettesse di ampliare la larghezza di banda a misure prima impensabili (pcie raddoppia a ogni generazione e... almeno sulla carta anche gli ssd nvme futuri)?
La trasmissione dei dati
l'invio di pacchetti di handshake
non richiederebbe forse più lavoro per renderli disponibili all'host?
 
Ultima modifica:

Liupen

Moderatore
Staff
Iscritto dal:
23 Dicembre 2017
Messaggi
533
Casomai ne parliamo al tavolino davanti ad uno Spritz. Nel frattempo se ti vuoi sbizzarrire naviga in questo indirizzo che sicuramente è più interessante di sapienti copia e incolla o di cose già lette e rilette e rilette. https://www.n0derunner.com/2020/03/how-to-identify-nvme-drive-types-and-test-throughput/. Interessante la *nota sui 140,000 IOPS
Eccomi. Sono riuscito a ritagliarmi solo ora un po di tempo per vedere quello che mi hai linkato.

La nota sui 140K IOPS non è stata approfondita dall'autore del blog mi pare.. non è andato a fondo del motivo per cui ha trovato dei risultati che si discostano.
Io ho sia guardato il datasheet del Samsung PM1725a che quanto riportato nel bench,
Samsung dice come e con che OS (Anaconda) e comando Fio hanno ottenuto i propri valori di riferimento (e la cosa non è per niente scontata). Da li vedo già che pur utilizzando un file di pari dimensione non hanno usato 32QD con 16Thread.
Probabilmente ha una qualche importanza, pensare che Samsung si sia sbagliata ci può stare ma mi viene di cercare una spiegazione altrove.
https://www.storagereview.com/review/samsung-pm1725a-ssd-review trovano 322K IOPS con anche in questo caso parametri che si discostano da quelli segnati nel spec. di Samsung.
Una possibile spiegazione potrebbe essere la disattivazione della cache di scrittura, cosa che normalmente è attiva nel bench.

Parkdale bench mi piace molto. Me lo devo studiare bene facendo un po di test.
 

michelangelo

Utente
Iscritto dal:
10 Maggio 2022
Messaggi
30
Vorrei sottolineare che Fio è alquanto vecchiotto e non è detto che chi lo abbia usato sia stato ingannato da qualche wrapper rimediato da qualche parte. Vista la complessità di impostare correttamente il package magari in quel determinato frangente potrebbe aver creato problemi di latenza. Magari utilizzando un layer con piattaforma UWP e COM più aggiornate si può arrivare ad avere risultati più uniformi considerando l'efficienza degli attuali standard.
 

Black

Top Contributor
Staff
Iscritto dal:
17 Marzo 2021
Messaggi
321
FIO è vecchiotto, sì, però è un ottimo metodo, lo utilizza anche Billy Tallis, ex-recensore per AnandTech. Per quanto io sappia, i migliori recensori usano principalmente IOMeter, FIO e elbencho (poco famoso e recente).
 

michelangelo

Utente
Iscritto dal:
10 Maggio 2022
Messaggi
30
Ok, ma qui si parla di comandi diretti e ti faccio un esempio PRATICO: se utilizzi Fio la sintassi potrebbe essere
run Fio - direct=1 - iodepth=128 - rw=rand write - ioengine=libaio - bs=4k - size=10G - numjobs=1 - runtime=600 - group_reporting - filename=/opt/fio123/ilmiotest.txt - name=rnd_test
se in 'direct' ci metto uno 0 per esempio disabilita il buffer di I/O
Billy Tails farà uguale, credo.
Quello di cui parlavo io era tutto il contorno a queste procedure, che se non lo sai configurare come si deve e sopratutto se utilizzi COM e wrapper che magari hai rimediato chissà dove perché quelle originali è difficile trovarle, vista la vetustà del progetto, anche se al MIT di sicuro trovi tutti i package giusti, se sai dove guardare.
 
Ultima modifica:
Top