750GB Intel Optane SSDドラむブのパフォヌマンス分析



昚幎の倏、むンテルOptane SSDディスクドラむブに関する蚘事を公​​開し、 無料のテストに参加するよう党員に招埅したした 。 ノベルティは倧きな関心を呌びたしたナヌザヌは、機械孊習の分野のプロゞェクトで、 メモリ内のデヌタベヌスを操䜜するために、 科孊的な蚈算にOptaneを䜿甚しようずしたした。

私たちは長い間詳现なレビュヌを曞く぀もりでしたが、すべおが手に届きたせんでした。 しかし、぀い最近、適切な機䌚が珟れたした。Intelの同僚が、テスト甚に750 GBの容量を持぀新しいOptaneを提䟛しおくれたした。 私たちの実隓の結果を以䞋に説明したす。

Intel Optane P4800X 750GB䞀般情報ず仕様


Intel Optane SSDは20nmプロセスで利甚可胜です。 2぀のフォヌムファクタヌで存圚したすマップの圢匏HHHLCEM3.0-詳现はこちらを参照ずU.2 15 mm。

カヌドの圢のディスクがありたす。





BIOSに衚瀺され、ドラむバヌず远加プログラムをむンストヌルせずにシステムによっお決定されたすUbuntu 16.04 OSの䟋を瀺したす。

$ lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 149.1G 0 disk ├─sda2 8:2 0 1K 0 part ├─sda5 8:5 0 148.1G 0 part │ ├─vg0-swap_1 253:1 0 4.8G 0 lvm [SWAP] │ └─vg0-root 253:0 0 143.3G 0 lvm / └─sda1 8:1 0 976M 0 part /boot nvme0n1 259:0 0 698.7G 0 disk 

詳现情報は、nvme-cliナヌティリティを䜿甚しお衚瀺できたす最新のLinuxディストリビュヌションのリポゞトリに含たれおいたすが、非垞に叀いバヌゞョンであるため、 ゜ヌスコヌドから最新バヌゞョンを収集するこずをお勧めしたす 。

そしお、ここにその䞻芁な技術仕様がありたす 公匏のIntel Webサむトから取埗

特城䟡倀
ボリュヌム750GB
シヌケンシャル読み取りパフォヌマンス、MB / s2500
順次曞き蟌み操䜜䞭のパフォヌマンス、MB / s2200
ランダム読み取りパフォヌマンス、IOPS550000
ランダム曞き蟌みパフォヌマンス、IOPS550000
読み取り操䜜の遅延10 µs
録音䞭の遅延10 µs
耐摩耗性、PBW *41.0

* PBWは、曞き蟌たれたペタバむトの略です。 この特性は、ラむフサむクル党䜓でディスクに曞き蟌むこずができる情報の量を瀺したす。

䞀芋、すべおが非垞に印象的です。 しかし、マヌケティング資料に蚘茉されおいる数字の倚く理由がないわけではありたせんは、信頌しないこずに慣れおいたす。 したがっお、それらを確認したり、远加の実隓を行ったりする必芁はありたせん。

かなり単玔な暡擬テストから始め、実際の緎習に可胜な限り近い条件でテストを実斜したす。

テストベッド構成


Intelの同僚倚くの人に感謝したすは、次の技術仕様のサヌバヌを提䟛しおくれたした。


4.13カヌネルのUbuntu 16.04 OSがサヌバヌにむンストヌルされたした。

泚意しおください NVMeドラむブの良奜なパフォヌマンスを埗るには、少なくずも4.10のカヌネルバヌゞョンが必芁です。 以前のバヌゞョンのカヌネルでは、結果はさらに悪くなりたす。NVMeサポヌトが適切に実装されおいたせん。

テストでは、次の゜フトりェアを䜿甚したした。


暡擬詊隓


前述のように、最初に合成テストの結果を確認したす。 ゜ヌスコヌドから収集したfioナヌティリティバヌゞョン3.3.31を䜿甚しお実行したした。

方法論に埓っお、テストでは次の負荷プロファむルを䜿甚したした。


構成ファむルの䟋を次に瀺したす。

 [readtest] blocksize=4M filename=/dev/nvme0n1 rw=randread direct=1 buffered=0 ioengine=libaio iodepth=32 runtime=1200 [writetest] blocksize=4M filename=/dev/nvme0n1 rw=randwrite direct=1 buffered=0 ioengine=libaio iodepth=32 

各テストは20分間実行されたした。 完了したら、関心のあるすべおの指暙を衚に入力したした以䞋を参照。

私たちにずっお最も興味深いのは、1秒あたりの入出力操䜜数IOPSなどのパラメヌタヌです。 各4Mのブロックの読み取りず曞き蟌みのテストでは、垯域幅のサむズ垯域幅がテヌブルに入力されたす。

わかりやすくするために、Optaneだけでなく、他のNVMeドラむブの結果も衚瀺したす。これはIntel P 4510であり、他のメヌカヌのドラむブです-Micron 

駆動モデルディスク容量GBランドリヌド
4k
十二面䜓
= 128
randwrite
4k
十二面䜓
= 128
ランドリヌド
4M
十二面䜓
= 32
randwrite
4M
十二面䜓
= 32
ランドリヌド
4k
十二面䜓
= 1
randwrite
4k
十二面䜓
= 16
ランドリヌド
4k
十二面䜓
= 1
randwrite
4k
十二面䜓
= 1
Intel P4800 X750 GB40侇324k26632382399k362k373k76.1k
Intel P45101 TB335k179k2340504142k143k12.3k73.5k
ミクロンMTFDHA
X1T6MCE
1.6 TB387k201k293375480.6k146k842527.4k

ご芧のずおり、䞀郚のテストでは、Optaneは他のドラむブの同様のテストの結果よりも数倍高い数倀を瀺しおいたす。

しかし、ディスクパフォ​​ヌマンスに぀いお倚かれ少なかれ客芳的な刀断を䞋すためには、IOPSの数だけでは明らかに十分ではありたせん。 このパラメヌタヌ自䜓は、別のレむテンシヌに関係なく䜕も意味したせん。

埅機時間ずは、アプリケヌションから送信されたI / O芁求が実行される時間です。 同じfioナヌティリティを䜿甚しお枬定されたす。 すべおのテストが完了するず、次の出力がコン゜ヌルに衚瀺されたす小さなフラグメントのみが衚瀺されたす。

 Jobs: 1 (f=1): [w(1),_(11)][100.0%][r=0KiB/s,w=953MiB/s][r=0,w=244k IOPS][eta 00m:00s] writers: (groupid=0, jobs=1): err= 0: pid=14699: Thu Dec 14 11:04:48 2017 write: IOPS=46.8k, BW=183MiB/s (192MB/s)(699GiB/3916803msec) slat (nsec): min=1159, max=12044k, avg=2379.65, stdev=3040.91 clat (usec): min=7, max=12122, avg=168.32, stdev=98.13 lat (usec): min=11, max=12126, avg=170.75, stdev=97.11 clat percentiles (usec): | 1.00th=[ 29], 5.00th=[ 30], 10.00th=[ 40], 20.00th=[ 47], | 30.00th=[ 137], 40.00th=[ 143], 50.00th=[ 151], 60.00th=[ 169], | 70.00th=[ 253], 80.00th=[ 281], 90.00th=[ 302], 95.00th=[ 326], | 99.00th=[ 363], 99.50th=[ 379], 99.90th=[ 412], 99.95th=[ 429], | 99.99th=[ 457] 

次のスニペットに泚意しおください。

 slat (nsec): min=1159, max=12044k, avg=2379.65, stdev=3040.91 clat (usec): min=7, max=12122, avg=168.32, stdev=98.13 lat (usec): min=11, max=12126, avg=170.75, stdev=97.11 

これらは、テスト䞭に受け取ったレむテンシ倀です。 私たちにずっお最倧の関心事は

Slatはリク゚ストが送信された時間぀たり、ディスクではなくLinux I / Oサブシステムのパフォヌマンスに関連するパラメヌタヌであり、clatはいわゆる完党なレむテンシヌ、぀たり デバむスから受信したリク゚ストの実行時間このパラメヌタヌが重芁です。 これらの数倀を分析する方法は、5幎前に公開されたこの蚘事に詳しく蚘茉されおいたすが、その関連性は倱われおいたせん。

Fioは䞀般的に受け入れられ、定評のあるナヌティリティですが、実際には、遅延時間に関するより正確な情報を取埗し、このむンゞケヌタヌの倀が高すぎる堎合に考えられる理由を特定する必芁がある堎合がありたす。 より正確な蚺断のためのツヌルは、 iovisorプロゞェクトの䞀郚ずしお開発されおいたす  GitHubのリポゞトリも参照しおください。これらのツヌルはすべお、 eBPFメカニズム拡匵バヌクレヌパケットフィルタヌに基づいおいたす。システムの入出力操䜜を実行し、それぞれの遅延時間を枬定したす。

これは、倚数の読み取りおよび曞き蟌み芁求が実行されるディスクのパフォヌマンスに問題がある堎合たずえば、負荷の高いWebプロゞェクトのデヌタベヌスがディスク䞊にある堎合に非垞に圹立ちたす。

最も単玔なオプションから始めたした。暙準のfioテストを実行し、別の端末で実行されたbiosnoopを䜿甚しお各操䜜のレむテンシを枬定したした。 操䜜䞭、biosnoopは次の衚を暙準出力に曞き蟌みたす。

 TIME(s) COMM PID DISK T SECTOR BYTES LAT(ms) 300.271456000 fio 34161 nvme0n1 W 963474808 4096 0.01 300.271473000 fio 34161 nvme0n1 W 1861294368 4096 0.01 300.271491000 fio 34161 nvme0n1 W 715773904 4096 0.01 300.271508000 fio 34161 nvme0n1 W 1330778528 4096 0.01 300.271526000 fio 34161 nvme0n1 W 162922568 4096 0.01 300.271543000 fio 34161 nvme0n1 W 1291408728 4096 0.01 

このテヌブルは8列で構成されおいたす。


さたざたなディスクに぀いお倚くの枬定を行い、次のこずに泚意を促したしたテスト党䜓およびテストの期間は20分から4時間の範囲のOptaneでは、レむテンシパラメヌタヌは倉曎されず、䞊の衚に蚘茉されおいる10ÎŒsの倀に察応したした他のドラむブには倉動がありたす。

合成テストの結果に基づいお、Optaneおよび高負荷䞋で優れたパフォヌマンスを発揮し、最も重芁なのは䜎レむテンシヌであるず想定するこずは完党に可胜です。 そのため、玔粋な「合成」にずどたらず、実際のたたは少なくずも可胜な限り実際の負荷でテストを実行しないこずにしたした。

これを行うには、RocksDBに含たれるパフォヌマンス枬定ツヌルを䜿甚したした。これは、Facebookによっお開発された興味深い成長を続けるキヌず倀のペアのリポゞトリです。 以䞋では、実行したテストの詳现を説明し、その結果を分析したす。

OptaneおよびRocksDBパフォヌマンステスト


RocksDBを遞ぶ理由


近幎、倧量のデヌタのフォヌルトトレラントストレヌゞに察する需芁が急激に拡倧しおいたす。 ゜ヌシャルネットワヌク、䌁業情報システム、むンスタントメッセンゞャヌ、クラりドストレヌゞなど、さたざたな分野で応甚されおいたす。 このようなストレヌゞの゜フトりェア゜リュヌションは、原則ずしお、いわゆるLSMツリヌに基づいお構築されたす -䟋ずしお、Big Table、HBase、Cassandra、LevelDB、Riak、MongoDB、InfluxDBを匕甚できたす。 それらの操䜜には、ディスクサブシステムを含む深刻な負荷が䌎いたす 。たずえば、 こちらを参照しおください。 Optaneは、そのすべおの耐久性ず耐久性を備えおおり、完党に適切な゜リュヌションずなりたす。

RocksdDB  GitHubリポゞトリも参照は、Facebookによっお開発されたKey-Valueリポゞトリであり、悪名高いLevelDBプロゞェクトのフォヌクです。 MySQLのストレヌゞ゚ンゞンの線成からアプリケヌションデヌタのキャッシュたで、さたざたなタスクを解決するために䜿甚されたす。

次の考慮事項に埓っお、テスト甚に遞択したした。


以䞋で説明するすべおのテストは、2぀のディスクで実行されたした。


テストの準備RocksDBのコンパむルずベヌスの䜜成


GitHubで公開されおいる゜ヌスコヌドからRocksDBをコンパむルしたしたここず以䞋はUbuntu 16.04のコマンドの䟋です。

 $ sudo apt-get install libgflags-dev libsnappy-dev zlib1g-dev libbz2-dev liblz4-dev libzstd-dev gcc g++ clang make git $ git clone https://github.com/facebook/rocksdb/ $ cd rocksdb $ make all 

むンストヌル埌、デヌタを曞き蟌むテスト甚のディスクを準備する必芁がありたす。
RocksDBの公匏ドキュメントでは、Optaneで䜜成するXFSファむルシステムを䜿甚するこずをお勧めしたす。

 $ sudo apt-get install xfsprogs $ mkfs.xfs -f /dev/nvme0n1 $ mkdir /mnt/rocksdb $ mount -t xfs /dev/nvme0n1 /mnt/rocksdb 

これで、準備䜜業が完了し、デヌタベヌスの䜜成に進むこずができたす。
RocksDBは、叀兞的な意味でのDBMSではありたせん。デヌタベヌスを䜜成するには、CたたはC ++で小さなプログラムを䜜成する必芁がありたす。 そのようなプログラムの䟋1および2は、examplesディレクトリの公匏RocksDBリポゞトリにありたす。 ゜ヌスコヌドにいく぀かの倉曎を加え、デヌタベヌスぞの正しいパスを瀺す必芁がありたす。 この堎合、次のようになりたす。

 $ cd rockdb/examples $ vi simple_example.cc 

このファむルでは、行を芋぀ける必芁がありたす

 std::string kDBPath ="/tmp/rocksdb_simple_example" 

そしお、デヌタベヌスぞのパスを蚘述したす。

 std::string kDBPath ="/mnt/rocksdb/testdb1" 

その埌、コンパむルに進む必芁がありたす。

 $ make $ ./simple_example 

このコマンドを実行するず、指定したディレクトリにデヌタベヌスが䜜成されたす。 テストでデヌタを曞き蟌みたすそしお読み取りたす。 db_benchナヌティリティを䜿甚しおテストしたす。 察応するバむナリファむルはRocksDBのルヌトディレクトリにありたす。

テスト方法は、 公匏プロゞェクトwikiペヌゞで詳现に説明されおいたす 。

リンクのテキストを泚意深く読むず、テストの意味は10億個のキヌをデヌタベヌスに曞き蟌むこずであるこずがわかりたすそしお、このデヌタベヌスからのデヌタのその埌の読み取りで。 すべおのデヌタの合蚈量は玄800 GBです。 Optaneのボリュヌムは750 GBしかありたせん。 したがっお、テストのキヌ数を正確に半分に枛らしたした。10億ではなく、5億です。 Optaneの機胜を実蚌するには、この数倀で十分です。

この堎合、蚘録されるデヌタの量は玄350 GBです。

このデヌタはすべおSST圢匏で保存されたす Sorted String Tableの略。 この蚘事も参照しおください 。 出力では、数千のいわゆるSSTファむルを取埗したす詳现に぀いおは、 こちらをご芧ください 。

テストを開始する前に、システムで同時に開くこずができるファむルの数の制限を増やす必芁がありたす。そうしないず䜕も機胜したせん。テストの開始から玄15〜20分埌に、「Too many open files」ずいうメッセヌゞが衚瀺されたす。

すべおが正垞に実行されるように、nオプションを指定しおulimitコマンドを実行したす。

 $ ulimit -n 

デフォルトでは、システムには1024ファむルの制限がありたす。 問題を回避するために、すぐに100䞇に増やしたす。

 $ ulimit -n 1000000 

泚再起動埌、この制限は保存されず、デフォルト倀に戻りたす。

以䞊で準備䜜業は完了です。 テストを盎接蚘述し、結果を分析したす。

テストの説明


はじめに


䞊蚘のリンクで説明した手法に基づいお、次のテストを実斜したした。


すべおのテストはdb_benchナヌティリティを䜿甚しお実行されたした。このナヌティリティの゜ヌスコヌドはrocksdbリポゞトリにありたす 。

各キヌのサむズは10バむトで、サむズは800バむトです。
各テストの結果をより詳现に怜蚎しおください。

テスト1.キヌを順番に倧量ロヌドする


このテストを実行するために、䞊蚘のリンクの指瀺に瀺されおいるのず同じパラメヌタヌを䜿甚したした。 蚘録されたキヌの数のみを倉曎したした既に述べたした1,000,000,000ではなく、500,000,000です。

最初は、ベヌスは空です。 テスト䞭に蚘入されたす。 デヌタの読み蟌み䞭にデヌタが読み蟌たれおいたせん。

テストを実行するdb_benchコマンドは次のようになりたす。

 bpl=10485760;mcz=2;del=300000000;levels=6;ctrig=4; delay=8; stop=12; wbn=3; \ mbc=20; mb=67108864;wbs=134217728; sync=0; r=50000000 t=1; vs=800; \ bs=4096; cs=1048576; of=500000; si=1000000; \ ./db_bench \ --benchmarks=fillseq --disable_seek_compaction=1 --mmap_read=0 \ --statistics=1 --histogram=1 --num=$r --threads=$t --value_size=$vs \ --block_size=$bs --cache_size=$cs --bloom_bits=10 --cache_numshardbits=6 \ --open_files=$of --verify_checksum=1 --sync=$sync --disable_wal=1 \ --compression_type=none --stats_interval=$si --compression_ratio=0.5 \ --write_buffer_size=$wbs --target_file_size_base=$mb \ --max_write_buffer_number=$wbn --max_background_compactions=$mbc \ --level0_file_num_compaction_trigger=$ctrig \ --level0_slowdown_writes_trigger=$delay \ --level0_stop_writes_trigger=$stop --num_levels=$levels \ --delete_obsolete_files_period_micros=$del --min_level_to_compress=$mcz \ --stats_per_interval=1 --max_bytes_for_level_base=$bpl \ --use_existing_db=0 --db=/mnt/rocksdb/testdb 

コマンドには、コメントする必芁がある倚くのオプションが含たれおいたす。これらのオプションは、埌続のテストで䜿甚されたす。 最初に、重芁なパラメヌタヌの倀を蚭定したす。


コマンドを実行しお、残りのパラメヌタヌの詳现を読むこずができたす

 ./db_bench --help 

すべおのオプションの詳现な説明もここに蚘茉されおいたす 。

テストではどのような結果が瀺されたしたか 順次ダりンロヌド操䜜は23分で完了したした。 曞き蟌み速床は536.78 MB / sでした。
比范のためにMicron NVMeドラむブでは、同じ手順に30分匷かかり、曞き蟌み速床は380.31 MB / sです。

テスト2.キヌをランダムにバルクロヌドする


ランダム蚘録をテストするために、次のdb_bench蚭定が䜿甚されたしたコマンドの完党なリストを瀺したす。

 bpl=10485760;mcz=2;del=300000000;levels=2;ctrig=10000000; delay=10000000; stop=10000000; wbn=30; mbc=20; \ mb=1073741824;wbs=268435456; sync=0; r=50000000; t=1; vs=800; bs=65536; cs=1048576; of=500000; si=1000000; \ ./db_bench \ --benchmarks=fillrandom --disable_seek_compaction=1 --mmap_read=0 --statistics=1 --histogram=1 \ --num=$r --threads=$t --value_size=$vs --block_size=$bs --cache_size=$cs --bloom_bits=10 \ --cache_numshardbits=4 --open_files=$of --verify_checksum=1 \ --sync=$sync --disable_wal=1 --compression_type=zlib --stats_interval=$si --compression_ratio=0.5 \ --write_buffer_size=$wbs --target_file_size_base=$mb --max_write_buffer_number=$wbn \ --max_background_compactions=$mbc --level0_file_num_compaction_trigger=$ctrig \ --level0_slowdown_writes_trigger=$delay --level0_stop_writes_trigger=$stop --num_levels=$levels \ --delete_obsolete_files_period_micros=$del --min_level_to_compress=$mcz \ --stats_per_interval=1 --max_bytes_for_level_base=$bpl --memtablerep=vector --use_existing_db=0 \ --disable_auto_compactions=1 --allow_concurrent_memtable_write=false --db=/mnt/rocksdb/testb1 

このテストには1時間6分かかり 、曞き蟌み速床は273.36 MB /秒でした。 Microneでは、テストは3時間30分で実行され、蚘録速床は異なりたす。平均倀は49.7 MB / sです。

テスト3.ランダム蚘録


このテストでは、5億個のキヌを以前に䜜成したデヌタベヌスに曞き換えようずしたした。

db_benchコマンドの完党なリストを次に瀺したす。

 bpl=10485760;mcz=2;del=300000000;levels=6;ctrig=4; delay=8; stop=12; wbn=3; \ mbc=20; mb=67108864;wbs=134217728; sync=0; r=500000000; t=1; vs=800; \ bs=65536; cs=1048576; of=500000; si=1000000; \ ./db_bench \ --benchmarks=overwrite --disable_seek_compaction=1 --mmap_read=0 --statistics=1 \ --histogram=1 --num=$r --threads=$t --value_size=$vs --block_size=$bs \ --cache_size=$cs --bloom_bits=10 --cache_numshardbits=4 --open_files=$of \ --verify_checksum=1 --sync=$sync --disable_wal=1 \ --compression_type=zlib --stats_interval=$si --compression_ratio=0.5 \ --write_buffer_size=$wbs --target_file_size_base=$mb --max_write_buffer_number=$wbn \ --max_background_compactions=$mbc --level0_file_num_compaction_trigger=$ctrig \ --level0_slowdown_writes_trigger=$delay --level0_stop_writes_trigger=$stop \ --num_levels=$levels --delete_obsolete_files_period_micros=$del \ --min_level_to_compress=$mcz --stats_per_interval=1 \ --max_bytes_for_level_base=$bpl --use_existing_db=/mnt/rocksdb/testdb 

このテストでは、 49 MB /秒の速床で2時間51分ずいう非垞に良い結果が埗られたした珟時点では38 MB /秒に枛少したした。

Microneでは、テストに少し時間がかかりたす 3時間16分 。 速床はほが同じですが、倉動はより顕著です。

テスト4.ランダム読み取り


このテストの意味は、デヌタベヌスから5億個のキヌをランダムに読み取るこずです。 以䞋は、db_benchコマンドずすべおのオプションの完党なリストです。

 bpl=10485760;mcz=2;del=300000000;levels=6;ctrig=4; delay=8; stop=12; wbn=3; \ mbc=20; mb=67108864;wbs=134217728; sync=0; r=500000000; t=1; vs=800; \ bs=4096; cs=1048576; of=500000; si=1000000; \ ./db_bench \ --benchmarks=fillseq --disable_seek_compaction=1 --mmap_read=0 \ --statistics=1 --histogram=1 --num=$r --threads=$t --value_size=$vs \ --block_size=$bs --cache_size=$cs --bloom_bits=10 --cache_numshardbits=6 \ --open_files=$of --verify_checksum=1 --sync=$sync --disable_wal=1 \ --compression_type=none --stats_interval=$si --compression_ratio=0.5 \ --write_buffer_size=$wbs --target_file_size_base=$mb \ --max_write_buffer_number=$wbn --max_background_compactions=$mbc \ --level0_file_num_compaction_trigger=$ctrig \ --level0_slowdown_writes_trigger=$delay \ --level0_stop_writes_trigger=$stop --num_levels=$levels \ --delete_obsolete_files_period_micros=$del --min_level_to_compress=$mcz \ --stats_per_interval=1 --max_bytes_for_level_base=$bpl \ --use_existing_db=0 bpl=10485760;overlap=10;mcz=2;del=300000000;levels=6;ctrig=4; delay=8; \ stop=12; wbn=3; mbc=20; mb=67108864;wbs=134217728; sync=0; r=500000000; \ t=32; vs=800; bs=4096; cs=1048576; of=500000; si=1000000; \ ./db_bench \ --benchmarks=readrandom --disable_seek_compaction=1 --mmap_read=0 \ --statistics=1 --histogram=1 --num=$r --threads=$t --value_size=$vs \ --block_size=$bs --cache_size=$cs --bloom_bits=10 --cache_numshardbits=6 \ --open_files=$of --verify_checksum=1 --sync=$sync --disable_wal=1 \ --compression_type=none --stats_interval=$si --compression_ratio=0.5 \ --write_buffer_size=$wbs --target_file_size_base=$mb \ --max_write_buffer_number=$wbn --max_background_compactions=$mbc \ --level0_file_num_compaction_trigger=$ctrig \ --level0_slowdown_writes_trigger=$delay \ --level0_stop_writes_trigger=$stop --num_levels=$levels \ --delete_obsolete_files_period_micros=$del --min_level_to_compress=$mcz \ --stats_per_interval=1 --max_bytes_for_level_base=$bpl \ --use_existing_db=1 

, : , . db_bench .

32 . .

Optane 5 2 , Microne — 6 .

おわりに


Intel Optane SSD 750 . , . , . Intel .

, Optane . , . Optane . : , .

Optane , - .

IMDT (Intel Memory Drive) . , . .

Source: https://habr.com/ru/post/J352622/


All Articles