ディスクの使用率が70%になった。
これまでにクロールしたファイル数は77万で、サイズは900GBだ。
サムネイルとelasticsearchのサイズを見てみよう。
・サムネイル画像
# du -shx /var/lib/fess/thumbnails 現在17GB
・インデックス
# du -shx /var/lib/elasticsearch 現在29GB
インデックスの容量大きすぎない?
ところで、元のファイル数は77万なのに、
ダッシュボードには120万docsと表示されているよ。
もしかして、クローラーを途中で止めたりいろいろしているから、
ゴミが残っているのかな?
ゴミを消す方法を探してみたけれど、なかなか見つからない。
elasticsearchについて、ちゃんと勉強しないといけないのかも。
ダッシュボードにインデックスの内訳が表示されていて、
それぞれに登録されているドキュメント数がわかる。
主なものを足してみたら、120万docsと一致した。
crawler.data 278,974
fess_crawler.queue 309,706
fess.20220529 535,193
fess.suggest 85,666
---------------------------------------------------
1,209,539
上2つはクローラーが作業用に使っているインデックスで、
fess.20220529ができあがったインデックスだそうだ。
これを見る限り、クロールを何回やり直しても、
重複したデータが登録されることはないようだね。
じゃあ、ディスクを拡張しなきゃ。
現在のディスクの状況を見てみよう。
# df -h
ファイルシステム サイズ 使用 残り 使用% マウント位置
/dev/mapper/ml-root 69G 45G 21G 69% /
/dev/mapper/ml-home 53G 53M 50G 1% /home
/homeは使っていないので、5Gに縮小して/に割り当てよう。
# lvdisplay /dev/mapper/ml-homeで論理ボリュームの情報を確認
→VG Name = ml
# umount /dev/mapper/ml-home
# resize2fs /dev/mapper/ml-home 5G
# lvreduce -L 5G /dev/mapper/ml-home
# mount -a
# lvextend -L 118G /dev/ml/root
# resize2fs /dev/ml/root
# df -h
ファイルシステム サイズ 使用 残り 使用% マウント位置
/dev/mapper/ml-root 116G 45G 66G 41% /
/dev/mapper/ml-home 4.7G 33M 4.4G 1% /home
できた。これでしばらく様子を見よう。
※コメント投稿者のブログIDはブログ作成者のみに通知されます