LDAPを設定しよう
システム→全般を開き、LDAPの項目配下を設定する
https://news.mynavi.jp/techplus/article/techp4283/
を参考に設定すると、ドメインユーザでログインできるようになった。
次はクローラーの設定だ。
クローラー→ファイルシステムで新規作成
設定項目は、最低3箇所
名前:任意
パス:smb://ホスト名.ドメイン名/ほにゃらら
深さ:6で大方カバーできるけれど、まずは5で始めよう
パーミッション:{group}(グループ名)
さあ、実行してみよう
システム→スケジューラ→Default Crawlerを開き、「今すぐ開始」
検索してみると、ひっかからない。
システム情報→障害URLを見てみたら、
jcifs.smb.SmbAuthExceptionと表示されている。
認証情報の問題のようだ。
クローラー→ファイル認証を登録した。
再度障害URLを見ると、違うエラーが出ている。
org.codelibs.fess.exception.ContentNotFoundException
Default Crawlerのログレベルを変えて、ログを見てみよう。
return container.getComponent("crawlJob").logLevel("debug").gcLogging().execute(executor);
/var/log/fess/fess-crawler.log
jcifs.smb.smbexception cannot findだって。
なんでだろう。
どうやら、パスの最後に/が必要らしい。マニュアルにも書いてあるよ!
https://github.com/AgNO3/jcifs-ng/issues/134
クローラーのパスの最後に/を入れたらエラーが出なくなった。
でも検索結果は、・・出ない。
クローラーのパーミッション欄に指定したユーザーでログインして検索すると、出た。
これは不便だ。後で直そう。
検索結果には、パスをコピーするボタンが付いている。
これは便利だけど、ファイル名まではいらない。
後でファイルを少し変更して、ファイルを置いているフォルダのパスをコピーできるようにしよう。
参考:Fessを試してみよう(2)
スケジューラに登録されているうち、不要なものを無効にしよう
サジェストはうちの用途では不要だし、今回はサムネイルを作らない。
Suggest Indexer
Thumbnail Generator
Thumbnail Purger
他にもいくつか設定を変えよう。
システム→全般→同時クローラー設定を1にする
ログインが必要を有効にする
人気ワードのレスポンスを無効にする
試しにうちの係のフォルダをクロールさせよう。
早速エラーが出た。
org.codelibs.fess.crawler.exception.MaxLengthExceededException
パスが長すぎるんだろうか。いや、ファイルサイズが制限にかかったようだ。
後でサイズを検討しよう
システム→全般→クローラー
以前のドキュメントを削除30日にしておこう
どうも、ネストしたアクセス権が反映していないようだ。
「環境によって、ネストしたグループ情報をADから取得するのに時間がかかるためです。
なので、単純にADの処理が時間がかかるので、取得に時間がかかるネストしたグループ情報が取得できたら、
非同期に更新されます。」らしい。
https://discuss.codelibs.org/t/topic/1855
ログインしてしばらく放置してみよう。
あと、邪魔なので検索オプションにある、「優先する言語」を消そう
参考:Fessを試してみよう(21)
システム→全般を開き、LDAPの項目配下を設定する
https://news.mynavi.jp/techplus/article/techp4283/
を参考に設定すると、ドメインユーザでログインできるようになった。
次はクローラーの設定だ。
クローラー→ファイルシステムで新規作成
設定項目は、最低3箇所
名前:任意
パス:smb://ホスト名.ドメイン名/ほにゃらら
深さ:6で大方カバーできるけれど、まずは5で始めよう
パーミッション:{group}(グループ名)
さあ、実行してみよう
システム→スケジューラ→Default Crawlerを開き、「今すぐ開始」
検索してみると、ひっかからない。
システム情報→障害URLを見てみたら、
jcifs.smb.SmbAuthExceptionと表示されている。
認証情報の問題のようだ。
クローラー→ファイル認証を登録した。
再度障害URLを見ると、違うエラーが出ている。
org.codelibs.fess.exception.ContentNotFoundException
Default Crawlerのログレベルを変えて、ログを見てみよう。
return container.getComponent("crawlJob").logLevel("debug").gcLogging().execute(executor);
/var/log/fess/fess-crawler.log
jcifs.smb.smbexception cannot findだって。
なんでだろう。
どうやら、パスの最後に/が必要らしい。マニュアルにも書いてあるよ!
https://github.com/AgNO3/jcifs-ng/issues/134
クローラーのパスの最後に/を入れたらエラーが出なくなった。
でも検索結果は、・・出ない。
クローラーのパーミッション欄に指定したユーザーでログインして検索すると、出た。
これは不便だ。後で直そう。
検索結果には、パスをコピーするボタンが付いている。
これは便利だけど、ファイル名まではいらない。
後でファイルを少し変更して、ファイルを置いているフォルダのパスをコピーできるようにしよう。
参考:Fessを試してみよう(2)
スケジューラに登録されているうち、不要なものを無効にしよう
サジェストはうちの用途では不要だし、今回はサムネイルを作らない。
Suggest Indexer
Thumbnail Generator
Thumbnail Purger
他にもいくつか設定を変えよう。
システム→全般→同時クローラー設定を1にする
ログインが必要を有効にする
人気ワードのレスポンスを無効にする
試しにうちの係のフォルダをクロールさせよう。
早速エラーが出た。
org.codelibs.fess.crawler.exception.MaxLengthExceededException
パスが長すぎるんだろうか。いや、ファイルサイズが制限にかかったようだ。
後でサイズを検討しよう
システム→全般→クローラー
以前のドキュメントを削除30日にしておこう
どうも、ネストしたアクセス権が反映していないようだ。
「環境によって、ネストしたグループ情報をADから取得するのに時間がかかるためです。
なので、単純にADの処理が時間がかかるので、取得に時間がかかるネストしたグループ情報が取得できたら、
非同期に更新されます。」らしい。
https://discuss.codelibs.org/t/topic/1855
ログインしてしばらく放置してみよう。
あと、邪魔なので検索オプションにある、「優先する言語」を消そう
参考:Fessを試してみよう(21)
※コメント投稿者のブログIDはブログ作成者のみに通知されます