5.4. 冗長構成での導入手順

注意

セットアップする際は下記の点にご注意ください。
・sudo可能な一般ユーザでShieldセットアップを実施してください。(rootユーザでのインストールは基本的に不可)
・sudoは付けないでShieldセットアップスクリプトを実行。
・Shieldインストール後は、インストールを実施したユーザで運用をお願いします。
・Shieldインストールを行ったユーザの無効化は不可です。
・上位ネットワーク機器でSSL復号化(SSLデコード)やURLフィルタリング、アンチウィルスを実施している環境の場合、Shieldインストール処理にてインターネット上より必要なデータをダウンロードして処理を行う関係で、通信エラーによりインストールが失敗する場合があります。Shieldインストール処理が失敗する場合には、上位ネットワーク機器の設定をご確認ください。
・下位ネットワーク機器でShield通信をSSL復号化(SSLデコード)して利用する環境の場合には、以下のShield内部通信のために利用しているドメインをフィルタリング除外対象に登録する必要があります。

Ver 22.08~23.05:
  icap-server.service.consul
  es-proxyless.farm-services.svc.cluster.local

本手順で記載するインストール構成としては、以下の図のような、2つの構成パターンとなります。

パターン1:

ClusterManagement兼SystemComponent兼FarmServiceサーバが3台、Browserサーバが4台の計7台での構成となります。

../_images/es2305_verboseconfig01.jpg

パターン2:

ClusterManagementサーバが3台、SystemComponent兼FarmServiceサーバが3台、Browserサーバが4台の計10台での構成となります。

../_images/es2305_verboseconfig02.jpg

5.4.1. セットアップスクリプトの実行

コマンドの実行対象は、以下の通り。

  • パターン1の場合:ClusterManagement兼SystemComponent兼FarmServiceサーバの1台目
  • パターン2の場合:ClusterManagementサーバの1台目

下記コマンドでセットアップスクリプト(shield-setup.sh)をホームディレクトリ(~/)でダウンロードします。

$ cd ~
$ curl -O https://ericom-tec.ashisuto.co.jp/shield/shield-setup.sh
$ chmod +x shield-setup.sh

Tips

Ericom ShieldではKubernetesクラスタを利用しておりネットワーク通信の方式として、デフォルトでは、Flannel方式を採用しています。Flannel方式は通信を行う際にVXLANプロトコルが利用可能である必要があります。VXLANプロトコルを利用可能とすることができないネットワーク環境の場合には、代替となるCalico方式(BGPプロトコル)に変更する必要があります。

1:Calico方式に変更する方法としては、以下のコマンドでshield-setup.shの記載内容を変更します。
  $ sed -i -e 's/"flannel"/"calico"/g' shield-setup.sh
2:以下コマンドで変更されたことを確認します。
  $ cat shield-setup.sh | grep " plugin "

実行例:
  kkauser@sh01:~$ cat shield-setup.sh | grep "plugin"
   "plugin": "calico"

Tips

Ericom ShieldではDockerのネットワークアドレスとして「172.17.0.0/16、10.42.0.0/16、10.43.0.0/16」が利用されます。Ericom Shieldを導入するネットワーク内にて既に対象のIP範囲が利用されている場合には、kubernetesの設定を変更する必要があります。変更する場合の方法は以下の通りとなります。

1:「.es_custom_env 」をホームディレクトリ(~/)にてダウンロードします。
2:「.es_custom_env」の以下の箇所を編集して、IP範囲を変更して保存します。
  ・デフォルト値の状態
  ===============================
  #service_cluster_ip_range: 10.43.0.0/16
  #docker0: 172.17.0.1/16
  #cluster_cidr: 10.42.0.0/16
  #cluster_dns_server: 10.43.0.10
  ===============================
  ・10.52.0.0/16のIP範囲のみを利用する設定に変更する場合の変更例
  ===============================
  service_cluster_ip_range: 10.52.128.0/18
  docker0: 10.52.0.1/18
  cluster_cidr: 10.52.64.0/18
  cluster_dns_server: 10.52.128.10
  ===============================

下記コマンドでセットアップスクリプトを実行します。実行時点で日本国内にて提供されているバージョンの一覧が表示されますので、利用するバージョンの番号を選択してください。(最新版でのインストールを推奨)

$ ./shield-setup.sh
###### START ###########################################################
[start] Changing to the symbolic link.
[INFO]/etc/resolv.conf is symlink
[INFO ] nameserver is not local stub! Continue!
[end] Changing to the symbolic link.
==================================================================
現在インストールされているバージョン: N/A
==================================================================
実行済みのshield-prepare-serversバージョン: 23.05.4922-8
==================================================================
どのバージョンをセットアップしますか?
1: Rel-23.05_Build:4922-8
2: Rel-22.08_Build:934
3: Rel-21.11_Build:816.3
4: Rel-21.11_Build:816.2
5: Rel-21.04_Build:758
6: Rel-21.01_Build:744
7: Rel-21.01_Build:743
8: Rel-21.01_Build:742
9: Rel-20.10_Build:685 ※サポート終了
10: Rel-20.07_Build:669 ※サポート終了
11: Rel-20.07_Build:667 ※サポート終了
12: Rel-20.05_Build:650 ※サポート終了
13: Rel-20.05_Build:649 ※サポート終了
14: Rel-20.03_Build:639 ※サポート終了
15: Rel-20.01.2_Build:622 ※サポート終了

番号で指定してください:1
Rel-23.05_Build:4922-8 をセットアップします。
[start] change dir
pwd: /home/kkauser
pwd: /home/kkauser/ericomshield
[end] change dir
[info] shield-prepare was executed.
BRANCH: Rel-23.05
BUILD: 4922-8
[start] resource choice.
~略~

以下のメッセージが表示された際には、 基本的には、「1) 通常版インストール」の「1」を選択してください。 旧バージョンを選択は、サポートセンターより指示を受けた場合に選択をお願いします。

★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★
Rel-21.11.816.2以降、高解像度_8Kディスプレイに対応したブラウザコンテナを選択するオプションが追加されています。
構築されているBrowserサーバのリソース要件を確認の上、必要に応じて高解像度_8Kディスプレイ対応版を選択してください。
★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★
1) 通常版インストール
2) 高解像度_8Kディスプレイ対応版インストール

番号で選んでください:

shield-setup.shを初回実行時には、実行ユーザをdockerグループに参加させるため、一度ログオフを行う必要が発生します。 下記メッセージが表示されましたら、一度ログオフを行い、再度shield-setup.shの実行をお願いします。

[start] check group

=================================================================================
実行ユーザをdockerグループに追加する必要があります。
追加後、セットアップスクリプトは中断します。
一度ログオフした後、ログインをしなおして、スクリプトを再度実行してください。
=================================================================================
[start] add group
[end] add group
###### DONE ############################################################

続いて、下記のメッセージが表示されます。shield-setup.shを実行しているノードに、どの役割をセットアップするかを選択します。 こちらでは、「1」を選択してください。

★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★
※この選択の後、複数台構成にする場合に他のノードで実行するコマンドが画面に表示されます。
※必要に応じてコピーの上、他ノードで実行してください。
★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★

このノードに何をセットアップしますか?
1) 全て (Rancher, Cluster Management および Ericom Shield)
2) Rancher and Cluster Management (Ericom Shield を除く)
3) Rancher のみ

番号で選んでください:1
下記のように他のノードで実行するコマンドが表示されますので、コマンドをコピーして、他ノードにて実行してください。
※ 表示される内容は毎回、異なります。必ず表示されたコマンドを利用してください。

各パターンの構築例での実行コマンドは以下の通り。

▼パターン1

ClusterManagement兼SystemComponent兼FarmServiceサーバ 3台:
  Cluster Management + Workerノード用の実行コマンド
Browserサーバ 4台:
  Worker単体 ノード用の実行コマンド

▼パターン2

ClusterManagementサーバ 3台:
  Cluster Management単体 ノード用の実行コマンド
SystemComponent兼FarmServiceサーバ 3台:
  Worker単体 ノード用の実行コマンド
Browserサーバ 4台:
  Worker単体 ノード用の実行コマンド

<実行例>
★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★
下記のコマンドがこのノードで実行されています。(確認用。実行の必要はありません。)

sudo docker run -d --privileged --restart=unless-stopped --net=host -v /etc/kubernetes:/etc/kubernetes -v /var/run:/var/run  rancher/rancher-agent:v2.7.10 --server https://IPアドレス:8443 --token ランダム値 --ca-checksum ランダム値 --etcd --controlplane --worker

------------------------------------------------------------
そして、
(【必要に応じて】 下記コマンドを他の(Cluster Management + Worker)ノードで実行し てください。)

curl -s -O https://ericom-tec.ashisuto.co.jp/shield/clean-rancher-agent.sh
chmod +x clean-rancher-agent.sh
curl -s -OL https://ericom-tec.ashisuto.co.jp/shield/delete-all.sh
chmod +x delete-all.sh

sudo docker run -d --privileged --restart=unless-stopped --net=host -v /etc/kubernetes:/etc/kubernetes -v /var/run:/var/run  rancher/rancher-agent:v2.7.10 --server https://IPアドレス:8443 --token ランダム値 --ca-checksum ランダム値 --etcd --controlplane --worker

------------------------------------------------------------
または、
(【必要に応じて】 下記コマンドを他の Cluster Management単体 ノードで実行してください。)

curl -s -O https://ericom-tec.ashisuto.co.jp/shield/clean-rancher-agent.sh
chmod +x clean-rancher-agent.sh
curl -s -OL https://ericom-tec.ashisuto.co.jp/shield/delete-all.sh
chmod +x delete-all.sh

sudo docker run -d --privileged --restart=unless-stopped --net=host -v /etc/kubernetes:/etc/kubernetes -v /var/run:/var/run  rancher/rancher-agent:v2.7.10 --server https://IPアドレス:8443 --token ランダム値 --ca-checksum ランダム値 --etcd --controlplane

------------------------------------------------------------
または、
(【必要に応じて】 下記コマンドを他の Worker単体 ノードで実行してください。)

curl -s -O https://ericom-tec.ashisuto.co.jp/shield/clean-rancher-agent.sh
chmod +x clean-rancher-agent.sh
curl -s -OL https://ericom-tec.ashisuto.co.jp/shield/delete-all.sh
chmod +x delete-all.sh

sudo docker run -d --privileged --restart=unless-stopped --net=host -v /etc/kubernetes:/etc/kubernetes -v /var/run:/var/run  rancher/rancher-agent:v2.7.10 --server https://IPアドレス:8443 --token ランダム値 --ca-checksum ランダム値 --worker

★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★

他ノードでのコマンド実行が完了したら、続けて「y」を入力して処理を進めます。

<実行例>
=================================================================================
それぞれのノードでコマンドの実行は完了しましたか?
先に進んでもよろしいですか? [y/N]:y

クラスタのステータスがActiveになるまで待ってください。

[waiting] Cluster to active
Waiting for state to become active.: provisioning
Waiting for state to become active.: provisioning
Waiting for state to become active.: provisioning
Waiting for state to become active.: waiting
Waiting for state to become active.: waiting
Waiting for state to become active.: active

暫くすると、確認のメッセージが表示されますので、メッセージに従い、RancherUI画面にて上記コマンドで追加したノードが全てActiveステータスとなっていることを確認できましたら、「y」を入力して処理を進めてください。

<実行例>
=================================================================================
【※確認※】 Rancher UI https:// IPアドレス:8443 をブラウザで開き、
追加したノードが全てActiveになっていることを確認してください。
先に進んでもよろしいですか? [y/N]:y

※ Rancher UI画面にて上記コマンドで追加したノードが全てActiveステータスとなっていることを確認する方法は以下の通り。

a. Rancher UI画面(https://IPアドレス:8443)にアクセスします。
初期設定のID:admin 、パスワード:ericomshieldでログインを行います。
../_images/es2305_verboseconfig03.jpg
b. 「Nodes」下の赤枠リンクをクリック。
../_images/es2305_verboseconfig04.jpg
c. Nodes画面にて一覧に対象ノードが全て追加されて、Activeステータスとなることを確認します。
→ サーバスペックやネットワーク速度の影響を受けて、一覧へのノード追加やActiveステータスとなるまで時間が掛かる場合があります。
../_images/es2305_verboseconfig05.jpg

次に、各Shieldノードに配置するコンポーネント(役割)を選択して配置します。

表示される ホスト名 を確認し、ホスト名に対応するコンポーネント(役割)を選択します。各パターンの構築例でのコンポーネント(役割)の番号は以下の通り。

▼パターン1

ClusterManagement兼SystemComponent兼FarmServiceサーバ 3台:「
Browserサーバ 4台:「

▼パターン2

ClusterManagementサーバ 3台:「
SystemComponent兼FarmServiceサーバ 3台:「
Browserサーバ 4台:「

<実行例>

=================================================================================
*** {ホスト名} ***

上記ノードにどのShieldコンポーネントを配置しますか?
0) Cluster Management のみ
---------------------------------------------------------
【System ComponentとBrowserを分ける場合】
---------------------------------------------------------
2) System Component + Farm-service (management, proxy, elk, farm-services)
3) Browser のみ (remort-browsers)
---------------------------------------------------------
99) Advanced Option

番号で選択してください:

上記の選択画面にて番号選択を全Shieldサーバに対して行うと実際にShieldコンポーネントの展開処理が開始されます。完了するまで暫くお待ち下さい。

<実行例>
[start] Waiting System Project is Actived
[end] Waiting System Project is Actived
[start] deploy shield
[start] deploieng shield
********    ./deploy-shield.sh -L .
<IPアドレス>
Custom Path: .
***************     Ericom Shield Kube Setup ...
The OS is Ubuntu 20.04.
***************     Waiting for the Shield Cluster to become ready...
Waiting for all nodes to become ready.
OK
All nodes are ready
137c841c-881b-4c0e-b505-cea46da166f5
New Version: Rel-23.05_Build:4922-8

Shield is not fully deployed
***************     Deploying Ericom Shield Repo: Rel-23.05_Build:4922-8 on System:137c841c-881b-4c0e-b505-cea46da166f5 ...
We are here:  /home/kkauser/ericomshield
***************     Deploying Shield Common *******************************

~略~

[end] deploieng shield
[end] deploy shield
[start] get Shield project id
TOPROJECTID: c-vcj4x:p-jtpvc
[end] get Shield project id
[start] Move namespases to Shield project
move namespases to Shield project/ management
move namespases to Shield project/ proxy
move namespases to Shield project/ elk
move namespases to Shield project/ farm-services
move namespases to Shield project/ common
[end] Move namespases to Shield project
[start] Waiting All namespaces are Deploied
[end] Waiting All namespaces are Deploied

【※確認※】 Rancher UI https://<IPアドレス>:8443 をブラウザで開くか、
          /home/<実行ユーザ> /ericomshield/shield-status.sh 実行し、
          全てのワークロードが Acriveになることをご確認ください。

###### DONE ############################################################

最後に、以下のコマンド(shield-status.sh)を実行して、全てのワークロードがActiveステータスとなることを確認します。

$ ~/ericomshield/shield-status.sh

全てのワークロードがActiveステータスなるまでには、Shieldサービスコンポーネントのダウンロードと展開処理が合わせて実施されておりますので、30分~1時間程度の時間が掛かる場合があります。全てワークロードがActiveステータスとなるとshield-status.sh実行結果にて「All workloads are Active !」と表示されます。

※ 1時間以上、経過したにもかかわらず、全てワークロードがActiveステータスとならない場合には、以下のコマンドでShield再起動をお試しください。

$ ~/ericomshield/shield-stop.sh
$ ~/ ericomshield/shield-start.sh

5.4.2. Docker関連パッケージのAPTホールド

最新Dockerバージョンにバージョンアップしてしまった場合に、正常にShieldが稼働しなくなる問題が発生する可能性がありますので、以下コマンドを全Shieldサーバにて実行することで、Docker関連パッケージのAPTホールドを行ってください。

$ sudo apt-mark hold $(dpkg -l | grep -e docker -e containerd | awk '{print $2}')

※ APTホールドされている一覧は以下コマンドで確認することができます。

$ sudo apt-mark showhold

5.4.3. 設定Backupファイル、ELK(レポート)データ保管場所の設定

既定の設定では、Shield管理コンソール上の設定BackupファイルやELK(レポート)データの保管先が、SystemComponentの役割を持つサーバのローカルPathに保存される設定となっています。

そのため、冗長構成の場合、SystemComponentの役割を持つサーバが、複数(3台)存在する状態となりますので、保管場所を統一する設定を行う必要があります。

以下の手順例では、Shieldサーバの内の1台をNFSサーバ化して、SystemComponentの役割を持つサーバからNFS共有領域のマウントを行うことで、保管場所を統一する設定方法を記載します。
※ NFSサーバが既に存在している場合には、NFS共有領域のマウントの手順より参考にして設定を行ってください。

本手順例では、以下の構成の場合として記載します。

  • ClusterManagement兼SystemComponent兼FarmServiceサーバ:3台
  • Browserサーバ:4台

NFSサーバ機能をインストール

  1. NFSサーバ機能をClusterManagement兼SystemComponent兼FarmServiceサーバの3台の中、1台にインストールします。
$ sudo apt install -y nfs-kernel-server
  1. NFS共有領域用のディレクトリを作成
$ sudo mkdir /remote/export_shield
$ sudo chmod 777 /remote/export_shield
  1. 共有ディレクトリを設定
$ sudo vi /etc/exports

最終行に以下を追加して保存(:wq)

/remote/export_shield 192.168.***.***(rw,no_subtree_check,no_root_squash) 192.168.***.*** (rw,no_subtree_check,no_root_squash) 192.168.***.***(rw,no_subtree_check,no_root_squash)

※「192.168.***.***」の箇所はNFSクライアント(SystemComponentサーバ)3台からNFSマウントを許可するIPとなります。環境に合わせて、SystemComponentサーバのIPを正しく設定して保存をお願いします。

  1. 設定を反映
$ sudo exportfs -ra
  1. 設定が反映されていることを確認
$ sudo exportfs -v

※ UbuntuOSは初期インストール時点でファイアウォールはOFFとなっていますが、ファイアウォールがONとなっている場合にNFSマウントに失敗する場合があります。必要に応じて以下のコマンドでFWステータス確認とFW無効化(OFF)を実施してください。

$ sudo ufw status
$ sudo ufw disable

NFS共有領域のマウント

NFS共有領域のマウントを行うために、SystemComponentコンポーネント役割を持つ全サーバで以下の手順を実施することで、NFSマウントを行います。

今回の手順例では、ClusterManagement兼SystemComponent兼FarmServiceサーバ:3台が対象となります。

  1. NFSクライアント機能をインストールします
$ sudo apt install -y nfs-common
  1. マウント用ディレクトリを作成します
$ sudo mkdir /mnt/nfs_shield
  1. NFS共有領域をマウントします
$ sudo mount -t nfs 192.168.***.***:/remote/export_shield /mnt/nfs_shield

※「192.168.***.***」の箇所はNFSサーバのIPとなります。環境に合わせて変更してマウント実行をお願いします。

  1. NFS共有領域がマウントされていることを確認します
$ df -h | grep nfs_shield

実行例:

kkauser@sh01:~$ df -h | grep nfs_shield
192.168.***.***:/remote/export_shield   47G   24G   21G  54% /mnt/nfs_shield
  1. OS起動時に自動でマウントを行う設定を追加します
$ sudo cp -p /etc/fstab /etc/fstab.bak
$ sudo vi /etc/fstab

最終行に以下を追加して保存(:wq)

192.168.***.***:/remote/export_shield /mnt/nfs_shield nfs rw 0 0

※「192.168.***.***」の箇所はNFSサーバのIPとなります。 環境に合わせて変更して設定保存をお願いします。

  1. 追記した/etc/fstab設定値の内容に誤りがないか確認するために以下コマンドを実行
$ sudo mount -a

※ コマンド実行後、何もエラーが表示されずに実行が完了した場合には、/etc/fstab設定値の内容に問題がない状態となります。

  1. OS起動時に自動でNFSマウントを行われるか確認するためにOSを再起動します。
$ sudo reboot
  1. OS再起動の完了後にNFS共有領域が自動でマウントされていることを確認します
$ df -h | grep nfs_shield

実行例:

kkauser@sh01:~$ df -h | grep nfs_shield
192.168.***.***:/remote/export_shield   47G   24G   21G  54% /mnt/nfs_shield

設定Backupファイル保管先の変更

Shieldセットアップ(shield-setup.sh)を実行した、Rancherサーバが稼働しているサーバにて、 ~/ericomshield/ custom_management.yaml ファイルを編集して、以下の通りNFSマウントした領域のディレクトリPathに変更して保存します。

【編集前】

consulBackup:
  # Local Path (change to use a specific local folder for backup):
  localPath: /home/<セットアップユーザ>/ericomshield/config-backup/

【編集後】

consulBackup:
  # Local Path (change to use a specific local folder for backup):
  localPath: /<NFSマウントDirectoryPath>/ericomshield/config-backup/

⇒ 変更例:"/mnt/nfs_shield/ericomshield/config-backup/"

ELK(レポート)データ保管の変更

Shieldセットアップ(shield-setup.sh)を実行した、Rancherサーバが稼働しているサーバにて、 ~/ericomshield/custom-values-elk.yaml ファイルを編集して、以下の通りNFSマウントした領域のディレクトリPathに変更して保存します。

【編集前】

elk:
  elasticsearch:
    elasticsearchDataPath: "/var/elk"
    elasticsearchSnapshotPath: "/var/elk/snapshots"

【編集後】

elk:
  elasticsearch:
    elasticsearchDataPath: "<NFSマウントDirectoryPath>/ericomshield/elk"
    elasticsearchSnapshotPath: "<NFSマウントDirectoryPath>/ericomshield/elk/snapshots"

⇒ 変更例:

"/mnt/nfs_shield/ericomshield/elk"
"/mnt/nfs_shield/ericomshield/elk/snapshots"

Shieldの再起動

上記の設定変更が完了しましたら、変更した設定を反映させるためにShieldの再起動を行います。

下記のコマンドで、実施します。

$ ~/ericomshield/shield-stop.sh -f
$ ~/ericomshield/shield-start.sh

Shieldの再起動後の変更設定の反映確認

設定Backupファイル、ELK(レポート)データ保管場所の変更設定が反映されたことを確認します。SystemComponentコンポーネント役割を持つ全サーバで、以下コマンドを実行することで設定Backupファイル、ELK(レポート)データが保存されていることを確認します。

$ ls <NFSマウントDirectoryPath>/ericomshield/config-backup/backup/
$ ls <NFSマウントDirectoryPath>/ericomshield/elk/nodes/0/

実行例:

$ ~/ericomshield/shield-start.sh
kkauser@sh01:~$ ls /mnt/nfs_shield/ericomshield/config-backup/backup/
backup2024-10-07-06-26-44.json
kkauser@sh01:~$ ls /mnt/nfs_shield/ericomshield/elk/nodes/0/
indices  node.lock  _state

5.4.4. ライセンスのアクティベーション

ブラウザを起動し、Shield管理コンソールにアクセスします。( https://***.***.***.***:30181/ )

今回の構築例では、

パターン1の場合:ClusterManagement兼SystemComponent兼FarmServiceサーバの1台目
パターン2の場合:ClusterManagementサーバの1台目

のIPアドレスを指定してアクセスします。

※ Shield管理コンソールは、ノードの役割に関わらず、全てのShieldノードのIPでアクセス表示することが可能です。

デフォルトのIDとパスワードを入力し、ログインしてください。(ID:admin / パスワード:ericomshield)

../_images/es2305_verboseconfig06.jpg

ライセンスアクティベーションの方法については納品物の「はじめにお読みください_(End_Shield).pdf」に記載されておりますので、参照の上、アクティベーションをお願いします。

5.4.5. Shield管理コンソールの設定

Shield管理コンソールにて次の設定を実施してください。

言語の設定

以下の設定を変更することで、管理コンソール上の表示言語が日本語に一時的に変更されます。

../_images/es2305_verboseconfig07.jpg
↓↓↓

../_images/es2305_verboseconfig08.jpg

以下の設定を変更して保存することで、管理コンソール上のデフォルト表示言語が日本語に変更されます。

「設定>国際化>管理コンソールの言語を設定」:[English] ⇒ [日本語]
「設定>国際化>エンドユーザ言語を設定」:[English] ⇒ [日本語]
../_images/es2305_verboseconfig09.jpg

DNSの設定

内部DNSおよび外部DNSのアドレスを設定してください。内部DNSでインターネットの名前解決が行える場合、両方で同じDNSサーバを指定していただいて問題ありません。

「設定>DNS」:各DNSアドレス

../_images/es2305_verboseconfig10.jpg

プロキシ&インテグレーションの設定

上位プロキシがない環境の場合には本設定は不要です。外部上位プロキシおよび内部上位プロキシの両方の設定に対して、上位プロキシの設定を行ってください。

  • 外部上位プロキシの設定
分離ブラウザ利用時の通信に利用される上位プロキシ設定となります。
「設定>プロキシ&インテグレーション>外部上位プロキシの構成」
[外部上位プロキシを利用する]を有効にした上で、各プロキシ設定を行います。
../_images/es2305_verboseconfig11.jpg
CDRサニタイズサーバやアラート(Email)の接続先が内部ネットワークに存在する場合には、次の設定を「有効」に変更してください。
「設定>プロキシ&インテグレーション>外部上位プロキシの構成>定義された機能において上位プロキシをバイパスする」
../_images/es2305_verboseconfig12.jpg
  • 内部上位プロキシの設定
非分離(検査やSSLインスペクション無しで許可)の通信に利用される上位プロキシ設定となります。
「設定>プロキシ&インテグレーション>内部上位プロキシの構成」
[内部上位プロキシを利用する]を有効にした上で、各プロキシ設定を行います。
../_images/es2305_verboseconfig13.jpg

コンテンツ分離の設定

「許可されたドメイン内の外部オブジェクト」設定を「デフォルト許可」から推奨値の「絶対許可」に変更してください。

「設定>コンテンツの分離>許可されたドメイン内の外部オブジェクト」:「デフォルト許可」⇒「絶対許可」

../_images/es2305_verboseconfig14.jpg

エンドユーザオプションの設定

以下の設定は、分離ブラウジングである状態を利用者に分かりやすくするための設定となります。必要に応じて、設定をお願いします。

「設定>エンドユーザオプション」

../_images/es2305_verboseconfig15.jpg

以下の設定は、分離ブラウジング時にコンテキストメニューからユーザ自身でレンダリング方式を変更可能とする設定となります。サイト表示に正常に表示できない場合にユーザ自身でレンダリング方式を変更して回避する場合に、ご利用いただけます。

../_images/es2305_verboseconfig16.jpg

ShieldログのSyslog出力設定

以下の設定は、ShieldログをSyslogサーバに出力を行う場合の設定箇所となります。必要に応じて、設定をお願いします。

「設定>ログ取得」

※ Syslogサーバ側では、TCPポートで受け取りしてください。UDPポートでの出力は対応しておりません。

../_images/es2305_verboseconfig17.jpg

ファイル&サニタイズの設定1

Ericom Shieldで利用可能なCDRソリューションとしては、Sasa GateScanner(クラウド)とVotiro(オンプレミス)とOpswat MetaDefender(オンプレミス)をサポートしています。

現在のオンプレミス版Ericom Shieldで、利用推奨のCDRソリューションは、Sasa GateScanner(クラウドサービス)となります。

Sasa GateScannerの利用設定については、以下の通りとなります。

▼Sasa GateScanner(クラウド)の利用設定

Sasa GateScannerはクラウサービスとなりますので、以下の設定をいただくことで、利用いただくことが可能な状態となります。

1:「設定>ファイル&サニタイズ」にて以下設定を行います。

ファイルサニタイズベンダー:Sasa Gate Scanner
ファイルサニタイズURLs:https://cdr.ericomcloud.net/Scanner.svc/v2
アクティベーションキー:211b3bf8-2133-458a-a7e8-0091ac1754bc
../_images/es2305_verboseconfig18.jpg

2:「Sasa Namedポリシー」に以下の既定Sasaポリシーを登録します。

../_images/es2305_verboseconfig19.jpg

※「デフォルト:Yes」の設定は、登録した4つのうち最も使用するポリシーに設定を行います。

../_images/es2305_verboseconfig20.jpg

3:Defaultポリシーのダウンロード設定にて利用するSasaポリシーを有効とします。

「ポリシー>デフォルト-全て>ファイル操作>ファイルダウンロードの検査」にて、利用するSasaポリシーを設定して保存します(推奨設定値は「Full CDR」)。

../_images/es2305_verboseconfig21.jpg

4:外部上位プロキシの設定にてバイパス設定が無効化されていることを確認します。

「設定>プロキシ&インテグレーション>外部上位プロキシの構成>定義された機能において上位プロキシをバイパスする」
⇒有効化されている場合には、無効化を行います。
../_images/es2305_verboseconfig22.jpg

▼Votiro(オンプレ)の利用設定

Votiroを利用する場合は、オンプレミスのVotiroサーバを用意する必要があります。

Sasa GateScanner(クラウド)を利用しない要件の環境の場合には、オンプレミスのVotiroサーバを利用いただくことが可能となります。Votiroサーバの構築手順については、「 5.9. Votiroインストール手順 」を参照ください。

1:「設定>ファイル&サニタイズ」にて以下設定を行います。

ファイルサニタイズベンダー : Votiro
ファイルサニタイズURLs :http://<お客様環境でご利用のVotiroサーバーアドレス>/SDSService/v3
../_images/es2305_verboseconfig23.jpg

2:Defaultポリシーのダウンロード設定にて利用するVotiroポリシーを有効とします。

「ポリシー>デフォルト-全て>ファイル操作>ファイルダウンロードの検査」にて、Votiroポリシー[Shield (Def)]を設定して保存します。

../_images/es2305_verboseconfig24.jpg

3:外部上位プロキシの設定にてバイパス設定が有効化されていることを確認します。

「設定>プロキシ&インテグレーション>外部上位プロキシの構成>定義された機能において上位プロキシをバイパスする」
⇒無効化されている場合には、有効化を行います。
../_images/es2305_verboseconfig25.jpg

▼Opswat MetaDefender(オンプレ)の利用設定

Opswatを利用する場合は、オンプレミスのOpswatサーバを用意する必要があります。Opswatを利用される場合の設定方法(参考)は以下の通りとなります。

1:「設定>ファイル&サニタイズ」にて以下設定を行います。

ファイルサニタイズベンダー:Opswat MetaDefender
ファイルサニタイズURLs:http(s):// <お客様環境でご利用のOpswatサーバーアドレス>:8008
アクティベーションキー:<お客様環境でご利用のOpswatサーバでのアクティベーションキー>
※アクティベーションキーが不要な場合には、空で設定。
../_images/es2305_verboseconfig26.jpg

2:「Opswat Namedポリシー」にOpswatサーバ側で作成済みのOpwatポリシーを登録します。

以下、弊社Opswat環境の例:

../_images/es2305_verboseconfig27.jpg

3:Defaultポリシーのダウンロード設定にて利用するOpswatポリシーを有効とします。

「ポリシー>デフォルト-全て>ファイル操作>ファイルダウンロードの検査」にて、 利用するOpswatポリシーを設定して保存します

../_images/es2305_verboseconfig28.jpg

4:外部上位プロキシの設定にてバイパス設定が有効化されていることを確認します。

「設定>プロキシ&インテグレーション>外部上位プロキシの構成>定義された機能において上位プロキシをバイパスする」
⇒無効化されている場合には、有効化を行います。
../_images/es2305_verboseconfig29.jpg

ファイル&サニタイズの設定2

「サニタイズファイルサイズ超過代替ポリシー」設定を「アンチウイルス」から推奨値の「ブロック」に変更してください。

「設定>ファイル&サニタイズ>サニタイズファイルサイズ超過代替ポリシー」:

../_images/es2305_verboseconfig30.jpg

セッション管理の設定

・「リモートブラウザの最小待機セッション数」設定を、デフォルト値(10)から変更をお願いします。
⇒「リソース>セッション管理>リモートブラウザの最小待機セッション数」
※ 推奨値としては、ダッシュボード上に表示されている「ブラウザ容量」値の約3分の1となります。実運用にて朝や夕方の利用者が多いタイミングで待機ブラウザ数が枯渇する場合には、必要に応じて、こちらの設定値の値を増やしてください。(例:「最大100」の場合:「34」に変更)

・「リモートブラウザ待機閾値」と「ダイナミックス待機リモートブラウザセッション数」は、「 1 」が推奨設定値となりますので、デフォルト値から変更をお願いします。
⇒「リソース>セッション管理>リモートブラウザ待機閾値」
⇒「リソース>セッション管理>ダイナミックス待機リモートブラウザセッション数」
../_images/es2305_verboseconfig31.jpg

負荷管理の設定

Ver23.05では、最大容量閾値について、デフォルト値から変更する必要があります。

「リソース>負荷管理>最大容量閾値(%)」

../_images/es2305_verboseconfig32.jpg

BrowserサーバのCPUコア数により変更する値が異なりますので、以下の通り、変更してください。

  • POCシステム要件「CPU: 16 Core」 の場合: 41%
  • 通常システム要件「CPU: 36 Core」 の場合: 59%

こちらの変更を行うことで、ダッシュボード上に表示されている「ブラウザ容量」値が推奨値に変更されます。

ネイティブアプリケーションの設定

デフォルト設定では、Ericom Shield経由のアプリケーション通信は、「認証:No」「アクション:許可」となっております。こちらの設定の場合には、アプリケーションからの通信は全て許可される動きとなります。アプリケーションからの通信を「拒否」としたい場合には、以下の画像のように、デフォルト設定にて「アクション:拒否」に変更をお願いします。

../_images/es2305_verboseconfig33.jpg

上位プロキシ証明書のインポート設定

上位プロキシにてSSLデコードを行っているネットワーク環境である場合、上位プロキシの証明書についてインポートする必要があります。

※インポートしない場合、証明書の警告メッセージが表示される状態となります。

「設定>SSL>カスタム信頼された証明書」にて証明書を選択して保存を行うことでインポートを行います。

../_images/es2305_verboseconfig34.jpg

※ ポリシーで非分離(検査やSSLインスペクション無しで許可)」に設定されたドメインにアクセスする場合、Shieldブラウザを経由しないため、インポートした証明書は利用されません。必要に応じてクライアントPCにも上位プロキシの証明書をインポートしてください。

ntp.msn.comドメインのホワイト設定

ntp.msn.comドメインは、EdgeのデフォルトホームのURLです。

Shield経由でこのドメインへアクセスされると、1アクセスしただけで複数のブラウザコンテナが使用されることがあります。また、定期的な更新が行われており意図せずブラウザコンテナが消費されるため、このドメインをホワイト登録することを強くお奨めいたします。

Shield管理コンソール>ポリシー設定から、「ドメイン:ntp.msn.com」を「アクセス:検査もしくは、SSLインスペクション無しで許可」で登録することでホワイト設定されます。

../_images/es2305_verboseconfig35.jpg

注意

ntp.msn.comドメイン以外でも、同様に意図せずブラウザコンテナを消費するドメインが見つかった場合は、それらのドメインもホワイト登録をお奨めいたします。.

5.4.6. Shield監視ログ収集スクリプトを設置

こちらは、Ericom Shieldの動作状態に関するログを定期的に出力することで、正常性確認や障害発生時に後追いでログから調査を可能とするためスクリプトとなります。全てのShieldサーバを対象に、設置いただくことを推奨します。

設置方法の詳細はAPPENDIXの「 8.4. Shield監視ログ収集スクリプトついて 」をご参照ください。

5.4.7. クライアントからのアクセス

アクティベーションが完了すると、EirocmShieldが利用いただける状態となります。ご利用にあたって、クライアントPCで下記2点の設定が必要となります。

Shield証明書のインストール

EricomShieldではHTTPS通信をSsl-Bumpで通信内容を解析しているため、クライアントPC上にEirocmShieldの証明書をインポートする必要があります。

証明書は企業独自の証明書を利用することも可能です。証明書の配布の方法も複数ありますが、 こちらではビルドインEricomShieldの自己署名証明書をクライアントPC上に導入する手順を記載します。

1:証明書をダウンロード

以下の2つの方法のどちらかでダウンロードを行います。

方法1:
  「http://install-certificate/」にShieldプロキシ(3128)経由でアクセスを行い、「Download」リンクから証明書のダウンロードを行う。
../_images/es2305_verboseconfig36.jpg
方法2:
  Shield管理コンソールにログインを行い、「サービス>Shield SSL証明書のダウンロード」リンクから証明書のダウンロードを行う。
../_images/es2305_verboseconfig37.jpg

証明書は「ericomshield .crt」のファイル名でダウンロードされます。

2:証明書(ericomshield.crt)をインポート

ダウンロードいただいた証明書を、各ユーザに配布を行い、「信頼されたルート証明書機関」に各自でインポートを行っていただくか、グループポリシーを利用してPC上の「信頼されたルート証明書機関」にインポートを行う等で配布を行ってください。

正しく証明書のインポートが完了するとEricomShieldの分離ブラウザ経由でWeb閲覧が利用可能な状態となります。

※証明書インポート後は、一度、ブラウザを再起動する必要があります。

プロキシ設定の変更

クライアントPCからのWebアクセスをEricom Shield経由とするために、クライアントPC上から接続するプロキシ先をEricom Shieldのプロキシに変更します。

▼Ericom Shieldのプロキシ

<SystemComponent役割を持つサーバIP>:3128
※ PACファイルでの指定でも問題ありません。

ブラウザのPDFドキュメントを開く際の挙動について設定を変更

EricomShieldでの印刷動作の仕様として、Shield(仮想)ブラウザ上でWebページをPDF化した後に、クライアントPC側ブラウザで受信して印刷を行う動きとなっている関係で、ブラウザ側の設定で「PDFをダウンロードする」設定となっている場合に、印刷プレビューが表示されずに印刷ができない問題が発生します。

ご利用のブラウザ設定にてPDFドキュメントを「ブラウザで開く」設定となっているか確認を行い必要に応じて変更を行ってください。

  • Chromeでの該当設定
    chrome://settings/content/pdfDocuments
  • Edgeでの該当設定
    edge://settings/content/pdfDocuments
※ FireFoxでの該当設定に関するドキュメント
https://support.mozilla.org/ja/kb/view-pdf-files-firefox-or-choose-another-viewer