顯示文章

這裡允許您檢視這個會員的所有文章。請注意, 您只能看見您有權限閱讀的文章。


文章 - netman

頁: [1] 2 3 ... 499
1
Linux 討論版 / Re: ssh login 認證加密問題
« 於: 2019-07-16 20:38 »
有具體的錯誤訊息或log嗎?

2
Linux 討論版 / Re: dns備援伺服器的設定
« 於: 2019-07-08 21:15 »
named[7962]: zone XXX.edu/IN: loaded serial 158
上面這行就看得到 serial 是 158
或是,簡單些,你修改 master 上面的 record,然後將 dns server 指定 slave 看看是否能看到?

3
firewall?
netstat 看到的 port 是 listen 在 0.0.0.0 上面嗎?

4
Linux 討論版 / Re: 用户组权限
« 於: 2019-07-07 22:20 »
logout 再 login 一次呢?

5
Linux 討論版 / Re: dns備援伺服器的設定
« 於: 2019-07-07 22:18 »
如果 zone 有載入,且 serail 有跟 master 同步,那就是OK了。

6
節省哥好! 歡迎光臨^_^

7
MIS 討論區 / Re: 打造個人雲端系統
« 於: 2019-06-27 19:29 »
可以說說怎麼做嗎?

8
Linux 討論版 / Re: 關於dns反解問題
« 於: 2019-06-27 19:28 »
我猜應該是保留給 private network 的就不能 delegate 了...
雖然我沒再去測試了,我猜 16 之於 172.in-addr.arpa 應該也是如此。

9
Linux 討論版 / Re: 關於dns反解問題
« 於: 2019-06-26 16:28 »
嗯.... 看來真如大大猜測那樣,似乎是 bind 的限制。
我針對 192.in-addr.arpa 測試如下 PTR:
1.100.168 IN PTR node1.test.lab.
1.100.111 IN PTR node1.test.lab.
1.100 IN PTR node1.test.lab.
1 IN PTR node1.test.lab.
就只有第一筆查不到,其他都可以... Orz

10
Linux 討論版 / Re: 關於dns反解問題
« 於: 2019-06-26 16:18 »
忍不住動手裝了一個 bind 來測試...

看起來似乎不允許超過一個小數點的 PTR record?
我再試試其他方法...

11
Linux 討論版 / Re: 關於dns反解問題
« 於: 2019-06-26 16:06 »
OK, 那把 zone file 搬回來吧...
暫時把 slave 的  NS 拿掉,保持單一環境來測試
然後再確定 log 跟  dig

12
Linux 討論版 / Re: 關於dns反解問題
« 於: 2019-06-25 20:09 »
不對啊,你上次的 log 就是 168.192.in-addr.arpa 這個 zone 了呢...

你修改回昨天的,但將 twcc.wan.192 移到別處(讓bind抓不到)
重新啓動後用 dig 查一下  NS 跟 SOA ?

13
Linux 討論版 / Re: 關於dns反解問題
« 於: 2019-06-24 20:22 »
;; AUTHORITY SECTION:
168.192.in-addr.arpa.   86400   IN      SOA     168.192.in-addr.arpa. . 0 28800 7200 604800 86400

SOA 不對阿...
先看看 log 有沒載入正確的 zone ?

14
Linux 討論版 / Re: 關於dns反解問題
« 於: 2019-06-22 16:17 »
與 class 無關,如果你的反解 zone 是 172.in-addr.arpa.
那你第一筆的 record 要這樣設:
161.79.17 IN PTR your.forward.dns.name.
(請注意有沒有結尾的小數點)

15
將 redirection 的命令寫進 carte.sh 裏面呢?

16
先看看 log :

grep named /var/log/messages

17
如果 -i 後面沒設定,預設就是 {} , 不能隨便換哦...

kenny@linux-7vt3:~$ echo XXX | xargs -i echo aaaa {} bbb
aaaa XXX bbb
kenny@linux-7vt3:~$ echo XXX | xargs -i'--' echo aaaa -- bbb
aaaa XXX bbb
kenny@linux-7vt3:~$ echo XXX | xargs -i'-' echo aaaa - bbb
aaaa XXX bbb
kenny@linux-7vt3:~$ echo XXX | xargs -i'-' echo aaaa - bbb -
aaaa XXX bbb XXX

18
主機板電池可以換嗎?

19
我還真的沒遇到過呢...
不知道換 centos 試試會如何?

20
Linux 討論版 / Re: 关于磁盘分区的问题
« 於: 2019-05-29 20:29 »
如果全部砍光,重頭到尾只設一個分區呢?可以用到全保空間嗎?
亂砍沒關係,只要最後不要按 w 都行...
就算按了 w ,如果你照着原來的數字一模一樣重建,都還是沒影響的。

21
Linux 討論版 / Re: 关于磁盘分区的问题
« 於: 2019-05-28 19:49 »
繼續切就對了.... 不過已經切了3個 primary 分區了,可做的選項:
1. 剩下都全切給最後一個 primary
2. 剩下的全切給 extended, 然後再裏面切多個 logical

22
只要是 Hoyo 大講的都好,講什麼不重要!

23
Study-Area 公開討論版 / Re: 您好,酷学园
« 於: 2019-05-28 19:45 »
歡迎阿!

24
Windows 討論版 / Re: 关于parted分区
« 於: 2019-05-16 19:13 »
lsblk 先看看有哪些磁碟?

25
Linux 討論版 / Re: smtp with sasl & ssl/tls
« 於: 2019-05-13 23:05 »
先不管telnet,直接在 client 端安裝 cacert 看看?

27

Building a CEPH cluster with SSD cache

Author: netman<netman@study-area.org>
Date: 2019-05-09


1. 環境
  網路: 192.168.100.0/24
  作業系統:CentOS 7.6 (1810), 安裝套件: Server with GUI
  主機:
   node1: 192.168.100.21
   node2: 192.168.100.22
   node3: 192.168.100.23
   srv1:  192.168.100.1 (不參與 ceph cluster, 單純用來操作 ceph 部署)
  硬碟:
   node1:
      sda (SSD, 作 cache 用)
      sdb (HDD, 做 ceph storage 用)
   node2:
      sda (SSD, 作 cache 用)
      sdb (HDD, 做 ceph storage 用)
   node3:
      sdd (SSD, 作 cache 用)
      sdc (HDD, 做 ceph storage 用)



2. 必要前提條件
2.1 srv1 可以免用密碼直接 ssh 到三個 node 以 root 身份執行命令
2.2 全部主機關閉 firewalld 與 selinux
2.3 全部主機 /etc/hosts 都有彼此的名稱解析 (或透過 DNS)
2.4 全部主機執行過 yum update -y 更新到最新狀態
2.5 於所有主機安裝 epel repo:
   yum install -y https://dl.fedoraproject.org/pub/epel/epel-release-latest-7.noarch.rpm



3. 執行安安裝與建置
(以下操作均於 srv1 完成)

# 建立 ceph-deploy repo
cat << EOM > /etc/yum.repos.d/ceph-deploy.repo
[ceph-noarch]
name=Ceph noarch packages
baseurl=https://download.ceph.com/rpm-mimic/el7/noarch/
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://download.ceph.com/keys/release.asc
EOM

# 安裝 ceph-deploy
yum install -y ceph-deploy

# 建立安裝目錄
mkdir my-cluster
cd my-cluster

# 建立初始 ceph.conf
cat > ceph.conf <<END
[global]
fsid = c8678875-c948-4d5c-b349-77868857150e
mon initial members = node1,node2,node3
mon host = 192.168.100.1,192.168.100.2,192.168.100.3
auth cluster required = cephx
auth service required = cephx
auth client required = cephx
public network = 192.168.100.0/24
END

# 開始安裝
ceph-deploy install node1 node2 node3
ceph-deploy new node1 node2 node3
ceph-deploy mon create-initial
ceph-deploy admin node1 node2 node3
ceph-deploy mgr create node1 node2 node3
ceph-deploy mds create node1 node2 node3

# 確認所有主機可以執行 ceph -s 並確認狀態 OK
ssh node1 ceph -s
ssh node2 ceph -s
ssh node3 ceph -s

# 查看 node1 硬碟並確認磁碟名稱
ssh node1 lsblk

# 初始化 node1 硬碟
ceph-deploy disk zap node1 /dev/sda
ceph-deploy disk zap node1 /dev/sdb
ceph-deploy osd create --data /dev/sda node1
ceph-deploy osd create --data /dev/sdb node1

# 確認 node1 硬碟結果
ssh node1 lsblk

# 初始化 node2 硬碟:
ssh node2 lsblk
ceph-deploy disk zap node2 /dev/sda
ceph-deploy disk zap node2 /dev/sdb
ceph-deploy osd create --data /dev/sda node2
ceph-deploy osd create --data /dev/sdb node2
ssh node2 lsblk

# 初始化 node3 硬碟:
ssh node3 lsblk
ceph-deploy disk zap node3 /dev/sdd
ceph-deploy disk zap node3 /dev/sdc
ceph-deploy osd create --data /dev/sdd node3
ceph-deploy osd create --data /dev/sdc node3
ssh node3 lsblk


4. 設定 ceph cluster
# 以下操作在 node1 完成 (事實上在 cluster 中任何 node 中執行都可以)
ssh node1

# 確認 osd 狀態
ceph -s

# 計算 pg num
echo '(3*100)/3/6' | bc
## 公式:Total PGs = ((Total_number_of_OSD * 100) / max_replication_count) / pool_count
## 說明:環境中有總共6顆硬碟(3 x SSD + 3 x HDD),但因爲 SSD 會拿來做 cache 用,
##   因此我不太確定這裏應該用 3 個 OSD 還是 6 個?我先假設 3 個。
##   pool 的數量我這裏先假設 6 個
##    計算結果爲 16,但我在 HDD storage 中將調高爲 32

# 確認 osd class (應該會自動分配爲 ssd 與 hdd)
ceph osd crush class ls
ceph osd tree

# 建立 class rule
ceph osd crush rule ls
ceph osd crush rule create-replicated rule-ssd default host ssd
ceph osd crush rule create-replicated rule-hdd default host hdd
ceph osd crush rule ls

# 建立 ceph pool
## 說明:這裏我暫時不打算直接建 rbd 來使用,而是建立 cephfs 以 mount 的方式共享到全部主機,
##   一個 cephfs 需要兩個 pool: data-pool 與 metadata-pool, 名稱可以隨意命名,
##   我這裏打算將 metadata-pool 直接建在 SSD 上,而 data-pool 則設定爲使用 SSD 作 cache,
##   使用 SSD cache 是 ceph tier 的功能,有很多可以細調的地方,我這裏就全部略過了...
##   再來,我這裏規劃會建立兩個 ceph fs ,因此必須啓動 ceph fs 旗標 enable_multiple,
##   因此,我的 HDD storage 將會建立兩個 pool,但 SSD 則會建立四個 pool。

# 啓動旗標
ceph fs flag set enable_multiple true --yes-i-really-mean-it

# 建立第一個 cephfs
# 在 SSD 建 cache
ceph osd pool create fs1cache 16 16 rule-ssd
# 在 HDD 建 data-pool
ceph osd pool create fs1data 32 32 rule-hdd
# 在 SSD 建 metadata-pool
ceph osd pool create fs1metadata 16 16 rule-ssd
# 建 SSD cache
ceph osd tier add fs1data fs1cache
# 設定 cache 模式
ceph osd tier cache-mode fs1cache writeback
# 設定 cache hit_set_type
ceph osd pool set fs1cache hit_set_type bloom
# 建立 cephfs
ceph fs new fs1 fs1metadata fs1data

# 建立第二個 cephfs
ceph osd pool create fs2cache 16 16 rule-ssd
ceph osd pool create fs2data 32 32 rule-hdd
ceph osd pool create fs2metadata 16 16 rule-ssd
ceph osd tier add fs2data fs2cache
ceph osd tier cache-mode fs2cache writeback
ceph fs new fs2 fs2metadata fs2data

# 確認 pool 數量與名稱
ceph -s
ceph osd lspools


5. 掛載 CEPH FileSystem

# 以下在 node 1 執行
ssh node1

# 建立掛載點
mkdir /cepffs1 /cephfs2

# 提取 admin secret
awk '/key = /{print $NF}' /etc/ceph/ceph.client.admin.keyring > /etc/ceph/admin.secret

# 修改 fstab
# 說明: 我這裏的設計是,每一主機不直接連接自己的服務,而是分散連接其他主機。
#   由於是同一 ceph 節點下使用兩個不同的 fs,所以必須在 options 中以 mds_namespace 來指定 fs name
cat >>/etc/fstab << END
192.168.100.22:6789,192.168.100.23:6789:/ /cephfs1 ceph name=admin,secretfile=/etc/ceph/admin.secret,noatime,_netdev,mds_namespace=fs1 0 0
192.168.100.22:6789,192.168.100.23:6789:/ /cephfs2 ceph name=admin,secretfile=/etc/ceph/admin.secret,noatime,_netdev,mds_namespace=fs2 0 0
END

# 執行掛載(確認沒有 error)
mount -a

# 確認掛載
# 注意:如果用 df 命令只能看到其中一筆而已
mount

# 退出 node1
exit


# 以下在 node 2 執行
ssh node2
mkdir /cepffs1 /cephfs2
awk '/key = /{print $NF}' /etc/ceph/ceph.client.admin.keyring > /etc/ceph/admin.secret
cat >>/etc/fstab << END
192.168.100.21:6789,192.168.100.23:6789:/ /cephfs1 ceph name=admin,secretfile=/etc/ceph/admin.secret,noatime,_netdev,mds_namespace=fs1 0 0
192.168.100.21:6789,192.168.100.23:6789:/ /cephfs2 ceph name=admin,secretfile=/etc/ceph/admin.secret,noatime,_netdev,mds_namespace=fs2 0 0
END
mount -a
mount
exit


# 以下在 node 3 執行
ssh node3
mkdir /cepffs1 /cephfs2
awk '/key = /{print $NF}' /etc/ceph/ceph.client.admin.keyring > /etc/ceph/admin.secret
cat >>/etc/fstab << END
192.168.100.21:6789,192.168.100.22:6789:/ /cephfs1 ceph name=admin,secretfile=/etc/ceph/admin.secret,noatime,_netdev,mds_namespace=fs1 0 0
192.168.100.21:6789,192.168.100.22:6789:/ /cephfs2 ceph name=admin,secretfile=/etc/ceph/admin.secret,noatime,_netdev,mds_namespace=fs2 0 0
END
mount -a
mount
exit

#---- END ----#


28
首先,你得有目標電腦的遠端帳號密碼。也就是您先用 ssh 連線確定是可以使用密碼的。
然後再將 ssh 換成 ssh-copy-id  這樣來複製 key 就好。

29
不同版本可能有不同的實作。
一般來說,default.target 也只不過是一個 soft link 文件而已。

30
Linux 討論版 / Re: shell脚本中的PATH问题
« 於: 2019-04-29 20:09 »
環境變量的問題,也建議您先搜尋一下“shell 十三問”,看完會比較有概念。
簡單來說,shell script 自己定義 PATH 的原因一般有兩個:
1. 不想繼承當前 shell 的 PATH
2. 確保 script 所用的 PATH 有被定義到

頁: [1] 2 3 ... 499