顯示文章

這裡允許您檢視這個會員的所有文章。請注意, 您只能看見您有權限閱讀的文章。


文章 - xxkuo

頁: [1] 2
1
工作機會 / [誠徵] 跨越科技-網頁工程師
« 於: 2011-04-01 16:29 »
1. 熟悉php, jquery開發
2. 熟Linux作業系統(有開發過gtk應用程式尤佳)
3. 公司地點:高雄軟體園區。

連絡方式: 請將履歷寄至 email: xxkuo AT transtep.com 郭先生收

2
沒啦,我是小白.............兔~~ ^_^

這麼久了, 還沒染黑, 真不簡單!

3
路過, 協助一下, 是不是可能沒有ou:xxx的原因, 在此例, 似乎不用這個objectClass: organizationalUnit,
但用了, 我想就要乖乖的加上ou屬性吧。

不知道對不對..., 外行:)

4
好康報報 / [輕鬆一下] 在家唱KTV。
« 於: 2009-02-02 17:05 »
【軟體名稱】:K歌情人卡拉OK系統 v1.9.2
【軟體分類】 : 媒體影音
【軟體性質】:免費
【檔案大小】:5.8 MB
【放置空間】:官網
【解壓密碼】:無
【軟體介紹】:在家唱KTV

K歌情人功能特色
特色功能 - 智慧型一鍵匯歌、軟體自動升級、按鍵音效、自定遙控器、網路磁碟。
進階功能 - 升降Key、原/伴切換、男調女調、單/雙螢幕、錄音、A-B歌曲學習。
基本功能 - 插播、音量、暫停、播放、快轉、倒轉、重唱、刪歌、待機播放。
點播功能 - 注音、字數、筆劃、歌星、語系、點播排行、合唱、新進、最愛、編號。
其他功能 - 歌本產生器、歌庫維護、歌星相片、佈景主題、相簿。

下載 : http://ksonglover-installer.homeip.net

5
引述: "日京三子"
引述: "duncanlo"
對...就是這一家的系統! 他們已賣那系統已很久了...


Duncanlo,不會說,你們家也是這個啊?  這可巧了....

不過,小弟想請教一下,有辦法將他們家的系統(鼎X),平安的轉移成Linux平台嗎?

SCO真的有夠難用.....不習慣!


這文章好久了, 不過, 本人還是踫到了..., 聽說鼎x的真的不維護了, 叫人換系統, 要120萬..., 天價..., 十年前買也要110, 現在叫人換......., 所以現在找上我這個勞工, 打算省下天價!!

不會吧, 當初的光碟讀不出來了, 什麼 3.5的FOXBASE+ 2.1 也讀不到了...., 只剩機器上的Binary..., 我看我有得搞了...一開始..., 也有此打算轉到Linux, 不過視乎FOXBASE+2.1要在linux上跑很難:(..., 因為連source code 都沒有....想哭...

我看還是試試原來的環境算了...

6
Network 討論版 / 關於 bonding 一問!
« 於: 2004-11-23 15:20 »
引述: "xxkuo"
引述: "ZMAN"
大約三年前我們台北幫第一次聚會談網路卡部分
來上課的都說要回去試LINUX上的TEAMING實作
(那時某人說他有INTEL的SERVER卡 沒有的我也可以借)
結果不知不覺三年過去了
沒有半個人把實作分享出來
唉....


最新報告: 成功

代碼: [選擇]

1362:throughput:                          42687320 B/sec        <<<<<<<
        eth0:rx:  12419334 tx:   7444014 B/sec
        eth1:rx:  10417578 tx:  12406394 B/sec
1363:throughput:                          42132838 B/sec        <<<<<<<
        eth0:rx:  12421180 tx:   7147266 B/sec
        eth1:rx:  10139358 tx:  12425034 B/sec
1364:throughput:                          43277032 B/sec        <<<<<<<
        eth0:rx:  12420804 tx:   7695404 B/sec
        eth1:rx:  10754772 tx:  12406052 B/sec
1365:throughput:                          42220756 B/sec        <<<<<<<
        eth0:rx:  12433446 tx:   6872202 B/sec
        eth1:rx:  10474184 tx:  12440924 B/sec
1366:throughput:                          43298562 B/sec        <<<<<<<
        eth0:rx:  12417506 tx:   7995106 B/sec
        eth1:rx:  10475724 tx:  12410226 B/sec

400Mb的速度可達到,將近340Mb速度真實速度,
我相信可以滿載的(我只用了二台client)




可能是因為環境不好搞吧!
現在才覺得iANS與bonding的行為差異很大!

bonding好搞是因為cross over的環境就可以試了,
但iANS, 不能用cross over來玩, 完全看不出效果!

一定要配合LAgP或LACP的Switch才行玩,
而且還要有"鬼刪刪"的intel server級網卡才行,
另須要有多台client來協同測試會正確!

設定與我的發問時相同!

目前想再去借台6xxx系列的CISCO的來試試LACP



如果有了6xxx的, 就可以試4G(GEC)的速度, 而不是400M(FEC):)

7
Network 討論版 / 關於 bonding 一問!
« 於: 2004-11-23 14:50 »
引述: "ZMAN"
大約三年前我們台北幫第一次聚會談網路卡部分
來上課的都說要回去試LINUX上的TEAMING實作
(那時某人說他有INTEL的SERVER卡 沒有的我也可以借)
結果不知不覺三年過去了
沒有半個人把實作分享出來
唉....


最新報告: 成功

代碼: [選擇]

1362:throughput:                          42687320 B/sec        <<<<<<<
        eth0:rx:  12419334 tx:   7444014 B/sec
        eth1:rx:  10417578 tx:  12406394 B/sec
1363:throughput:                          42132838 B/sec        <<<<<<<
        eth0:rx:  12421180 tx:   7147266 B/sec
        eth1:rx:  10139358 tx:  12425034 B/sec
1364:throughput:                          43277032 B/sec        <<<<<<<
        eth0:rx:  12420804 tx:   7695404 B/sec
        eth1:rx:  10754772 tx:  12406052 B/sec
1365:throughput:                          42220756 B/sec        <<<<<<<
        eth0:rx:  12433446 tx:   6872202 B/sec
        eth1:rx:  10474184 tx:  12440924 B/sec
1366:throughput:                          43298562 B/sec        <<<<<<<
        eth0:rx:  12417506 tx:   7995106 B/sec
        eth1:rx:  10475724 tx:  12410226 B/sec

400Mb的速度可達到,將近340Mb速度真實速度,
我相信可以滿載的(我只用了二台client)




可能是因為環境不好搞吧!
現在才覺得iANS與bonding的行為差異很大!

bonding好搞是因為cross over的環境就可以試了,
但iANS, 不能用cross over來玩, 完全看不出效果!

一定要配合LAgP或LACP的Switch才行玩,
而且還要有"鬼刪刪"的intel server級網卡才行,
另須要有多台client來協同測試會正確!

設定與我的發問時相同!

目前想再去借台6xxx系列的CISCO的來試試LACP

8
Network 討論版 / 有反應了
« 於: 2004-11-23 10:00 »
代碼: [選擇]


ps:以下是以100Mb的速度測試

141:throughput:                   25206516 B/sec        <<<<<<<
        eth0:rx:  12422380 tx:    326634 B/sec
        eth1:rx:         0 tx:  12457502 B/sec
142:throughput:                   25246092 B/sec        <<<<<<<
        eth0:rx:  12425924 tx:    357832 B/sec
        eth1:rx:         0 tx:  12462336 B/sec
143:throughput:                   25232578 B/sec        <<<<<<<
        eth0:rx:  12422170 tx:    350594 B/sec
        eth1:rx:         0 tx:  12459814 B/sec
144:throughput:                   25244912 B/sec        <<<<<<<
        eth0:rx:  12422790 tx:    363690 B/sec
        eth1:rx:         0 tx:  12458432 B/sec
145:throughput:                   30030174 B/sec        <<<<<<<



有進展,多個client測試結果, 似乎是可以工作正常,
在switch端我有使用PAgP Channel-group,
在我機器則用SLA(static link aggregation)
因CISCO 2950沒有LACP功能(802.3ad)

結論: 應要有許多的client才看得出效果,
進一步測試中..., 接收還有一個掛零
有一點值得注意, driver須要有一段時間(約2分鐘)
來檢測, 來進行load balance!

9
Network 討論版 / 關於 bonding 一問!
« 於: 2004-11-19 18:48 »
引述: "ZMAN"
SERVER BOARD上的網路晶片和SERVER等級的網路晶片是不同的
這也是我會說有很大的機會是不支援的
看INTEL的SPEC那顆晶片組是不支援的


這我有懷疑過, 不過在主板的規格是說
INTEL PRO/1000+ SERVER ADAPTER沒錯...

不過, 現在我還是還是申請一張SERVER ADAPTER的PCI介面卡來試試
比較直接, 還是有誰可以借給我試試 :) !!

頭真痛!

10
Network 討論版 / 關於 bonding 一問!
« 於: 2004-11-19 17:24 »
引述: "ZMAN"
引述: "xxkuo"
引述: "ZMAN"
因為我已經離開INTEL的領域很多年了
我只能大概給你一些方向

第一如果是1000和100的卡片混合使用只能使用AFT
第二在不同的平台上相關的功能會有所縮減或限制
        簡單的說在WINDOWS平台所有功能都有
        但是到了LINUX可能會少一些 FREEBSD可能又更少
第三所有的想法要完全擺脫實體網卡 以虛擬的為準


謝謝Z大,

ps:混合使用, ALB及RLB(Adaptive/Receive Load Balancing)應也可支援

目前我朝我的網卡問題著手,
可能我主機板(伺服器級)上附的GIGABIT的網卡, 或許不是Server Adapter...
雖然業務說是..., 現在從上面的晶片編號查詢中...

努力...加油中... :oops:


混合能不能用其他功能
以前是不行 現在我不是很清楚
那年代能混合用AFT已經是獨規很好綁規格了 嘻嘻

SERVER上的網路晶片組有很大的機率是不支援的


我上面貼的link中這份文件有提到是可以的...(現在)  :)

我的主機板是個server級的晶片, 82546EB... :(

天啊....

11
Network 討論版 / 關於 bonding 一問!
« 於: 2004-11-19 16:01 »
引述: "ZMAN"
因為我已經離開INTEL的領域很多年了
我只能大概給你一些方向

第一如果是1000和100的卡片混合使用只能使用AFT
第二在不同的平台上相關的功能會有所縮減或限制
        簡單的說在WINDOWS平台所有功能都有
        但是到了LINUX可能會少一些 FREEBSD可能又更少
第三所有的想法要完全擺脫實體網卡 以虛擬的為準


謝謝Z大,

ps:混合使用, ALB及RLB(Adaptive/Receive Load Balancing)應也可支援

目前我朝我的網卡問題著手,
可能我主機板(伺服器級)上附的GIGABIT的網卡, 或許不是Server Adapter...
雖然業務說是..., 現在從上面的晶片編號查詢中...

努力...加油中... :oops:

12
引述: "xxkuo"
引述: "xxkuo"
目前我想再插一張卡, 二台PC各三張再試試!
會不會有一張須要當主控才行...
(不過, 我可能換成100的速度試, 沒有多餘的GIGABIT的卡了)
:)

"發四"一定試出不可!!

PS:謝謝Z大的支援  :o


 :cry:

還是一樣, 三張只有一張運作(傳送), 還是沒有Load Balance

沒法子了 :(



以下每秒的傳輸

代碼: [選擇]

1046:throughput:                         107231332 B/sec        <<<<<<<
        eth1:rx:    345450 tx:         0 B/sec
        eth2:rx:    345520 tx: 106540362 B/sec
1047:throughput:                         107607062 B/sec        <<<<<<<
        eth1:rx:    350910 tx:         0 B/sec
        eth2:rx:    350770 tx: 106905382 B/sec
1048:throughput:                         107111302 B/sec        <<<<<<<
        eth1:rx:    347970 tx:         0 B/sec
        eth2:rx:    348110 tx: 106415222 B/sec
1049:throughput:                         110270822 B/sec        <<<<<<<
        eth1:rx:    336070 tx:         0 B/sec
        eth2:rx:    343700 tx: 109591052 B/sec
1050:throughput:                         103040750 B/sec        <<<<<<<
        eth1:rx:    292180 tx:         0 B/sec
        eth2:rx:    283360 tx: 102465210 B/sec
1051:throughput:                         110544772 B/sec        <<<<<<<

eth1 都掛零


13
引述: "xxkuo"
目前我想再插一張卡, 二台PC各三張再試試!
會不會有一張須要當主控才行...
(不過, 我可能換成100的速度試, 沒有多餘的GIGABIT的卡了)
:)

"發四"一定試出不可!!

PS:謝謝Z大的支援  :o


 :cry:

還是一樣, 三張只有一張運作(傳送), 還是沒有Load Balance

沒法子了 :(

14
目前我想再插一張卡, 二台PC各三張再試試!
會不會有一張須要當主控才行...
(不過, 我可能換成100的速度試, 沒有多餘的GIGABIT的卡了)
:)

"發四"一定試出不可!!

PS:謝謝Z大的支援  :o

15
Network 討論版 / 關於 bonding 一問!
« 於: 2004-11-19 13:26 »
引述: "ZMAN"
不知道你建立TEAMING時 MODE是指定什麼
若是沒指定 預設值是AFT 一張WORK 一張STAND-BY


所有的MODE全部都試過了, 利CROSSOVER的線, 或接CISCO C2950-24
也試過,

所有的行為看起來都是AFT的模式..., 檢查過系統狀態都正常,
以下狀態是eth1,eth2做SLA, 使用e1000 ver 5.5.4 driver

二張網卡(eth1,eth2)會不定時切換, 我有寫一支程式來看流量變化,
確定是同時間只有一個在傳送!


代碼: [選擇]

bond0     Link encap:Ethernet  HWaddr 00:30:48:80:3A:CC
          inet addr:10.10.1.41  Bcast:10.255.255.255  Mask:255.255.255.0
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:26658827 errors:2952 dropped:2952 overruns:0 frame:0
          TX packets:316223326 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0
          RX bytes:1868658116 (1782.0 Mb)  TX bytes:3242745494 (3092.5 Mb)

eth0      Link encap:Ethernet  HWaddr 00:02:B3:0C:4D:5F
          inet addr:192.168.20.41  Bcast:192.168.23.255  Mask:255.255.252.0
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:137490 errors:0 dropped:0 overruns:0 frame:0
          TX packets:116674 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0
          RX bytes:11326494 (10.8 Mb)  TX bytes:94916858 (90.5 Mb)

eth1      Link encap:Ethernet  HWaddr 00:30:48:80:3A:CC
          UP BROADCAST RUNNING SLAVE MULTICAST  MTU:1500  Metric:1
          RX packets:13329412 errors:1384 dropped:1384 overruns:0 frame:0
          TX packets:108519140 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0
          RX bytes:934333646 (891.0 Mb)  TX bytes:1508910514 (1439.0 Mb)

eth2      Link encap:Ethernet  HWaddr 00:30:48:80:3A:CC
          UP BROADCAST RUNNING SLAVE MULTICAST  MTU:1500  Metric:1
          RX packets:13329412 errors:1568 dropped:1568 overruns:0 frame:0
          TX packets:207704171 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0
          RX bytes:934324260 (891.0 Mb)  TX bytes:1733812210 (1653.4 Mb)

lo        Link encap:Local Loopback
          inet addr:127.0.0.1  Mask:255.0.0.0
          UP LOOPBACK RUNNING  MTU:16436  Metric:1
          RX packets:140 errors:0 dropped:0 overruns:0 frame:0
          TX packets:140 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0
          RX bytes:16780 (16.3 Kb)  TX bytes:16780 (16.3 Kb)


bash-2.03# ianscfg -s


STATUS:

Module Version          3.4.3
Mux     team0
        Mux State               Active
        Teaming Mode            SLA
        Current Primary         eth2
        Forward Delay           0
        Probes State            disabled
        Mux Speed               2000
        VLAN State              Disabled
        Member  eth1
                Initiator               YES
                Speed                   1000
                Link Status             up
                Priority                no priority
                State                   Active
        Member  eth2
                Initiator               YES
                Speed                   1000
                Link Status             up
                Priority                no priority
                State                   Active
        Vadapter        bond0

dmesg :

Intel(R) Advanced Network Services - Loadable module, ver 3.4.3
Copyright(c) 1999-2004 Intel Corporation
e1000: eth2: e1000_watchdog: NIC Link is Up 1000 Mbps Full Duplex
e1000: eth1: e1000_watchdog: NIC Link is Up 1000 Mbps Full Duplex
  ANS: Member(eth2) of team(team0) - Link was connected.
  ANS: First link in Team (team0) was restored
  ANS: Member(eth1) of team(team0) - Link was connected.
  ANS: Adapter(eth2) activated.
  ANS: Adapter(eth1) activated.


16
Network 討論版 / 關於 bonding 一問!
« 於: 2004-11-19 12:18 »
引述: "ZMAN"
INTEL網卡如果是伺服器等級本身就支援多張協同運作
你可讓CISCO和INTEL直接跑 802.3ad 即可(或之前的FAST ETHERCHANNEL)
如果是PC等級的才需要搞BONDING


Intel的網卡是伺服器等級的, 也要載入iANS才行吧!
為何我利用iANS的Driver Module,
所做出來的Vadapter, 傳送資料出去時, 都只有一張在運作?
另一張都掛零?? 如: eth0 為 100M速度傳送, 另一張是掛0, 根本沒有
Load Balance, 明明就是 Mux Speed 200 ??
(我的e100 or e1000的driver 都是符合iANS Module的版本要求)

http://www.intel.com/support/network/adapter/1000/linux/ans.htm


利用bonding Module是沒問題的!

17
Network 討論版 / 關於 bonding 一問!
« 於: 2004-11-17 14:44 »
代碼: [選擇]

目前我有二台機器個接二張intel的網卡
分享插入CISCO SWITCH C2950 24, 有支援PAgP

我希望能得到pc1<--> pc2之間有200M的速度


pc1 - card1 --- port f0/9
    - card2 --- port f0/10

pc2 - card3 --- port f0/11
    - card4 --- port f0/12

pc1及pc2設為 SLA模式(Static Link Aggregation)
二台設定相同(iANS Driver), 狀態如下:

Module Version          3.4.3
Mux     team0
        Mux State               Active
        Teaming Mode            SLA
        Current Primary         eth1
        Forward Delay           0
        Probes State            disabled
        Mux Speed               200
        VLAN State              Disabled
        Member  eth1
                Initiator               YES
                Speed                   100
                Link Status             up
                Priority                primary
                State                   Active
        Member  eth2
                Initiator               YES
                Speed                   100
                Link Status             up
                Priority                secondary
                State                   Active
        Vadapter        bond0


我在switch 端, 設定如下: (IOS command)

Switch(config)#int po1
Switch(config-if)#exit
Switch(config)#int range f0/9 -10
Switch(config-if-range)#channel-group 1 mode desirable

Switch(config)#int po2
Switch(config-if)#exit
Switch(config)#int range f0/11 -12
Switch(config-if-range)#channel-group 2 mode desirable

Switch#sh etherchannel summary
Flags:  D - down        P - in port-channel
        I - stand-alone s - suspended
        H - Hot-standby (LACP only)
        R - Layer3      S - Layer2
        u - unsuitable for bundling
        U - in use      f - failed to allocate aggregator
        d - default port

Number of channel-groups in use: 2
Number of aggregators:           2

Group  Port-channel  Protocol    Ports
------+-------------+-----------+-----------------------------------------------

1      Po1(SD)         PAgP      Fa0/9(I)    Fa0/10(I)
2      Po2(SD)         PAgP      Fa0/11(I)   Fa0/12(I)


請教先進為何都還是Down的狀態,
我試過no shutdown 沒用..., 似乎無效,

這時當然還是100M的速度!

我對CISCO不熟, 還是我的接法根本不對,
有人可能指導一下嗎? 感謝!


18
Network 討論版 / [討論]兩張網卡綁一個IP
« 於: 2004-11-11 16:01 »
引述: "ZMAN"
在使用2張INTEL SERVER ADAPTER以上時
正常來說會選ALB或ALA
不管選ALB或ALA這時AFT是一定有作用

當你的交換器是一般或早期的請選ALB
這時主網卡跑雙工其他子網卡跑單工
系統以主網卡為主
假設四張的話就是進去100出來400

當你的交換器支援FAST ETHERCHANNEL或LINK AGGREGATION或802.3ad
這時可以啟用ALA
所有網卡都跑全雙工
系統以代表所有實體網卡的虛擬網卡為主
假設有四張時就是進去400出來400


請教一下, Switch 需要額外的設定嗎? IOS的command要下什麼呢?
利用Intel的iANS Driver module
做出來的SLA(Static Link Aggregation)沒有效果,
(早期只叫ALA, 現在區分為SLA及802.3ad)
ALB(+RLB)也沒有效果, 測速的結果還是只有100M的速度!

不過利用linux 上的bonding module, 是可以達到收100MB, 送200M的效果!(ALB無RLB功能)

19
引述: "zterry26"
各位大大…
抱歉.目前這台server上只有mail和web
而,web的資料。我已經轉出了。
但是mail我只知道user的name
但是mail的信件我轉到linux後,卻收不到呢
要怎麼處理


有一個很普通的做法, 先將全部的passwd移除, 將所有的password改為一樣, 再請user自己改!!

20
Linux 討論版 / [問題]還是 Samba 的問題
« 於: 2004-07-01 15:20 »
引述: "終極鳥人"
謝謝各位前輩的指導,問題已經解決了...

原來是要連 137:udp, 138:udp, 139:udp 都要開放啊 ~ 我當初只開 137:tcp, 138:tcp, 139:tcp 而已啊 ~


會提XP的防火牆, 是以防萬一, 防火牆雞婆連Destination的port也檔(但機率不高)

恭喜!!

21
Linux 討論版 / [問題]還是 Samba 的問題
« 於: 2004-07-01 10:27 »
引述: "終極鳥人"
我把 137:tcp, 138:tcp, 139:tcp 打開了,還是連不上...
但如果把「信任裝置:eth0」勾選的話,就可以連,這樣會不會不夠安全?

而且出現的不是權限不足,而是



如果是防火牆的問題,
請確定將 udp 及 tcp 的port(137,138,139) 兩端(linux及XP)都要開放才行,
這是最基本的, 請檢查!!

(PS: 問問題時請將語言共通化, 不要讓人去猜你的意思!!)

22
Linux 討論版 / 高人不是已經指點了嗎?
« 於: 2004-06-30 18:18 »
引述: "終極鳥人"
引述: "smeeis"
在[global]加上
guest account = root
因為你分享root 家目錄
在區域設定裡加上
public = yes
或者是
guest = ok


請問一下:

跟 Fedara Core 的防火牆設定、開放的 Port 沒關係嗎?

在 /etc/hosts 中,如果格式是:
127.0.0.1      localhost.localadmin      localhost
那 Windows XP 的電腦的怎麼設定?localhost.localadmin 和 localhost 要根據哪個東東?

麻煩解答一下,謝謝!



高人不是已經指點了嗎?

不用管這些設定,

與防火牆有關, 就把上面的port打開罷了, 至於要怎麼開, 去查查吧!!

23
整理一下:

linux bonding 只有支援以下三種模式:

for round robin, for active-backup, for xor

與硬體的模式有所不同, 但可以對應於以下二種模式(ALA部份我不確定可以), 本人認為可試用在一般低階的Switch上.

引用

1.AFT(Adapter Fault Torence)(希望沒有拼錯好像怪怪的)
假設有兩張網卡時一張是PRIMARY另一張是STANDBY
這時候流量只在PRIMARY上跑
當PRIMARY掛掉時STANDBY會自動啟用接手變成PRIMARY
如果原來PRIMARY恢復時會自動變成STANDBY

2.ALB(Adapter Load Balance)
假設將兩張網路卡設成ALB時
進來流量為100M出去流量為200M
這時候無論接往何種交換器或集線器都可支援
同時間ALB包含容錯功能如果一張網卡故障另一張依然運作
現在INTEL可以做到8張網卡併頻寬


但利用intel公司本身的driver (iANS, Advance Network service), 即可
以真正達到與其他的硬體的配合.

1. Adapter Fault Tolerance (AFT)
2. Switch Fault Tolerance (SFT)
3. Adaptive Load Balancing (ALB), Receive Load Balancing (RLB)
4. Intel Link Aggregation, Cisco*'s Fast EtherChannel* Technology or static
    802.3ad (FEC or FEC/LA/802.3ad: static)
5. Gigabit equivalent of FEC (GEC or GEC/LA/802.3ad: static)
6. IEEE 802.3ad: dynamic (802.3ad).

待俺玩完, 再上來po

24
引述: "xxkuo"
引述: "xxkuo"
我發現我的bond0的資訊為ALB, 如下:

cat /proc/net/bond0/info
Bonding Mode: load balancing (round-robin)


modinfo bonding, 發現沒有支援其他我要的802.3ad...

看了Intel iANS Driver 後, 發現確實要裝iANS Driver起來....,

還在測試當中...希望不要棄我的Desktop卡不顧!!

(有誰幫我將下封砍掉, 十分感謝!!)


目前為止, 發現確實可以單從iANS來做802.3ad (及ALA),
不再用Linux的 bonding 了...


不過還在懷疑, 是不是要伺服器等級的卡才能做...有待驗證!!

25
引述: "xxkuo"
我發現我的bond0的資訊為ALB, 如下:

cat /proc/net/bond0/info
Bonding Mode: load balancing (round-robin)


modinfo bonding, 發現沒有支援其他我要的802.3ad...

看了Intel iANS Driver 後, 發現確實要裝iANS Driver起來....,

還在測試當中...希望不要棄我的Desktop卡不顧!!

(有誰幫我將下封砍掉, 十分感謝!!)


目前為止, 發現確實可以單從iANS來做802.3ad (及ALA),
不再用Linux的 bonding 了...

26
我發現我的bond0的資訊為ALB, 如下:

cat /proc/net/bond0/info
Bonding Mode: load balancing (round-robin)


modinfo bonding, 發現沒有支援其他我要的802.3ad...

看了Intel iANS Driver 後, 發現確實要裝iANS Driver起來....,

還在測試當中...希望不要棄我的Desktop卡不顧!!

(有誰幫我將下封砍掉, 十分感謝!!)

27
引述: "xxkuo"
學長大大你好:

我在使用802.3ad時踫到一些問題, 因為我網路設備的較不熟所以請教:

環境:

cisco 6509 支援 802.3ad 24 gigabit switch
linux 2張gigabit 做bonding, 都接在cisco 6509上

目前發現一些問題,

1.當啟用cisco 6509 802.3ad trunking時,
我的linux工作就不太正常, 從ifconfig中查看結果,
只有一張網卡收得到封包, 另一張是掛零的.


2.當停用cisco 6509 802.3ad時,
我的linux 工作感覺起來是正常的, 二張網卡都收得到封包,
, 但我懷疑沒有到達2G的速度(可能是1G).


請問 802.3ad 如何與linux bonding 工作?
我這樣的方法, 有不對嗎? 還是根本是錯的!!


這個好像Z大, 有提過的現象(下方):

1. 是ALB
2. 是ALA(但因為cisco trunking 沒開), 所以懷疑只有1G

PS: 環境都使用GIGABIT, 但我們用的只是Desktop的INTEL網卡!!

謝謝

引用

從硬體的角度來看
INTEL伺服器等級的網路卡可以設定以下3個模式

1.AFT(Adapter Fault Torence)(希望沒有拼錯好像怪怪的)
假設有兩張網卡時一張是PRIMARY另一張是STANDBY
這時候流量只在PRIMARY上跑
當PRIMARY掛掉時STANDBY會自動啟用接手變成PRIMARY
如果原來PRIMARY恢復時會自動變成STANDBY

2.ALB(Adapter Load Balance)
假設將兩張網路卡設成ALB時
進來流量為100M出去流量為200M
這時候無論接往何種交換器或集線器都可支援
同時間ALB包含容錯功能如果一張網卡故障另一張依然運作
現在INTEL可以做到8張網卡併頻寬

3.ALA(Adapter Link Aggregation)
假設將兩張網路卡設成ALA時
進來流量為200M出去流量為200M
這時候需接往支援LINK AGGREGATION的交換器
同時間ALA包含容錯功能如果一張網卡故障另一張依然運作
現在INTEL可以做到8張網卡併頻寬

28
學長大大你好:

我在使用802.3ad時踫到一些問題, 因為我網路設備的較不熟所以請教:

環境:

cisco 6509 支援 802.3ad 24 gigabit switch
linux 2張gigabit 做bonding, 都接在cisco 6509上

目前發現一些問題,

1.當啟用cisco 6509 802.3ad trunking時,
我的linux工作就不太正常, 從ifconfig中查看結果,
只有一張網卡收得到封包, 另一張是掛零的.


2.當停用cisco 6509 802.3ad時,
我的linux 工作感覺起來是正常的, 二張網卡都收得到封包,
, 但我懷疑沒有到達2G的速度(可能是1G).


請問 802.3ad 如何與linux bonding 工作?
我這樣的方法, 有不對嗎? 還是根本是錯的!!

29
程式討論版 / [討論]誰可以給我建議嗎?
« 於: 2004-01-07 13:56 »
引述: "elleryq"
window script host (WSH) 有 window script host encoder 這個東西
可以做編碼
但我不清楚能否應用到 ASP 上.

這邊有相關資料可以參考
http://vfp.sunyear.com.tw/viewtopic.php?t=207&highlight=wsh


這個只是對WSH的Script 進行編碼, WSH可以簡單的看成unix上的bash, csh ,sh 這些東西, 這跟ASP編碼應沒有關係, WSH Script 大量用在Windows的程序上, WSH Encoder只是保護這些script 碼而已!

30
程式討論版 / [討論]誰可以給我建議嗎?
« 於: 2004-01-07 11:47 »
引述: "cwlvkimo"
引述: "xxkuo"
所以工具, 只要任何Visual系列(vb,vc)的可以造出DLL即可,
使用asp...時, 只要set protectObj = createobject("Your.objectname")
搞定!!


如果沒有呢?
假設是沒有物件就單純的全寫在asp裡呢?
是否真有編碼功能呢


"我的意思是, 要把一些核心的code整理出來, 做成一個lib function object."

我想可能沒有吧, 至少我之前沒發現過!(因為之前也有做過這種事)
後來只有用這個方法做掉), 如果你有發現不妨post出來分享!!

以前有做過Work flow engine, 我們把這個機制包起來..., 其他的code就不重要了,況且這包還是泥的智財呢...

寫程式這麼久, 覺得open source是件好事..., 程式的精神在於"重覆利用"吧...
當然..., 企業的要求是無可厚非的...但也不要太過頭了!

頁: [1] 2