酷!學園
技術討論區 => Network 討論版 => 主題作者是: cisco3662 於 2002-06-20 19:34
-
有人有測過10M or 100M實際的傳輸速度嗎??
比如說我用crossover對接兩部pc,網卡假設是intel eepro100,最快傳輸速度為多少??若又用relteak chip NIC,效能又差多少,10/100MB應該是理論值吧....
-
有人有測過10M or 100M實際的傳輸速度嗎??
比如說我用crossover對接兩部pc,網卡假設是intel eepro100,最快傳輸速度為多少??若又用relteak chip NIC,效能又差多少,10/100MB應該是理論值吧....
這樣子說好了.... 小弟之前(約五年多前),跟朋友兩人無聊,利用兩張eepro100S+,傳遞到對方的RamDisk上,共500多 MB上,利用CuteFtp來當作測試載具,當時的測量值大約是10MBytes/秒上下.... 中間只有經過Crossover線材,長度約一公尺不到....
其他的沒嘗試過做這種很無聊的事情了.......!!
-
10/100MB的極限
理論極限自己用算的就好了.. 100MBit/8.5 ,實際一定比這個值慢.
網卡比的是穩定,和抗雜訊能力,以及信號的相容程度. 各品牌速度差不到那去吧.
沒聽說那個品牌標謗自己的速度.
不過用料,和 QC 可能就差比較多, 另外 driver 的良誘,也是一個要點.
-
如果單純只看"速度"
不同品牌之間差異很大
INTEL和3COM可以有70-80之間
國內品牌大約40-60之間不等
螃蟹卡最差的曾測過20左右
當然亦要考慮線材,接頭,網路設備等因素
因為在傳輸上INTEL和3COM都有特殊技術
以INTEL來說叫做"自適應技術"(好像是ADAPTIVE之類忘了)
當每個封包傳送進來時會引發一次中斷(INT.)
流量大時就不停產生中斷效能自然不好
INTEL網卡可以自動或手動調整"綑綁封包"參數
口語解釋就是根據流量的大小將封包綑綁成一捆一捆
實驗室的數據大約可以增進20%的效能
上面是不正式的說法
給一般人看看就好
真正評斷網路卡的好壞為P/E值
P/E值 = Throughtput / CPU Utilization
簡單的說TThroughtput愈高CPU Utilization愈低
就是好網卡
除了INTEL我不會用其他網卡(3COM也可接受)
我現在電腦上插的就是INTEL SERVER級網卡(PILA8474)
但是如果你只是個人用或小公司或沒錢
那就不要想太多
找一片便宜而且DRIVER沒問題的就好
因為效能再好功能再多你也用不到
這次台北聚會如果敲定
我會介紹所有網路卡該知道的知識
因為網路卡是一般書裡或SI很少提到的部分
-
以上省略… 8)
上面是不正式的說法
給一般人看看就好
真正評斷網路卡的好壞為P/E值
P/E值 = Throughtput / CPU Utilization
簡單的說TThroughtput愈高CPU Utilization愈低
就是好網卡
除了INTEL我不會用其他網卡(3COM也可接受)
我現在電腦上插的就是INTEL SERVER級網卡(PILA8474)
但是如果你只是個人用或小公司或沒錢
那就不要想太多
找一片便宜而且DRIVER沒問題的就好
因為效能再好功能再多你也用不到
這次台北聚會如果敲定
我會介紹所有網路卡該知道的知識
因為網路卡是一般書裡或SI很少提到的部分
哇…ZMAN大大呀…我怎麼沒查到你說的那張Intel網卡呢?@_@
小弟服務的公司也雲要Server級的網卡(現在都只用爛爛的旁謝卡T_T)
可否請ZMAN大大建議個幾張…
當然支援併頻寬及802.3ab是一定要的啦! :lol: :lol: :lol:
期待台北的聚會中 :D
-
哇…ZMAN大大呀…我怎麼沒查到你說的那張Intel網卡呢?@_@
小弟服務的公司也雲要Server級的網卡(現在都只用爛爛的旁謝卡T_T)
可否請ZMAN大大建議個幾張…
當然支援併頻寬及802.3ab是一定要的啦! :lol: :lol: :lol:
期待台北的聚會中 :D
1.PILA8474已經停產
2.INTEL
3.802.3ab是1000Base-T
-
1.PILA8474已經停產
2.INTEL
3.802.3ab是1000Base-T
喔!這樣子喔!@_@
那若不考慮80.23ab(我弄錯了,還以為是併頻寬>_<),以10/100MB的Intel網卡為考量(一定要可以做Trunking,把頻寬併起來),那ZMAN大大建議那幾張Intel的網卡呢?
因為我們的客戶有些並沒有Gigabit的port :cry:
-
1.PILA8474已經停產
2.INTEL
3.802.3ab是1000Base-T
喔!這樣子喔!@_@
那若不考慮80.23ab(我弄錯了,還以為是併頻寬>_<),以10/100MB的Intel網卡為考量(一定要可以做Trunking,把頻寬併起來),那ZMAN大大建議那幾張Intel的網卡呢?
因為我們的客戶有些並沒有Gigabit的port :cry:
1.那是指802.3ad
2.Intel PILA8470C
代理商為泓磊,聯強
光華商場可以找巴德(TVBS旁地下廣場)
3.1000T的網路卡大多是100/1000自動調速
4.為什麼你的足球實況轉播比我快
-
1.那是指802.3ad
2.Intel PILA8470C
代理商為泓磊,聯強
光華商場可以找巴德(TVBS旁地下廣場)
3.1000T的網路卡大多是100/1000自動調速
4.為什麼你的足球實況轉播比我快
先回答最後一個具爭議性的問題(事實上已經在別篇回答過了 :lol: )
因為我們公司有些人閒閒沒事做,不知是在看網路廣播還是聽廣播,小弟自然而然可以聽到一些最新戰況(小弟服務的公司很open,所以他們都會主動報告最新戰況)
另外感謝ZMAN上面的答覆…^^
小弟會找時間去問看看,如果Gigabit可做Trunking的網卡價錢差沒有很多的話,就直接買Gigabit的卡嘍!(反正是公司出錢 :lol: )
-
要注意ㄡ
INTEL 1000T的網路卡有分桌上型及伺服器型兩種
1000SX則只有伺服器器型
-
如果單純只看"速度"
不同品牌之間差異很大
INTEL和3COM可以有70-80之間
國內品牌大約40-60之間不等
螃蟹卡最差的曾測過20左右
當然亦要考慮線材,接頭,網路設備等因素
因為在傳輸上INTEL和3COM都有特殊技術
以INTEL來說叫做"自適應技術"(好像是ADAPTIVE之類忘了)
當每個封包傳送進來時會引發一次中斷(INT.)
流量大時就不停產生中斷效能自然不好
INTEL網卡可以自動或手動調整"綑綁封包"參數
口語解釋就是根據流量的大小將封包綑綁成一捆一捆
實驗室的數據大約可以增進20%的效能
上面是不正式的說法
給一般人看看就好
真正評斷網路卡的好壞為P/E值
P/E值 = Throughtput / CPU Utilization
簡單的說TThroughtput愈高CPU Utilization愈低
就是好網卡
除了INTEL我不會用其他網卡(3COM也可接受)
我現在電腦上插的就是INTEL SERVER級網卡(PILA8474)
但是如果你只是個人用或小公司或沒錢
那就不要想太多
找一片便宜而且DRIVER沒問題的就好
因為效能再好功能再多你也用不到
這次台北聚會如果敲定
我會介紹所有網路卡該知道的知識
因為網路卡是一般書裡或SI很少提到的部分
intel eepro100這張怎麼樣??
除了P/E值,還有哪些參數可共參考呢??
期待您對網卡詳細德介紹....因為.....參考資料真的太少了..
-
intel eepro100這張怎麼樣??
除了P/E值,還有哪些參數可共參考呢??
期待您對網卡詳細德介紹....因為.....參考資料真的太少了..
Intel eepro100 is discontinue for a long time.
I always use PILA84XX to identified Intel NIC.
If you want to understand NIC,
waiting for the meeting in Taipei.
welcome join it.
-
我不知道你們的硬碟是否可以快超過 100mb ..
竟然如此測網路的速度有那麼重要嗎 ..
ide 的 hd 目前最快是理論 133mb , 實際在跑可能不到 60%的速度 , 甚至更低 ..
scsi 目前是 160mb , 一般 pci 的速度是 33mb (標準) , 所以除非是 onboard
的 scsi 才可能到 166 mb 的 70% ..
所以我覺得如果你們是在 hd 上測試 , 基本上測到的是 hd 的速度 , 不是 net
的速度 ...
如果是都存在 ram 中的話 sdram 是 133mb , ddr 是 266mb ...
而且經過 io 後都不可能到那個值 ..
所以 1 對 1 的測試是不準的 , 我想大概至少要 4 對電腦才可以測的出來 ..
-
上面 pci 的速度弄錯了 ..
是 33 * (32bit /8) = 133mb ...
-
高階的SCSI卡最好用64bit pci才能發揮效能,
64bit pci會比一般的pci bus多出一小截,
有些卡是雙用的,甚至是多平台用,
像QLogic給SAN用的FirberCard,
一片卡只要裝不同的Driver,
可以插在PC或是RS6000,
而PC上要看到64bit pci一般都是要大廠Server才有!
所以有雜誌有一篇測試報告說,
Ultra160以上的SCSI接在一般板子的PCI Bus上,
是不行發揮到最高效能的,
在SCSI卡的Channel內也許可以,
但出了卡,應該就不行了,
因為一般板子的PCI Bus最大只到133mb/s.
-
PCI 有 4 個規格
寬度 速度 效能
32 bits 33 MHz 133MB/S
32 bits 66 MHz 264MB/S
64 bits 33 MHz 264MB/S
64 bits 66 MHz 528MB/S
PCI 匯流排由 Intel 在 1993 年所發表. 是一高速匯流排. 支援 32 bits , 33 MHz. 最後版本可支援至 64 bits , 66 MHz. 但在 PC 只支援到 32 bits , 33 MHz.
http://www.geocities.com/Tokyo/Towers/6851/pci.htm
-
在HP的主機上看到的64bits PCI,
是不是有專門的Chip在控制?
而一般PC版子是南北橋Chip不支援,
還是有支援,廠商沒作Bus而已?
-
我想一般的 server 都是把 scsi 做在板子上 ..
這樣就不會經過 pci 的通道 , 而是直接透過 io 做控制 ..
像我在墊腳的這一台 hp server 就是把 scsi on board ..
至於其他的介面卡是否需要超過 133mb 可能不多了 ..
vga 有 agp 至少有 266-1066 MB/SEC
只剩 net card 而已 , 不過 net card 看來是不用那麼高的 ..
這也就是沒有人願意在 pc 開發 64bit pci 的原因 ..
而且還牽涉到穩定度的問題 ...
而目前如果 scsi on board 時 要達到 160mb/sec 的理論值是很簡單的..
因為 cpu 和 ram 及 io chip 的內部傳輸都大於這個值 ..
而目前的問題是在 hd 本身的問題 ..
除非在機械結構上有所突破 , 不然很難 ..
如果目前有人做一個 20000 轉的 hd 有幾個人敢用 ... :roll:
rambus = 500-800Mhz , 16bit/2 分 1 channel , 2 channel = 1000 - 3200 mb/sec
ddr = 200-333Mhz , 64bit/8 = 1600-2664 mb/sec
sdram = 100-133Mhz , 64bit/8 = 800-1064 mb/sec
cpu ..
intel = 66-533 Mhz
amd = 66-266 Mhz
所以目前的速度慢 , 和 cpu 已經沒很大的關係了 ..
因為他們幾乎都比 io 還快了 ...
-
net 卡,在一般應用,很少人會說速度不夠快, 因為卡在連至 internet 的速度,
如果是在實驗室,或是多台database 互連交叉查尋,或是把 netddrive當hd 來用(nfs) 可能才有差, 不過樓上的說法不是全然正確,
雖然hd 機械動作慢, 可是要考量pre-fetch 磁碟預先讀取至cache ram burst output 的,反應問題, 所以在不考慮$$,網卡是愈快愈好, 和 ram 愈多愈好一樣.
-
雖然PCI目前夠一般人的使用,
不過它畢竟還是達到一定的瓶頸了...
-
1.網路是網路
I/O是I/O
不要混為一談
而且要注意bit和Byte的差異
2.在伺服器上可以看到PCI-X
PC看不到是成本及需求因素
加上3GIO即將出來
3.不要看PCI插槽就認定是多少效能
整個BUS架構也很重要
一片好的SERVER BOARD採用TRIPLE PEER BUS
PCI資料通道傳輸效能可到2.1GB/SEC
4.在FILE,VOD,DATABASE,CACHE等應用
網路卡的好壞很重要
未來的網路必定是多媒體傳輸的時代
網路卡的角色更顯重要
國外廠牌的PC也已經陸續內建GIGABIT網路卡
5.在一般人的家中或是小流量的應用
當然不用太在乎網路卡的品質
所有的規劃應該以預算和需求做最優先考量
-
雖然PCI目前夠一般人的使用,
不過它畢竟還是達到一定的瓶頸了...
^^^^^^^^^^^^^^^^^^^^^^
當然 , 這些問題早在 1995 年就已經有人發現了 ..
所以當時就制定了 USB 1.0 , 12 MB/Sec 用於低速的設備 ..
而目前的 USB 2.0 是 480 MB/Sec ... (2000)
IEEE 1394 , 400 MB/Sec 用於高速設備 , (網路是其中之 1)
而目前的 IEEE 1394B 是 800 MB/Sec ..(2001)
不過目前看來 USB 和 IEEE 1394 的定位已經模糊了 ... :-?
沒辦法可能是競爭的關係 ..
很多人可能會問為什麼 PCI 可以做到 528MB/Sec , 而沒有人要去做 ..
那可能大家要去看 PCI 的原理 ..
基本上 PCI 是透過 buffer 在推動的 ..
之前有一些 motherboard 可以調整 PCI 32-36 之間跑 ..
不過以我們的經驗 34 就很不穩定了 , 所以如果要做到 64*64
那勢必 motherboard 的成本會變的很高 ..
所以雖然有那樣的規格 , 卻沒人願意去生產 ... :cry:
像 RAMBUS 和 DDR 就是一例 , 雖然 RAMBUS 有 800MB , DDR 只有 366 MB ..
不過由此成本差距過大 , 所以 RAMBUS 就輸了 .... :P
所以如果考慮量產的問題時 , 成本是一個很大的原因 ...
-
給大家加油一下﹕i like this this tread!
大家的討論非常專業而且不流與情緒化﹐可以當作討論文章的榜樣哦~~ ^_^
-
4.在FILE,VOD,DATABASE,CACHE等應用
網路卡的好壞很重要
未來的網路必定是多媒體傳輸的時代
網路卡的角色更顯重要
國外廠牌的PC也已經陸續內建GIGABIT網路卡
5.在一般人的家中或是小流量的應用
當然不用太在乎網路卡的品質
所有的規劃應該以預算和需求做最優先考量
呀…又說到小弟的痛處啦…
因為小弟服務的公司就是在從事多媒體這方面的東東…所以呢…一般的網路卡真的不符合需求(每次傳輸都是以百MB來算(單人),而且是同時很多多多多人)
不過小弟還有個問題...
就是Intel Server級的網卡(支援PCI X的)也支援一般的PCI插曹…不過…是否一定要在PCI X上面才能完全發揮它的效能?
-
以前還在某小ISP作工程師時,
看美工部作一些AV的處理也是,
連要出圖的圖片檔也是超大,
後來在每台多加SCSI卡和HDD,
成品才放在File Server上,
不過這樣的成本真的很傷,
但又比花時間等來的效率好...
雙用的卡接在一般的PCI上,
就只能發揮到一般水平,
以前公司用一般的IBM,Compaq主機
接NCR Diskarray測SAN就是...
-
雙用的卡接在一般的PCI上,
就只能發揮到一般水平,
以前公司用一般的IBM,Compaq主機
接NCR Diskarray測SAN就是...
再問…^^
所謂的發揮到一般水平是指傳輸效能嗎?
還是它本身所擁有的功能(如併頻寬、負載平衡....),只會發揮一半的效能?或者根本就不能發揮出來?
哈哈…網路卡這方面的知識…小弟了解的太少了!sorry la....問問問!
-
以前公司用一般的IBM,Compaq主機
接NCR Diskarray測SAN就是...
對不起﹐亂給一下主意﹕
1) 先將網路需求的目的區分清楚﹐例如﹕單純的資料流傳送還是存儲器的使用﹖即時性需求如何﹖
2) 然後尋找是否有替代方案﹐例如﹕採用 fiber channel 的 SAN 來提供儲存器功能。
3) 除網路卡外是否還有其它傳輸瓶頸﹖例如 cable, switch, router 等等。
-
再問…^^
所謂的發揮到一般水平是指傳輸效能嗎?
還是它本身所擁有的功能(如併頻寬、負載平衡....),只會發揮一半的效能?或者根本就不能發揮出來?
哈哈…網路卡這方面的知識…小弟了解的太少了!sorry la....問問問!
我上面說的卡是指Fiber SCSI Card不是網路卡.
應該是指傳輸量的效能,原廠FAQ有說,因PCI Bus的限制,
插在32bits PCI上不能達到最大的期望值,建議改插64bits PCI.
至於你上面說的功能,應該是沒有影響,
有影響的應該是網卡的流量部份...
-
1.有大量傳輸需求時
在網路部分可以用GIGABIT網路卡(甚至再做TRUNKING)
這部分是小錢但是須有交換器配合
沒錢可以用3COM BASELINE 1000T交換器
有錢可以用3COM SS3 4924/4900交換器
在儲存部分可以用SAN來解決
沒錢用NAS走GIGABIT也還可接受
不過要切記不要犯了"又要馬兒好又要馬兒不吃草"的錯誤
2.64bit的卡插在32bit的插槽
當然只有32bit的效能
不過功能倒是沒有影響
3.硬要要找出PCI差異影響功能倒是有一項
就是Wake on LAN原本需要一條3pin Cable接到主機板
在PCI 2.2的插槽就不需要那條3pin cable
4.有關多片網路卡整合的部分
請務必了解之前提到AFT,ALB,ALA的差異
並了解INTEL伺服器型網卡
就是比桌上型多了AFT,ALB,ALA和Hot-Plug
-
題外話....
在LinuxFab看到這個東東...
http://www.linuxfab.cx/indexNewsData.php?NID=5260
直接走Bus不走Ethernet....
-
有些人問到為何我偏好INTEL而不是3COM
原因如下
1.之前我負責過INTEL網路產品(PM)
對INTEL比較熟
(不過我也負責過3COM,D-LINK的銷售)
2.3COM因為全球組織調整關係
現在台灣3COM分公司並不負責網卡部分
只有代理商在銷售
所以在台灣"感覺上"現在資源較不充沛
3.其實在早期網路卡市場3COM是比INTEL還優秀
只是一個拼命往前衝一個一直緩慢前進
現在當然勝負差距就很明顯了
-
題外話....
在LinuxFab看到這個東東...
http://www.linuxfab.cx/indexNewsData.php?NID=5260
直接走Bus不走Ethernet....
啊~~ 好痛苦的回憶~~ :(
在我離職之前﹐就是要弄這個 blade server 來做 HA 和 load balance ﹐可惜沒完成我就開溜了~~ 不過我不清楚當初我們玩的那個型號和現在提到的這個是否一樣﹐當時我倒沒有留意到這個 bus communication 的功能﹐不過我確定裡面的 ethernet 是 intel 的(型號也忘了﹐唉﹐我對數字的記憶都很糟糕)﹐當時光弄那個 PXE 就快讓我抓狂了﹗為了文件上面的一個 number 的差異﹐足讓我浪費了兩個星期的時間做 research ~~~
-
啊~~ 好痛苦的回憶~~ :(
在我離職之前﹐就是要弄這個 blade server 來做 HA 和 load balance ﹐可惜沒完成我就開溜了~~ 不過我不清楚當初我們玩的那個型號和現在提到的這個是否一樣﹐當時我倒沒有留意到這個 bus communication 的功能﹐不過我確定裡面的 ethernet 是 intel 的(型號也忘了﹐唉﹐我對數字的記憶都很糟糕)﹐當時光弄那個 PXE 就快讓我抓狂了﹗為了文件上面的一個 number 的差異﹐足讓我浪費了兩個星期的時間做 research ~~~
別痛苦了,我以前弄Notes,也是弄的粉幹,
不信你可以問FreeBSD版的mephi...
那你的結論和心得是什麼?
之前在一家賣什麼Lanrover,Lanhost的廠商那兒,
他們自己有一個產品像這種的東東,
每台PC是一片粉長的PC Card,
用一片大的8 port PCI Slot Board接起來,
我對他們的Bus-to-Bus的快速交換技術很有興趣,
不過...他們拿來只應用在:
遠端存取(DOS xbase)和數位總機!
-
那你的結論和心得是什麼?
抱歉﹕實在沒心得啦﹐只是說到痛處出來呻吟一下而已~~ 別管我就好~ ^_^
不過﹐如前面討論提到的 PCI BUS 的限制﹐那麼﹐我猜(個人猜測啦)﹐就算用到 bus2bus 的傳輸﹐結果還是會卡在限制上吧﹖
好﹐就算可以解決這個限制﹐那麼到 workstation 那端還不是要透過 ethernet 嗎﹖結果又回到前面的問題了。我倒想過﹐假如真的能用 blade server 解決了傳輸瓶頸﹐那麼用 thin client 的方式﹐或許是可以考慮的。
-
之前在這兒提到的INFINIBAND
就是未來刀鋒伺服器的最佳BUS
而這一片一片的BLADE也可以是交換器路由器各式東東
國內有一家公司專攻這塊領域
DUNCAN提到的東東好像是工業電腦板
-
DUNCAN提到的東東好像是工業電腦板
Yes,都是工業電腦板.
以前看別人用,那個PCI Slot Board都是供電用(PC Card)的而已,
想不到已可以作Bus-to-Bus的功能,而且不用特別的Driver...
有時間還真的要去書店翻翻電子情報,
看現在有什麼怪東西...
-
DUNCAN提到的東東好像是工業電腦板
Yes,都是工業電腦板.
對不起﹐多嘴問一句﹕BLADE SEVER 有‘非工業電腦’版的嗎﹖我看到的是 10 片裝的﹐而且是共享 floppy 和 cdrom 的。那時候我就對 cdrom 的切換蠻好奇的﹐尤其是 linux 的 mount 上面~~ 不過以我這種智商﹐當然是瞎子摸象啦~~ ^_^
-
對哦!
說到這個我才想到,
連Power都是共享的,
不過每片卡有獨立的Power,Reset鍵...
聽說有一種連HDD都可以共享,
以硬體分Partition的方式,
不過賣工業電腦的人說那種東東問題很多,
很少人有設計進去...
-
連Power都是共享的,
不過每片卡有獨立的Power,Reset鍵...
對對對~~ 而且是雙電源的﹐就算其中一個電源掛了﹐還可以繼續工作。那時候為了‘操機’﹐竟然將它檔 RAIDS 那樣 hot-plug 了﹐現在想來實在殘忍﹐似乎還隱約聽到那個正在為使命正全力以赴的 server 的哀鳴呢~~~
不過﹐小弟至今還是對 FLOPPY/CDROM 共享很感興趣﹐不知道這裡那位朋友可以幫忙解釋一下﹖(如果不太複雜的話) 謝謝﹗
-
1.http://taiwan.cnet.com/enterprise/technology/story/0,2000040497,20038401-1,00.htm
這兒有簡單的刀鋒型伺服器中文介紹
2.由於我之前看的資料是INFINIBAND的概念
會跟現在的刀鋒型伺服器有所差異
不過和HP的想法比較接近
只是一個用COMPACTPCI一個用INFINIBAND
3.我不知道如何回答這種SEVER BOARD和工業電腦板的不同