驅動人生最新消息,英特爾以太網適配器完整驅動程序包在2021年12月8號更新了最新版26.7版本,此下載安裝版本 26.7 的英特爾?以太網適配器完整驅動程序包為受支持的操作系統(tǒng)版本,大小為707.7 MB,獨立于操作系統(tǒng),zip 文件包含所有英特爾?以太網驅動程序和軟件,適用于大多數英特爾?以太網適配器的當前支持的 Windows*、Linux* 和 FreeBSD* 版本。但是并非所有英特爾? 以太網適配器和英特爾? 以太網控制器在每個版本的 Windows、Linux 或 FreeBSD 中都受支持,目前,驅動人生可提供最新版英特爾以太網適配器完整驅動程序包26.7版本的下載,有需要的可以到驅動人生下載,只需要打開驅動人生8,點擊驅動管理,就可以選擇以及升級你想要的驅動了,非常的簡單方便。
下面驅動人生給大家介紹一下此新版本發(fā)行的一些相關說明
在Intel Ethernet 800系列適配器上,DDPtool可能無法顯示DDP配置文件。
E810目前使用SGMII連接支持1000BASE-T SFP模塊類型的一個子集回到E810。
外部連接時,為了讓E810正確地了解模塊BASE-T的鏈路狀態(tài)模塊必須向E810指示BASE-T側鏈路狀態(tài)。
一個SGMIIE810和1000BASE-T SFP模塊之間的鏈路允許模塊指示其鏈路狀態(tài)為E810使用SGMII自動協(xié)商。
Intel?以太網控制器產品26.7發(fā)行說明
在其他情況下,如果模塊沒有BASE-T鏈路時,會向E810發(fā)送IDLEs, E810可能會將其解釋為鏈路伙伴。
發(fā)送有效的數據,并可能顯示鏈接正在連接,即使它只是連接到模塊,模塊的BASE-T外部連接沒有鏈接。
如果沒有VF速率限制,不同虛擬函數(VFs)的帶寬/吞吐量可能不同,為了避免這種情況,驅動人生建議應用VF速率限制。
如果PF沒有鏈接,那么之前使用VF的Linux虛擬機將無法向其他虛擬機傳遞流量。
為了使基于Intel?以太網800系列的適配器充分發(fā)揮其潛力,用戶必須安裝在PCIe Gen4 x16槽位。
在某些平臺上,遺留的PXE選項ROM啟動選項菜單項來自同一設備,使用相同的端口號信息(字符串的第一部分來自BIOS)。
當鏈路速度超過10gb /s時出現鏈路問題(包括無鏈路),檢查交換機配置和/或規(guī)范。
許多光連接和直連電纜要求RSFEC連接速度超過10gb /s。以下方法之一可能會解決這個問題:
配置交換機為RS-FEC模式。
指定10gb /s或更慢的鏈路速度連接。
如果連接速率為25gb /s,請使用SFP28 CA-S或CS-N直連線纜。這些電纜不需要RS-FEC。
—如果交換機不支持RS-FEC模式,請咨詢交換機廠商是否支持軟件或固件升級。
26.7發(fā)行說明(12月14號)
BMC可能無法通過NC-SI OEM命令獲取ASIC溫度。
流量控制設置對流量沒有影響,計數器不會隨著流量控制設置的增加而增加到TX=ON和Rx=OFF。
然而,流量控制工作良好的值設置為TX=On RX= On。
Linux驅動程序
如果PF接口上的單個VLAN流量是活躍的,并且手動觸發(fā)了CORER或GLOBR復位,重置后,PF流量將恢復正常,而VLAN流量可能無法正?;謴汀?/p>
對于一個解決方法,發(fā)出ethtool命令:"ethtool -K PF_devname rx-vlan-filter off",然后ethtool -K PF_devname rx-vlan-filter on, VLAN流量恢復。
在CentOS 7.2, ethtool可能報告速度未知,你可能會在dmesg日志中看到警告。這不會影響流量或設備功能。
QoS帶寬整形和優(yōu)先級標簽可能不能在CentOS 7.2功能。
對于綁定了VF的配置,避免設置VF內的MTU值范圍為9199-9202。當MTU被設置為這些值之一時,VM可能會遇到一個當TCP流量從鏈接伙伴運行到VF時,內存泄漏導致內核panic。
快速卸載和加載irdma和ice驅動程序可能會導致內核恐慌。當端口的隊列設置被修改時,中斷調節(jié)設置被重置為默認值。
使用“ethtool -L ethx combined XX”命令,在Linux網橋中添加物理端口可能會失敗,導致設備或資源繁忙。
如果SR-IOV已經在給定的端口上啟用。為了避免這種情況,請在創(chuàng)建SR-IOV VFs后再創(chuàng)建。
分配一個物理端口到一個Linux網橋。參考ICE驅動README中的Link Aggregation is互斥with SRIOV and RDMA。
當雙VLAN或隊列隊列特性啟用時,最內部的流量源可能需要將MTU大小限制為1496或更小,以避免連接問題。
如果一個VF (Virtual Function)非信任模式,且在一個VF上創(chuàng)建了8個或8個以上的vlan,則會導致最后創(chuàng)建的VLAN可能沒有功能,在dmesg中可能會看到一個錯誤。
在RHEL主機上使用Windows Server 2019 RS5虛擬機時,在RHEL主機上配置的VLAN使用iproute2的VF在使用1.3.1以上版本的ice驅動程序時可能無法正確通過流量。
結合一個新的AVF驅動版本。觀察到使用ISCSI時,ISCSI啟動器閃斷連接失敗。
ISCSI目標,當主機啟用“雙VLAN模式”時,先禁用“虛擬功能”,然后重新啟用“虛擬功能”。
附加到Windows客戶端可能會導致錯誤消息在dmesg中顯示,這些消息不會影響功能。
在當前的ice PF驅動程序下,可能無法通過可信VF實現單播,使用vf-truepromisc-support不打開ethtool——private -flags的情況下混雜和組播混雜模式。
因此,期望不對門VF使用VF -true-promisc-支持請求單播/組播混雜模式。
反復將一個VF接口分配給一個網絡命名空間,然后可能刪除該命名空間會導致意外的錯誤消息,并可能導致主機系統(tǒng)上的調用跟蹤。
當使用舊的iavf時,接收哈??赡懿粫谔摂M函數中默認啟用,驅動結合一個新的PF驅動版本。
在虛擬機上創(chuàng)建雙VLAN時,tx_tcp_cso [TX TCP Checksum Offload]和tx_udp_cso [TX UDP Checksum Offload]統(tǒng)計數據可能沒有正確增加。
當對特定的非intel鏈路伙伴使用雙VLAN配置時,TCP流量可能會失敗,當內部VLAN接口的MTU與外部VLAN接口的MTU匹配時,通過該接口VLAN接口。
處理方法:修改內部VLAN的MTU值,使其小于VLAN的MTU值4字節(jié)外VLAN。
如果配置以太網類型為0x9100的VLAN在傳輸時插入,并且該數據包在插入之前包含一個以太網類型為0x8100的VLAN頭,即0x9100。
VLAN頭是設備在0x8100 VLAN頭之后插入的,數據包通過VLAN頭為0x8100,離以太網頭最近的設備。
在主機上執(zhí)行PCI復位可能會導致某些guest操作在VFs上的流量失敗系統(tǒng)。
在X操作系統(tǒng)中,可以觀察到rx_gro_dropped的統(tǒng)計值。
當Rx流量很高時,可能會迅速增加。這似乎是RHEL內核的一個問題。當ICE接口是arp_validate=1的bond的一部分時,備份端口鏈路狀態(tài)會震蕩在上下之間。
解決方法:建議在以下情況下不啟用arp_validate結合冰接口。
在主機端加載VF驅動時,更改VF MAC地址可能導致丟包或無法通過流量。因此,可能需要重啟VF驅動程序。
目前SR-IOV VFs最小Tx速率限制的限制:如果PF上啟用了DCB或ADQ,則在SR-IOV VFs上配置最小Tx限速PF被拒絕了。
如果PF上同時禁用DCB和ADQ,則在SR-IOV上配置最小Tx限速允許該PF上的VFs。
如果已經為SR-IOV VFs和DCB或ADQ配置了PF上的最小Tx速率限制配置,那么PF就不能再保證設置的最小Tx速率限制SR-IOV VFs。
如果SR-IOV VFs配置了跨多個端口的最小Tx速率限制,聚合帶寬超過100Gbps,那么pf不能保證最小的Tx速率限制,設置為SR-IOV VFs。
一些發(fā)行版可能包含舊版本的iproute2/devink,這可能會導致錯誤。
解決方法:請更新到最新的devlink版本。
3.1.4 Windows驅動程序
iSCSI LUN的可見性取決于是否能夠建立網絡連接LUN,為了建立這種連接,需要考慮網絡的初始化等因素控制器,在物理層建立鏈接(可以采取秒的順序)必須考慮。由于這些變量的存在,LUN最初可能在選擇屏幕上不可見。
當一個虛擬機運行高流量負載,并且通過任一SR-IOV連接到一個虛擬交換機時,設置SR-IOV/VMQ開關,虛擬機的vNIC可能導致藍屏。
在Windows上,當同時強調兩者時,一些工作負載的性能限制已經被看到E810-2CQDA2適配器端口。
Intel?以太網控制器E810設備默認處于DCBX CEE/IEEE自愿模式。在中東歐模式時,如果Intel?Ethernet Controller E810設備被設置為非意愿且連接的交換機在非自愿模式下,這也是一種未定義的行為。
解決方法:配置Intel?以太網控制器E810設備用于DCBX意愿模式(默認),Intel?以太網控制器產品。
3.1.5 Windows RDMA驅動
英特爾?以太網網卡E810可能會在所有端口上經歷適配器范圍的重置。當在固件管理模式下,一個DCBx愿意模式配置更改被傳播。
從交換機移除RDMA使能的TC。這通常發(fā)生在移除TC時與UP0關聯,因為它是RDMA配置的缺省UP。重置在適配器重新初始化時,會導致連接性暫時丟失。
運行Windows Server 2019的S2D存儲集群配置,高存儲帶寬測試可能導致藍屏錯誤檢查代碼1E崩潰(KMODE_EXCEPTION_NOT_HANDLED)。
使用smbdirect作為失敗的模塊。
3.1.6 Linux RDMA驅動
通過直通方式添加端口時,需要將設備上的所有端口都添加到具有相同實例號的相同虛擬機。
在系統(tǒng)重啟后,在RoCEv2模式下使用Intel?以太網網卡E810 RDMA設備,可能偶爾會因為GID缺失或錯誤而激活。如果需要修改GID值,請卸載并重新加載irdma驅動程序。
在Linux環(huán)境下使用Intel MPI時,Intel建議只啟用一個網絡接口設備來避免MPI應用程序連接問題或掛起。此問題影響所有Intel MPI傳輸。