linux是如何初始化网络的

linux是如何初始化网络的,第1张

以下几种办法在大部分发行版本中可用:

sudo service networking restart

/etc/init.d/networking restart

sudo service network restart

/etc/init.d/network restart

如果想要配置网卡(设置IP,MAC地址,网关,DNS等等)

配置文件在sudo vi /etc/network-scripts/ifcfg-eth0

如果没有的话,那就在sudo vi /etc/network/interfaces

也可以临时修改:sudo ifconfig eth0 IP地址 netmask 255.255.255.0

网卡驱动初始化

网络设备驱动加载时,内核会调用一个驱动程序注册的初始化函数。 内核提供了一个宏 module_init 来执行注册 *** 作。

igb 模块的初始化函数长这样(请叫我程序拷贝员)。

/**

*  igb_init_module - Driver Registration Routine

*

*  igb_init_module is the first routine called when the driver is

*  loaded. All it does is register with the PCI subsystem.

**/

static int __init igb_init_module(void)

{

int ret

pr_info("%s - version %s\n",

igb_driver_string, igb_driver_version)

pr_info("%s\n", igb_copyright)

#ifdef CONFIG_IGB_DCA

dca_register_notify(&dca_notifier)

#endif

ret = pci_register_driver(&igb_driver)

return ret

}

module_init(igb_init_module)

可以看到主要是有个 pci_register_driver 的函数,下面看看它干了啥。

PCI初始化

网卡一般都是PCI设备,可以用命令lspci查看。 PCI设备通过配置空间中的一系列寄存器来识别自己。 驱动会使用内核提供的宏 MODULE_DEVICE_TABLE 来导出驱动支持的PCI设备(使用设备ID标识)。 内核会用这个表决定加载特定的驱动从而控制PCI设备。

static const struct pci_device_id igb_pci_tbl[] = {

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_I354_BACKPLANE_1GBPS) },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_I354_SGMII) },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_I354_BACKPLANE_2_5GBPS) },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_I211_COPPER), board_82575 },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_I210_COPPER), board_82575 },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_I210_FIBER), board_82575 },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_I210_SERDES), board_82575 },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_82580_SGMII), board_82575 },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_82580_COPPER_DUAL), board_82575 },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_DH89XXCC_SGMII), board_82575 },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_DH89XXCC_SERDES), board_82575 },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_DH89XXCC_BACKPLANE), board_82575 },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_DH89XXCC_SFP), board_82575 },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_82576), board_82575 },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_82576_NS), board_82575 },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_82576_NS_SERDES), board_82575 },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_82576_FIBER), board_82575 },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_82576_SERDES), board_82575 },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_82576_SERDES_QUAD), board_82575 },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_82576_QUAD_COPPER_ET2), board_82575 },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_82576_QUAD_COPPER), board_82575 },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_82575EB_COPPER), board_82575 },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_82575EB_FIBER_SERDES), board_82575 },

{ PCI_VDEVICE(INTEL, E1000_DEV_ID_82575GB_QUAD_COPPER), board_82575 },

/* required last entry */

{0, }

}

MODULE_DEVICE_TABLE(pci, igb_pci_tbl)

pci_register_driver 使用 igb_driver 作为参数。igb_driver 则使用 igb_pci_tbl 赋值给域 id_table。

static struct pci_driver igb_driver = {

.name     = igb_driver_name,

.id_table = igb_pci_tbl,

.probe    = igb_probe,

.remove   = igb_remove,

#ifdef CONFIG_PM

.driver.pm = &igb_pm_ops,

#endif

.shutdown = igb_shutdown,

.sriov_configure = igb_pci_sriov_configure,

.err_handler = &igb_err_handler

}

重头戏 igb_probe

igb_driver 有个很重要的域 igb_probe。内核识别到PCI设备驱动后,就会调用pci_driver 中 probe 指向的函数。对 igb 来说,就是 igb_probe 函数。

igb_probe 会执行以下 *** 作:

启用PCI设备。

设置DMA掩码。

请求内存区域和IO端口。

注册ethtool函数。

分配 net_device,这个结构代表一个抽象的网络设备。

注册 net_device_ops 到 net_device 的 netdev_ops 域。

设置 net_device 的features。

还有一些杂七杂八的工作都在这里完成,watchdog, 缓冲区分配等等。

struct net_device_ops 包含网络子系统 *** 作设备的诸多函数指针。

static int igb_probe(struct pci_dev *pdev, const struct pci_device_id *ent) {

   ...

   netdev->netdev_ops = &igb_netdev_ops

   ...

}

static const struct net_device_ops igb_netdev_ops = {

   .ndo_open       = igb_open,

   .ndo_stop       = igb_close,

   .ndo_start_xmit     = igb_xmit_frame,

   .ndo_get_stats64    = igb_get_stats64,

   .ndo_set_rx_mode    = igb_set_rx_mode,

   .ndo_set_mac_address    = igb_set_mac,

   .ndo_change_mtu     = igb_change_mtu,

   .ndo_do_ioctl       = igb_ioctl,

   .ndo_tx_timeout     = igb_tx_timeout,

   .ndo_validate_addr  = eth_validate_addr,

   .ndo_vlan_rx_add_vid    = igb_vlan_rx_add_vid,

   .ndo_vlan_rx_kill_vid   = igb_vlan_rx_kill_vid,

   .ndo_set_vf_mac     = igb_ndo_set_vf_mac,

   .ndo_set_vf_vlan    = igb_ndo_set_vf_vlan,

   .ndo_set_vf_rate    = igb_ndo_set_vf_bw,

   .ndo_set_vf_spoofchk    = igb_ndo_set_vf_spoofchk,

   .ndo_get_vf_config  = igb_ndo_get_vf_config,

#ifdef CONFIG_NET_POLL_CONTROLLER

   .ndo_poll_controller    = igb_netpoll,

#endif

   .ndo_fix_features   = igb_fix_features,

   .ndo_set_features   = igb_set_features,

   .ndo_fdb_add        = igb_ndo_fdb_add,

   .ndo_features_check = igb_features_check,

}

【问题】 此处我要实现的是将芯片的ID用于网卡MAC地址,网卡驱动是enc28j60_init。 但是,读取芯片ID的函数,在as352x_afe_init模块中,所以要先初始化as352x_afe_init。 此处,内核编译完之后,在生成的system.map中可以看到, enc28j60_init在as352x_afe_init之前,所以,无法去读芯片ID。 所以我们的目标是,将as352x_afe_init驱动初始化放到enc28j60_init之前, 然后才能读取芯片ID,才能用于网卡初始化的时候的,将芯片ID设置成网卡MAC地址。

【解决过程】

【1】

最简单想到的,是内核里面的

archarmmach-as352xcore.c

中,去改devices设备列表中的顺序。

enc28j60_init对应的是ssp_device,因为网卡初始化用到的是SPI驱动去进行和通讯的。

as352x_afe_init对应的是afe_device。

原先是:

把afe改到最前面:

但是,实际结果是,没有任何影响,连systemp.map生成的,那么模块初始化顺序,都没有任何变化。 也就说明,想要实现驱动加载顺序的改变,改core.c里面的设备列表顺序是没有用的。

更多linux内核视频教程文档资料免费领取后台私信 【内核】 自行获取.

Linux内核源码/内存调优/文件系统/进程管理/设备驱动/网络协议栈-学习视频教程-腾讯课堂

【2】

在网上看到很多帖子,其说明的也很清楚了,就是:

Linux内核为不同驱动的加载顺序对应不同的优先级,定义了一些宏:

includelinuxinit.h

把自己的驱动的函数名用这些宏去定义之后, 就会对应不同的加载时候的优先级。

其中,我们写驱动中所用到的module_init对应的是 #define module_init(x) __initcall(x)而 #define __initcall(fn) device_initcall(fn) 所以,驱动对应的加载的优先级为6

在上面的不同的优先级中, 数字越小,优先级越高。 同一等级的优先级的驱动,加载顺序是链接过程决定的,结果是不确定的,我们无法去手动设置谁先谁后。 不同等级的驱动加载的顺序是先优先级高,后优先级低,这是可以确定的。

所以,像我们之前在驱动中用:

所以,大家都是同一个优先级去初始化,

最后这些驱动加载的顺序,可以查看在根目录下,

生成的system.map:

此处就是由于 c0019920 t __initcall_i2c_dev_init6 c0019924 t __initcall_as352x_afe_i2c_init6 c0019928 t __initcall_as352x_afe_init6 在c00198e4 t __initcall_enc28j60_init6之前,所以我这里才要去改。。。 知道原理,能想到的,就是要么把as352x_afe_init改到enc28j60_init之前一级,即优先级为5。即在驱动中,调用:fs_initcall(as352x_afe_init);要么把enc28j60_init改到as352x_afe_init之后,即优先级为7即在驱动中,调用:late_initcall(enc28j60_init);但是,此处麻烦就麻烦在,如果把as352x_afe_init改到enc28j60_init之前一级,发现后面网卡初始化enc28j60_init中,虽然读取芯片ID对了,但是后面的IP-auto configure 有问题。所以放弃。 如果把enc28j60_init改到as352x_afe_init之后,但是,从system.map中看到的是,优先级为7的驱动中,明显有几个驱动,也是和网卡初始化相关的,所以,这样改,尝试后,还是失败了。 所以,没法简单的通过调整现有的驱动的顺序,去实现顺序的调整。最后,被逼无奈,想到了一个可以实现我们需求的办法,那就是,单独定义一个优先级,把afe相关的初始化都放到那里面去,这样,就可以保证,其他没什么相关的冲突了。最后证实,这样是可以实现目的的。

具体添加一个新的优先级的步骤如下: 1.定义新的优先级 includelinuxinit.h中:

2.用对应新的宏,定义我们的驱动:

做到这里,本以为可以了,但是编译后,在system.map中,发现之前优先级为7的那几个函数,被放到system.map最后了,而不是预想的,在优先级7之后,在

之前。最后,发现时没有把对应的链接文件中的宏加进去:

3.includeasm-genericvmlinux.lds.h

最后,再重新编译,就可以实现我们要的,和afe相关的驱动初始化,都在网卡enc28j60_init之前了。也就可以在网卡里面读芯片ID了。当然,对应编译生成的system.map文件中,对应的通过module_init定义的驱动,优先级也都变成7了。而late_initcall对应优先级8了。 注:当前开发板arm的板子,所以,对应的load 脚本在:

linux-2.6.28.4archarmkernelvmlinux.lds 看起来,应该是这个文件: linux-2.6.28.4archarmkernelvmlinux.lds.S 生成上面那个脚本的。vmlinux.lds中的这一行:

就是将之前那些对应的init类型的函数,展开,放到这对应的位置。

【3】 不过,最后的最后,竟然发现网卡还是工作不正常,结果第二天,无意间发现是网卡地址设置导致网卡工作不正常的。 也就是说,实际是直接将afe设置到原先的优先级5就可以的,而不用这么麻烦去改系统的东西的...

不过,至少这也是一种办法,虽然不是那么的好...


欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/yw/9030091.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-04-24
下一篇2023-04-24

发表评论

登录后才能评论

评论列表(0条)

    保存