码迷,mamicode.com
首页 > 其他好文 > 详细

测试环境搭建

时间:2015-09-29 16:29:44      阅读:230      评论:0      收藏:0      [点我收藏+]

标签:

当时把系统和另一个同学一起完成后,接着我忙着找工作,而另一个同学也毕业去工作了,所以两个系统一直没时间结合起来联调。

找工作的事情也告一段落的,所以现在我需要一个人完成这个两个系统环境的搭建和测试工作。

首先,我自己的系统环境的搭建比较容易,因为整个都是自己动手完成的,而另一个同学的由于毕业后,服务器上的数据都被格式化了,所以需要搭建环境,有些困难。

1 首先需要下载内核源码,进行内核编译,完成这个工作后,将她毕设提交的代码替换内核原始的代码,重新make,但是发现个问题就是她提交的代码还存在很多的bug,也许当时不小心,没有将最终版本提交。首先是放入内核后,编译都存在问题,然后通过一些打印信息重新修改,能编译通过后,又出现一些问题就是,内核启动不了,各种内核panic,这个改起来就麻烦了,因为代码不是我写的,所以也有点吃力。老师逼着做,也没办法,那就自己一点点看一点点检查修改后的源码有哪些错误。。。。不过,有压力就是不同,被老师逼着没办法,那就努力做呗,居然花了一天的时间真的让我改好了,(*@ο@*) 哇~那叫一个高兴啊。。

2 第二步就是需要配置iscsi的initiator和target端

配置iSCSI target

1安装tgt

CentOS 自带了scsi-target-utils 软件,我们使用该软件进行target设置。

# yum -y install scsi-target-utils

2 )规划共享的iscsi target文件名

通常的命令格式是:

Iqn.yyyy-mm.<reversed domain name>:identifier

例如:

Iqn.2014-10.dev.iscsi-target:disk

3 )设置tgt的配置文件/etc/tgt/targets.conf

Vim /etc/tgt/targets.conf

<target iqn.2014-12.dev.iscsi-target:iscsidisk> 

backing-store /dev/sdd 

</target>

4 )启动iscsi target以及查看相关端口与磁盘信息

再来则是启动、开机启动,以及查看iscsi target所启动的端口:

/etc/init.d/tgtd start

Chkconfig tgtd on

Netstat -tlunp | grep tgt

查看我们的target的相关信息,以及提供的LUN数据内容:

Tgt-admin --show

 

5 )设置防火墙

不论在targets.conf配置文件中你有没有使用initiator-addressiscsi target就是使用TCP/IP传输数据的,所以你还是需要在防火墙内设置可以连接的客户端才行。也可以将防火墙关闭。

 

 

以上iscsi target配置好了,后面来配置initiator 

 

配置iSCSI Initiator

 

1 安装initiator

 

# yum -y install iscsi-initiator-utils

 

2)  设置开机启动

 

# chkconfig iscsid on

 

# chkconfig iscsi on

 

3侦测target

 

如果我们事先不知道目标主机的target名称,我们就需要进行侦测, 

 

# iscsiadm -m discovery -t sendtargets -p 要侦测的target 主机IP

 

3查看目前系统上面所有的target,但是还没有登录

 

# iscsiadm -m node

 

4) 登录target

 

# iscsiadm -m node -T 侦测到的设备 –login

 

5)更新/删除/添加target数据的方法

 

删除一个target的方法:

 

Iscsiadm -m node -T targetname --logout

 

--logout只是注销了target,但是并没有删除node内的数据,

 

Iscsiadm -m node 还是会显示target iqn的名称

 

删除后面接的那台target的连接信息

 

Iscsiadm -m node -o delete -T targetname 

 

此时,再使用如下命令:

 

Iscsiadm -m node 不存在node

 

同样,在不使用时候,要及时登出,将参数改为—logout即可。

 

由于开始网卡都是用的千兆网卡,老师绝对带宽不够,所以使用万兆网卡,但是换了万兆网卡后一直不能联网。安装intel的万兆网卡驱动:

Intel的10G网卡(比如,82598、 82599、 x540)由ixgbe驱动支持。现代的Linux发行版已经带有了ixgbe驱动,通过可加载模块的方式使用。然而,有些情况你希望在你机器上的自己编译安装ixgbe驱动,比如,你想要体验ixbge驱动的最新特性时。同样,内核默认自带的ixgbe驱动中的一个问题是不允许你自定义驱动的参数。如果你想要一个完全定制的ixgbe驱动(比如 RSS、多队列、中断阈值等等),你需要手动从源码编译ixgbe驱动。

 

第一步: 安装前提

安装之前,需要安装匹配的内核头文件和开发工具包。

  1. $ sudo apt-get install linux-headers-$(uname -r)
  2. $ sudo apt-get install gcc make

第二步: 编译Ixgbe驱动

最新的ixgbe驱动中下载源码。

  1. $ wget http://sourceforge.net/projects/e1000/files/ixgbe%20stable/3.23.2/ixgbe-3.23.2.tar.gz

如下编译ixgbe驱动。

  1. $ tar xvfvz ixgbe-3.23.2.tar.gz
  2. $ cd ixgbe-3.23.2/src
  3. $ make

第三步: 检查Ixgbe驱动

编译之后,你会看到在ixgbe-3.23.2/src目录下创建了ixgbe.ko。这就是会加载到内核之中的ixgbe驱动。

用modinfo命令检查内核模块的信息。注意你需要指定模块文件的绝对路径(比如 ./ixgbe.ko 或者 /home/xmodulo/ixgbe/ixgbe-3.23.2/src/ixgbe.ko)。输出中会显示ixgbe内核的版本。

  1. $ modinfo ./ixgbe.ko

  1. filename: /home/xmodulo/ixgbe/ixgbe-3.23.2/src/ixgbe.ko
  2. version: 3.23.2
  3. license: GPL
  4. description: Intel(R) 10 Gigabit PCI Express Network Driver
  5. author: Intel Corporation,
  6. srcversion: 2ADA5E537923E983FA9DAE2
  7. alias: pci:v00008086d00001560sv*sd*bc*sc*i*
  8. alias: pci:v00008086d00001558sv*sd*bc*sc*i*
  9. alias: pci:v00008086d0000154Asv*sd*bc*sc*i*
  10. alias: pci:v00008086d00001557sv*sd*bc*sc*i*
  11. alias: pci:v00008086d0000154Fsv*sd*bc*sc*i*
  12. alias: pci:v00008086d0000154Dsv*sd*bc*sc*i*
  13. alias: pci:v00008086d00001528sv*sd*bc*sc*i*
  14. alias: pci:v00008086d000010F8sv*sd*bc*sc*i*
  15. alias: pci:v00008086d0000151Csv*sd*bc*sc*i*
  16. alias: pci:v00008086d00001529sv*sd*bc*sc*i*
  17. alias: pci:v00008086d0000152Asv*sd*bc*sc*i*
  18. alias: pci:v00008086d000010F9sv*sd*bc*sc*i*
  19. alias: pci:v00008086d00001514sv*sd*bc*sc*i*
  20. alias: pci:v00008086d00001507sv*sd*bc*sc*i*
  21. alias: pci:v00008086d000010FBsv*sd*bc*sc*i*
  22. alias: pci:v00008086d00001517sv*sd*bc*sc*i*
  23. alias: pci:v00008086d000010FCsv*sd*bc*sc*i*
  24. alias: pci:v00008086d000010F7sv*sd*bc*sc*i*
  25. alias: pci:v00008086d00001508sv*sd*bc*sc*i*
  26. alias: pci:v00008086d000010DBsv*sd*bc*sc*i*
  27. alias: pci:v00008086d000010F4sv*sd*bc*sc*i*
  28. alias: pci:v00008086d000010E1sv*sd*bc*sc*i*
  29. alias: pci:v00008086d000010F1sv*sd*bc*sc*i*
  30. alias: pci:v00008086d000010ECsv*sd*bc*sc*i*
  31. alias: pci:v00008086d000010DDsv*sd*bc*sc*i*
  32. alias: pci:v00008086d0000150Bsv*sd*bc*sc*i*
  33. alias: pci:v00008086d000010C8sv*sd*bc*sc*i*
  34. alias: pci:v00008086d000010C7sv*sd*bc*sc*i*
  35. alias: pci:v00008086d000010C6sv*sd*bc*sc*i*
  36. alias: pci:v00008086d000010B6sv*sd*bc*sc*i*
  37. depends: ptp,dca
  38. vermagic: 3.11.0-19-generic SMP mod_unload modversions
  39. parm: InterruptType:Change Interrupt Mode (0=Legacy, 1=MSI, 2=MSI-X), default IntMode (deprecated) (array of int)
  40. parm: IntMode:Change Interrupt Mode (0=Legacy, 1=MSI, 2=MSI-X), default 2 (array of int)
  41. parm: MQ:Disable or enable Multiple Queues, default 1 (array of int)
  42. parm: DCA:Disable or enable Direct Cache Access, 0=disabled, 1=descriptor only, 2=descriptor and data (array of int)
  43. parm: RSS:Number of Receive-Side Scaling Descriptor Queues, default 0=number of cpus (array of int)
  44. parm: VMDQ:Number of Virtual Machine Device Queues: 0/1 = disable, 2-16 enable (default=8) (array of int)
  45. parm: max_vfs:Number of Virtual Functions: 0 = disable (default), 1-63 = enable this many VFs (array of int)
  46. parm: VEPA:VEPA Bridge Mode: 0 = VEB (default), 1 = VEPA (array of int)
  47. parm: InterruptThrottleRate:Maximum interrupts per second, per vector, (0,1,956-488281), default 1 (array of int)
  48. parm: LLIPort:Low Latency Interrupt TCP Port (0-65535) (array of int)
  49. parm: LLIPush:Low Latency Interrupt on TCP Push flag (0,1) (array of int)
  50. parm: LLISize:Low Latency Interrupt on Packet Size (0-1500) (array of int)
  51. parm: LLIEType:Low Latency Interrupt Ethernet Protocol Type (array of int)
  52. parm: LLIVLANP:Low Latency Interrupt on VLAN priority threshold (array of int)
  53. parm: FdirPballoc:Flow Director packet buffer allocation level:
  54. 1 = 8k hash filters or 2k perfect filters
  55. 2 = 16k hash filters or 4k perfect filters
  56. 3 = 32k hash filters or 8k perfect filters (array of int)
  57. parm: AtrSampleRate:Software ATR Tx packet sample rate (array of int)
  58. parm: FCoE:Disable or enable FCoE Offload, default 1 (array of int)
  59. parm: LRO:Large Receive Offload (0,1), default 1 = on (array of int)
  60. parm: allow_unsupported_sfp:Allow unsupported and untested SFP+ modules on 82599 based adapters, default 0 = Disable (array of int)

第四步: 测试Ixgbe驱动

在测试新的模块之前,如果你内核中已存在旧版本ixgbe模块的话你需要先移除它。

  1. $ sudo rmmod ixgbe

接着使用insmod命令插入新编译的ixgbe模块。确保指定一个模块的绝对路径。

  1. $ sudo insmod ./ixgbe.ko

如果上面的命令成功运行,就不会显示任何的信息。

如果你需要,你可以尝试加入额外的参数。比如,设置RSS的队列数量为16:

  1. $ sudo insmod ./ixgbe.ko RSS=16

检查/var/log/kern.log来查看ixgbe驱动是否成功激活。查看日志中的“Intel(R) 10 Gigabit PCI Express Network Driver”。ixgbe的版本信息应该和之前的modinfo的显示应该相同。

  1. Sep 18 14:48:52 spongebob kernel: [684717.906254] Intel(R) 10 Gigabit PCI Express Network Driver - version 3.22.3

技术分享

第五步: 安装Ixgbe驱动

一旦你验证新的ixgbe驱动可以成功加载,最后一步是在你的系统中安装驱动。

  1. $ sudo make install

ixgbe.ko 会安装在/lib/modules//kernel/drivers/net/ethernet/intel/ixgbe 下。

从这一步起,你可以用下面的modprobe命令加载ixgbe驱动了。注意你不必再指定绝对路径。

  1. $ sudo modprobe ixgbe

如果你希望在启动时加载ixgbe驱动,你可以在/etc/modules的最后加入“ixgbe”。

 

 今天终于把环境搭建起来了,哈哈。。。趁放十一前完成所有的任务,然后看能不能提前将毕业设计完成了,去实习咯。。。

测试环境搭建

标签:

原文地址:http://www.cnblogs.com/wuchanming/p/4846506.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!