从零到一:NS2网络模拟器实战部署与场景构建指南
1. NS2网络模拟器入门指南第一次接触NS2的朋友可能会被这个老牌网络模拟器的配置过程吓到。我刚开始用的时候光是解决依赖问题就折腾了两天。不过别担心跟着我的步骤走你可以在半小时内完成基础环境搭建。NS2本质上是一个离散事件网络模拟器用C和OTcl两种语言混合开发。这种设计很有意思——性能关键部分用C实现而配置和场景构建用OTcl脚本完成。就像搭积木C负责造积木块OTcl负责决定怎么拼装。在开始安装前建议使用Ubuntu 18.04或20.04系统。这两个版本我实测兼容性最好。先更新软件源sudo apt update sudo apt upgrade -y接着安装核心依赖包sudo apt install build-essential autoconf automake libxmu-dev gcc-7 g-7 -y这里有个坑要注意新版gcc可能会报错建议用gcc-7。我测试过在Ubuntu 20.04上gcc-9编译某些模块时会出问题。切换默认gcc版本的命令是sudo update-alternatives --install /usr/bin/gcc gcc /usr/bin/gcc-7 72. 从源码安装NS2实战下载NS2最新稳定版我用的2.35版本wget https://sourceforge.net/projects/nsnam/files/allinone/ns-allinone-2.35/ns-allinone-2.35.tar.gz tar xvf ns-allinone-2.35.tar.gz cd ns-allinone-2.35编译前需要修改一个小bug。打开文件linkstate/ls.h在第137行左右添加typedef unsigned int u_int32_t;然后开始编译./install这个过程大概需要15-30分钟取决于你的机器性能。我第一次编译时遇到make: *** [all] Error 2是因为没装全依赖包。如果报错建议仔细看错误日志通常缺什么库就装什么。编译成功后配置环境变量。编辑~/.bashrc文件添加export PATH$PATH:/path/to/ns-allinone-2.35/bin:/path/to/ns-allinone-2.35/tcl8.5.10/unix:/path/to/ns-allinone-2.35/tk8.5.10/unix export LD_LIBRARY_PATH/path/to/ns-allinone-2.35/otcl-1.14:/path/to/ns-allinone-2.35/lib export TCL_LIBRARY/path/to/ns-allinone-2.35/tcl8.5.10/library保存后执行source ~/.bashrc验证安装是否成功ns % puts Hello NS2 Hello NS2 % exit看到交互界面能正常输出就说明安装成功了。3. 第一个点对点网络仿真我们先从最简单的点对点网络开始。创建一个新文件p2p.tcl# 创建模拟器对象 set ns [new Simulator] # 开启NAM跟踪 set nf [open out.nam w] $ns namtrace-all $nf # 定义结束过程 proc finish {} { global ns nf $ns flush-trace close $nf exec nam out.nam exit 0 } # 创建两个节点 set n0 [$ns node] set n1 [$ns node] # 创建双向链路 $ns duplex-link $n0 $n1 1Mb 10ms DropTail # 设置UDP连接 set udp [new Agent/UDP] $ns attach-agent $n0 $udp set null [new Agent/Null] $ns attach-agent $n1 $null $ns connect $udp $null # 设置CBR流量 set cbr [new Application/Traffic/CBR] $cbr set packetSize_ 500 $cbr set interval_ 0.005 $cbr attach-agent $udp # 调度事件 $ns at 0.5 $cbr start $ns at 4.5 $cbr stop $ns at 5.0 finish # 启动模拟 $ns run运行脚本ns p2p.tcl这会自动打开NAM可视化窗口。你会看到两个节点之间有条蓝色连线数据包像小圆点一样移动。这个例子虽然简单但包含了NS2仿真的所有核心要素创建节点(node)建立链路(duplex-link)添加传输代理(UDP/Null)绑定流量生成器(CBR)调度事件(at)启动模拟(run)4. 多节点竞争场景构建现在我们来构建一个更复杂的场景三个发送节点竞争一个接收节点的带宽。新建文件competition.tclset ns [new Simulator] # 开启XGraph数据记录 set f0 [open flow0.tr w] set f1 [open flow1.tr w] set f2 [open flow2.tr w] # 创建4个节点 set n0 [$ns node] set n1 [$ns node] set n2 [$ns node] set n3 [$ns node] # 星型拓扑连接 $ns duplex-link $n0 $n3 1Mb 10ms DropTail $ns duplex-link $n1 $n3 1Mb 10ms DropTail $ns duplex-link $n2 $n3 1Mb 10ms DropTail # 定义记录过程 proc record {} { global sink0 sink1 sink2 f0 f1 f2 set ns [Simulator instance] set time 0.5 set bw0 [$sink0 set bytes_] set bw1 [$sink1 set bytes_] set bw2 [$sink2 set bytes_] set now [$ns now] puts $f0 $now [expr $bw0/$time*8/1000000] puts $f1 $now [expr $bw1/$time*8/1000000] puts $f2 $now [expr $bw2/$time*8/1000000] $sink0 set bytes_ 0 $sink1 set bytes_ 0 $sink2 set bytes_ 0 $ns at [expr $now$time] record } # 创建接收代理 set sink0 [new Agent/LossMonitor] set sink1 [new Agent/LossMonitor] set sink2 [new Agent/LossMonitor] $ns attach-agent $n3 $sink0 $ns attach-agent $n3 $sink1 $ns attach-agent $n3 $sink2 # 自定义流量生成过程 proc attach-cbr-traffic { node sink rate } { global ns set source [new Agent/UDP] $ns attach-agent $node $source set traffic [new Application/Traffic/CBR] $traffic set packetSize_ 500 $traffic set interval_ [expr 1.0/$rate] $traffic attach-agent $source $ns connect $source $sink return $traffic } # 创建三个不同速率的流 set source0 [attach-cbr-traffic $n0 $sink0 0.5] set source1 [attach-cbr-traffic $n1 $sink1 1.0] set source2 [attach-cbr-traffic $n2 $sink2 1.5] # 启动记录和流量 $ns at 0.0 record $ns at 1.0 $source0 start $ns at 1.0 $source1 start $ns at 1.0 $source2 start $ns at 10.0 $source0 stop $ns at 10.0 $source1 stop $ns at 10.0 $source2 stop $ns at 11.0 finish proc finish {} { global f0 f1 f2 close $f0 close $f1 close $f2 exec xgraph flow0.tr flow1.tr flow2.tr -geometry 800x400 exit 0 } $ns run运行后会生成三个数据流的吞吐量曲线图。你会看到1.5Mbps的流flow2获得了最多带宽而0.5Mbps的流flow0经常被压制。这就是典型的TCP竞争场景。5. 性能分析与结果解读仿真完成后我们需要分析几个关键指标吞吐量(Throughput)单位时间内成功传输的数据量时延(Latency)数据包从发送到接收的时间丢包率(Packet Loss Rate)丢失数据包占总发送包的比例用AWK脚本处理trace文件# 计算吞吐量 awk { if ($1 r $4 3) { bytes[$5] $6 } } END { for (flow in bytes) { print Flow, flow, Throughput:, bytes[flow]/10.0*8/1000000, Mbps } } competition.tr这个脚本会统计每个流10秒内的平均吞吐量。在我的测试中输出大概是Flow 0 Throughput: 0.48 Mbps Flow 1 Throughput: 0.95 Mbps Flow 2 Throughput: 1.42 Mbps可以看到高优先级流确实抢占了更多带宽。如果想更公平可以修改为$ns queue-limit $n0 $n3 20 $ns queue-limit $n1 $n3 20 $ns queue-limit $n2 $n3 20这样设置队列长度后三个流的吞吐量会更接近。这就是NS2的强大之处——通过调整参数就能模拟不同网络条件下的协议行为。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2472094.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!