码迷,mamicode.com
首页 > 系统相关 > 详细

程序员同事问shell脚本刷流量,不讨巧帮他填了一个巨坑

时间:2018-10-16 17:37:49      阅读:208      评论:0      收藏:0      [点我收藏+]

标签:轻松   基础   日志   water   很多   com   司机   专业   总结   

程序员同事闲来无事
问我可以用shell脚本写个刷微博访问量的没。
于是脑海里想起了病毒营销或者fork×××这些词。
依稀操刀稀松吧啦的写了起来。
并测试了下,
脚本内容是下面这样的:
技术分享图片
脚本跑起来的样子
技术分享图片
当然仅仅是为了展示shell脚本威力。
当然还是希望大家靠实际的阅读量。
拿微信公众号来说,刷量增粉的很多。
同样笔者手里也有些软件。
但一次都没有使用过。
以来防止被中马,
二来做人如果都急功近利.
光追求虚妄的东西而没有实质内容。
没有实际转化率和留存,本质上就是自欺欺人。
不闲扯我们继续看

思路来源:Linux世界里著名的fork×××。
fork×××的源码 :
:(){:|:&};

这就像一颗疯长的二叉树,不断会消耗系统的资源。

fork()×××的影响规模是2n2n。

这个脚本当然不可能有如此催人泪下的破坏力

此处把规模控制在1,

由curl访问目标网页,标准输出重定向到文件read1中(看起来窗口会比较整洁)。

当准备去看read1时发现磁盘空间已经不足。
由于机器属于程序员内测。
没有设置磁盘阈值
于是虚惊一场,以为炸了。
礼貌性的 df -h
技术分享图片
发现 / 下已经爆满,图上当然是处理过得。

看了下/home 下面有个data 是浅蓝色。
ll -lrt瞅了下
末端呈现 data --> /data

懂linux基础的都知道.,这就是软连接。
此处的意思就是你去访问这里的浅蓝色data
实际上访问的是/data
于是顺手进/data.删除了一些没用的安装包和日志。
发现稍有了空间。
接着用rsync -avzP /data /home/data2 备份下/data
当然发现执行df -h 后, / 根目录磁盘数据大小没变
/home 由原来的31G变为了36G

问这哥们,以前这么干的意义是什么?
这哥们说/home下面空间大。
/目录存放东西容易满,习惯用/home/data存数据
于是想做个软连接当访问/data时,访问到/home/data
没想到尽然错了一年之久。
怪不得每次存/home/data 总是会磁盘100%

于是在有/home/data2 备份的基础上,删除了原来的/data 目录
修正后结果如下:
技术分享图片

/home 下的data 和 data2
技术分享图片

总结:
大多数博客内容都会教你什么
ln -s 源目录 软连接文件
但很多新人甚至工作许久的老司机或者非专业人士
总是会模棱两可。
鉴于一般情况做软链是为了求取大空间
今天我教给大家一个简单的记忆方法
ln -s 源目录(数据空间大的) 链接目录(空间小)

如此这般,便轻轻松松祝你帮人填坑一把。
顺便在职场生涯里避免尴尬。
细节决定成败,
行千里者最怕的是鞋里有兜不干净的沙子。

程序员同事问shell脚本刷流量,不讨巧帮他填了一个巨坑

标签:轻松   基础   日志   water   很多   com   司机   专业   总结   

原文地址:http://blog.51cto.com/hashlinux/2300681

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!