几个常用的shell命令
环递归删除目录下的.svn文件夹
find . -type d -name ".svn" | xargs sudo rm -rf
2,若一个目录中小文件过多,直接用rm报错,可以每次取十个循环删除
ls | xargs -n 10 rm -fr
3,分析log:以"&"符分隔,打印出第一列,排序,除重
awk -F '&' '{print $1}' | sort | uniq
4, Remove SVN directories
$ find . -name '.svn' -exec \rm -fr {} \; -print;
5, Remove jars
$ find . -name '*.jar' -exec \rm -fr {} \; -print;
6, Remove empty directories
$ find . -type d -depth -print | xargs rmdir
7,目录权限变更
$ chmod -R 777 directory
对目前目录下的所有档案与子目录进行相同的权限变更(即以递回的方式逐个变更)
8,查看以start命名的运行进程
$ ps -ef | grep start
nw79725 7209 7206 0 23:39:11 ? 0:00 /bin/sh /home/nw79725/bea103/user_projects/domains/bin/startWebLog.sh
9,强制关闭进程
kill -9 7209
10,后台运行脚本
$nohup /root/start.sh &
11,清空文件size
$ > test.txt(文件大小被截为0字节)
12,重命名文件
$ mv abc.txt 123.txt
13,解压缩zip文件到指定目录
unzip OsmApp.zip -d OsmApp
===========================================================
shell面试题
1、编写shell程序,实现自动删除50个账号的功能。账号名为stud1至stud50。
一句话思路:找出规律,循环解决
for((i=1;i<51;i++));do userdel -r stud$i ;done
知识点:for循环,当然是用while循环也是可以的,until也行。
2、某系统管理员需每天做一定的重复工作,请按照下列要求,编制一个解决方案:
(1)在下午4 :50删除/abc目录下的全部子目录和全部文件;
(2)从早8:00~下午6:00每小时读取/xyz目录下x1文件中每行第一个域的全部数据加入到/backup目录下的bak01.txt文件内;
(3)每逢星期一下午5:50将/data目录下的所有目录和文件归档并压缩为文件:backup.tar.gz;
一句话思路:主要考验管理员对于计划任务的熟悉程度
crontab -e
50 16 * * * rm -rf /abc/*
* 8-18/1 * * * awk '{print $1 > "/backup/bak01.txt"}' /xyz/x1
50 17 * * 1 tar -czf backup.tar.gz /data
知识点:awk的输出重定向,当然用管道也是可以的。tar命令打包参数,这样做会有一个提示,只是去掉了目录不用理会。
3、gameser这个服务启动命令为./gameser服务,请写一个脚本,当服务宕掉,脚本自动拉起gameser服务。
一句话思路:进程管理
#!/bin/bash
while true;do
result=`ps aux | grep gameser | wc -l`
if [ $result -lt 2 ];then ./gameser; fi
sleep 5
done
知识点:还可以使用pgrep命令。
4、linux crontab;请在3月23号21点18分的时候,重启服务器
一句话思路:计划任务+关机
crontab -e
18 21 23 3 * init 6
知识点:可能会延展提问到最安全的关机命令,"写缓存"sync 最好两遍,有人说三遍,其实四遍也行,要不干脆还是别关机了!
5、你想每天23:00运行xxxx.sh脚本。并自动进行日志分析。第2天上班的时候看到分析结果 给出你的部属方案
一句话思路:计划任务,日志分析
0 23 * * * sh ****.sh;err=$?;logger -p cron.err $err
知识点:第一个参数一定要写零,否则在定义的23点里每分钟都会执行。计划任务只有当报错的时候才会以邮件形式发送给用户,所以
这里使用logger命令将消息发送给日志服务器,这里只是发送了命令返回值,你可以随意发送内容,看你喜欢了。
6、要求:运行脚本输入两个数得到如下结果:
#sh xxx.sh 2 3
**
***
*****
一句话思路:看到这个第一反应就是循环呗。
#!/bin/bash
line1=$1
line2=$2
let line3=$1+$2
while [ $line1 -gt 0 ];do
echo -n \*
let line1=$line1-1
done
echo
while [ $line2 -gt 0 ];do
echo -n \*
let line2=$line2-1
done
echo
while [ $line3 -gt 0 ];do
echo -n \*
let line3=$line3-1
done
echo
知识点:如果你的第一反应是使用循环,那就进入一个死循环了,因为根本就没有规律。我们都知道,循环是依靠一定规律的。echo
的 -n参数。*在shell中是通配符,所以要加转义字符。(希望你能给出更好的解决方案!)
9、查找文件后缀是log的 三天前的文件删除
一句话思路:查找就一定是find
find / -name "*.log" -and -mtime +3 -exec rm -rf {} \;
知识点:-mtime + 代表后面数字之外的,- 就是之内的。
10、写一个脚本将目录下大于100kb的文件移动到/tmp下
一句话思路:同上
find ./ -size +100k -exec mv {} /tmp \;
知识点:-exec {} \; 标准写法,没有好办法,背吧。
11 、日志如下统计访问IP最多的前10个
192.168.0.6 - - [25/Nov/2010:13:55:10 +0800] "GET /cacti/images/auth_login.gif HTTP/1.1" 200 21265
"http://192.168.0.104/cacti/graph_view.php?action=tree&tree_id=2&leaf_id=8&page=3" "Mozilla/4.0 (compatible; MSIE 8.0;
Windows NT 5.2; Trident/4.0; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729; InfoPath.1)"
192.168.0.6 - - [25/Nov/2010:13:55:14 +0800] "GET /favicon.ico HTTP/1.1" 404 287 "-" "Mozilla/4.0 (compatible; MSIE 8.0;
Windows NT 5.2; Trident/4.0; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729; InfoPath.1)
这个题在前一篇中已经给出答案,这里就不再赘述。
http://7648853.blog.51cto.com/4990508/851407
12、过滤出当前目录下所有以字母(不区分大小写)开头的文件
一句话思路:过滤就是grep
ls | grep -P "^[a-zA-Z]"
ls | grep -P -i "^[a-z]"
知识点:正则表达式,使用-i参数让grep命令不区分大小写。
13、文件A.txt内容为"12:34:68",只输出A.txt中的"34"
一句话思路:提取内容就是awk
awk -F ":" '{print $2}' A.txt
知识点:awk 域,-F参数指定分隔符,默认分隔符是空格。
14、用sed命令实现直接将文件B.TXT中的所有123替换成345
一句话思路:没思路了,人家都说了用sed
sed -i 's/123/456/g' B.TXT
知识点:-i参数让sed修改文件,默认不修改源文件。题目中提到了所有字样,所以要使用g参数。
15、用sed修改文件mailbox.txt的20行的zhango为wang
一句话思路:命题作文sed,没有瞎想空间
sed -i '20s/zhango/wang/' mailbox.txt
知识点:上题是全局,这题规定了行。如果写成这样"/20/",就是正则表达式了。
16、正则表达式,IP地址的匹配,写一下
一句话思路:遥想当年,web开发程序员面试不出意外的第一道题。
([0-9]{1,3}\.){1,3}([0-9]){1,3}
知识点:正则表达式,写个简单的,这个答案不严谨,但考虑到只是面试,所以将就将就也能用。
17、写出命令。统计日志文件weblog.log中 今天14:00~15:00的记录条数(时间格式:2011-01-01—15:30:11)
一句话思路:第一反应,这个要用awk,分析统计嘛。可真要用awk麻烦就大了。
sum14=`grep -c "2011-01-01-14" weblog.log`
sum15=`grep -c "2011-01-01-15" weblog.log`
echo $[$sum14+$sum15]
知识点:grep命令-c参数,统计匹配的行数。shell中的数学计算。
18、求一组数的最大值和最小值
一句话思路:运维越来越像开发了,冒泡法都有了。越来越难混了,一个运维不看手册,要看算法了。
知识点:去看书吧,看算法的。
19、将当前目录所有文件扩展名改为log
一句话思路:如果你的第一反应是使用find命令,那么恭喜你,你中了敌人的奸计,不是不能实现,是很麻烦。
for file in `ls ./ | grep -P "(.*)(\..*)"`;do echo $file | mv $file `sed -r 's#(.*)(\..*)#\1.log#'`; done
for file in `ls ./ | grep -P "(.*)(\..*)"`;do echo $file | mv $file `echo ${file%.**}`.log; done
知识点:第一个方法中使用了sed,第二个方法中使用了字符操作,#从前向后数,%从后向前数。其实说白了,就是为了拼凑出 mv 参
数1 参数2。其实很多时候,编写shell脚本的时候要学会反向推导,逆向思考。
还有一种方法是使用cut命 令,但如果遇到文件有两个扩展名的情况下就会出现问题。redhat as4 安装完成后,在root目录下会生成
install.log install.log.syslog这两个文件,如果使用cut就会出现错误。具体原因在这里就不说了。运维嘛,需要的是严谨!
20、用shell在/usr/local下 建立20个子目录 xunlei1-xunlei20,再在这个子目录下分别建255个子目录dir1-dir255,再在255个子目录下创
建10000个文件xunlei1.html-xunlei10000.html
一句话思路:这有啥,{}大括号呗。
mkdir -p /usr/loca/xunlie{1..20}/dir{1..255}/
touch /usr/loca/xunlie{1..20}/dir{1..255}/xunlei{1..10000}.html
知识点:如果你就这么写上去,那你又中计了。为什么呢,因为超过了shell命令参数的最大限制。shell中参数的限制是:5452。所以
要分着写。
写到这里,不禁感叹,面试这件事情越来越难。本来面试就紧张,满怀期待,不仅要跟HR讨价还价,还要与技术主管斗智斗勇,好
吧,人是活的,我们忍了。可连死的面试题都要处处小心。可话说回来,面试题做不出来,就算你跟诸葛亮对着骂街都能微操胜券也没
用。
在这里要特别感谢邰锴同学,这些shell题是他帮忙汇总整理出来的。
====================================================================
shell 编程与应用自测题(出自 linux 面试题)
1 .用 Shell 编程,判断一文件是不是字符设备文件,如果是将其拷贝到 /dev 目录下。
参考程序:
#!/bin/sh
FILENAME=
echo "Input file name : "
read FILENAME
if [ -c "$FILENAME" ]
then
cp $FILENAME /dev
fi
2 .请下列 shell 程序加注释,并说明程序的功能和调用方法: #!/bin/sh
#!/bin/sh
#
# /etc/rc.d/rc.httpd
#
# Start/stop/restart the Apache web server.
#
# To make Apache start automatically at boot, make this
# file executable: chmod 755 /etc/rc.d/rc.httpd
#
case "$1" in
'start')
/usr/sbin/apachectl start ;;
'stop')
/usr/sbin/apachectl stop ;;
'restart')
/usr/sbin/apachectl restart ;;
*)
echo "usage $0 start|stop|restart" ;;
esac
参考答案:
( 1 )程序注释
#!/bin/sh 定义实用的 shell
#
# /etc/rc.d/rc.httpd 注释行,凡是以星号开始的行均为注释行。
#
# Start/stop/restart the Apache web server.
#
# To make Apache start automatically at boot, make this
# file executable: chmod 755 /etc/rc.d/rc.httpd
#
case "$1" in #case结构开始,判断"位置参数"决定执行的操作。本程序携带一个"位置参数",即$1
'start') #若位置参数为start
/usr/sbin/apachectl start ;; #启动httpd进程
'stop') #若位置参数为stop
/usr/sbin/apachectl stop ;; #关闭httpd进程
'restart') #若位置参数为stop
/usr/sbin/apachectl restart ;; #重新启动httpd进程
*) #若位置参数不是start、stop或restart时
echo "usage $0 start|stop|restart" ;; #显示命令提示信息:程序的调用方法
esac #case结构结束
(2)程序的功能是启动,停止或重新启动httpd进程
(3)程序的调用方式有三种:启动,停止和重新启动。
3.设计一个shell程序,添加一个新组为class1,然后添加属于这个组的30个用户,用户名的形式为stdxx,其中xx从01到30。
参考答案:
#!/bin/sh
i=1
groupadd class1
while [ $i -le 30 ]
do
if [ $i -le 9 ] ;then
USERNAME=stu0${i}
else
USERNAME=stu${i}
fi
useradd $USERNAME
mkdir /home/$USERNAME
chown -R $USERNAME /home/$USERNAME
chgrp -R class1 /home/$USERNAME
i=$(($i+1))
done
4.编写shell程序,实现自动删除50个账号的功能。账号名为stud1至stud50。
参考程序:
#!/bin/sh
i=1
while [ $i -le 50 ]
do
userdel -r stud${i}
i=$(($i+1 ))
done
5.某系统管理员需每天做一定的重复工作,请按照下列要求,编制一个解决方案:
(1)在下午4 :50删除/abc目录下的全部子目录和全部文件;
(2)从早8:00~下午6:00每小时读取/xyz目录下x1文件中每行第一个域的全部数据加入到/backup目录下的bak01.txt文件内;
(3)每逢星期一下午5:50将/data目录下的所有目录和文件归档并压缩为文件:backup.tar.gz;
(4)在下午5:55将IDE接口的CD-ROM卸载(假设:CD-ROM的设备名为hdc);
(5)在早晨8:00前开机后启动。
参考答案:
解决方案:
(1)用vi创建编辑一个名为prgx的crontab文件;
(2)prgx文件的内容:
50 16 * * * rm -r /abc/*
0 8-18/1 * * * cut -f1 /xyz/x1 >;>; /backup/bak01.txt
50 17 * * * tar zcvf backup.tar.gz /data
55 17 * * * umount /dev/hdc
(3)由超级用户登录,用crontab执行 prgx文件中的内容:
[email protected]:#crontab prgx ;在每日早晨 8:00 之前开机后即可自动启动 crontab 。
6 .设计一个 shell 程序,在每月第一天备份并压缩 /etc 目录的所有内容,存放在 /root/bak 目录里,且文件名为如下形式 yymmdd_etc , yy 为年, mm 为月, dd 为日。
Shell 程序 fileback 存放在 /usr/bin 目录下。
参考答案:
( 1 )编写 shell 程序 fileback :
#!/bin/sh
DIRNAME=`ls /root | grep bak`
if [ -z "$DIRNAME" ] ; then
mkdir /root/bak
cd /root/bak
fi
YY=`date +%y`
MM=`date +%m`
DD=`date +%d`
BACKETC=$YY$MM$DD_etc.tar.gz
tar zcvf $BACKETC /etc
echo "fileback finished!"
( 2 )编写任务定时器:
echo "0 0 1 * * /bin/sh /usr/bin/fileback" >; /root/etcbakcron
crontab /root/etcbakcron
或使用 crontab -e 命令添加定时任务:
0 1 * * * /bin/sh /usr/bin/fileback
7 .有一普通用户想在每周日凌晨零点零分定期备份 /user/backup 到 /tmp 目录下,该用户应如何做?
参考答案:( 1 )第一种方法:
用户应使用 crontab –e 命令创建 crontab 文件。格式如下:
0 0 * * sun cp –r /user/backup /tmp
( 2 )第二种方法:
用户先在自己目录下新建文件 file ,文件内容如下:
0 * * sun cp –r /user/backup /tmp
然后执行 crontab file 使生效。
8. 设计一个 Shell 程序,在 /userdata 目录下建立 50 个目录,即 user1 ~ user50 ,并设置每个目录的权限,其中其他用户的权限为:读;文件所有者的权限为:读、写、
执行;文件所有者所在组的权限为:读、执行。
参考答案 : 建立程序 Pro16 如下:
#!/bin/sh
i=1
while [ $i -le 50 ]
do
if [ -d /userdata ];then
mkdir -p /userdata/user$i
chmod 754 /userdata/user$i
echo "user$i"
let "i = i + 1" (或 i=$ (( $i + 1 ))
else
mkdir /userdata
mkdir -p /userdata/user$i
chmod 754 /userdata/user$i
echo "user$i"
let "i = i + 1" (或 i=$ (( $i + 1 ))
fi
done
5.打印1-99之间的奇数到文件
方法一:
seq >newfile 1 2 99
方法二:
#!/bin/bash
i=1
while [ $i -le 99 ]
do
if [ $i % 2 == 1 ]
then
echo "$i" >newfile
fi
done
7.从a.log文件中提取包含"WARNING"或"FATAL",同时不包含"IGNOR"的行,然后提取以":"分割的第5个字段.
grep -E 'WARNING|FATAL' file|grep -v 'IGNOR'|awk -F: '{print 5}'
1.有一个文件,里面有二列,第一列ip地址,第二列是时间,同一个ip可能出现多次,但时间不同.
文件类似下面的样子:
192.168.1.2 13:10
192.127.12.1 13.11
192.168.1.2 14:22
现要求写一脚本,显示出现最多的ip top 10
awk '{print $1}' file|sort|uniq -c|sort -nr|head -10
2.假设Apache产生的日志文件为access.log,在Apache正在运行的时候,执行命令mv access.log access.bak,执行完毕后,请问新的apache
日志会打印到那里?为什么?
答: 新的日志会打印在 access.bak中. 因为apache启动时,会找到access.log文件,随时准备向文件中追加日志,虽然此时文件被改名,但是由
于服务正在 运行,因为它的inode节点的位置没有变,程序打开的fd仍然会指向原来的那个inode.不会因为文件名的改变而改变,但若重启服
务器之后,系统就会 检查 access.log文件是否存在,不存在,则创建.
3.在shell环境中,如何查看远程Linux系统运行了多少时间?
ssh [email protected] "uptime"|awk '{print $3,$4}'
4.处理一下文件内容,将域名取出并进行计数排数,如处理:
http://www.baidu.com/index.html
http://ww.baidu.com/1.html
http://www.baidu.com/2.html
http://post.baidu.com/index.html
http://mp3.baidu.com/index.html
http://www.baidu.com/3.html
http://post.baidu.com/2.html
得到如下结果:域名的出现次数,域名
4 www.baidu.com
2 post.baidu.com
1 mp3.baidu.com
shell程序如下:
方法一: #cat file|sed -e 's/http:\/\///' -e 's/\/.*//'|sort|uniq -c|sort -nr|head -10
方法二: #awk -F/ '{print $3}' file|sort -r|uniq -c|awk '{print $1 "\t",$2}'
5.如果得到随机的字串,长度和字串中出现的字符表可定义并将字串倒序显示,如把0123456789作为基准的字串字符表,产生一个6位的
字串642031,打印出的字符串为130246,可使用bash/perl/php/c任一种。
bash程序如下:
#awk -v count=6 'BEGIN {srand();str="0123456789";len=length(str);for(i=count;i>0;
i--)marry[i]=substr(str,int(rand()*len),1);for(i=count;i>0;i--)printf(
"%c",marry[i]);printf("\n");for(i=0;i<=count;i++)printf("%c",marry[i]);
printf("\n")}'
输出结果:838705
507838
6.如何查看当前Linux状态。如cpu使用,内存使用,负载情况等
答:linux 中,"/proc"是个伪文件目录,不占用系统空间,及时反应出内存现在使用的进程情况
其中许多文件都保存系统运行状态和相关信息。
对于/proc可以浏览其文件内容:
cpuinfo 主机cpu信息
filesystems 文件系统信息
meninfo 主机内存信息
version Linux版本信息
diskstatus 磁盘负载情况
另外top命令可以动态的显示出当前系统进程用户的使用情况,free命令可以查看内存信息
ps 查看进程情况。
7.比如,ext2文件系统,如果异常死机,开机如何修复文件系统?
答:如果异常死机,如断电,通知机房的人开机之后,我们需要远程修复,检查文件系统。除了
/ 分区之外,其他分区:umount /home
fsck -y /home
/ 分区需要开机之后由机房人员检查。随后我们登录并扫描/home分区
8.如何检查一个进程所使用的文件句柄?
答:看这里面/proc/进程号/fd/ 的文件个数就行了
9.查看Apache的进程数。
# ps -ef|grep httpd|wc -l
10.如何统计apache的每秒访问数?
tail access_log|awk '{print $1,$4}'
其中文件在:/etc/httpd/access_log
11.说明一下/proc/sys子目录的作用
答:该子目录的作用是报告各种不同的内核参数,并让你能交互的更改其中某些。与/proc中所有其他文件不同,该目录中的某些文件可
以写入,不过针对root。一下是该子目录的两个最常见的用途:
(1)允许路由:即便是Mandrakelinux 默认的内核也是允许路由的。你必须显式允许它这么做 为此:#echo 1
>/proc/sys/net/ipv4/ip_forward.
如果您要禁用,则让上述1改为0
(2)阻止ip欺骗:ip欺骗会让人认为某个来自于外部的某个数据包来自于它到达的那个接口, 这一技术常被crack利用。你可以阻止这种
入侵:
#echo 1 >/proc/sys/net/ipv4/conf/all/rp_filter.
这次改变仅由系统运行时有效,系统重启后,会改变为默认值。你可以将以上命令添加到
/etc/rc.d/rc.local中,启动就会运行。另一方法:修改/etc/sysctl.conf
1.有10台被监控主机,一台监控机,在监控机上编写脚本,一旦某台监控机器/分区使用率大于80%,就发出报警,放到crontab里面,每
10分钟检查一次。
(1)首先,建立信任关系 1 VS 10. 但拿两台机器(192.168.1.6,192.168.1.4)做试验
#ssh-keggen -b 1024 -t rsa //(以root用户)
#cd .ssh/
#ls
id_rsa
id_rsa.pub
knows_host
#scp id_rsa.pub 192.168.1.4:/root/.ssh/192.168.1.6
这里把公钥取名为可信任主机的IP地址
现在登录到192.168.1.4机器
#cd .ssh/
#cat 192.168.1.6 >> authorized_keys
然后回到192.168.1.6机器。
#ssh 192.168.1.4
这样就可以了,里面可能涉及到权限问题。一般.ssh/文件夹为755,authorized_keys 600或644
(2)脚本如下:
#!/bin/sh
#script:df_check.sh
FSMAX="80"
remote_user='root'
remote_ip=(192.168.1.2 192.168.1.3 192.168.1.4 .......) //十个ip地址
ip_num='0'
while [ "$ip_num" -le "$(expr ${#remote_ip[@]} - 1)" ]
do
read_num='1'
ssh "$remote_user"@"${remote_ip[$ip_num]}" df -h >/tmp/diskcheck_tmp
grep '^/dev/*' /tmp/diskcheck_tmp|awk '{print $5}'|sed 's/\%//g' >
/tmp/diskcheck_tmp_num
while [ "$read_num" -le $(wc -l < /tmp/diskcheck_tmp_num)] //计算有多少行
do
size=$(sed -n "$read_num"'p' /tmp/diskcheck_tmp_num)
if [ "$size" -gt "$FSMAX" ]
then
$(grep '^/dev/*' /tmp/diskcheck_tmp|sed -n $read_num'p' >
/tmp/disk_mail)
$(echo $(remote_ip[$ip_num]) >> /tmp/disk_mail)
$(mail -s "diskcheck_alert" admin </tmp/disk_mail)
fi
read_num=$(expr $read_num + 1)
done
ip_num=$(expr $ip_num + 1)
done
(3)放在crontab里面
#######################################################################
################让脚本每十分钟执行一次#################################
在cron表中:
0/10 * * * * /home/codefei/diskcheck.sh 2>&1
2.自动ftp上传.
#!/bin/sh
ftp -n << END_FTP
open 192.168.0.102
user athos athosczx
binary
prompt off //关闭提示
mput test //上传test
close
bye
END_FTP
3.自动登录ssh.从A到B再到C
#!/usr/bin/expect -f
set timeout 30
spawn ssh [email protected]
expect "password"
send "PPPPPPP\r"
expect "*]"
send "ssh [email protected]"
expect "password:"
send "pppppppp\r"
interact
4.腾讯一shell试题.
假设qq.tel文件内容:
12334:13510014336
12345:12334555666
12334:12343453453
12099:13598989899
12334:12345454545
12099:12343454544
分类如下:
[12334]
13510014336
12343453453
...........
[12099]
13598989899
12343454544
............
实现如下:
cat qq.tel|sort|awk -F: '{if(tmp!=$1){tmp=$1;print "["tmp"]";}print " $2";}"
4shell 编程,实现一下功能:/tmp路径下有800个文件,文件名的格式:filename_YYYYMMDD_序列号((001-999).dat,例
如:filename_20040108_089.dat,现在想把这些文件名改名,文件名为:file_TODAY(当前日期_序列号(从500开始, 到达999之后从001开
始).dat,例如_089为_589,099为_599.
#!/bin/sh
DEST_FILE_PART2="_`date '+%Y%m%d'`_"
EXT_NAME=".dat"
SRC_FILE_LIST=`find /tmp -name "*_*_*$EXT_NAME" -print`
for each in $SRC_FILE_LIST
do
DEST_FILE_PART1=`echo $each|awk -F_ '{print $1}'`
OLD_NUM=`echo $each|awk -F_ '{print $3}'|awk -F. '{print $1}'`
DEST_FILE_PART3=`expr $OLD_NUM + 500`
[ $DEST_FILE_PART3 -gt 999 ] && DEST_FILE_PART3=`expr $OLD_NUM - 499`
&& DEST_FILE_PART3=`printf %03d $DEST_FILE_PART3`
DEST_FILE=$DEST_FILE_PART1$DEST_FILE_PART2$DEST_FILE_PART3
mv $each $DEST_FILE
done
一.打印
1
1 2
1 2 3
1 2 3 4
1 2 3 4 5
1 2 3 4 5 6
解答:
#!/bin/bash
for ((i=1;i<=6;i++))
do
[ $i -eq 1 ] && echo $i || eval echo {1..$i}
done