别再死记硬背了!用这5个真实运维脚本,搞定90%的Shell面试题
5个实战Shell脚本从面试题到真实运维场景的蜕变在技术面试中Shell脚本能力往往是区分普通候选人和优秀候选人的关键指标。但死记硬背面试题答案的时代已经过去现代企业更看重候选人解决实际问题的能力。本文将带你通过5个真实运维场景中的Shell脚本案例掌握那些常被问及但书本上很少系统讲解的实战技巧。1. 日志分析从基础到高级模式匹配日志分析是运维工程师的日常必修课。一个典型的面试问题是如何统计Nginx日志中404状态码的出现次数教科书式的答案可能是grep 404 access.log | wc -l但在真实生产环境中我们需要考虑更多因素。以下是一个增强版的日志分析脚本#!/bin/bash # 增强版日志分析工具 LOG_FILE/var/log/nginx/access.log OUTPUT_FILE/tmp/nginx_analysis_$(date %Y%m%d).csv analyze_logs() { echo 状态码,出现次数,占比(%) $OUTPUT_FILE # 统计各状态码出现次数 total$(wc -l $LOG_FILE) grep -oP (?HTTP/1.[01] )\d{3} $LOG_FILE | sort | uniq -c | while read count code; do percentage$(echo scale2; $count*100/$total | bc) echo $code,$count,$percentage $OUTPUT_FILE done # 找出最频繁访问的10个URL echo -e \nTop 10访问URL: $OUTPUT_FILE awk {print $7} $LOG_FILE | sort | uniq -c | sort -nr | head -10 $OUTPUT_FILE # 识别可疑爬虫 echo -e \n可疑爬虫访问: $OUTPUT_FILE awk $9404 {print $1,$7} $LOG_FILE | sort | uniq -c | sort -nr | head -20 $OUTPUT_FILE } analyze_logs echo 分析完成结果已保存至 $OUTPUT_FILE这个脚本展示了几个面试中常被问及的高级技巧使用PCRE正则表达式提取状态码grep -oP使用awk处理字段数据结合管道进行多级数据处理计算百分比并格式化输出2. 服务监控不只是简单的进程检查如何监控一个服务是否正常运行这个看似简单的问题背后隐藏着许多细节考量。初级工程师可能只会检查进程是否存在ps aux | grep nginx | grep -v grep而经验丰富的工程师会考虑更多维度#!/bin/bash # 全方位服务健康检查脚本 SERVICEnginx CHECK_INTERVAL60 ALERT_EMAILadminexample.com check_service() { # 基础进程检查 if ! pgrep -x $SERVICE /dev/null; then echo [$(date)] 错误$SERVICE 进程不存在 /var/log/service_monitor.log systemctl restart $SERVICE send_alert 进程崩溃 $SERVICE 进程不存在已尝试重启 return 1 fi # 端口监听检查 if ! netstat -tuln | grep -q :80 .*LISTEN; then echo [$(date)] 错误$SERVICE 未监听80端口 /var/log/service_monitor.log send_alert 端口异常 $SERVICE 未在80端口监听 return 2 fi # HTTP可用性检查 local http_status$(curl -s -o /dev/null -w %{http_code} http://localhost) if [ $http_status ! 200 ]; then echo [$(date)] 错误$SERVICE 返回HTTP状态码 $http_status /var/log/service_monitor.log send_alert HTTP异常 $SERVICE 返回异常状态码 $http_status return 3 fi # 资源使用检查 local cpu_usage$(ps -C $SERVICE -o %cpu --no-headers | awk {sum$1} END {print sum}) if [ $(echo $cpu_usage 90 | bc) -eq 1 ]; then echo [$(date)] 警告$SERVICE CPU使用率过高 ($cpu_usage%) /var/log/service_monitor.log send_alert 高CPU使用 $SERVICE CPU使用率达到 $cpu_usage% fi return 0 } send_alert() { local subject[服务告警] $SERVICE - $1 local body检测时间: $(date)\n服务名称: $SERVICE\n问题类型: $1\n详细信息: $2 echo -e $body | mail -s $subject $ALERT_EMAIL } # 主循环 while true; do check_service sleep $CHECK_INTERVAL done这个脚本涵盖了面试中常被问及的多层次监控概念进程存在性检查端口监听状态验证服务响应质量检测资源使用监控自动化告警机制3. 批量部署参数化与错误处理的艺术批量部署脚本是Shell编程能力的试金石。面试中常被问及如何实现自动化部署但很少有候选人能展示出健壮的解决方案。以下是一个考虑了多种边界条件的部署脚本#!/bin/bash # 安全批量部署工具 CONFIG_FILEdeploy.conf LOG_FILE/var/log/deploy_$(date %Y%m%d).log MAX_RETRY3 DEPLOY_TIMEOUT300 # 初始化日志 exec (tee -a $LOG_FILE) exec 21 log() { echo [$(date %Y-%m-%d %H:%M:%S)] $1 } validate_environment() { # 检查必要工具是否存在 local tools(ssh rsync git tar) for tool in ${tools[]}; do if ! command -v $tool /dev/null 21; then log 错误缺少必要工具 $tool exit 1 fi done # 检查配置文件 if [ ! -f $CONFIG_FILE ]; then log 错误配置文件 $CONFIG_FILE 不存在 exit 1 fi } deploy_to_server() { local server$1 local retry0 while [ $retry -lt $MAX_RETRY ]; do log 开始部署到 $server (尝试 $((retry1))/$MAX_RETRY) local start_time$(date %s) # 使用超时控制防止挂起 if timeout $DEPLOY_TIMEOUT ssh $server mkdir -p /tmp/deploy \ cd /tmp/deploy \ git clone https://github.com/your/repo.git \ cd repo \ ./build.sh \ sudo ./install.sh ; then local end_time$(date %s) log 成功部署到 $server (耗时 $((end_time - start_time)) 秒) return 0 else local exit_code$? log 部署到 $server 失败退出码 $exit_code ((retry)) sleep $((retry * 10)) fi done log 部署到 $server 失败已达最大重试次数 return 1 } main() { validate_environment local success0 local failed0 # 从配置文件读取服务器列表 while read -r server; do if [ -n $server ]; then if deploy_to_server $server; then ((success)) else ((failed)) fi fi done $CONFIG_FILE log 部署完成成功 $success 台失败 $failed 台 if [ $failed -gt 0 ]; then exit 1 fi } main这个脚本展示了高级Shell编程技巧完善的错误处理和重试机制超时控制防止脚本挂起配置文件和参数化设计详细的日志记录环境预检查4. 安全巡检从被动防御到主动检测安全巡检是运维工作中不可或缺的一环。面试中常被问及如何检查系统安全状态但多数答案停留在基础命令层面。以下是一个全面的安全巡检脚本#!/bin/bash # 全方位安全巡检工具 REPORT_FILE/var/log/security_audit_$(date %Y%m%d).html TMP_DIR/tmp/security_audit # 初始化环境和报告 init_report() { mkdir -p $TMP_DIR echo htmlheadtitle安全巡检报告 $(date)/title/headbody $REPORT_FILE echo h1安全巡检报告 - $(date)/h1 $REPORT_FILE } add_section() { echo h2$1/h2 $REPORT_FILE echo pre$2/pre $REPORT_FILE } check_accounts() { local result # 检查空密码账户 result[空密码账户检查]\n result$(awk -F: ($2 ) {print} /etc/shadow)\n\n # 检查UID为0的非root账户 result[特权账户检查]\n result$(awk -F: ($3 0 $1 ! root) {print} /etc/passwd)\n\n # 检查最近登录的用户 result[最近登录用户]\n result$(last -n 10)\n\n add_section 账户安全检查 $result } check_services() { local result # 检查开放端口 result[网络监听端口]\n result$(netstat -tuln)\n\n # 检查不必要的服务 result[运行中的服务]\n result$(systemctl list-units --typeservice --staterunning)\n\n add_section 服务安全检查 $result } check_files() { local result # 检查SUID/SGID文件 result[SUID/SGID文件]\n result$(find / -type f \( -perm -4000 -o -perm -2000 \) -exec ls -ld {} \; 2/dev/null)\n\n # 检查世界可写文件 result[世界可写文件]\n result$(find / -type f -perm -ow -exec ls -ld {} \; 2/dev/null | grep -vE /proc/|/sys/|/dev/)\n\n # 检查无属主文件 result[无属主文件]\n result$(find / -nouser -o -nogroup -exec ls -ld {} \; 2/dev/null | grep -vE /proc/|/sys/|/dev/)\n\n add_section 文件系统检查 $result } check_updates() { local result # 检查可用的系统更新 if [ -f /etc/redhat-release ]; then result[可用更新]\n result$(yum check-update)\n\n elif [ -f /etc/debian_version ]; then result[可用更新]\n result$(apt list --upgradable)\n\n fi # 检查最后更新时间 result[最后更新时间]\n if [ -f /var/log/yum.log ]; then result$(tail -n 5 /var/log/yum.log)\n elif [ -f /var/log/apt/history.log ]; then result$(tail -n 5 /var/log/apt/history.log)\n fi add_section 更新检查 $result } generate_report() { echo /body/html $REPORT_FILE chmod 600 $REPORT_FILE } main() { init_report check_accounts check_services check_files check_updates generate_report echo 安全巡检完成报告已生成至 $REPORT_FILE } main这个脚本体现了安全运维的核心能力全面的账户安全审计服务与端口暴露面检查文件系统权限验证系统更新状态跟踪专业报告生成5. 数据备份可靠性高于一切数据备份是运维工作的最后防线。面试中常被问及备份策略但很少有候选人能展示出考虑周全的备份脚本。以下是一个支持增量备份、完整性校验和自动清理的解决方案#!/bin/bash # 企业级数据备份方案 CONFIG_FILE/etc/backup.conf LOG_FILE/var/log/backup_$(date %Y%m%d).log BACKUP_ROOT/backup RETENTION_DAYS30 COMPRESS_LEVEL6 # 初始化日志 exec (tee -a $LOG_FILE) exec 21 log() { echo [$(date %Y-%m-%d %H:%M:%S)] $1 } validate_config() { if [ ! -f $CONFIG_FILE ]; then log 错误配置文件 $CONFIG_FILE 不存在 exit 1 fi # 检查备份目录是否存在 if [ ! -d $BACKUP_ROOT ]; then mkdir -p $BACKUP_ROOT chmod 700 $BACKUP_ROOT fi } generate_manifest() { local dir$1 local manifest$2 log 生成清单文件 $manifest find $dir -type f -exec sha256sum {} \; $manifest } verify_backup() { local manifest$1 log 验证备份完整性 if ! sha256sum -c $manifest /dev/null 21; then log 错误备份验证失败 return 1 fi return 0 } cleanup_old_backups() { log 清理超过 $RETENTION_DAYS 天的旧备份 find $BACKUP_ROOT -type f -name *.tar.gz -mtime $RETENTION_DAYS -exec rm -f {} \; find $BACKUP_ROOT -type f -name *.manifest -mtime $RETENTION_DAYS -exec rm -f {} \; } perform_backup() { local backup_name$1 local backup_src$2 local backup_type${3:-full} local timestamp$(date %Y%m%d_%H%M%S) local backup_dir$BACKUP_ROOT/$backup_name local backup_file$backup_dir/${backup_name}_${backup_type}_${timestamp}.tar.gz local manifest_file$backup_dir/${backup_name}_${backup_type}_${timestamp}.manifest mkdir -p $backup_dir log 开始 $backup_type 备份: $backup_src → $backup_file # 根据备份类型设置tar选项 local tar_optionsczvf $backup_file --directory$(dirname $backup_src) --exclude*.tmp --exclude*.log if [ $backup_type incremental ] [ -f $backup_dir/last_full_backup ]; then tar_options --newer-than$(cat $backup_dir/last_full_backup) fi # 执行备份 if tar $tar_options $(basename $backup_src); then log 备份文件创建成功 # 生成并验证清单 generate_manifest $backup_src $manifest_file if verify_backup $manifest_file; then # 记录最后一次完整备份时间 if [ $backup_type full ]; then date %Y-%m-%d $backup_dir/last_full_backup fi return 0 else rm -f $backup_file $manifest_file return 1 fi else log 备份文件创建失败 return 1 fi } main() { validate_config while read -r line; do # 跳过注释和空行 [[ $line ~ ^# ]] || [[ -z $line ]] continue # 解析配置行: name|path|type IFS| read -r name path type $line if [ -z $type ]; then typefull fi if [ ! -e $path ]; then log 警告备份源 $path 不存在跳过 continue fi if ! perform_backup $name $path $type; then log 错误$name 备份失败 fi done $CONFIG_FILE cleanup_old_backups log 备份任务完成 } main这个脚本展示了专业级备份方案的关键要素灵活的备份策略全量/增量数据完整性校验机制自动清理过期备份详细的日志记录配置文件驱动设计从面试题到实战的思维转变通过这5个真实场景的脚本案例我们可以看到Shell脚本在运维工作中的实际价值远超过面试题所涵盖的范围。从面试准备的角度建议关注以下几个重点理解原理而非记忆命令面试官更看重你如何解决问题而非特定命令的语法考虑边界条件生产环境脚本必须处理各种异常情况注重可维护性良好的代码结构、注释和日志是专业脚本的标志性能考量大数据量下的处理效率是区分优劣的关键安全意识权限控制、敏感信息处理等安全因素不容忽视记住优秀的Shell脚本工程师不是靠死记硬背面试题成长起来的而是在解决真实问题的过程中不断积累经验。将这些实战案例中的思路和技巧融入你的知识体系你就能在面试中展现出与众不同的专业深度。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2467373.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!