正则表达式与文本三剑客

目录

一、正则表达式

1. 定义

2. 字符匹配

3. 重复限定符

4. 位置锚点

5. 分组和引用

6. 扩展正则表达式

二、文本三剑客

1. grep

1.1 定义

1.2 语法

1.3 选项

1.4 示例

2. sed

2.1 定义

2.2 通式

2.3 选项

2.4 脚本格式(脚本语法)

2.4.1 地址了解

2.4.2 命令了解 

2.5 搜索替代

2.6 分组替换

2.7 调用变量

2.8 修改配置文件

2.9 修改网卡名 

3. awk

3.1 定义和格式

3.2 常见选项和执行流程

3.3 基本用法

3.4 常规应用

3.5 常见的内置变量

3.6 自定义变量

3.7 模式PATTERN

3.7.1 模式为空

3.7.2 正则匹配

3.7.3 line ranges:行范围

3.7.4 /pat1/,/pat2/ 案例:找到10:00到11:00之间的日志

3.7.5 关系表达式

3.8 条件判断

3.9 循环:for | while

3.10 数组

3.10.1 访问、赋值数组元素

3.10.2 数组长度

3.10.3 遍历数组

3.10.4 实际案例

3.11 awk脚本


一、正则表达式

1. 定义

正则表达式是一种用于匹配和操作文本的强大工具,它使用特定的语法和模式来描述文本的结构和模式。正则表达式被很多程序和开发语言所广泛支持:vim,less,grep,sed,awk,nginx,mysql等。

2. 字符匹配

正则表达式可以匹配普通字符和元字符。

普通字符:任何普通字符都可以直接匹配自身

元字符:一些字符具有特殊含义,如点号(.)匹配除了换行符之外的任意字符,星号(*)匹配前一个字符的零个或多个重复,问号(?)匹配前一个字符的零个或一个重复

元字符说明
.匹配任意单个字符,可以是一个汉字
[ ]匹配指定范围内的任意单个字符,[0-9],[a-zA-Z]
[^]匹配指定范围外的任意单个字符,[^a.z]:非a和z
[:alnum:]字母和数字
[:alpha:]代表任何英文大小写字符,亦即A-Z,a-z
[:lower:]小写字母,示例:[[:lower:]],相当于[a-z]
[:upper:]大写字母
[:blank:]空白字符(空格和制表符)
[:space:]包括空格、制表符 (水平和垂直)、换行符、回车符等各种类型的空白,比[:blank:]包含的范围广
[:cntrl:]不可打印的控制字符(退格、删除、警铃...)
[:digit:]十进制数字十进制数字
[:xdigit:]十六进制数字
[:graph:]可打印的非空白字符
[:print:]可打印字符
[:punct:]标点符号
\w匹配单词构成部分,等价于[_[:alnum:]]
\W匹配非单词构成部分,等价于[^_[:alnum:]]
\S匹配任何非空白字符。等价于 [^ \f\n\r\t\v]
\s匹配任何空白字符,包括空格、制表符、换页符等等。等价于 [ \f\n\r\t\v]。注意Unicode 正则表达式会匹配全角空格符

示例:

元字符点 .

[root@localhost ~]# ls /etc/|grep rc[.0-3]    #此处的点代表字符
rc0.d
rc1.d
rc2.d
rc3.d
rc.d
rc.local
[root@localhost ~]# ls /etc/ | grep 'rc\.'    #点值表示点需要转义
rc.d
rc.local
[root@localhost ~]# grep r..t /etc/passwd     #r..t ..代表任意两个字符
root:x:0:0:root:/root:/bin/bash
operator:x:11:0:operator:/root:/sbin/nologin
ftp:x:14:50:FTP User:/var/ftp:/sbin/nologin

元字符[ ]

[root@localhost opt]# touch {a..z}.txt
[root@localhost opt]# ls | grep "[fql].txt"  #fql三个字母任意一个
f.txt
l.txt
q.txt

元字符[^] 

[root@localhost opt]# touch {1..3}.txt
[root@localhost opt]# touch {a..c}.txt
[root@localhost opt]# ls | grep '[^0-9].txt'  #除去0-9任意字符.txt文件
a.txt
b.txt
c.txt

3. 重复限定符

① 星号(*):匹配前一个字符的零个或多个重复,即:匹配前面的字符任意次,包括0次

[root@localhost ~]# echo ac | grep 'ab*c'       #匹配前面一个字符b,0次
ac
[root@localhost ~]# echo abbbc | grep 'ab*c'    #匹配前面一个字符b,3次
abbbc

② 点星(.*):任意长度的任意字符  不包括0次

[root@localhost ~]# echo ac | grep 'ab.*c';echo $? 
1                                          #ac之间没有b匹配不到
[root@localhost ~]# echo abbbc | grep 'ab.*c'
abbbc                                      #匹配前面的字符b,3次

③ \? :匹配前面的字符1次或0次,即:可有可无

[root@localhost ~]# echo ac | grep 'ab\?c'            #匹配前面的字符b,0次
ac
[root@localhost ~]# echo abc | grep 'ab\?c'           #匹配前面的字符b,1次
abc
[root@localhost ~]# echo abbc | grep 'ab\?c';echo $?  #无法匹配
1

④ \+:匹配其前面的字符出现最少1次,即:肯定有且>=1次 

[root@localhost ~]# echo ac | grep 'ab\+c';echo $?  #无法匹配
1
[root@localhost ~]# echo abc | grep 'ab\+c'         #匹配前面的字符b,1次
abc
[root@localhost ~]# echo abbc | grep 'ab\+c'        #匹配前面的字符b,两次
abbc

⑤ \{n\}:匹配前面的字符n次 

[root@localhost ~]# echo abbc | grep 'ab\{1\}c';echo $? 
1                                        #匹配前面的字符b,1次,无法匹配,\转义{和} 
[root@localhost ~]# echo abbc | grep 'ab\{2\}c'
abbc                                     #匹配前面的字符b,两次
 

⑥ \{m,n\}:匹配前面的字符至少m次,至多n次

[root@localhost ~]# echo ac | grep 'ab\{1,3\}c';echo $?      
1                                #匹配前面的字符b至少1次,至多3次,这里0次无法匹配
[root@localhost ~]# echo abc | grep 'ab\{1,3\}c'
abc
[root@localhost ~]# echo abbbc | grep 'ab\{1,3\}c'
abbbc
[root@localhost ~]# echo abbbbc | grep 'ab\{1,3\}c';echo $?
1                                #匹配前面的字符b至少1次,至多3次,这里4次无法匹配

 ⑦ \{,n\}:匹配前面的字符至多n次,<=n

[root@localhost ~]# echo ac | grep 'ab\{,1\}c'           
ac                              #匹配前面的字符b至多1次,0次可以匹配
[root@localhost ~]# echo abc | grep 'ab\{,1\}c'
abc                             
[root@localhost ~]# echo abbc | grep 'ab\{,1\}c';echo $?
1                               #匹配前面的字符b至多1次,两次无法匹配

⑧ \{n,\}:匹配前面的字符至少n次 

[root@localhost ~]# echo ac | grep 'ab\{1,\}c';echo $?
1                               #匹配前面的字符b至少1次,0次无法匹配
[root@localhost ~]# echo abc | grep 'ab\{1,\}c'
abc
[root@localhost ~]# echo abbc | grep 'ab\{1,\}c'
abbc

4. 位置锚点

① ^:行首锚定, 用于模式的最左侧

② $:行尾锚定,用于模式的最右侧

③ ^PATTERN$:表示用于模式匹配整行(单独一行  只有PATTERN字符)

④ ^$:表示空行

⑤ ^[[:space:]]*$:空白行,如tab、换行、回车

⑥ \< 或 \b:词首锚定,用于单词模式的左侧(连续的数字,字母,下划线都算单词内部)

⑦ \> 或 \b:词尾锚定,用于单词模式的右侧

⑧ \<PATTERN\>:匹配整个单词

示例:

[root@localhost opt]# vim file.txt
root$
123root456$
123ro456ot$
abc  cba$
efg  ghe$
$                      #空行
^I^I$                  #TabTab
:set list              #显示控制字符

[root@localhost opt]# cat file.txt | grep "^a"              #过滤以a开头行
abc  cba
[root@localhost opt]# cat file.txt | grep "a$"              #过滤以a结尾行
abc  cba
[root@localhost opt]# cat file.txt | grep "^root$"          #过滤只有root字符的行
root
[root@localhost opt]# cat file.txt | grep "^$"              #过滤空行        
#显示空行
[root@localhost opt]# cat file.txt | grep "^[[:space:]]*$"  #过滤空白行
#显示空行		
#显示空行
[root@localhost opt]# cat file.txt | grep "g\b"             #过滤以g结尾的词,efg
efg  ghe
[root@localhost opt]# cat file.txt | grep "\bc"             #过滤以c开头的词,cba
abc  cba
[root@localhost opt]# cat file.txt | grep "\broot\b"        #过滤单词root
root

5. 分组和引用

圆括号( ):用于分组,可以将多个字符作为一个整体进行处理

反向引用:使用\n(n 为数字)来引用分组中匹配的内容,如:\1 表示从左侧起第一个左括号以及与之匹配右括号之间的模式所匹配到的字符

示例:

[root@localhost ~]# echo abccc | grep "abc\{3\}"
abccc
[root@localhost ~]# echo abccc | grep "\(abc\)\{3\}";echo $?
1
[root@localhost ~]# echo abcabcabccc | grep "\(abc\)\{3\}"
abcabcabccc                       #abcabcabc高亮

[root@localhost ~]# echo 1abc |grep  "1\|2abc"
1abc                              #1高亮
[root@localhost ~]# echo 1abc |grep  "\(1\|2\)abc"
1abc                              #1abc高亮

应用:过滤ens33ip地址

[root@localhost ~]# ifconfig ens33
ens33: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.190.100  netmask 255.255.255.0  broadcast 192.168.190.255
        inet6 fe80::e743:cb44:9825:6230  prefixlen 64  scopeid 0x20<link>
        ether 00:0c:29:e1:cb:86  txqueuelen 1000  (Ethernet)
        RX packets 781  bytes 58624 (57.2 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 386  bytes 38313 (37.4 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0
[root@localhost ~]# ifconfig ens33 | grep netmask | grep -o '\([0-9]\{1,3\}\.\)\{3\}[0-9]\{1,3\}' | head -1
#显示被匹配到的字符串,表示匹配1-9之间任意数组成的1位、2位或3位数+点,{1,3}表示出现1-3次;
192.168.190.100
[root@localhost ~]# ifconfig ens33 |grep netmask | grep -Eo '([0-9]{1,3}\.){3}[0-9]{1,3}' | head -1
192.168.190.100
#-E支持扩展正则表达式

6. 扩展正则表达式

① 使用方法

grep -E或者egrep 默认使用的是扩张正则表达式

② 表示次数

*:匹配前面字符任意次
?:0或1次
+:1次或多次
{n}:匹配n次
{m,n}:至少m,至多n次
{,n}:匹配前面的字符至多n次,<=n,n可以为0
{n,}:匹配前面的字符至少n次,<=n,n可以为0

③ 表示分组

() 分组:将多个字符捆绑在一起,当作一个整体处理

| 或者  
a|b #a或b
C|cat #C或cat
(C|c)at #Cat或cat

二、文本三剑客

1. grep

1.1 定义

grep是Linux系统中一个常用的文本搜索工具,用于在文件中查找指定的字符串或匹配某个正则表达式的文本行。

1.2 语法

grep [选项]… 查找条件 目标文件

1.3 选项

选项说明
-m-m n,匹配n次(行)后停止
-v显示不被pattern匹配到的行,即取反
-i忽略字符大小写
-n显示匹配的行号
-c统计匹配的行数
-o仅显示匹配到的字符串
-q静默模式,不输出任何信息 ,常用于脚本
-Aafter,后#行
-Bbefore,前#行
-Ccontext,前后各#行
-e实现多个选项间的逻辑or关系
-w匹配整个单词
-E使用ERE,相当于egrep
-F不支持正则表达式,相当于fgrep
-ffile根据模式文件,处理两个文件相同内容 把第一个文件作为匹配条件
-r递归目录,但不处理软链接,开始搜索目录
-R递归目录,但处理软链接
-color=auto对匹配到的文本着色显示

1.4 示例

[root@localhost opt]# cat file.txt 
a 1
a 2
a 3
[root@localhost opt]# cat file.txt | grep -m 2 a   #以a为过滤条件匹配到第二行停止
a 1
a 2

[root@localhost opt]# cat file.txt 
a 1
A 2
b 3
[root@localhost opt]# cat file.txt | grep -i a     #以a为过滤条件忽略字符大小写
a 1
A 2

[root@localhost opt]# cat file.txt
abc123
Aabc12
[root@localhost opt]# cat file.txt | grep -o abc   #仅显示匹配到的字符串abc
abc
abc

[root@localhost ~]# grep -e root -e bash /etc/passwd #包含root或者包含bash的行
root:x:0:0:root:/root:/bin/bash
operator:x:11:0:operator:/root:/sbin/nologin
fql:x:1000:1000:fql:/home/fql:/bin/bash

2. sed

2.1 定义

sed是一个流式文本编辑器,它可以对文本文件进行各种编辑操作。它主要用于对文本文件进行替换、插入、删除、打印等操作,它可以通过管道符(|)将多个命令串联起来使用。

Sed是从文件或管道中读取一行,处理一行,输出一行;再读取一行,再处理一行,再输出一行,直到最后一行。每当处理一行时,把当前处理的行存储在临时缓冲区中,称为模式空间(PatternSpace),接着用sed命令处理缓冲区中的内容,处理完成后,把缓冲区的内容送往屏幕。接着处理下一行,这样不断重复,直到文件末尾。一次处理一行的设计模式使得sed性能很高,sed在读取大文件时不会出现卡顿的现象。如果使用vi命令打开几十M上百M的文件,明显会出现有卡顿的现象,这是因为vi命令打开文件是一次性将文件加载到内存,然后再打开。Sed就避免了这种情况,一行一行的处理,打开速度非常快,执行速度也很快。

2.2 通式

sed [option]... 'script;script;...' [input  file...]
     选项         '自身脚本语法'         支持标准输入管道或者文件
#如果不知道语法可以写' ',' ' 文件则是打印文件内容

2.3 选项

选项说明
-n不输出模式空间内容到屏幕,即不自动打印
-e多点编辑
-f  FILE从指定文件中读取编辑脚本
-r,-E使用扩展正则表达式
-i.bak备份文件并原处编辑

注意:

  • -ir:不支持
  • -i -r:支持
  • -ri:支持
  • -ni:会清空文件

2.4 脚本格式(脚本语法)

脚本格式由'地址+命令'组成。

2.4.1 地址了解

① 如果不给地址,即对全文进行处理(比如行号)

[root@localhost ~]# seq 3 | sed ' '    #默认将输入内容打印出来,系统自带自动打印
1                                      #支持管道符
2
3
[root@localhost ~]# sed ' ' /etc/passwd |wc -l     #查看文件内容
41
[root@localhost ~]# sed ' ' < /etc/passwd |wc -l   #支持重定向
41

② 单地址:指定的行,$代表最后一行

[root@localhost ~]# sed 'p' /etc/passwd | wc -l   
82
#p代表打印内容,因为没有规定范围' '默认也会打印一遍,所以这里会造成打印两倍
[root@localhost ~]# sed -n 'p' /etc/passwd | wc -l
41
#-n代表关闭自动打印
[root@localhost ~]# sed -n '2p' /etc/passwd  #打印文件的第二行(单地址写法)
bin:x:1:1:bin:/bin:/sbin/nologin              
[root@localhost ~]# sed -n '$p' /etc/passwd  #打印文件的最后一行(单地址写法)
fql:x:1000:1000:fql:/home/fql:/bin/bash
[root@localhost ~]# sed '2q' /etc/passwd       #到第二行退出,也就是打印1到2行
root:x:0:0:root:/root:/bin/bash
bin:x:1:1:bin:/bin:/sbin/nologin

③ 地址范围:

  • #,#:#从#行到第#行,3,6 从第3行到第6行
  • #,+#:#从#行到+#行,3,+4 表示从3行到第7行
  • /pat1/,/pat2/:第一个正则表达式和第二个正则表达式之间的行
  • #,/pat/:从#号行为开始找到pat为止 (可能有bug)
  • /pat/,#:找到#号个pat为止

示例: 

[root@localhost ~]# sed -n '1,2p' /etc/passwd        #打印一到二行
root:x:0:0:root:/root:/bin/bash
bin:x:1:1:bin:/bin:/sbin/nologin
[root@localhost ~]# sed -n '1,+2p' /etc/passwd       #从第一行到第三行
root:x:0:0:root:/root:/bin/bash
bin:x:1:1:bin:/bin:/sbin/nologin
daemon:x:2:2:daemon:/sbin:/sbin/nologin
[root@localhost opt]# cat file.txt 
a123
b456
c789
d000
[root@localhost opt]# sed -n '/^a/,/^b/p' file.txt   #从a开头行到b开头行
a123
b456

应用:提取时间段的日志内容

[root@localhost log]# tail messages 
Jan 29 22:38:17 localhost chronyd[708]: Source 2001:1600:4:1::123 replaced with 119.28.183.184
Jan 29 22:40:01 localhost systemd: Started Session 18 of user root.
Jan 29 22:40:01 localhost systemd: Starting Session 18 of user root.
Jan 29 22:43:42 localhost chronyd[708]: Selected source 119.28.183.184
Jan 29 22:50:01 localhost systemd: Started Session 19 of user root.
Jan 29 22:50:01 localhost systemd: Starting Session 19 of user root.
Jan 29 23:00:01 localhost systemd: Started Session 20 of user root.
Jan 29 23:00:01 localhost systemd: Starting Session 20 of user root.
Jan 29 23:01:01 localhost systemd: Started Session 21 of user root.
Jan 29 23:01:01 localhost systemd: Starting Session 21 of user root.
[root@localhost log]# sed -n '/Jan 29 22:38:17/,/Jan 29 22:43:42/p' messages 
Jan 29 22:38:17 localhost chronyd[708]: Source 2001:1600:4:1::123 replaced with 119.28.183.184
Jan 29 22:40:01 localhost systemd: Started Session 18 of user root.
Jan 29 22:40:01 localhost systemd: Starting Session 18 of user root.
Jan 29 22:43:42 localhost chronyd[708]: Selected source 119.28.183.184
#提取Jan 29 22:38:17到Jan 29 22:43:42时间段的日志内容

④ 步进:~

  • 1~2 奇数行
  • 2~2 偶数行

示例: 

[root@localhost ~]# seq 4 | sed -n '1~2p'  #从1开始,步长为2,即每次加2,奇数
1
3
[root@localhost ~]# seq 4 | sed -n '2~2p'  #从2开始,步长为2,即每次加2,偶数
2
4
[root@localhost ~]# seq 4 | sed -n '1~2!p' #取反,也是打印偶数
2
4
[root@localhost ~]# seq 4 | sed -n 'n;p'   
2
4
#高级用法,将第一个数放入第二空间(第一个是匹配空间)里不输出,打印处理下一行。当处理完后1,2行后,这两行已经不存在了,处理第3行,依然将第3行放入第二空间,打印下一行。
[root@localhost ~]# seq 4 | sed -n '2,${n;p}'
3
#与上面同理,从2开始,打印下一行,代表奇数行
2.4.2 命令了解 
命令说明
p打印当前模式空间内容,追加到默认输出之后
Ip忽略大小写输出
d删除模式空间匹配的行,并立即启用下一轮循环
a [\]text在指定行后面追加文本,支持使用\n实现多行追加
i [\]text在行前面插入文本
c [\]text替换行为单行或多行文本
w file保存模式匹配的行至指定文件
r file读取指定文件的文本至模式空间中匹配到的行后
=为模式空间中的行打印行号
!模式空间中匹配行取反处理
q结束或退出sed

示例: 

[root@localhost ~]# seq 4 | sed '3d'    #删除第三行(只是删输出的内容,实际依然存在)
1
2
4
[root@localhost ~]# sed 4 | sed -i '3d'       #真实删除原内容 
[root@localhost ~]# sed 4 | sed -i.bak '3d'   #删除之前先备份

[root@localhost ~]# seq 3 | sed  '2a22'       #在第二行后添加22
1
2
22
3
[root@localhost ~]# seq 3 | sed  '2a22\n33'   #下一行追加33
1
2
22
33
3

[root@localhost ~]# seq 3 > file.txt
[root@localhost ~]# cat file.txt 
1
2
3
[root@localhost ~]# sed -i '3ccc' file.txt    #替换第三行内容为cc
[root@localhost ~]# cat file.txt 
1
2
cc

[root@localhost opt]# cat file.txt 
a123
b456
[root@localhost opt]# sed -n '1,2wbbb.txt' file.txt  
#将file.txt文件的一到二行保存到bbb.txt文件中
[root@localhost opt]# ls
bbb.txt  file.txt  rh

[root@localhost opt]# cat a.txt 
a
b
[root@localhost opt]# cat b.txt 
c
d
[root@localhost opt]# sed '2r b.txt' a.txt  #将b.txt插入到a.txt第二行后
a
b
c
d

2.5 搜索替代

s/pattern/string/修饰符 查找替换,即:s/旧内容/新内容/修饰符。支持使用其它分隔符,可以是其它形式:s@@@,s###。

替换修饰符:
g:行内全局替换
p:显示替换成功的行
w /PATH/FILE:将替换成功的行保存至文件中
I,i:忽略大小写

[root@localhost ~]# cat /etc/selinux/config

# This file controls the state of SELinux on the system.
# SELINUX= can take one of these three values:
#     enforcing - SELinux security policy is enforced.
#     permissive - SELinux prints warnings instead of enforcing.
#     disabled - No SELinux policy is loaded.
SELINUX=enforcing
……
[root@localhost ~]# sed -i.bak 's/SELINUX=enforcing/SELINUX=enforcing/' /etc/selinux/config
[root@localhost ~]# cat /etc/selinux/config | grep SELINUX=enforcing
SELINUX=enforcing
#修改主配置文件,SELinux设为enforcing强制模式

[root@localhost opt]# cat file.txt 
root
rcot
rptt
r\ft
[root@localhost opt]# sed 's/r..t/&er/g' file.txt  
#&代表前面匹配到的内容,指代之前找到的内容
rooter
rcoter
rptter
r\fter

注意:新内容一定是固定的字符串 

2.6 分组替换

可以使用分组机制来进行文本替换操作分组可以将匹配的部分文本捕获并在替换操作中使用,注意只有扩展表达式才可以实现分区替换。允许在模式匹配和替换中引用已匹配的文本。使用分组和后向引用,可以在替换文本中包含匹配到的特定部分。

语法:

sed -nr 's/正则匹配/\1/p'

示例:

[root@localhost opt]# echo 123abcDEF | sed -nr 's/123(abc)DEF/\1/p'
abc
[root@localhost opt]# echo 123abcDEF | sed -nr 's/123(abc)(DEF)/\2/p'
DEF
#\1\2代表引用前面括号里的内容,固定格式
[root@localhost opt]# echo 123abcDEF | sed -nr 's/(123)(abc)(DEF)/\2\1\3/p'
abc123DEF

应用:sed命令提取网卡ip地址

[root@localhost ~]# ifconfig ens33
ens33: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.190.100  netmask 255.255.255.0  broadcast 192.168.190.255
        inet6 fe80::e743:cb44:9825:6230  prefixlen 64  scopeid 0x20<link>
        ether 00:0c:29:e1:cb:86  txqueuelen 1000  (Ethernet)
        RX packets 12577  bytes 931901 (910.0 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 5565  bytes 1298791 (1.2 MiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

[root@localhost ~]# ifconfig ens33 | sed -rn '2s/.*inet (.*) netmask.*/\1/p'
192.168.190.100
#sed命令提取网卡ip地址(注意空格)
[root@localhost opt]# ifconfig ens33 | sed -rn '2s/.*inet ([0-9.]+).*/\1/p'
192.168.190.100
#同样可以实现:(0-9数字.)一个以上
[root@localhost opt]# echo /etc/sysconfig/network-scripts/ifcfg-ens33 | sed -nr 's#.*/(.*)#\1#p'
ifcfg-ens33
#提取ifcfg-ens33

应用:提取文件的版本号

[root@localhost opt]# cat test
ant-1.9.7.jar
ant-launcher-1.9.7.jar
antlr-2.7.7.jar
antlr-runtime-3.4.jar
aopalliance-1.0.jar
[root@localhost opt]# cat test | sed -nr 's/.*-(.*).jar/\1/p'
1.9.7
1.9.7
2.7.7
3.4
1.0
#提取文件的版本号
#使用cat test | grep -e "[0-9]\+\."也可以提取

应用:提取文件属性以数字形式显示

[root@localhost opt]# stat test
  文件:"test"
  大小:95        	块:8          IO 块:4096   普通文件
设备:fd00h/64768d	Inode:68786720    硬链接:1
权限:(0644/-rw-r--r--)  Uid:(    0/    root)   Gid:(    0/    root)
环境:unconfined_u:object_r:usr_t:s0
最近访问:2024-01-30 13:48:56.384782770 +0800
最近更改:2024-01-30 13:48:53.689798114 +0800
最近改动:2024-01-30 13:48:53.690798109 +0800
创建时间:-
[root@localhost opt]# stat test | sed -nr '4s/.*([0-9]{4}).*/\1/p'
0644
#提取文件属性以数字形式显示

2.7 调用变量

要在"sed"命令中使用变量,您需要使用双引号来引用变量,不能使用单引号,并使用符号&来引用变量名。其中有一个-e选项代表多点编辑,类似grep用法,是“或”的意思。

示例:

[root@localhost opt]# name=root
[root@localhost opt]# sed -n "/$name/p" passwd     #双引号可以查询
root:x:0:0:root:/root:/bin/bash
operator:x:11:0:operator:/root:/sbin/nologin
[root@localhost opt]# sed -n '/'$name'/p' passwd   #两单引号也可以查询
root:x:0:0:root:/root:/bin/bash
operator:x:11:0:operator:/root:/sbin/nologin

2.8 修改配置文件

sed可以用于修改配置文件,它可以从标准输入或文件中读取文本,并对其进行编辑和转换。

示例:不打开配置文件,修改httpd80端口

[root@localhost ~]# sed -i.bak 's/^Listen 80/Listen 8080/' /etc/httpd/conf/httpd.conf
[root@localhost ~]# grep 8080 /etc/httpd/conf/httpd.conf
Listen 8080

2.9 修改网卡名 

[root@localhost ~]# cat /etc/default/grub
GRUB_TIMEOUT=5
GRUB_DISTRIBUTOR="$(sed 's, release .*$,,g' /etc/system-release)"
GRUB_DEFAULT=saved
GRUB_DISABLE_SUBMENU=true
GRUB_TERMINAL_OUTPUT="console"
GRUB_CMDLINE_LINUX="crashkernel=auto rd.lvm.lv=centos/root rd.lvm.lv=centos/swap rhgb quiet"
GRUB_DISABLE_RECOVERY="true"
[root@localhost ~]# sed -ri.bak '/^GRUB_CMDLINE_LINUX/s#(.*)"#\1 net.ifnames=0"#' /etc/default/grub
[root@localhost ~]# grep GRUB_CMDLINE_LINUX  /etc/default/grub
GRUB_CMDLINE_LINUX="crashkernel=auto rd.lvm.lv=centos/root rd.lvm.lv=centos/swap rhgb quiet net.ifnames=0"

3. awk

3.1 定义和格式

awk是一个功能强大的编辑工具,逐行读取输入文本,默认以空格或tab键作为分隔符作为分隔,并按模式或者条件执行编辑命令。 用于从文件、管道或标准输入中读取文本,并根据用户指定的模式和操作进行处理。

前面提到sed命令常用于一整行的处理,而awk比较倾向于将一行分成多个“字段"然后再进行处理,且默认情况下字段的分隔符为空格或tab键。awk执行结果可以通过print的功能将字段数据打印显示。sed是行处理工具,不能直接处理列数据,需要分组后向引用,而awk可以直接处理列数据。

格式:

awk [options]   'program' var=value   file…
      选项         语法      值       文件,支持标准输入、输出
awk         'pattern { action }'      input_file

语法program通常是被放在单引号中,可分为pattern和action:

pattern:用于匹配输入文本的模式。可以使用正则表达式或字符串进行匹配。如果省略模式,则默认匹配所有行。

action:对数据进行处理,放在{}内指明,在满足模式的情况下要执行的动作。可以是单个命令或多个命令组合。如果省略动作,则默认打印整行。处理动作默认写print即可。

3.2 常见选项和执行流程

常见选项:

-F:“分隔符” 指明输入时用到的字段分隔符,默认的分隔符是若干个连续空白符

-v:var=value 变量赋值

执行流程:

① 执行BEGIN{action;… }{print}语句块中的语句
② 从文件或标准输入(stdin)读取一行,然后执行pattern{ action;… }语句块,它逐行扫描文件,
从第一行到最后一行重复这个过程,直到文件全部被读取完毕。
③ 当读至输入流末尾时,执行END{action;…}语句块
BEGIN语句块在awk开始从输入流中读取行之前被执行,这是一个可选的语句块,比如变量初始化、打印输出表格的表头等语句通常可以写在BEGIN语句块中
END语句块在awk从输入流中读取完所有的行之后即被执行,比如打印所有行的分析结果这类信息汇总都是在END语句块中完成,它也是一个可选语句块
pattern语句块中的通用命令是最重要的部分,也是可选的。如果没有提供pattern语句块,则默认执行{ print },即打印每一个读取到的行,awk读取的每一行都会执行该语句块

示例:

[root@localhost opt]# cat file.txt 
1:a
2:b
3:c
[root@localhost opt]# awk -F: 'BEGIN{print "123abc"}{print}' file.txt 
123abc
1:a
2:b
3:c
#以冒号为分割符,awk开始从输入流中读取行之前执行打印123abc,即在表头添加123abc

3.3 基本用法

[root@localhost ~]#  echo 123 | awk '{print}'
123                                            #pattern什么都不写,打印全部
[root@localhost opt]# cat file.txt 
1234
abCD
[root@localhost opt]# cat file.txt | awk '/[a-z]/{print}'
abCD                                           #匹配包含小写字母的行
[root@localhost opt]# awk '{print "hello"}' < file.txt 
hello                                          #文件有几行打印几次hello
hello
hello
[root@localhost ~]# awk 'BEGIN{print 1+2}' 
3                                              #支持运算

[root@localhost opt]# cat file.txt 
1:a
2:b
[root@localhost opt]# awk -F: '{print $1,$2}' file.txt
1 a                                            #默认以空格为分隔符
2 b
[root@localhost opt]# wk -F: '{print $1"@@"$2}' file.txt
1@@a                                           #指定@@作为分隔符,打印第一列和第二列
2@@b

小结:

[root@localhost ~]#awk -F: '{print $0}' /etc/passwd
#$0代表全部元素
[root@localhost ~]#awk -F: '{print $1}' /etc/passwd
#代表第一列
[root@localhost ~]#awk -F: '{print $1,$3}' /etc/passwd
#代表第一第三列
[root@localhost ky15]#awk '/^root/{print}' passwd 
#已root为开头的行
[root@localhost ky15]#grep -c "/bin/bash$" passwd 
#统计当前已/bin/bash结尾的行
2

3.4 常规应用

 提取磁盘使用率:

[root@localhost ~]# df -h
文件系统                 容量  已用  可用 已用% 挂载点
/dev/mapper/centos-root   50G  3.5G   47G    7% /
devtmpfs                 897M     0  897M    0% /dev
tmpfs                    912M     0  912M    0% /dev/shm
tmpfs                    912M  9.0M  903M    1% /run
tmpfs                    912M     0  912M    0% /sys/fs/cgroup
/dev/sda1                5.0G  179M  4.9G    4% /boot
tmpfs                    183M   12K  183M    1% /run/user/42
tmpfs                    183M     0  183M    0% /run/user/0
[root@localhost ~]# df | awk '{print $5}'| cut -d% -f1 |tail -n +2
7
0
0
1
0
4
1
0
df | awk -F"( +|%)" '{print $5}' | tail -n +2 以空格或者%为分隔符
df | awk -F"[ %]+" '{print $5}' | tail -n +2
df | awk -F"[[:space:]]+|%" '{print $5}' | tail -n +2
#均可以实现提取

提取网卡ip地址:

[root@localhost opt]# ifconfig ens33
ens33: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.190.100  netmask 255.255.255.0  broadcast 192.168.190.255
[root@localhost opt]# ifconfig ens33| sed -n '2p' | awk '{print $2}'
192.168.190.100
[root@localhost opt]# ifconfig ens33 | awk '/netmask/{print $2}'
192.168.190.100
#找到第二行第二列

3.5 常见的内置变量

awk提供了一些内置变量,用于方便地处理文本数据。

  • FS :指定每行文本的字段分隔符,缺省默认为空格或制表符(tab)。与 “-F”作用相同 -v "FS=:"
  • OFS:输出时的分隔符
  • NF:当前处理的行的字段个数
  • NR:当前处理的行的行号(序数)
  • $0:当前处理的行的整行内容
  • $n:当前处理行的第n个字段(第n列)
  • FILENAME:被处理的文件名
  • RS:行分隔符。awk从文件上读取资料时,将根据RS的定义就把资料切割成许多条记录,而awk一次仅读入一条记录进行处理。预设值是\n

 示例:FS

[root@localhost opt]# awk -F: {print} file.txt 
1:a
2:b
[root@localhost opt]# awk -F: '{print $1}' file.txt 
1
2
[root@localhost opt]# awk -v FS=: '{print $1}' file.txt 
1
2
[root@localhost opt]# awk -v FS=: '{print $1FS$2}' file.txt  #调用变量名FS不需要$
1:a
2:b
[root@localhost opt]# fs=:
[root@localhost opt]# awk -v FS=$fs '{print $1FS$2}' file.txt 
1:a                                                          #支持定义变量传给FS
2:b

示例OFS:

[root@localhost opt]# cat file.txt
1:a
2:b
[root@localhost opt]# awk -v FS=":" -v OFS="==" '{print $1,$2}' file.txt 
1==a
2==b

示例RS:默认是已 /n (换行符)为一条记录的分隔符

[root@localhost ~]# echo $PATH
/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin
[root@localhost ~]# echo $PATH | awk -v RS=":" '{print $1}'   #以:为换行符
/usr/local/sbin
/usr/local/bin
/usr/sbin
/usr/bin
/root/bin

[root@localhost opt]# echo $PATH | sed -rn 's#/(.*)#\1#p' | awk -v RS='/' '{print $1}'| tr -d :
usr
local
sbin
usr
local
bin
usr
sbin
usr
bin
root
bin
#以/为分隔符
echo $PATH | sed -rn 's#/(.*)#\1#p' | awk -v RS='/|:/' '{print $1}'
这样也可以实现

 示例NF:代表字段的个数

[root@localhost opt]# cat file.txt 
1:a
2:b
[root@localhost opt]# awk -F: '{print NF}' file.txt 
2
2

应用:过滤磁盘占用百分比 

[root@localhost opt]# df
文件系统                   1K-块    已用     可用 已用% 挂载点
/dev/mapper/centos-root 52403200 3625008 48778192    7% /
devtmpfs                  917604       0   917604    0% /dev
tmpfs                     933524       0   933524    0% /dev/shm
tmpfs                     933524    9216   924308    1% /run
tmpfs                     933524       0   933524    0% /sys/fs/cgroup
/dev/sda1                5232640  182372  5050268    4% /boot
tmpfs                     186708      12   186696    1% /run/user/42
tmpfs                     186708       0   186708    0% /run/user/0
[root@localhost opt]# df | awk  '{print $(NF-1)}' | tr -d % | tail -n +2
7                                        #$NF表示最后一个字段
0
0
1
0
4
1
0

示例NR:行号,类似于wc -l

[root@localhost opt]# cat file.txt 
a:aa
b:bb
3:33
[root@localhost opt]# awk -F: '{print NR}' file.txt 
1
2
3

应用:打印出当前系统普通用户同时按倒序排列

[root@localhost ~]# awk -F:  '$3>=1000{print $3,$1}' /etc/passwd | sed -nr 's/(.*) (.*)/\2 \1/p'
nfsnobody 65534
fql 1000

[root@localhost ~]# cat /etc/passwd | sort -t: -k3 -n | tail -n1
nfsnobody:x:65534:65534:Anonymous NFS User:/var/lib/nfs:/sbin/nologin
#可以找打uid最大的用户,-t也是指定分隔符,-k3代表第三列

示例FNR:把两个文件分开重新计数

[root@localhost opt]# cat file1.txt 
123
456
[root@localhost opt]# cat file2.txt 
abc
[root@localhost opt]# awk '{print NR}' file1.txt file2.txt     #NR会合并计数
1
2
3
[root@localhost opt]# awk '{print FNR}' file1.txt file2.txt    #FNR分开计数
1
2
1

3.6 自定义变量

[root@localhost ~]# awk -v test='hello' 'BEGIN{print test}'
hello

printf(了解)

  • %s:显示字符串
  • %d, %i:显示十进制整数
  • %f:显示为浮点数
  • %e, %E:显示科学计数法数值 
  • %c:显示字符的ASCII码
  • %g, %G:以科学计数法或浮点形式显示数值
  • %u:无符号整数
  • %%:显示%自身
[root@localhost opt]# cat file1.txt 
123:a
456:b
[root@localhost opt]# awk -F: '{printf "%s\n",$1}' file1.txt 
123
456
#printf虽然功能强大,但是不自动换行,需要\n换行

3.7 模式PATTERN

awk '模式{处理动作}',PATTERN:根据pattern条件,过滤匹配的行,再做处理。

3.7.1 模式为空

 如果模式为空表示每一行都匹配成功,相当于没有额外条件

[root@localhost opt]# cat file1.txt 
123:a
456:b
[root@localhost opt]# awk -F: '{print $1,$2}' file1.txt 
123 a
456 b
3.7.2 正则匹配

/regular expression/:仅处理能够模式匹配到的行,需要用/ /括起来

[root@localhost opt]# cat file1.txt 
123:a 000
456:b 789
[root@localhost opt]# awk  '/^4/{print $1}' file1.txt 
456:b                     
#匹配以4开头的行的第一列
3.7.3 line ranges:行范围

不支持使用行号,但是可以使用变量NR间接指定行号加上比较操作符或者逻辑关系

算术操作符

  • x+y, x-y, x*y, x/y, x^y, x%y
  • -x:转换为负数
  • +x:将字符串转换为数值

比较操作符:

  • ==, !=, >, >=, <, <=
  • #####逻辑
  • 与:&&,并且关系
  • 或:||,或者关系
  • 非:!,取反 
[root@localhost opt]# cat file1.txt 
a:1 4
b:2 5
c:3 6
[root@localhost opt]# awk 'NR==1{print}' file1.txt 
a:1 4
[root@localhost opt]# awk 'NR==1,NR==3{print}' file1.txt  #打印出1到3行
a:1 4                           
b:2 5
c:3 6
3.7.4 /pat1/,/pat2/ 案例:找到10:00到11:00之间的日志
sed -nr '/10/,/11/p' 文件名    #sed参考2.4.1相关内容介绍
awk '/10/,/11/'      文件名
[root@localhost log]# awk '/Jan 30 21:34:24/,/Jan 30 21:34:26/' messages 
Jan 30 21:34:24 localhost avahi-daemon[685]: Registering new address record for fe80::e743:cb44:9825:6230 on ens33.*.
Jan 30 21:34:26 localhost setroubleshoot: SELinux is preventing /usr/sbin/ip from read access on the file /run/vmware-active-nics. For complete SELinux messages run: sealert -l 3c1805c2-5564-44bb-ab25-c32fb01e593a
#找到an 30 21:34:24到Jan 30 21:34:26日志
3.7.5 关系表达式

在awk中,关系表达式用于比较两个值,并返回一个布尔值(真或假)。这些表达式通常用于控制流程和过滤数据,关系表达式结果为“真”才会被处理。

真:结果为非0值,非空字符串

假:结果为空字符串或0值

[root@localhost ~]# seq 5 | awk 'n++'
2
3
4
5
#结果为第一行不打印
第一行:n=0,awk 0为假,则第一行不打印
第二行:n=1,awk 1为真,则打印第二行
第三行:n=2,awk 2为真,则打印第三行
第四行:n=3,awk 3为真,则打印第四行
第五行:n=4,awk 4为真,则打印第五行
[root@localhost ~]# seq 5 | awk '!n++'    #取反,只打印第一行
1 
[root@localhost ~]# seq 5 | awk '!0'      #都打印
1
2
3
4
5
[root@localhost ~]# seq 5 | awk 'i=!i'    #打印奇数行
1 
3
5
第一行:i未赋值,为假,!i取反为真,打印第一行
第二行:i为真,!i取反为假,第二行不打印
第三行:i为假,!i取反为真,打印第三行
第四行:i为真,!i取反为假,第四行不打印
第五行:i为假,!i取反为真,打印第五行
[root@localhost ~]# seq 5 | awk '!(i=!i)' #打印偶数行
2
4
seq 5 |awk -v i=1 'i=!i'也可实现打印偶数行

3.8 条件判断

在awk中,条件判断通常用于控制程序的流程,以便根据特定条件执行不同的操作。条件判断通常与if语句结合使用。

格式:awk 选项 '模式 {actions}',条件判断写在 actions里

if语句:awk的if语句也分为单分支、双分支和多分支
单分支为if(判断条件){执行语句}
双分支为if(判断条件){执行语句}else{执行语句}
多分支为if(判断条件){执行语句}else if(判断条件){执行语句}else if(判断条件){执行语句}else if(判断条件){执行语句 

示例:

[root@localhost opt]# awk  '{if($2>=10){print $1,$2}else{print $1}}' file.txt 
a
b
c 10
d 20
#以空格为分隔符,如果第二列大于等于10,打印第一列和第二列,否则只打印第一列

3.9 循环:for | while

在awk中,可以使用循环语句来重复执行一组操作,直到满足特定条件为止。awk支持for循环和while循环。

格式:condition:条件;statement:语句

for(expr1;expr2;expr3) {statement;…}
for(variable assignment;condition;iteration process) {for-body}
for(var in array) {for-body}

示例:1-100求和

[root@localhost ~]# awk 'BEGIN{sum=0;for(i=1;i<=100;i++){sum+=i};print sum}'
5050

3.10 数组

在awk中,数组是一种非常有用的数据结构,用于存储和操作数据。awk中的数组是关联数组,也就是说它们可以使用字符串作为索引。

awk数组特性:

(1)awk的数组是关联数组(即key/value方式的hash数据结构),索引下标可为数值(甚至是负数、小数等),也可为字符串

① 在内部,awk数组的索引全都是字符串,即使是数值索引在使用时内部也会转换成字符串

② awk的数组元素的顺序和元素插入时的顺序很可能是不相同的

(2) awk数组支持数组的数组

3.10.1 访问、赋值数组元素

可以使用数组的索引来访问和修改数组元素的值

[root@localhost ~]# awk 'BEGIN{name["a"]="zhangsan";name["b"]="lisi";name["c"]="wangwu";for(i in name)print name[i]}'
zhangsan
lisi
wangwu
3.10.2 数组长度

awk提供了 length() 函数来获取数组的元素个数,它也可以用于获取字符串的字符数量。还可以获取数值转换成字符串后的字符数量。

示例:

[root@localhost ~]# awk 'BEGIN{a[1]="zhangsan";print a[1];print length(a)}'
zhangsan
1
3.10.3 遍历数组

使用for循环来迭代数组中的元素

格式:for(var in array) {for-body}

示例:

[root@localhost ~]# ss -natp | awk 'NR!=1{print $1}' | sort |uniq -c
      1 ESTAB
     11 LISTEN
[root@localhost ~]# ss -natp | awk 'NR!=1{a[$1]++}END{for(i in a)print i,a[i]}'
LISTEN 11
ESTAB 1
3.10.4 实际案例

去除重复行:

[root@localhost opt]# cat file.txt 
a
a
b
b
c
[root@localhost opt]# awk '!line[$0]++' file.txt 
a
b
c
#line数组,$0,将整行作为参数写入
第一行a,一开始未赋值为假,取反为真,打印a,+1依然为真
第二行a,真取反为假,不打印,+1为真,即下次在遇到a一直不打印
第三行b,一开始未赋值为假,取反为真,打印b,+1依然为真
下面同理

3.11 awk脚本

 将awk程序写成脚本,直接调用或执行

示例:

#!/bin/awk -f
{if($3>=1000){print $1,$3}}

[root@localhost opt]# awk -F: -f passwd.awk /etc/passwd
nfsnobody 65534
fql 1000

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/359920.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

【VS Code+Verilog+Vivado使用】(2)基本设置

文章目录 2 基本设置2.1 字体大小2.2 Tab大小2.3 选中高亮2.4 文件编码 2 基本设置 2.1 字体大小 方法1&#xff1a;VS Code左下角 > 管理 > 设置&#xff0c;搜索"font size"&#xff0c;点击左侧"字体"&#xff0c;根据需要设置"editor.fon…

【乳腺肿瘤诊断分类及预测】基于LVQNN学习向量量化神经网络

课题名称&#xff1a;基于LVQ神经网络的乳腺肿瘤诊断&#xff08;类型分类&#xff09; 版本日期&#xff1a;2023-03-10 运行方式: 直接运行0501_LVQ0501.m 文件即可 代码获取方式&#xff1a;私信博主或QQ&#xff1a;491052175 模型描述&#xff1a; 威斯康辛大学医学院…

[AG32VF407]国产MCU+FPGA Verilog编写控制2路gpio输出不同频率方波实验

视频讲解 [AG32VF407]国产MCUFPGA Verilog编写控制2路gpio输出不同频率方波实验 实验过程 根据原理图&#xff0c;选择两个pin脚作为输出 修改VE文件&#xff0c;clk选择PIN_OSC&#xff0c;使用内部晶振8Mhz&#xff0c;gpio使用PIN_51和52&#xff0c;pinout是数组 添加pll…

Linux下qemu的安装并搭建虚拟arm环境(带helloworld测试)【超详细】

qemu的安装并搭建虚拟arm环境 1、准备工作1.1 安装交叉汇编工具1.2 编译内核kernel1.3 u-boot编译1.4 制作根文件系统-busybox 2、启动qemu&#xff08;arm&#xff09;3、helloworld测试 1、准备工作 1.1 安装交叉汇编工具 交叉编译器的作用就不需要详细解释了&#xff0c;因…

2024/1/28CSS学习:基础认知;选择器;文本样式

一、基础认知 1.1层叠样式表 作用&#xff1a;样式美观&#xff0c;给Html美化 1.2语法规则 写在style标签里面 选择器——找标签使用 属性名&#xff1a;属性值&#xff1b; 2.1CSS引入方式 1.内嵌式 CSS 写在style标签中 提示:style标签虽然可以写在页面任意位置&#…

交叉注意力融合时域、频域特征的FFT + CNN-Transformer-CrossAttention轴承故障识别模型

目录 往期精彩内容&#xff1a; 前言 1 快速傅里叶变换FFT原理介绍 第一步&#xff0c;导入部分数据 第二步&#xff0c;故障信号可视化 第三步&#xff0c;故障信号经过FFT可视化 2 轴承故障数据的预处理 2.1 导入数据 2.2 制作数据集和对应标签 3 交叉注意力机制 …

C++初阶:入门泛型编程(函数模板和类模板)

大致介绍了一下C/C内存管理、new与delete后&#xff1a;C初阶&#xff1a;C/C内存管理、new与delete详解 我们接下来终于进入了模版的学习了&#xff0c;今天就先来入门泛型编程 文章目录 1.泛型编程2.函数模版2.1概念2.2格式2.3函数模版的原理2.4函数模版的实例化2.4.1隐式实例…

新书速览|Python数据科学应用从入门到精通

系统教授数据科学与Python实战&#xff0c;涵盖线性回归、逻辑回归、决策树、随机森林、神经网 本书内容 随着数据存储、数据处理等大数据技术的快速发展&#xff0c;数据科学在各行各业得到广泛的应用。数据清洗、特征工程、数据可视化、数据挖掘与建模等已成为高校师生和职场…

教你如何轻松浏览OSGB倾斜摄影三维模型

倾斜摄影测量技术发展至今&#xff0c;已经属于一项成熟度很高的技术。但对于倾斜摄影三维模型数据如何展示&#xff0c;如何与业务进行结合一直是行业比较苦恼的事情。下面我会教大家通过四维轻云实现倾斜摄影三维模型数据的编辑、展示及分享。 一、平台登录 在四维轻云官网…

鸿蒙系统扫盲(七):勘误补充总结,收个尾

这是笔者鸿蒙扫盲系列的最后一篇了&#xff0c;准备对过去的六篇扫盲系列文章&#xff0c;错误的地方做一些勘误&#xff0c;并且补充更新一些朋友们感兴趣的知识&#xff0c;最后收个尾。 1.勘误&#xff0c;编译型语言和解释型语言 在鸿蒙系统扫盲&#xff08;五&#xff0…

32GPIO输入LED闪烁蜂鸣器

一.GPIO简介 所有的GPIO都挂载到APB2上&#xff0c;每个GPIO有&#xff11;&#xff16;个引脚 内核可以通过APB&#xff12;对寄存器进行读写&#xff0c;寄存器都是32位的&#xff0c;但每个引脚端口只有&#xff11;&#xff16;位 驱动器用于增加信号的驱动能力 二.具体…

如何将数据转化为可操作的业务洞察_光点科技

在数字化的商业环境中&#xff0c;企业被海量的数据所包围。从社交媒体互动、销售交易记录到客户反馈&#xff0c;每一项数据都蕴含着潜在的业务价值。然而&#xff0c;数据本身并不能直接为企业带来改变&#xff0c;它需要被转化为可行的业务洞察&#xff0c;才能指导实际的决…

来聊聊SSL证书申请流程

第一步&#xff1a;选择合适的SSL证书类型 在申请SSL证书之前&#xff0c;您需要选择适合您网站需求的SSL证书类型。一般分为单域名证书、多域名证书和通配符证书等。根据您的网站结构和需求选择合适的证书类型。 第二步&#xff1a;准备必要的证书申请材料 在申请SSL证书时&…

用Python库pillow处理图像

入门知识 颜色。如果你有使用颜料画画的经历&#xff0c;那么一定知道混合红、黄、蓝三种颜料可以得到其他的颜色&#xff0c;事实上这三种颜色就是美术中的三原色&#xff0c;它们是不能再分解的基本颜色。在计算机中&#xff0c;我们可以将红、绿、蓝三种色光以不同的比例叠加…

类和对象 第六部分 继承 第一部分:继承的语法

一.继承的概念 继承是面向对象的三大特性之一 有些类与类之间存在特殊的关系&#xff0c;例如下图&#xff1a; 我们可以发现&#xff0c;下级别的成员除了拥有上一级的共性&#xff0c;还有自己的特性&#xff0c;这个时候&#xff0c;我们可以讨论利用继承的技术&#xff0c;…

LeetCode.2670. 找出不同元素数目差数组

题目 题目链接 分析 一种暴力的方法&#xff0c;枚举数组所有数字&#xff0c;分别计算当前元素前面不同的元素和后面不同的元素&#xff0c;然后相减即可。这样的话太暴力&#xff0c;前缀和后缀也需要分别遍历&#xff1a;O(N*2)了。 我们来优化一下&#xff1a; 根据这种…

【HarmonyOS应用开发】UIAbility实践第一部分(五)

一、UIAbility概述 1、UIAbility是一种包含用户界面的应用组件&#xff0c;主要用于和用户进行交互。UIAbility也是系统调度的单元&#xff0c;为应用提供窗口在其中绘制界面。 2、每一个UIAbility实例&#xff0c;都对应于一个最近任务列表中的任务。 3、一个应用可以有一个UI…

阿里云服务器租用价格 2024年新版活动报价及租用收费标准参考

阿里云服务器租用价格是多少&#xff1f;阿里云服务器价格由云服务器配置、实例规格、带宽等组成&#xff0c;进入2024年&#xff0c;阿里云继续推出各种云服务器优惠政策。轻量应用服务器2核2G 61元1年&#xff0c;每天只需0.16元&#xff0c;2核4G 165元1年&#xff0c;每天不…

IDEA:git 回滚本地提交-git 选择 Reset Current Branch to

前言 回滚提交到本地但是还没有 Push 上去的提交 选择我们要回滚的节点&#xff0c;然后点击 git 选择 Reset Current Branch to… 再选择 Hard 。当我们点击 Reset 的时候&#xff0c;代码就会回滚到单前选中的这个版本

Centos 7.9 在线安装 VirtualBox 7.0

1 访问 Linux_Downloads – Oracle VM VirtualBox 2 点击 ​the Oracle Linux repo file 复制 内容到 /etc/yum.repos.d/. 3 在 /etc/yum.repos.d/ 目录下新建 virtualbox.repo&#xff0c;复制内容到 virtualbox.repo 并 :wq 保存。 [rootlocalhost centos]# cd /etc/yum.rep…
最新文章