Python十大实用技巧【附源码】

1、什么是Python?

Python简介

Python 是一个高层次的结合了解释性、编译性、互动性和面向对象的脚本语言。

Python 的设计具有很强的可读性,相比其他语言经常使用英文关键字,其他语言的一些标点符号,它具有比其他语言更有特色语法结构。

Python 是一种解释型语言: 这意味着开发过程中没有了编译这个环节。类似于PHP和Perl语言。

Python 是交互式语言: 这意味着,您可以在一个 Python 提示符 >>> 后直接执行代码。

Python 是面向对象语言: 这意味着Python支持面向对象的风格或代码封装在对象的编程技术。

Python 是初学者的语言:Python 对初级程序员而言,是一种伟大的语言,它支持广泛的应用程序开发,从简单的文字处理到 WWW 浏览器再到游戏。

Python发展历史

Python 是由 Guido van Rossum 在八十年代末和九十年代初,在荷兰国家数学和计算机科学研究所设计出来的。

Python 本身也是由诸多其他语言发展而来的,这包括 ABC、Modula-3、C、C++、Algol-68、SmallTalk、Unix shell 和其他的脚本语言等等。 像 Perl 语言一样,Python 源代码同样遵循 GPL(GNU General Public License)协议。 现在 Python 是由一个核心开发团队在维护,Guido van Rossum 仍然占据着至关重要的作用,指导其进展。

Python 2.0 于 2000 年 10 月 16 日发布,增加了实现完整的垃圾回收,并且支持 Unicode。

Python 3.0 于 2008 年 12 月 3 日发布,此版不完全兼容之前的 Python 源代码。不过,很多新特性后来也被移植到旧的Python 2.6/2.7版本。

Python 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。

Python 2.7 被确定为最后一个 Python 2.x 版本,它除了支持 Python 2.x 语法外,还支持部分 Python 3.1 语法。

Python特点

  1. 易于学习:Python有相对较少的关键字,结构简单,和一个明确定义的语法,学习起来更加简单。

  2. 易于阅读:Python代码定义的更清晰。

  3. 易于维护:Python的成功在于它的源代码是相当容易维护的。

  4. 一个广泛的标准库:Python的最大的优势之一是丰富的库,跨平台的,在UNIX,Windows和Macintosh兼容很好。

  5. 互动模式:互动模式的支持,您可以从终端输入执行代码并获得结果的语言,互动的测试和调试代码片断。

  6. 可移植:基于其开放源代码的特性,Python已经被移植(也就是使其工作)到许多平台。

  7. 可扩展:如果你需要一段运行很快的关键代码,或者是想要编写一些不愿开放的算法,你可以使用C或C++完成那部分程序,然后从你的Python程序中调用。

  8. 数据库:Python提供所有主要的商业数据库的接口。

  9. GUI编程:Python支持GUI可以创建和移植到许多系统调用。

可嵌入: 你可以将Python嵌入到C/C++程序,让你的程序的用户获得"脚本化"的能力。

Python典型应用

不管有没有开发经验,是否是计算机科班毕业,都不是影响你学习一门语言的门槛,相反,因为兴趣去学习,理解可能会更深。

4、Python常用场景

(1)爬取文档、学习资料

首先,需要明确爬取的内容是什么?比如爬图片、爬文件、爬资讯、爬新闻等。根据爬取的内容来确定最终爬取的内容是什么格式,比如我们这里,需要爬资讯,搜集指定网站的所有文章标题和链接,方便后续浏览。 那么,我们本次爬取的网站和目的就明确了:

网站:https://zkaoy.com/sions/exam 目的:收集文章标题和链接

那么,使用Python,可以参考以下两步的代码模板实现(在写Python代码前,别忘了安装Python运行环境和需要依赖的库:urllib3,bs4)

第一步,下载网页并保存为文件,代码如下:
import urllib3  
  
# 第一个函数,用来下载网页,返回网页内容  
# 参数 url 代表所要下载的网页网址。  
  
def download_content(url):  
    http = urllib3.PoolManager()  
    response = http.request("GET", url)  
    response_data = response.data  
    html_content = response_data.decode()  
    return html_content  
# 第二个函数,将字符串内容保存到文件中  
# 第一个参数为所要保存的文件名,第二个参数为要保存的字符串内容的变量  
def save_to_file(filename, content):  
    fo = open(filename,"w", encoding="utf-8")  
    fo.write(content)  
    fo.close()  
  
# 下载报考指南的网页  
url = "https://zkaoy.com/sions/exam"  
result = download_content(url)  
save_to_file("tips1.html", result)  
  


第二步,解析网页,并提取出文章的链接和标题
from bs4 import BeautifulSoup  
  
# 输入参数为要分析的 html 文件名,返回值为对应的 BeautifulSoup 对象  
def create_doc_from_filename(filename):  
    fo = open(filename, "r", encoding='utf-8')  
    html_content = fo.read()  
    fo.close()  
    doc = BeautifulSoup(html_content)  
    return doc  
  
doc = create_doc_from_filename("tips1.html")  
post_list = doc.find_all("div",class_="post-info")  
for post in post_list:  
    link = post.find_all("a")[1]  
    print(link.text.strip())  
    print(link["href"])  
  


执行以上代码后,你就会发现网页中的标题和链接已经被打印到屏幕上了。


(2)抓取表格,做数据分析

我们日常在上网的时候,往往都会看到一些有用的表格,都希望保存下来日后使用,但直接复制到 Excel 往往都很容易发生变形,或者乱码,或者格式错乱等种种问题,借助 Python 可以轻松实现网页中表格的保存。(提示:需要先安装依赖: urllib3, pandas) 以招行外汇页面为例:地址:http://fx.cmbchina.com/Hq/ Python代码如下:

import urllib3  
import pandas as pd  
def download_content(url):  
    # 创建一个 PoolManager 对象,命名为 http  
    http = urllib3.PoolManager()  
  
    # 调用 http 对象的 request 方法,第一个参数传一个字符串 "GET"  
    # 第二个参数则是要下载的网址,也就是我们的 url 变量  
    # request 方法会返回一个 HTTPResponse 类的对象,我们命名为 response  
    response = http.request("GET", url)  
  
    # 获取 response 对象的 data 属性,存储在变量 response_data 中  
    response_data = response.data  
  
    # 调用 response_data 对象的 decode 方法,获得网页的内容,存储在 html_content   
    # 变量中  
    html_content = response_data.decode()  
    return html_content  
  
html_content = download_content("http://fx.cmbchina.com/Hq/")  
  
  
  
# 调用 read_html 函数,传入网页的内容,并将结果存储在 cmb_table_list 中  
# read_html 函数返回的是一个 DataFrame 的list  
cmb_table_list = pd.read_html(html_content)  
  
# 通过打印每个 list 元素,确认我们所需要的是第二个,也就是下标 1  
cmb_table_list[1].to_excel("tips2.xlsx")  
  


执行之后,会在代码文件所在的目录生成 tips2.xlsx 的 excel 文件,打开之后即可查看数据。

(3)批量下载图片

当我们看到一个网页上有很多喜欢的图片时,一张一张保存效率比较低。

通过 Python 我们也可以实现快速的图片下载。以堆糖网为例,我们看到了这个网页。 地址:https://www.duitang.com/search/?kw=ins%E9%A3%8E%E8%83%8C%E6%99%AF%E5%9B%BE&type=feed 我们首先下载网页,然后分析其中的 img 标签,然后把图片下载下载来。首先我们在工作目录建立一个文件夹 tips_3 用来放下载的图片。

首先还是下载网页,Python 代码如下。

import urllib3  
  
# 第一个函数,用来下载网页,返回网页内容  
# 参数 url 代表所要下载的网页网址。  
# 整体代码和之前类似  
def download_content(url):  
    http = urllib3.PoolManager()  
    response = http.request("GET", url)  
    response_data = response.data  
    html_content = response_data.decode()  
    return html_content  
# 第二个函数,将字符串内容保存到文件中  
# 第一个参数为所要保存的文件名,第二个参数为要保存的字符串内容的变量  
def save_to_file(filename, content):  
    fo = open(filename,"w", encoding="utf-8")  
    fo.write(content)  
    fo.close()  
  
url = "https://www.duitang.com/search/?kw=ins%E9%A3%8E%E8%83%8C%E6%99%AF%E5%9B%BE&type=feed"  
result = download_content(url)  
save_to_file("tips3.html", result)  
  


然后是抽取 img 标签,下载图片。

from bs4 import BeautifulSoup  
from urllib.request import urlretrieve  
  
# 输入参数为要分析的 html 文件名,返回值为对应的 BeautifulSoup 对象  
def create_doc_from_filename(filename):  
    fo = open(filename, "r", encoding='utf-8')  
    html_content = fo.read()  
    fo.close()  
    doc = BeautifulSoup(html_content)  
    return doc  
  
doc = create_doc_from_filename("tips3.html")  
images = doc.find_all("img")  
for i in images:  
    src = i["src"]  
    filename = src.split("/")[-1]  
    # print(i["src"])  
    urlretrieve(src, "tips_3/" + filename)  
  


执行完毕后打开 tips_3 目录,可以看到图片都被下载下来了。

(4)玩转图表,实现数据可视化

除了使用 Python 编写爬虫来下载资料, Python 在数据分析和可视化方面也非常强大。往往我们在工作中需要经常使用 Excel 来从表格生成曲线图,但步骤往往比较繁琐,而用 Python 则可以轻松实现。

1、从 csv 或 excel 提取数据来画图

本节需要先安装 pandas 、matplotlib、seaborn conda install pandas conda install matplotlib conda install seaborn

我们以刚才创建的 tips_2.xlsx 这个 excel 为例,来介绍我们如何把 Excel 表格中的数据画成图。

我们这次将 excel 中的卖出价一列,生成柱状图。

代码如下所示:

import pandas as pd  
import matplotlib.pyplot as plt  
import seaborn as sns  
import numpy as np  
  
# 使用 pandas 读取 excel, csv 文件的话换成 pd.read_csv 即可  
df = pd.read_excel("tips2.xlsx")  
# 因为第一行是中文表头,所以我们先过滤掉  
df = df[df.index>0]  
sns.set()  
figure2 = plt.figure(figsize = (10, 5))  
figure2.add_subplot(1,1,1)  
  
# 设置轴的属性  
plt.xlabel("",fontsize = 14)  
plt.ylabel("卖出价", fontsize = 14)  
plt.xticks(fontsize=14)  
plt.yticks(fontsize=14)  
plt.title("外汇情况", fontsize=14)  
  
# 设置字体的属性  
plt.rcParams["font.sans-serif"] = "Arial Unicode MS"  
plt.rcParams["axes.unicode_minus"] = False  
  
category = df[0]  
index_category = np.arange(len(category))  
# 将 卖出价 转换为数字  
df[3] = pd.to_numeric(df[3])  
plt.xticks(rotation = 90)  
plt.bar(x=df[0], height=df[3].values, color=[1,0,1])  
plt.show()  
  


大家可以自行执行代码查看效果。

2、从文本文件中生成词云

需要先安装 wordcloud,jieba conda install -c conda-forge wordcloud conda install -c conda-forge jieba

词云是最近数据分析报告中非常常见的数据表现形式了,它会从一段文字中抽取出高频的词汇并且以图片的形式将它们展示出来。

如何用 Python 生成词云呢?为了做示范,我们首先解析第一步我们抓取的 tips_1.html 网页(考研网),将所有的新闻标题都存储到一个文本文档中。

from bs4 import BeautifulSoup  
  
# 输入参数为要分析的 html 文件名,返回值为对应的 BeautifulSoup 对象  
def create_doc_from_filename(filename):  
    fo = open(filename, "r", encoding='utf-8')  
    html_content = fo.read()  
    fo.close()  
    doc = BeautifulSoup(html_content)  
    return doc  
  
doc = create_doc_from_filename("tips1.html")  
post_list = doc.find_all("div",class_="post-info")  
  
result = []  
for post in post_list:  
    link = post.find_all("a")[1]  
    result.append(link.text.strip())  
  
result_str="\n".join(result)  
with open("news_title.txt", "w") as fo:  
    fo.write(result_str)  
  


接下来我们将 news_title.txt 这个文本文件中的汉字进行分词,并生成词云。代码如下:

import jieba  
import wordcloud  
text = ""  
with open ("news_title.txt", encoding="utf-8") as fo:  
    text = fo.read()  
split_list = jieba.lcut(text)  
final_text = " ".join(split_list)  
  
stopwords= ["的", "是", "了"]  
# Windows 系统的 font_path 替换为'C:\Windows\Fonts\STZHONGS.ttf'  
wc = wordcloud.WordCloud(font_path = "/System/Library/Fonts/PingFang.ttc", width=1000, height=700, background_color="white",max_words=100,stopwords = stopwords)  
wc.generate(final_text)  
  
import matplotlib.pyplot as plt  
plt.imshow(wc)  
plt.axis("off")  
plt.show()  
  


如果你想生成自己的词云,首先你需要想清楚你的数据来源,一般是一个网页或者一个文本文件。

如果是网页的话可以首先保存到本地,提取文本,之后就可以进行代码替换来生成了。

(5)使用 Python 实现批量重命名文件

使用 Python 进行批量的文件重命名是比较简单的。比如我们要把一批图片导入到 PS 中编辑,或者导致一批视频文件到 PR 中操作,如果资源的文件名杂乱的话会严重影响效率。所以一般情况下我们都需要首先将相关的文件批量的按照某个规则重命名。

这里我们以前面爬虫示例的 3 小节中批量下载的图片文件夹为例,批量把该文件夹中的所有图片名字重命名为 “图片_0x.jpg ”的形式,其中 x 是图片的序号,逐一递增。 代码如下:

import os  
root, dirs, files = next(os.walk("tips_3/"))  
idx = 0   
for item in files:  
    old_file_path = os.path.join(root,item)  
    new_file_path = os.path.join(root, f"图片_{idx}.jpg")  
    os.rename(old_file_path, new_file_path)  
    idx = idx + 1  
  


执行过后,重新查看 tips_3 文件夹,可以看到下面的图片均已变成我们希望的格式。

(6)批量搞图,秀翻全场

1、批量给照片加水印

需要首先安装 opencv、pillow pip3 install opencv-python pip3 install pillow

如果手中有非常多的图片,想保护自己版权,或者申明来源,我们可以在图片上加水印。那如何用 Python 给非常多的图片批量加上文字水印呢?

还是以我们在爬虫示例的 3 小节中批量下载的图片文件夹为例。

下述代码会给该文件夹下所有图片的(100,100) 这个坐标点加上“文字水印”这四个中文。坐标点是以图片左上角为基准的。如果图片的宽高小于 100,则不会打上水印。

# -*- coding: utf-8 -*-  
import cv2  
import numpy  
from PIL import Image, ImageDraw, ImageFont  
import os  
def process_file(file_path,output_dir):  
    img = cv2.imread(file_path)  
    if (isinstance(img, numpy.ndarray)):  
        img = Image.fromarray(cv2.cvtColor(img, cv2.COLOR_BGR2RGB))  
    draw = ImageDraw.Draw(img)  
    # 字体的格式  
    textSize = 50  
    # Windows 系统的 font_path 替换为'C:\Windows\Fonts\STZHONGS.ttf'  
    fontStyle = ImageFont.truetype(  
        "/System/Library/Fonts/PingFang.ttc", textSize, encoding="utf-8")  
    # 绘制文本  
    left = 100  
    top = 100  
    text = '文字水印'  
    textColor = (168, 121, 103)  
    draw.text((left, top), text, textColor, font=fontStyle)  
    # 转换回OpenCV类型  
    img2 = cv2.cvtColor(numpy.asarray(img), cv2.COLOR_RGB2BGR)  
    # 保存图片  
    file_name = file_path.split("/")[-1]  
    cv2.imwrite(os.path.join(output_dir, file_name), img2)  
    print(f"proceed {file_path}")  
  
root, dirs, files = next(os.walk("tips_3/"))  
for item in files:  
    file_path = os.path.join(root,item)  
    process_file(file_path, "tips_3_watermark")  
  


代码执行完后,可以去 tips_3_watermark 这个文件夹中查看图片,可以看到这里的所有图片都已经被打上了文字水印。

2、批量给照片调整饱和度

我们在生活中有经常需要给照片、图片调色的场景,虽然用 PS 可以很方便地完成,但是一张照片一张照片的处理还是比较麻烦。

使用 Python 我们可以非常方便的批量地对照片调整饱和度。

这一节我们还是以前面 03 节批量下载的图片目录为例,给所有照片的饱和度升高为 1.5 倍。

我们首先建立 tips_3_sa 文件夹,用来存放处理过的图片,之后输入代码:

import cv2  
import numpy as np  
import os  
def process_image(file_path, target_dir):  
    pic = cv2.imread(file_path, cv2.IMREAD_UNCHANGED)  
    pic1 = cv2.cvtColor(pic, cv2.COLOR_BGR2HSV)  
  
    H,S,V = cv2.split(pic1)  
    new_pic = cv2.merge([np.uint8(H ), np.uint8(S * 1.5), np.uint8(V)])  
    pic2 = cv2.cvtColor(new_pic, cv2.COLOR_HSV2BGR)  
    file_name = file_path.split("/")[-1]  
    cv2.imwrite(os.path.join(target_dir, file_name), pic2)  
  
root, dirs, files = next(os.walk("tips_3/"))  
for item in files:  
    file_path = os.path.join(root,item)  
    process_image(file_path, "tips_3_sa")  
  


3、批量调整照片尺寸

除了调整饱和度外,批量调整照片尺寸也是非常常见的需求。我们继续以 tips_3 文件夹中的图片为例,来批量将所有图片缩写为之前的1/2, 然后存储在 tips_3_resize 目录中。

首先需要在我们的工作目录中建立 tips_3_resize 目录,之后输入如下代码:

import cv2  
import numpy as np  
import os  
def process_image(file_path, target_dir):  
    pic = cv2.imread(file_path, cv2.IMREAD_UNCHANGED)  
    x,y = pic.shape[0:2]  
    pic1 = cv2.resize(pic, (int(y/2), int(x/2)))  
    file_name = file_path.split("/")[-1]  
    cv2.imwrite(os.path.join(target_dir, file_name), pic1)  
  
root, dirs, files = next(os.walk("tips_3/"))  
for item in files:  
    file_path = os.path.join(root,item)  
    process_image(file_path, "tips_3_resize")  


学习资源推荐

零基础Python学习资源介绍

👉Python学习路线汇总👈
Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。(学习教程文末领取哈)
在这里插入图片描述

👉Python必备开发工具👈
在这里插入图片描述

温馨提示:篇幅有限,已打包文件夹,获取方式在:文末

👉Python学习视频600合集👈
观看零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
在这里插入图片描述

👉实战案例👈
光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

👉100道Python练习题👈
检查学习结果。
在这里插入图片描述
👉面试刷题👈
在这里插入图片描述在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

资料领取

上述这份完整版的Python全套学习资料已经上传CSDN官方,朋友们如果需要可以微信扫描下方CSDN官方认证二维码输入“领取资料” 即可领取。
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/289185.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

Nacos学习思维导图

一、服务注册 参考文档:http://www.bryh.cn/a/118936.html https://blog.csdn.net/Saintmm/article/details/121981184 二、服务续约 参考文档:http://www.bryh.cn/a/118936.html https://blog.csdn.net/Saintmm/article/details/121981184 三、服务…

提取 PE 文件的各种信息

前段时间项目需要实现对 Windows PE 文件版本信息的提取,如文件说明、文件版本、产品名称、版权、原始文件名等信息。获取这些信息在 Windows 下当然有一系列的 API 函数供调用,简单方便。 我们先看一下PE文件结构,PE文件由DOS首部&#xff0…

FX3U-1PG使用

作为扩展模块的安装 伺服驱动器的参数设置 1.设置为0,为位置模式,发送脉冲控制; 2. 设置旋转方向,以及脉冲方式,通常设置为01,因为FX3U-1PG只支持正方向脉冲负方向脉冲方式; 当然想改变电机运…

基于AT89C51单片机可做实物的温度烟雾火灾报警设计

点击链接获取Keil源码与Project Backups仿真图: https://download.csdn.net/download/qq_64505944/88658141?spm1001.2014.3001.5503 C 源码仿真图毕业设计实物制作步骤02 摘要 随着现代家庭用火、用电量的增加,家庭火灾发生的频率越来越高。火灾报警…

Cesium加载大规模三维数据渲染性能优化方案

根据实际项目经验和近期的论文,总结一下Cesium加载大规模三维数据性能优化方法。个人认为在实际的GIS数字孪生项目中,其可行的优化手段主要有三种: (1)通过专业的转换工具CesiumLab等对原始的三维模型进行轻量化处理,包…

基于ssm的自习室预订座位管理分析与实现论文

摘 要 使用旧方法对自习室预订座位管理信息进行系统化管理已经不再让人们信赖了,把现在的网络信息技术运用在自习室预订座位管理信息的管理上面可以解决许多信息管理上面的难题,比如处理数据时间很长,数据存在错误不能及时纠正等问题。 这次…

[鹤城杯 2021]EasyP

[鹤城杯 2021]EasyP wp 参考博客&#xff1a; basename()绕过小结 request导致的安全性问题分析 源码分析 首先进入题目&#xff0c;看到代码&#xff1a; <?php include utils.php;if (isset($_POST[guess])) {$guess (string) $_POST[guess];if ($guess $secret)…

条款16:成对使用 new 和 delete 时要采用相同形式

下面程序的行为是未定义的。至少&#xff0c;stringArray指向的100个string对象中有99个不太可能被正确地析构。 被delete的指针指向单个对象还是一个对象数组&#xff1f;内存数组通常包括数组的大小&#xff0c;delete可以知道需要调用多少个析构函数。 使用delete时使用了方…

解读 $mash 通证 “Fair Launch” 规则,将公平发挥极致

Solmash 是 Solana 生态中由社区主导的铭文资产 LaunchPad 平台&#xff0c;该平台旨在为 Solana 原生铭文项目&#xff0c;以及通过其合作伙伴 SoBit 跨链桥桥接到 Solana 的 Bitcoin 生态铭文项目提供更广泛的启动机会。有了 Solmash&#xff0c;将会有更多的 Solana 生态的铭…

最新能让老外对口型讲中文的AI 视频教程,免费开源AI工具——Wav2Lip

本期就来教大家制作海外大佬们新年祝福视频吧&#xff01;对口型视频一直在全网都非常的火爆&#xff0c;随便一个视频都是几千赞以上&#xff0c;简直堪称涨粉利器&#xff01; 是不是很有意思&#xff0c;口型完全对得上&#xff0c;表情也很自然逼真&#xff0c;不懂内行的人…

后端杂七杂八系列篇一

后端杂七杂八系列篇一 ① MySQL选择合适的数据类型① Char与Varchar② Text与Blob ② EqualsAndHashCode(callSuper true)的作用③ mybatis-plus 相关① 主键生成策略② 使用Model实现CRUD③ Wrapper的用法① Wrapper的继承关系② 项目中最常用的warpper [LambdaQueryWrapper]…

ElasticSearch数据同步

文章目录 ElasticSearch数据同步1. 同步调用2. 异步通知3. 监听binlog4. 工作中处理同步的问题 ElasticSearch数据同步 ElasticSearch中酒店数据来自于mysql数据库&#xff0c;因此MySQL数据发生改变时&#xff0c;ElasticSearch也必须跟着改变&#xff0c;这个就是ElasticSear…

轻量级性能测试工具 wrk 如何使用?

项目设计之初或者是项目快要结束的时候&#xff0c;大佬就会问我们&#xff0c;这个服务性能测试的结果是什么&#xff0c;QPS 可以达到多少&#xff0c;RPS 又能达到多少&#xff1f;接口性能可以满足未来生产环境的实际情况吗&#xff1f;有没有自己测试过自己接口的吞吐量&a…

Node.js+Express 获取前端get请求参数值

前端请求&#xff1a; http://localhost:3002/api/user/login?username002&password002 后端响应 router.get(/api/user/login, (req, res) > {let username req.query.username;let password req.query.password;const sqlStr SELECT * FROM sys_user where use…

UI自动化测试框架搭建

今天给大家分享一个seleniumtestngmavenant的UI自动化&#xff0c;可以用于功能测试&#xff0c;也可按复杂的业务流程编写测试用例&#xff0c;今天此篇文章不过多讲解如何实现CI/CD&#xff0c;只讲解自己能独立搭建UI框架&#xff0c;需要阅读者有一定的java语言基础&#x…

西北工业大学计算机组成原理实验报告——verilog前两次

说明 为了有较好的可读性&#xff0c;报告仅仅粘贴关键代码。该PDF带有大纲功能&#xff0c;点击大纲中的对应标题&#xff0c;可以快速跳转。 实验目标 掌握单周期CPU执行指令的流程和原理&#xff1b;学习使用verilog HDL语言实现单周期CPU, 并通过功能仿真&#xff1b;提…

【BIAI】Lecture2-Visual system

Lecture 2 - Visual System 专业术语 central nervous system(CNS) 中枢神经系统 pupil 瞳孔 iris 虹膜 cornea 角膜 retina 视网膜 fovea 中央凹 或 黄斑区 kens 晶状体 optic nerve 视神经 Bipolar cells 双极细胞 Ganglion cells 神经节细胞 rods 杆状细胞 cones 锥状细胞 …

uniapp中组件库的Textarea 文本域的丰富使用方法

目录 #平台差异说明 #基本使用 #字数统计 #自动增高 #禁用状态 #下划线模式 #格式化处理 API #List Props #Methods #List Events 文本域此组件满足了可能出现的表单信息补充&#xff0c;编辑等实际逻辑的功能&#xff0c;内置了字数校验等 注意&#xff1a; 由于…

2023-12-17 LeetCode每日一题(使用最小花费爬楼梯)

2023-12-17每日一题 一、题目编号 746. 使用最小花费爬楼梯二、题目链接 点击跳转到题目位置 三、题目描述 给你一个整数数组 cost &#xff0c;其中 cost[i] 是从楼梯第 i 个台阶向上爬需要支付的费用。一旦你支付此费用&#xff0c;即可选择向上爬一个或者两个台阶。 你…

【鸿蒙杂谈①】——鸿蒙基础介绍及应用领域

1.前言 小伙伴们大家好&#xff0c;最近被复习整的痛苦无比&#xff0c;所以今天咱们了解 一点轻松的东西&#xff0c;至于高并发就先放放吧。好了&#xff0c;废话不多说&#xff0c;咱们进入正题。 相信小伙伴们都已经看到了最近鸿蒙的势头了&#xff0c;那鸿蒙究竟是怎么发…
最新文章