第七篇【传奇开心果短博文系列】Python的OpenCV库技术点案例示例:图像拼接和融合

传奇开心果短博文系列

  • 系列短博文目录
    • Python的OpenCV库技术点案例示例短博文系列
  • 短博文目录
    • 一、前言
    • 二、OpenCV图像拼接融合介绍
    • 三、全景图像拼接示例代码和扩展
    • 四、图像融合示例代码和扩展
    • 五、归纳总结

系列短博文目录

Python的OpenCV库技术点案例示例短博文系列

短博文目录

一、前言

在这里插入图片描述OpenCV图像拼接融合:包括全景图像拼接、图像融合等功能。

二、OpenCV图像拼接融合介绍

在这里插入图片描述OpenCV是一个广泛使用的计算机视觉库,其中包含了许多图像处理和计算机视觉算法。在OpenCV中,可以使用其功能来实现图像拼接融合,包括全景图像拼接和图像融合。

  1. 全景图像拼接:
    全景图像拼接是将多张局部重叠的图像拼接成一张完整的全景图像。拼接过程包括以下步骤:

    • 特征提取:使用特征提取算法(如SIFT、SURF等)检测图像中的特征点。
    • 特征匹配:对提取到的特征点进行匹配,找出在多个图像中对应的特征点。
    • 图像配准:根据匹配的特征点,估计相邻图像之间的变换关系(如平移、旋转、缩放等),使它们对齐。
    • 图像拼接:将配准后的图像进行拼接,生成全景图像。
  2. 图像融合:
    图像融合是将多张图像的信息合并到一张图像中,以产生更丰富的视觉效果。常见的图像融合方法包括:

    • 加权平均:将多张图像按照一定权重进行加权平均,得到融合后的图像。
    • 金字塔融合:使用图像金字塔的层级结构,将图像分解为不同分辨率的子图像,然后通过融合算法将它们进行合成。
    • 混合模式:根据不同的混合模式(如叠加、正片叠底、滤色等),将多张图像进行混合。

在OpenCV中,可以使用函数和类来实现图像拼接和融合,例如:

  • cv2.matchFeatures():用于特征匹配。
  • cv2.findHomography():用于计算图像配准的单应性矩阵。
  • cv2.warpPerspective():用于透视变换,将图像根据单应性矩阵进行配准。
  • cv2.addWeighted():用于图像加权平均。
  • cv2.pyrDown()cv2.pyrUp():用于图像金字塔的降采样和上采样。

通过组合和调用这些函数和类,可以实现具体的图像拼接和融合功能。

需要注意的是,图像拼接和融合是复杂的任务,对于不同的场景和图像质量可能需要不同的算法和参数设置。因此,在实际应用中,需要根据具体需求和情况进行算法选择和参数调优。

三、全景图像拼接示例代码和扩展

在这里插入图片描述以下是一个使用OpenCV实现全景图像拼接的示例代码:

import cv2
import numpy as np

def stitch_images(images):
    # 初始化特征提取器和匹配器
    sift = cv2.SIFT_create()
    matcher = cv2.BFMatcher()

    # 检测关键点和计算特征描述符
    keypoints = []
    descriptors = []
    for image in images:
        gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
        kp, desc = sift.detectAndCompute(gray, None)
        keypoints.append(kp)
        descriptors.append(desc)

    # 特征匹配
    matches = []
    for i in range(len(descriptors) - 1):
        matches.append(matcher.match(descriptors[i], descriptors[i+1]))

    # 计算图像配准的单应性矩阵
    homographies = []
    for match in matches:
        src_pts = np.float32([keypoints[i][m.queryIdx].pt for i, m in enumerate(match)]).reshape(-1, 1, 2)
        dst_pts = np.float32([keypoints[i+1][m.trainIdx].pt for i, m in enumerate(match)]).reshape(-1, 1, 2)
        H, _ = cv2.findHomography(src_pts, dst_pts, cv2.RANSAC, 5.0)
        homographies.append(H)

    # 图像拼接
    result = images[0]
    for i in range(len(images) - 1):
        result = cv2.warpPerspective(result, homographies[i], (result.shape[1] + images[i+1].shape[1], result.shape[0]))
        result[0:images[i+1].shape[0], 0:images[i+1].shape[1]] = images[i+1]

    return result

# 读取图像
image1 = cv2.imread("image1.jpg")
image2 = cv2.imread("image2.jpg")
image3 = cv2.imread("image3.jpg")

# 图像拼接
result_image = stitch_images([image1, image2, image3])

# 显示结果
cv2.imshow("Panorama", result_image)
cv2.waitKey(0)
cv2.destroyAllWindows()

在上述示例代码中,首先通过cv2.SIFT_create()创建了一个SIFT特征提取器,并使用detectAndCompute()方法检测关键点和计算特征描述符。

然后,通过cv2.BFMatcher()创建了一个基于暴力匹配的匹配器。对于每两个相邻的图像,使用匹配器的match()方法进行特征匹配。

接下来,使用cv2.findHomography()计算了相邻图像之间的单应性矩阵,将它们配准到同一个坐标空间。

最后,使用cv2.warpPerspective()进行透视变换,将配准后的图像进行拼接。

您需要将示例代码中的image1.jpgimage2.jpgimage3.jpg替换为您自己的图像路径。运行代码后,会显示生成的全景图像。

请注意,这只是一个简单的示例代码,实际的图像拼接任务可能需要更多的处理和优化。对于复杂的场景,您可能需要调整算法参数或使用其他图像拼接算法来获得更好的结果。

在这里插入图片描述以下是对上述示例代码的扩展,包括图像预处理和结果优化:

import cv2
import numpy as np

def stitch_images(images):
    # 图像预处理
    gray_images = []
    for image in images:
        gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
        gray_images.append(gray)

    # 初始化特征提取器和匹配器
    sift = cv2.SIFT_create()
    matcher = cv2.BFMatcher()

    # 检测关键点和计算特征描述符
    keypoints = []
    descriptors = []
    for gray_image in gray_images:
        kp, desc = sift.detectAndCompute(gray_image, None)
        keypoints.append(kp)
        descriptors.append(desc)

    # 特征匹配
    matches = []
    for i in range(len(descriptors) - 1):
        matches.append(matcher.match(descriptors[i], descriptors[i+1]))

    # 计算图像配准的单应性矩阵
    homographies = []
    for match in matches:
        src_pts = np.float32([keypoints[i][m.queryIdx].pt for i, m in enumerate(match)]).reshape(-1, 1, 2)
        dst_pts = np.float32([keypoints[i+1][m.trainIdx].pt for i, m in enumerate(match)]).reshape(-1, 1, 2)
        H, _ = cv2.findHomography(src_pts, dst_pts, cv2.RANSAC, 5.0)
        homographies.append(H)

    # 图像拼接
    result = gray_images[0]
    for i in range(len(gray_images) - 1):
        result = cv2.warpPerspective(result, homographies[i], (result.shape[1] + gray_images[i+1].shape[1], result.shape[0]))
        result[0:gray_images[i+1].shape[0], 0:gray_images[i+1].shape[1]] = gray_images[i+1]

    # 结果优化
    result = cv2.medianBlur(result, 5)

    return result

# 读取图像
image1 = cv2.imread("image1.jpg")
image2 = cv2.imread("image2.jpg")
image3 = cv2.imread("image3.jpg")

# 图像拼接
result_image = stitch_images([image1, image2, image3])

# 显示结果
cv2.imshow("Panorama", result_image)
cv2.waitKey(0)
cv2.destroyAllWindows()

在扩展的代码中,我们进行了以下改进:

  1. 图像预处理:将输入图像转换为灰度图像,以减少特征提取和匹配的计算量。

  2. 结果优化:使用cv2.medianBlur()对拼接结果进行中值滤波,以去除可能的噪声和不连续性。

这些改进可以提高拼接结果的质量和鲁棒性。您还可以根据具体需求添加其他的预处理步骤和优化方法,以获得更好的全景图像拼接效果。

四、图像融合示例代码和扩展

在这里插入图片描述以下是一个使用OpenCV实现图像融合的示例代码:

import cv2

def blend_images(image1, image2, alpha):
    blended_image = cv2.addWeighted(image1, alpha, image2, 1 - alpha, 0)
    return blended_image

# 读取图像
image1 = cv2.imread("image1.jpg")
image2 = cv2.imread("image2.jpg")

# 图像融合
alpha = 0.5  # 调整融合比例,范围为[0, 1]
result_image = blend_images(image1, image2, alpha)

# 显示结果
cv2.imshow("Blended Image", result_image)
cv2.waitKey(0)
cv2.destroyAllWindows()

在上述示例代码中,我们定义了一个blend_images()函数,该函数接受两个输入图像image1image2,以及一个融合比例alpha。通过使用cv2.addWeighted()函数,将两个图像按照给定的融合比例进行加权平均,得到融合后的图像。

您需要将示例代码中的image1.jpgimage2.jpg替换为您自己的图像路径。运行代码后,会显示生成的融合图像。

请注意,融合比例alpha决定了两个图像在融合中的权重,如果alpha为0,则完全使用image2;如果alpha为1,则完全使用image1;如果alpha为0.5,则两个图像的权重相等。

根据具体需求,您可以调整融合比例和选择其他的图像融合方法,例如使用不同的混合模式或应用其他图像处理技术来实现更复杂的融合效果。

在这里插入图片描述以下是对上述示例代码的扩展,包括多图像融合和融合掩码的应用:

import cv2
import numpy as np

def blend_images(images, alpha_values):
    # 确保输入图像数量和融合比例数量一致
    assert len(images) == len(alpha_values)

    # 获取图像尺寸
    height, width, channels = images[0].shape

    # 创建融合结果的初始画布
    blended_image = np.zeros((height, width, channels), dtype=np.float32)

    # 图像融合
    for i in range(len(images)):
        alpha = alpha_values[i]
        blended_image += alpha * images[i]

    # 归一化并转换为8位图像
    blended_image = np.clip(blended_image, 0, 255).astype(np.uint8)

    return blended_image

# 读取图像
image1 = cv2.imread("image1.jpg")
image2 = cv2.imread("image2.jpg")
image3 = cv2.imread("image3.jpg")

# 设置融合比例
alpha_values = [0.4, 0.3, 0.3]  # 调整融合比例,总和应为1

# 图像融合
result_image = blend_images([image1, image2, image3], alpha_values)

# 显示结果
cv2.imshow("Blended Image", result_image)
cv2.waitKey(0)
cv2.destroyAllWindows()

在扩展的代码中,我们对图像融合进行了改进:

  1. 多图像融合:现在可以融合多张图像,只需将它们作为列表传递给blend_images()函数即可。

  2. 融合比例:我们使用一个列表alpha_values来指定每张图像的融合比例。请确保融合比例的总和为1,以确保结果图像的亮度一致。

  3. 归一化处理:在融合过程中,我们使用浮点数进行计算,然后将结果限制在0到255之间,并转换为8位图像。

通过这些改进,我们可以实现多张图像的灵活融合,并根据需要调整每张图像的融合比例。

五、归纳总结

在这里插入图片描述OpenCV提供了丰富的功能和算法,用于图像拼接,包括全景图像拼接和图像融合等功能。以下是对OpenCV图像拼接相关功能的归纳总结:

  1. 全景图像拼接:

    • 特征提取:使用特征提取算法(如SIFT、SURF、ORB等)检测图像中的关键点和计算特征描述符。
    • 特征匹配:通过特征描述符进行特征匹配,找出在多个图像中对应的特征点。
    • 图像配准:根据匹配的特征点,估计相邻图像之间的变换关系(如单应性矩阵),使它们对齐。
    • 图像拼接:使用透视变换将配准后的图像进行拼接,生成全景图像。
  2. 图像融合:

    • 加权平均:通过调整不同图像的权重,使用addWeighted()函数进行图像融合,实现平滑过渡效果。
    • 混合模式:使用不同的混合模式(如叠加、正片叠底、柔光等)将多个图像进行混合,产生不同的融合效果。
    • 融合掩码:使用掩码(如alpha通道)来指定每个像素的权重,实现局部融合和遮罩效果。
  3. 优化和增强:

    • 图像预处理:对输入图像进行预处理,如灰度化、平滑滤波、边缘增强等,提高拼接和融合效果。
    • 特征匹配优化:使用更准确的特征匹配算法、筛选和剔除错误匹配点,提高配准的精度和鲁棒性。
    • 图像修复和补全:对拼接后的图像进行修复和补全,填充缺失区域,提高结果的完整性和美观度。

通过OpenCV提供的函数和算法,可以实现灵活而高效的图像拼接和融合。根据具体需求和场景,可以选择适当的方法和参数来获得理想的拼接和融合效果。
在这里插入图片描述

希望对您有所帮助!如果您有任何其他问题,请随时提问。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/353330.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

el-table 设置内容超出宽度后省略,并添加tooltip

el-table 设置内容超出宽度后省略&#xff0c;并添加tooltip 只需要在el-table-item 标签中添加属性 :show-overflow-tooltip"true" 例子 <template><div style"width:100%; display: flex; justify-content: center;"><el-table :data&…

零基础学习数学建模——(五)美赛写作指导

本篇博客将详细讲解美赛论文写作。 文章目录 标题摘要目录引言问题背景问题重述前人研究我们的工作 模型假设及符号说明正文问题分析模型建立模型求解结果分析模型检验 模型优缺点及展望模型优缺点模型展望 参考文献及附录参考文献附录 2024年美赛论文新要求 标题 标题要简洁…

探索 SOAP:揭开 Web 服务的神秘面纱(上)

&#x1f90d; 前端开发工程师、技术日更博主、已过CET6 &#x1f368; 阿珊和她的猫_CSDN博客专家、23年度博客之星前端领域TOP1 &#x1f560; 牛客高级专题作者、打造专栏《前端面试必备》 、《2024面试高频手撕题》 &#x1f35a; 蓝桥云课签约作者、上架课程《Vue.js 和 E…

vscode配置扩展

1、微软提供的C/C扩展开发包 2、C/C智能提示 3、提供as汇编的语法高亮 4、提供文件夹和文件的显示主题 5、提供链接脚本的语法高亮 6、十六进制编辑器 7、MakeFile工具

Bug: git stash恢复误drop的提交

Bug: git stash恢复误drop的提交 前几天在写ut时突然需要通过本地代码临时出一个包&#xff0c;但是本地ut又不想直接作为一个commit提交&#xff0c;所以为了省事就将ut的代码暂时stash起来。出完包后想apply stash&#xff0c;但是手误操作点成了drop stash&#xff0c;丢失了…

Adobe ColdFusion 反序列化漏洞复现(CVE-2023-38203)

0x01 产品简介 Adobe ColdFusion是美国奥多比(Adobe)公司的一套快速应用程序开发平台。该平台包括集成开发环境和脚本语言。 0x02 漏洞概述 Adobe ColdFusion存在代码问题漏洞,该漏洞源于受到不受信任数据反序列化漏洞的影响,攻击者通过漏洞可以代码执行,可导致服务器失…

五个工业安全物联网解决方案

新一代物联网工具和应用正在帮助改变工业安全现状。传感器、可穿戴设备和位置标签提供实时数据&#xff0c;可以防止发生事故&#xff0c;并在出现故障时极大地缩短响应时间。 工业工作场所需要更加安全。根据国际劳工组织的数据&#xff0c;全球每年有近4亿工人因工受伤。近30…

matplotlib 波士顿房价数据及可视化 Tensorflow 2.4.0

matplotlib 波士顿房价数据及可视化 Tensorflow 2.4.0 目录 matplotlib 波士顿房价数据及可视化 Tensorflow 2.4.0 1. 认识 1.1 kears 1.2 kears常用数据集 2. 波士顿房价数据及可视化 2.1 下载波士顿房价数据集 2.2 展示一个属性对房价的影响 2.3 将是三个属性全部展…

【JavaSE篇】——数组的定义与使用

目录 本章的目标&#xff1a; &#x1f388;数组的基本概念 &#x1f36d;创建数组 &#x1f36d;数组的初始化 &#x1f36d;数组的使用 &#x1f449;数组中元素访问 &#x1f449;遍历数组 &#x1f388;数组是引用类型 &#x1f36d;初始JVM的内存分布 &#x1f…

SU-03T语音控制模块详解

当我们谈到智能家居时&#xff0c;经常会通过语音来控制我们的家电&#xff0c;将「懒」发挥到极致。语音模块结合了语音识别和控制技术&#xff0c;使得我们可以通过简单的口令来轻松操控灯光等设备&#xff0c;实现更智能化的生活体验。 在本文中&#xff0c;我们将探讨如何…

12.Elasticsearch应用(十二)

Elasticsearch应用&#xff08;十二&#xff09; 1.单机ES面临的问题 海量数据存储问题单点故障问题 2.ES集群如何解决上面的问题 海量数据存储解决问题&#xff1a; 将索引库从逻辑上拆分为N个分片&#xff08;Shard&#xff09;&#xff0c;存储到多个节点单点故障问题&a…

【UE5】如何给人物骨骼绑定Control Rig用来制作动画(控制)

本篇文章暂时只教绑定人物手部的Control Rig&#xff0c;脚的Control Rig举一反三即可 1&#xff0c;右键-创建-控制绑定 2在控制绑定中-右键创建基本IK 3&#xff0c;填入上臂-下臂-手 4【手和下臂】右键-新建-Add Controls For Selected&#xff0c;&#xff08;或者新建-…

关系三元组抽取方案

一、流程概览 先用序列标注模型预测句子中的实体&#xff0c;再对实体&#xff08;加上句子&#xff09;走关系分类模型&#xff0c;预测实体的关系&#xff0c;最后形成有效的三元组。 1、数据标注 2、数据处理 处理原始数据得到ner命名实体识别的训练预测数据和关系抽取训…

激光雷达标定入门(9)ROS驱动velodyne

这里根据雷达的ros驱动来&#xff0c;这里以velodyne为例。 地址&#xff1a;mirrors / ros-drivers / velodyne GitCode # clone到src git clone .......... # back ws catkin_make # donot forget source devel/setup.bash报错&#xff1a;fatal error: pcap.h: No such f…

ensp winpcap无法安装

安装ensp的依赖软件winpcap无法安装 发现提示已有最新版本、找网上都是修改文件后缀名&#xff0c;测试后发现根本不行&#xff0c;有点扯 npcap是wireshark安装带的&#xff0c;通过卸载wireshark安装 ensp安装顺序应该先安装winpcap->wireshark->virtualbox->ens…

浪花 - 后端接口完善

一、队伍已加入用户数量 1. 封装的响应对象 UserTeamVO 新增字段 hasJoinNum 2. 查询队伍 id 列表 3. 分组过滤&#xff0c;将 team_id 相同的 userTeam 分到同一组 4. 获取每一组的 userTeam 数量&#xff0c;即一个 team_id 对应几个userTeam&#xff08;用户数量&#x…

数据结构与算法教程,数据结构C语言版教程!(第六部分、数据结构树,树存储结构详解)三

第六部分、数据结构树&#xff0c;树存储结构详解 数据结构的树存储结构&#xff0c;常用于存储逻辑关系为 "一对多" 的数据。 树存储结构中&#xff0c;最常用的还是二叉树&#xff0c;本章就二叉树的存储结构、二叉树的前序、中序、后序以及层次遍历、线索二叉树、…

APUE学习之管道(pipe)与命名管道(fifo)

目录 一、简介 二、管道&#xff08;Pipe&#xff09; 1、管道的基本概念 2、管道的局限性 3、管道的创建 4、管道的读写规则 5、实战演练 三、命名管道&#xff08;fifo&#xff09; 1、命名管道的基本概念 2、命名管道的创建 3、实战演练 4、运行结果 四、补充 …

flyway使用配置参数和注意事项介绍

文章目录 业务场景参数介绍initSqlsbaselineOnMigratebaselineVersiontargetvalidateOnMigrate SQL注意事项 业务场景 对于生产环境&#xff0c;随着项目版本迭代&#xff0c;数据库结构也会变动。如果一个项目在多个地方实施部署&#xff0c;且版本不一致&#xff0c;就需要一…

lqb日志08

一只小蒟蒻备考蓝桥杯的日志 文章目录 笔记坐标相遇判断工作调度问题&#xff08;抽象时间轴绘制&#xff09; 刷题心得小结 笔记 坐标相遇判断 我是小懒虫&#xff0c;碰了一下运气&#xff0c;开了个“恰当”的数&#xff08;7000&#xff09;如果&#xff0c;7000次还不能…
最新文章