【现代信息检索】国科大何苯老师现代信息检索课程作业 —— 第三次作业

1

docID判断 1判断 2
100
200
311
411
510
610
710
810
901
1001
1111
1211

表 1    评判情况

1 1 1 中是两个判定人员基于某个信息需求对 12 12 12 个文档进行相关性判定的结果(0 = 不相关,1 = 相关)。假定我们开发了一个 IR 系统,针对该信息需求返回了文档集 { 4 , 5 , 6 , 7 , 8 , 11 } \{4, 5, 6, 7, 8, 11\} {4,5,6,7,8,11}。回答下列问题:

a. 计算两个判断之间的 kappa 统计量,并说明结果是否可接受。

根据表 1 1 1 统计得到表 2 2 2

判断 2 \ 判断 1yesnototal
yes426
no426
total8412

表 2    混淆矩阵

根据表 2 2 2 计算出,两人一致性的判断率 P ( A ) P(A) P(A),边缘统计量 P ( n o n r e l e v a n t ) P({\rm nonrelevant}) P(nonrelevant) P ( r e l e v a n t ) P({\rm relevant}) P(relevant),两人的随机一致性比率 P ( E ) P(E) P(E)
P ( A ) = 4 + 2 12 = 1 2 P ( n o n r e l e v a n t ) = 6 + 4 12 + 12 = 5 12 P ( r e l e v a n t ) = 8 + 6 12 + 12 = 7 12 P ( E ) = P ( n o n r e l e v a n t ) 2 + P ( r e l e v a n t ) 2 = ( 5 12 ) 2 + ( 7 12 ) 2 = 37 72 κ = P ( A ) − P ( E ) 1 − P ( E ) = − 1 35 \begin{array}{l} P(A) = \frac{4+2}{12} = \frac{1}{2} \\ P({\rm nonrelevant})=\frac{6+4}{12+12} =\frac{5}{12} \\ P({\rm relevant})=\frac{8+6}{12+12}=\frac{7}{12} \\ P(E)=P({\rm nonrelevant})^2+ P({\rm relevant})^2 = (\frac{5}{12})^2 + (\frac{7}{12})^2 = \frac{37}{72} \\ \kappa = \frac{P(A) - P(E)}{1-P(E)} = -\frac{1}{35} \end{array} P(A)=124+2=21P(nonrelevant)=12+126+4=125P(relevant)=12+128+6=127P(E)=P(nonrelevant)2+P(relevant)2=(125)2+(127)2=7237κ=1P(E)P(A)P(E)=351
b. 当两个判断均认为是相关文档时才认为该文档相关,此时计算上述系统的正确率、 召回率以及 F1 值;

12 12 12 个文档中相关文档的编号为 { 3 , 4 , 11 , 12 } \{3,4,11,12\} {3,4,11,12}。系统返回的 6 6 6 个文档中,只有编号为 4 4 4 11 11 11 的文档被认为是相关文档, 故有:
P = 2 6 = 1 3 R = 2 4 = 1 2 F 1 = 2 1 P + 1 R = 2 5 P = \frac{2}{6} = \frac{1}{3}\\ R = \frac{2}{4} = \frac{1}{2} \\ F1 = \frac{2}{\frac{1}{P} + \frac{1}{R}} = \frac{2}{5} P=62=31R=42=21F1=P1+R12=52
c. 只要有一个判断认为是相关文档则认为该文档相关,此时计算上述系统的正确率、 召回率以及 F1 值。

12 12 12 个文档中相关文档的编号为 { 3 , 4 , 5 , 6 , 7 , 8 , 9 , 10 , 11 , 12 } \{3,4,5,6,7,8,9,10,11,12\} {3,4,5,6,7,8,9,10,11,12}。系统返回的 6 6 6 个文档中,只有编号为 4 4 4 11 11 11 的文档被认为是相关文档, 故有:
P = 6 6 = 1 R = 6 10 = 3 5 F 1 = 2 1 P + 1 R = 3 4 P = \frac{6}{6} = 1\\ R = \frac{6}{10} = \frac{3}{5} \\ F1 = \frac{2}{\frac{1}{P} + \frac{1}{R}} = \frac{3}{4} P=66=1R=106=53F1=P1+R12=43

2

10 , 000 10,000 10,000 篇文档构成的文档集中,某个查询的相关文档总数为 10 10 10,下面给出了某系统针对该查询的前 20 20 20 个有序结果的相关(用 R 表示)和不相关(用 N 表示)情况: RRNNR NNNRN NNNNR RNNNR。回答下列问题:

a. 前 20 20 20 篇文档的正确率是多少?

正确率指标不考虑查询返回的相关文档次序, 20 20 20 个查询结果中有 7 7 7 个相关文档,所以 P = 7 20 P = \frac{7}{20} P=207

b. 前 20 20 20 篇文档的召回率是多少?

查询的相关文档总数为 10 10 10,查询返回 7 7 7 个相关文档,所以 R = 7 10 R = \frac{7}{10} R=107

c. 前 20 20 20 篇文档的 F1 值是多少?

根据上面计算得到的 P P P R R R 可知, F 1 = 7 15 F1 = \frac{7}{15} F1=157

d. 在 30 % 30\% 30% 召回率水平上的插值正确率是多少?

返回结果中的 7 7 7​ 个 R 对应的召回率序列和正确率序列分别为 { 1 10 , 2 10 , 3 10 , 4 10 , 5 10 , 6 10 , 7 10 } \{\frac{1}{10}, \frac{2}{10}, \frac{3}{10}, \frac{4}{10}, \frac{5}{10}, \frac{6}{10}, \frac{7}{10}\} {101,102,103,104,105,106,107} { 1 1 , 2 2 , 3 5 , 4 9 , 5 15 , 6 16 , 7 20 } \{\frac{1}{1}, \frac{2}{2}, \frac{3}{5}, \frac{4}{9}, \frac{5}{15}, \frac{6}{16}, \frac{7}{20}\} {11,22,53,94,155,166,207}。由于存在 30 % 30\% 30% 的召回率点,所以对应的插值正确率就是该点的正确率,即 60 % 60\% 60%。​

e. 在 66 % 66\% 66% 召回率水平上的插值正确率是多少?

由于不存在为 66 % 66\% 66% 的召回率点,根据插值方法可以确定对应的正确率为 70 % 70\% 70% 对应的正确率,即 35 % 35\% 35%

f. 假定该系统返回的结果数目为 20 20 20,计算 MAP 值。

A P = 1 10 ( 1 1 + 2 2 + 3 5 + 4 9 + 5 15 + 6 16 + 7 20 ) = 1477 3600 AP = \frac{1}{10}(\frac{1}{1} + \frac{2}{2} + \frac{3}{5} + \frac{4}{9} + \frac{5}{15} + \frac{6}{16} + \frac{7}{20}) = \frac{1477}{3600} AP=101(11+22+53+94+155+166+207)=36001477。由于只有一次查询,所以无需与其它查询对应的 A P AP AP 计算算数平均值,即 M A P = 1477 3600 MAP = \frac{1477}{3600} MAP=36001477。保留四位小数的结果为 0.4103 0.4103 0.4103

假定该系统返回了所有 10 , 000 10,000 10,000 篇文档,上述 20 20 20 篇文档为结果中排名靠前的 20 20 20 篇文档,那么:

g. 该系统可能的最大 MAP 为多少?

最大的 MAP,即最大的 AP,对应的返回相关文档的位置序列为 { 1 , 2 , 5 , 9 , 15 , 16 , 20 , 21 , 22 , 23 } \{1,2,5,9,15,16,20,21,22,23\} {1,2,5,9,15,16,20,21,22,23}。所以保留四位小数的结果为:
M A P = 1 10 ( 1 1 + 2 2 + 3 5 + 4 9 + 5 15 + 6 16 + 7 20 + 8 21 + 9 22 + 10 23 ) ≈ 0.5328 MAP = \frac{1}{10}(\frac{1}{1} + \frac{2}{2} + \frac{3}{5} + \frac{4}{9} + \frac{5}{15} + \frac{6}{16} + \frac{7}{20} + \frac{8}{21} + \frac{9}{22} + \frac{10}{23}) ≈ 0.5328 MAP=101(11+22+53+94+155+166+207+218+229+2310)0.5328
h. 该系统可能的最小 MAP 为多少?

最小的 MAP,即最小的 AP,对应的返回相关文档的位置序列为 { 1 , 2 , 5 , 9 , 15 , 16 , 20 , 9998 , 9999 , 10000 } \{1,2,5,9,15,16,20,9998,9999,10000\} {1,2,5,9,15,16,20,9998,9999,10000}。所以保留四位小数的结果为:

M A P = 1 10 ( 1 1 + 2 2 + 3 5 + 4 9 + 5 15 + 6 16 + 7 20 + 8 9998 + 9 9999 + 10 10000 ) ≈ 0.4105 MAP = \frac{1}{10}(\frac{1}{1} + \frac{2}{2} + \frac{3}{5} + \frac{4}{9} + \frac{5}{15} + \frac{6}{16} + \frac{7}{20} + \frac{8}{9998} + \frac{9}{9999} + \frac{10}{10000}) ≈ 0.4105 MAP=101(11+22+53+94+155+166+207+99988+99999+1000010)0.4105

3

回答以下问题:

a. 基于神经网络的检索模型(Neural IR)主要分为哪两类?

基于神经网络的检索模型主要分为基于学习文本的分布式表示的模型(representation based model)和基于文本匹配函数的模型(matching function model)。前者的思想是,在高维空间匹配学习到的文本分布式表示。词表示和句表示从之前的 one-hot 表示和 BOW 表示变为分布式表示。代表模型有 DSSM 和 CDSSM。后者的思想是,文本之间先进行交互匹配,再对匹配信号进行融合。匹配函数从之前简单的内积相似度、余弦相似度变为了神经网络计算的相似度。优点是可以考虑更加丰富的匹配信号, 如软匹配(soft matching)。代表模型有 MatchPyramid、DRMM、K-NRM、PACRR、NPRF。

基于学习文本的分布式表示的模型和基于文本匹配函数的模型结构分别如图 1 1 1 上、下所示。

在这里插入图片描述

图 1    基于学习文本的分布式表示的模型和基于文本匹配函数的模型

b. 你认为 Neural IR 的发展方向是什么?(开放性问题)

  1. 模型的效能提升:神经信息检索模型在最近几年取得了显著的进展,但仍然存在一些挑战。未来的发展方向之一是进一步提高模型的效能,包括更好的表示学习方法、更有效的训练技巧以及更准确的评估指标。这可能涉及到更大规模的模型、更丰富的数据集和更复杂的架构设计。
  2. 多模态检索:随着多模态数据的广泛应用,将视觉、语言、音频等多种模态信息整合到信息检索中变得越来越重要。未来的发展方向之一是设计能够处理多模态数据的神经信息检索模型,以更好地支持多模态查询和文档的匹配和检索。
  3. 集成领域知识:领域知识对于信息检索至关重要,可以帮助理解查询和文档的语义以及背景信息。未来的发展方向之一是将领域知识集成到神经信息检索模型中,以提高检索的准确性和效果。这可以包括利用外部知识图谱、领域专家知识或领域特定的预训练模型等。
  4. 迁移学习和少标记学习:神经信息检索中的迁移学习和少标记学习是研究的热点。迁移学习可以利用在一个领域训练好的模型来改善在另一个领域的性能。少标记学习则关注如何在只有少量标记数据的情况下进行有效的模型训练。未来的发展方向之一是探索如何将迁移学习和少标记学习方法应用到神经信息检索中,以提高模型的泛化能力和适应性。
  5. 可解释性和可信度:神经信息检索模型往往是黑盒模型,难以解释其决策过程。然而,在一些应用场景中,用户对于检索结果的解释和可信度是很重要的。未来的发展方向之一是研究如何设计可解释性的神经信息检索模型,以便用户能够理解模型的决策依据,并提供可信度估计。

4

简述 BERT 的基本结构;如何预训练一个 BERT(涉及什么任务)?

BERT的基本结构由多个Transformer编码器层组成。每个编码器层包括多头自注意力机制(Multi-Head Self-Attention)和前馈神经网络(Feed-Forward Neural Network)。其中自注意力机制允许模型在处理输入序列时同时考虑序列中的其他位置,从而捕捉上下文信息。通过堆叠多个编码器层,BERT可以学习到更丰富的句子表示。

BERT的预训练过程包括两个主要任务:

  1. 掩码语言建模(Masked Language Modeling,MLM):在输入序列中,随机选择一些词汇,并将其替换为特殊的掩码标记(如"[MASK]")。模型的目标是根据上下文预测被掩码的词汇。这个任务使得模型能够学习句子中不同位置的上下文信息,并且需要模型具备双向理解句子的能力。
  2. 下一句预测(Next Sentence Prediction,NSP):为了训练模型对句子级别的关系进行建模,BERT在训练数据中构造了一些句子对。模型需要判断第二个句子是否是第一个句子的下一句。这个任务有助于模型学习句子之间的关联性和语义连贯性。

在预训练阶段,BERT使用大规模的无标签文本数据进行训练,例如维基百科、书籍、网络文本等。通过大规模数据的预训练,BERT可以学习通用的语言表示,从而适用于各种下游自然语言处理任务。

在预训练完成后,BERT可以通过微调(Fine-tuning)的方式在特定任务上进行进一步的训练。通过在特定任务上进行少量的有标签数据训练,BERT可以适应不同的任务,如文本分类、命名实体识别、问答等。在微调过程中,通常会在BERT模型的顶部添加一个任务特定的输出层,用于任务特定的预测。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/284795.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

基于RetinaFace+Jetson Nano的智能门锁系统——第一篇(烧录系统)

文章目录 设备1.首先在PC端安装VMware虚拟机和Ubuntu182.安装VMware Tools3.安装SDK Manager 设备 Jetson NanoMicro-USB - USB-A电源线HDMI线屏幕PC一台 1.首先在PC端安装VMware虚拟机和Ubuntu18 VMware下载地址:https://www.vmware.com/cn/products/workstatio…

这本书没有一个公式,却讲透了数学的本质

这本书没有一个公式,却讲透了数学的本质! 《数学的雨伞下:理解世界的乐趣》。一本足以刷新观念的好书,从超市到对数再到相对论,娓娓道来。对于思维空间也给出一个更容易理解的角度。 作者:米卡埃尔•洛奈 …

BikeDNA(三) OSM数据的内在分析2

BikeDNA(三) OSM数据的内在分析2 1.数据完整性 见上一篇BikeDNA(二) OSM数据的内在分析1 2.OSM标签分析 见上一篇BikeDNA(二) OSM数据的内在分析1 3.网络拓扑结构 本节探讨数据的几何和拓扑特征。 例…

2024孙多勇®跨年演讲,重塑医美增长力,开启璀璨华章!

不谋万事者,不足谋一时;不谋全局者,不足谋一域。明者因时而变,智者随时而制。 12月31日-1月3日由汇成医美集团主办的,以“重塑医美增长力”为主题的第七届孙多勇跨年演讲暨「英雄2024」年度战略规划案,在中…

matlab概率论例子

高斯概率模型: [f,xi] ksdensity(x): returns a probability density estimate, f, for the sample in the vector x. The estimate is based on a normal kernel function, and is evaluated at 100 equally spaced points, xi, that cover the range of the da…

python 通过高德地图POI多边形搜索需要的数据

高德文档地址: https://lbs.amap.com/api/webservice/guide/api/search/ python代码实现 import requests import json import csv import re import warnings#warnings.filterwarnings("ignore", categorySyntaxWarning) from Coordin_transformlat imp…

Floyd(弗洛伊德)算法总结

知识概览 Floyd算法适合解决多源汇最短路问题,其中源点是起点,汇点是终点。时间复杂度是。 算法思想 例题展示 题目链接 活动 - AcWing系统讲解常用算法与数据结构,给出相应代码模板,并会布置、讲解相应的基础算法题目。https:/…

【软件工程】航行敏捷之路:深度解析Scrum框架的精髓

🍎个人博客:个人主页 🏆个人专栏: 软件工程 ⛳️ 功不唐捐,玉汝于成 目录 前言 正文 Scrum(敏捷开发框架之一) 详细介绍和解释: 优缺点: 优点: 缺点&…

计算机操作系统(OS)——P5设备管理

1、I/O设备的概念和分类 什么是I/O设备 I/O就是输入/输出(Input/Output)。 I/O设备就是可以将数据输入到计算机,或者可以接收计算机输出数据的外部设备,属于计算机中的硬件部件。 UNIX系统将外部设备抽象为一种特殊的文件&#x…

C#MVC项目---登录

目录 1、创建登录类 2、添加控制器-视图 3、修改View视图 4、添加action登录方法 1、创建登录类 public class LoginModel { [Required, StringLength(maximumLength: 20, ErrorMessage "请输入2-20个字符", MinimumLength 2)] public s…

中国蚁剑的安装以及简单的使用方法

中国蚁剑的安装 正确使用蚁剑 第一次打开这个进行初始化 点击初始化,选择第二个文件目录 则会显示初始化成功,重启后会 鼠标右键点击添加数据 出现这个弹窗 输入url和连接密码即可 这里输入的连接密码时6是因为在写入redis.cmd时,REQUEST[6]…

MySQL数据库索引优化

一、引言 1. 索引的重要性 MySQL数据库索引的重要性主要体现在,一是查询速度优化,索引可以极大地提高查询速度。对于没有索引的表,MySQL必须进行全部扫描来找到所需的行,如果表中数据量很大,那么通常很慢。通过适当的…

Udp实现一个小型shell

实现原理 首先我们要有个客户端和一个服务器,客户端向服务器传递命令。而服务器收到命令后创建一个管道,并fork一个子进程。随后子进程解析命令,再把标准输出换成管道文件,因为命令行命令是自动输出到显示器的,所以我…

Redis Cluster集群模式学习

Redis Cluster集群模式 Redis哨兵模式:https://blog.csdn.net/liwenyang1992/article/details/133956200 Redis Cluster集群模式示意图: Cluster模式是Redis3.0开始推出采用无中心结构,每个节点保存数据和整个集群状态,每个节点都…

常见位运算模板方法总结(包含五道例题)

哈喽大家好&#xff0c;今天博主给大家带来算法基础常见位运算的模板&#xff0c;可以说大家遇到的百分之九十与位运算有关的题都可以用得上。话不多上我们上干货&#xff1a; 一.基础位运算符 << 左移运算符 >> 右移运算符 ~ 取反 & 与运算 | …

爱思唯尔的KBS——模板、投稿、返修、接收的总结

第二篇论文终于是接受了QAQ&#xff0c;被审稿人疯狂拖时间&#xff0c;KBS是真难绷啊 由于之前发布过关于爱思唯尔旗下的ESWA博客&#xff0c;KBS和ESWA是类似的&#xff0c;因此本篇博客主要说下区别以及期间碰到的各种情况&#xff0c;有疑问依然可以在评论区说&#xff0c;…

消息中间件常见知识点

一&#xff1a;消息队列的主要作用是什么&#xff1f; 1.消息队列的特性&#xff1a; 业务无关&#xff0c;一个具有普适性质的消息队列组件不需要考虑上层的业务模型&#xff0c;只做好消息的分发就可以了&#xff0c;上层业务的不同模块反而需要依赖消息队列所定义的规范进行…

(五)分文件编程

文章目录 为什么要引入分文件编程.C文件怎么添加.H文件怎么书写以及如何进行链接.H书写格式&#xff1a;“有头有尾标识符”例如&#xff08;timer.h) .H链接链接到头文件所在路径的文件夹路径即可 提供一个分文件编程的一种代码最后附上视频演示 为什么要引入分文件编程 C程序…

前端 js 基础(1)

js 结果输出 &#xff08;点击按钮修改文字 &#xff09; <!DOCTYPE html> <html> <head></head><body><h2>Head 中的 JavaScript</h2><p id"demo">一个段落。</p><button type"button" onclic…

gnu工程的编译 - 以libiconv为例

文章目录 gnu工程的编译 - 以libiconv为例概述gnu官方源码包的发布版从官方的代码库直接迁出的git版源码如果安装了360, 需要添加开发相关的目录到信任区生成 configrue 的方法备注END gnu工程的编译 - 以libiconv为例 概述 gnu工程的下载分2种: gnu官方源码包的发布版 这种…