玩转大数据7:数据湖与数据仓库的比较与选择

1. 引言

在当今数字化的世界中,数据被视为一种宝贵的资源,而数据湖和数据仓库则是两种重要的数据处理工具。本文将详细介绍这两种工具的概念、作用以及它们之间的区别和联系。

1.1. 数据湖的概念和作用

数据湖是一个集中式存储和处理大量数据的平台,主要包括存储层、处理层、分析层和应用层四个部分。

1. 存储层:存储海量的数据,包括结构化数据、非结构化数据、流数据等。

2. 处理层:进行多种数据处理,包括批处理、流处理、图处理、机器学习等。

3. 分析层:进行数据分析和挖掘,提供可视化分析和查询功能。

4. 应用层:能够提供各种数据应用,包括数据科学、机器学习、业务分析等。

总之,数据湖是一个基于廉价数据存储硬件的集中式数据存储和处理平台,能够进行多种数据处理、分析和应用,是大数据领域中的重要组成部分。

1.2. 数据仓库的概念和作用

数据仓库是一个大型、集中式的数据库系统,用于存储和管理结构化数据,主要包括源系统、ETL(提取、转换、加载)系统和查询系统三个部分。

1. 源系统:从各个业务系统中提取数据,保证数据的完整性和准确性。

2. ETL系统:将源数据进行转换和加载,将其从原始格式转化为一种易于分析和查询的格式。

3. 查询系统:提供多种查询方式,包括SQL查询、OLAP查询等,方便用户对数据进行查询和分析。

总之,数据仓库是一个大型、集中式的数据库系统,主要用于存储和管理结构化数据,能够对数据进行高效、准确的处理和查询,是商业智能和决策支持系统的重要组成部分。

1.3. 数据湖和数据仓库的区别和联系

1. 存储方式:数据湖主要基于廉价数据存储硬件进行存储,而数据仓库则主要采用关系型数据库进行存储。

2. 处理方式:数据湖主要进行批量数据处理,而数据仓库则主要进行OLAP查询和报表生成等操作。

3. 数据类型:数据湖可以处理多种类型的数据,包括结构化数据、非结构化数据、流数据等,而数据仓库主要处理结构化数据。

4. 扩展性:由于数据湖采用廉价数据存储硬件,因此其扩展性较强,可以随着业务需求的变化进行灵活扩展,而数据仓库则主要采用关系型数据库,扩展性相对较差。

5. 联系:虽然数据湖和数据仓库在处理方式和存储方式等方面存在差异,但它们之间也存在联系。例如,可以将数据湖中的数据进行ETL处理后加载到数据仓库中进行查询和分析。此外,一些厂商也提供了融合了数据湖和数据仓库的大数据平台,以满足用户对不同数据处理和分析的需求。

数据湖和数据仓库是两种不同的数据处理工具,它们各自具有不同的优势和特点。在实际应用中,需要根据业务需求和数据处理需求选择合适的工具,以达到最佳的处理效果和分析结果。

2. 数据湖的特点和优势

随着大数据技术的不断发展,数据湖作为一种高效的数据处理和管理方式,正在受到越来越多企业和组织的青睐。数据湖是一个集中式存储和处理大量数据的平台,主要包括存储层、处理层、分析层和应用层四个部分。下面将详细介绍数据湖的特点和优势。

数据湖的特点

1. 廉价数据存储

数据湖通常使用廉价的数据存储硬件,如Hadoop分布式文件系统(HDFS)等,可以大幅降低数据存储的成本。

2. 数据处理能力强

数据湖具备强大的数据处理能力,可以对海量数据进行快速、高效的处理和分析。

3. 数据格式多样化

数据湖可以存储和处理各种数据格式,如文本、图像、音频、视频等。

4. 数据安全性高

数据湖具备较高的数据安全性,可以对数据进行加密、备份和恢复等操作,确保数据的安全性和可靠性。

数据湖的优势

1. 提高数据处理效率

数据湖可以大幅提高数据处理效率,减少数据处理的时间和人力成本。

2. 降低数据管理成本

数据湖采用廉价的存储硬件和高效的数据处理方式,可以大幅降低数据管理的成本。

3. 提高数据分析能力

数据湖具备强大的数据处理和分析能力,可以帮助企业和组织提高数据分析的精度和效率。

4. 促进数据共享和合作

数据湖可以方便地实现数据的共享和合作,帮助企业和组织更好地实现数据驱动的决策和管理。

总之,数据湖作为一种高效的数据处理和管理方式,具有廉价、高效、安全等优势,可以大幅提高数据处理和分析的效率和质量,为企业和组织的发展提供强有力的支持。

3. 数据仓库的特点和优势

数据仓库是一个集成的、面向主题的、相对稳定的、反映历史变化的数据集合,用于支持管理决策。数据仓库的特点和优势是:

特点:

1. 集成性:数据仓库通常从多个源导入数据,如关系数据库、Excel文件、文本文件等,并在导入过程中进行数据清洗和整合,以确保数据的一致性和准确性。

2. 面向主题:数据仓库是按照特定的主题进行组织的,例如销售、库存、财务等,这使得用户可以更方便地查找和分析与特定主题相关的数据。

3. 稳定性:数据仓库中的数据是相对稳定的,即在一段时间内不会发生大的变化。这使得数据仓库可以更高效地进行查询和数据分析。

4. 历史变化:数据仓库可以记录历史变化,即可以存储数据的历史版本,以便用户可以查看数据的历史记录和分析趋势。

优势:

1. 支持决策:数据仓库可以提供一致的、准确的数据支持决策,这使得决策者可以更准确地了解公司的现状和预测未来趋势。

2. 可扩展性:数据仓库可以随着公司业务的发展而扩展,即可以添加更多的数据源、更多的表、更多的列等。

3. 高性能:数据仓库可以通过索引、查询优化等技术提高查询和分析性能,使得用户可以更快地获取和分析数据。

4. 安全性:数据仓库通常具有完善的安全性控制机制,这使得只有经过授权的用户才能访问敏感数据。

总之,数据仓库是一种非常有用的工具,它可以提供一致的、准确的数据支持决策,同时具有可扩展性和高性能等优势。

4. 数据湖和数据仓库的比较

随着大数据时代的到来,数据存储和处理成为了一个重要的议题。在这个背景下,数据湖和数据仓库这两种数据处理平台备受瞩目。本文将对这两种数据处理平台进行比较,以帮助读者更好地理解它们的优劣和适用场景。

4.1. 数据湖和数据仓库在设计和架构比较

数据湖和数据仓库在设计和架构上的主要区别如下:

数据湖 (Data Lake)

数据仓库 (Data Warehouse)

设计思想

数据湖采用"存储即计算"的设计思想,将数据以原始形式存储在分布式文件系统中,如Hadoop HDFS或云存储服务。数据的处理和计算可以在存储层进行,支持灵活的数据探索和分析。

数据仓库采用"存储和计算分离"的设计思想,将数据存储在关系型数据库中,计算和分析则在独立的计算层进行。数据的结构和模式需要事先定义,适合规范化和预定义的数据处理需求。

数据结构

数据湖可以容纳多样的数据类型,包括结构化、半结构化和非结构化数据。不需要事先定义模式和结构,可以随时进行数据提取、转换和加载。

数据仓库主要存储结构化数据,通常是关系型数据库中的表格数据。需要事先定义模式和结构,数据加载前需要进行提取、转换和加载 (ETL) 过程。

数据集成

数据湖支持多源数据的集成,可以将不同系统和数据源的数据存储在同一个数据湖中。数据集成的过程可以在存储层进行,支持灵活的数据合并和集成。

数据仓库通常需要进行数据集成和转换,将不同系统和数据源的数据转换为统一的格式和结构,然后加载到仓库中。数据集成的过程在ETL过程中进行。

扩展性

数据湖具有较高的扩展性,可以容纳大规模的数据。可以通过横向扩展和弹性扩展来应对数据量的增长和变化。

数据仓库的扩展性相对较低,存储容量有限。通常使用关系型数据库,需要考虑数据库的性能和容量限制。

数据安全

数据湖的数据安全性较低,需要进行适当的安全控制和权限管理。可以使用访问控制策略和加密技术来保护数据的安全性。

数据仓库通常有较高的数据安全性要求,可以使用访问控制、加密、审计等措施来保护数据的安全性。

数据治理

数据湖的数据治理相对较为灵活,可以支持自助式数据探索和分析。需要进行数据质量控制和元数据管理,以确保数据的准确性和一致性。

数据仓库的数据治理相对较严格,需要进行数据质量控制、元数据管理和数据一致性的维护。需要定义和遵循严格的数据管理规范和流程。

数据仓库和数据湖在设计和架构上有明显的差异。数据仓库更加侧重预定义、整合和结构化数据的存储和分析,适用于需要灵活查询和即席分析的场景。数据湖注重原始和未处理数据的存储,适用于需要强调数据完整性和灵活性的场景。选择适当的架构取决于具体的业务需求和数据特点。在实际应用中,两者也可以相互结合,以满足不同层次的数据需求和分析要求。

4.2. 数据湖和数据仓库在数据类型和数据处理方式比较

数据湖和数据仓库尽管它们都与数据相关,但它们在数据类型和处理方式上有着显著的区别。

数据湖 (Data Lake)

数据仓库 (Data Warehouse)

数据类型

多样的数据类型,包括结构化、半结构化和非结构化数据,如文本、图像、音频等。

结构化数据为主,通常是关系型数据库中的表格数据。

数据处理方式

数据以原始形式存储,不需要事先定义模式和结构,可以随时进行数据提取、转换和加载 (ETL)。

数据在加载到仓库之前需要进行提取、转换和加载 (ETL) 过程,需要定义模式和结构。

存储方式

存储在分布式文件系统中,如Hadoop HDFS或云存储服务,如Amazon S3、Azure Blob Storage。

存储在关系型数据库中,如Oracle、MySQL、SQL Server等。

数据访问

数据湖提供了灵活的数据访问方式,可以使用多种工具和技术进行数据探索、分析和挖掘。

数据仓库提供了预定义的查询和分析接口,通常使用SQL进行数据查询和报表生成。

数据处理

数据湖支持批处理和流式处理,可以使用大数据处理框架如Hadoop、Spark等进行数据处理和分析。

数据仓库主要支持批处理,通常使用ETL工具进行数据转换和加载。

数据质量

数据湖中的数据质量较低,包含了原始和未经处理的数据,需要进行数据清洗和质量控制。

数据仓库中的数据经过ETL过程,通常具有较高的数据质量和一致性。

灵活性

数据湖具有较高的灵活性,可以容纳不同类型和格式的数据,支持快速迭代和数据探索。

数据仓库相对较为刚性,需要事先定义模式和结构,不太适合快速变化的数据需求。

数据湖和数据仓库在数据类型和处理方式上有着显著的区别。数据湖主要处理的是非结构化冷数据,采用廉价的数据存储硬件,而数据仓库主要处理的是结构化数据,使用昂贵的硬件设备以提高数据处理性能。然而,无论是数据湖还是数据仓库,它们都是数据处理和存储的重要工具,对于企业的数字化转型和智能化发展都起着关键的作用。

4.3. 数据湖和数据仓库在数据处理流程和速度比较

在数据处理流程和速度,数据湖和数据仓库的区别:

 

数据湖 (Data Lake)

数据仓库 (Data Warehouse)

数据处理流程

数据湖采用提取、加载和转换 (ETL) 的流程,但处理过程更加灵活和迭代。数据可以以原始形式存储,然后根据需要进行转换和加载。

数据仓库采用提取、转换和加载 (ETL) 的流程,需要定义模式和结构,然后将数据转换为符合模式的形式加载到仓库中。

处理速度

数据湖在处理速度方面较为灵活,可以支持批处理和流式处理。使用大数据处理框架如Hadoop、Spark等,可以实现高性能的数据处理和分析。

数据仓库主要支持批处理,处理速度相对较慢。通常使用ETL工具进行数据转换和加载,不太适合实时或流式处理需求。

数据规模

数据湖可以容纳大规模的数据,包括结构化、半结构化和非结构化数据。可以存储海量数据,支持横向扩展和弹性扩展。

数据仓库的数据规模相对较小,主要存储结构化数据。通常使用关系型数据库,存储容量有限,不太适合大规模数据存储。

数据查询

数据湖的查询方式较为灵活,可以使用多种工具和技术进行数据探索和分析。可以使用大数据处理框架如Hadoop、Spark等进行复杂的数据查询和分析。

数据仓库提供了预定义的查询和分析接口,通常使用SQL进行数据查询和报表生成。查询方式相对固定,不太灵活。

数据质量

数据湖中的数据质量较低,包含了原始和未经处理的数据。需要进行数据清洗和质量控制,以确保数据的准确性和一致性。

数据仓库中的数据经过ETL过程,通常具有较高的数据质量和一致性。ETL过程可以清洗、转换和集成数据,提高数据质量。

5. Java在数据湖和数据仓库中的应用

在现代大数据领域,Java语言因其强大的可扩展性和灵活性,已成为数据处理和数据存储技术的核心。无论是数据湖还是数据仓库,Java都发挥着重要的作用。

5.1. Java与数据湖存储的集成

Apache Hadoop的HDFS(Hadoop Distributed File System)是一种分布式文件系统,它允许在跨多个机器的集群中存储和处理大规模的数据集。由于Java是Hadoop的默认编程语言,因此Java在HDFS的应用中占据了核心地位。

首先,Java可以用来编写MapReduce作业,这是一种在HDFS上处理大规模数据的并行处理模型。MapReduce作业可以并行处理数据集,并将结果合并以形成最终的输出。由于Java的通用性和可扩展性,它成为了编写MapReduce作业的首选语言。

对于MapReduce作业的编写,Java提供了丰富的API和库来处理数据。例如,Java的Hadoop API可以用于编写MapReduce作业,它提供了对HDFS文件系统的访问以及对数据的处理和转换的功能。此外,Java还提供了许多数据处理和分析的工具和库,例如Apache Commons Math和Apache Mahout,这些库可以用于对数据进行数学计算、统计分析和机器学习等操作。

此外,Java还可以与其他Hadoop生态系统中的工具一起用于数据湖的构建。例如,使用Apache Hive进行数据查询和分析,使用Apache Pig进行数据加载和转换。这些工具都支持使用Java进行编程和集成。

除了在数据处理和分析方面的应用,Java还在数据存储方面发挥了重要作用。HDFS是Hadoop生态系统中的核心组件之一,它提供了高可靠性的数据存储服务,可以存储大规模的数据集。Java可以用于访问和操作HDFS文件系统中的数据,例如使用Hadoop API来读取和写入数据。

Java在数据湖存储和数据处理方面都扮演了重要角色。通过使用Java和Hadoop生态系统中的其他工具和库,可以更有效地处理和分析大规模的数据集,并实现高可靠性的数据存储。

5.2. Java与数据仓库的集成

Apache Hive是一个强大的数据仓库工具,它构建在Hadoop之上,为大数据分析提供了数据摘要和即席查询的功能。Hive使用一种类似SQL的查询语言——HiveQL,使得对大规模数据的查询变得更加简便。这种语言的设计使其易于学习和使用,特别是对于那些熟悉SQL的开发者来说。

更进一步的是,Java语言可以与Hive进行无缝集成。这使得使用Java编写Hive查询和数据处理逻辑成为一种高效且强大的方式,从而充分利用Hive的功能。例如,开发者可以使用Java编写用户自定义函数(UDF),这是Hive中用于处理数据的强大自定义工具。UDF可以使用Java编写,并通过HiveQL调用,以实现更复杂的数据处理和分析功能。

此外,Java在数据仓库工具的集成中发挥着重要作用。比如,Apache ClickHouse和Apache Druid等工具都支持使用Java进行数据查询和处理。这些工具与Java的结合,提供了更高效、更灵活的数据分析能力。这种集成使得Java在数据湖和数据仓库中的应用更加广泛,它不仅可以用于编写数据处理逻辑和自定义函数,还可以与其他数据处理和存储工具集成,以实现更高效和更灵活的数据处理和分析能力。

同时,Java在数据湖和数据仓库中的应用也具有广泛的实际应用价值。在大数据时代,企业需要处理和分析海量的数据以获取洞察和竞争优势。通过使用Apache Hive和Java等工具,企业可以更有效地进行数据分析和处理,从而做出更明智的决策,提高业务效率和创新能力。

总的来说,Java语言在数据湖和数据仓库中的应用具有不可替代的地位。它不仅提供了强大的数据处理和分析能力,还可以与其他工具无缝集成,实现更高效的数据处理和分析。对于那些希望在大数据领域取得成功的企业来说,理解和利用Java在数据湖和数据仓库中的应用是一个重要的策略。

6.  根据需求选择数据湖或数据仓库

如何有效地存储、管理和分析数据,以便更好地支持业务决策,已成为企业面临的共同挑战。针对这一问题,数据湖和数据仓库两种数据处理平台应运而生。然而,在选择适合的数据处理平台时,企业需要根据自身的需求进行权衡。

在选择时,企业需要考虑以下因素:

1. 数据类型:数据湖更适合存储大量类型多样的数据,如文本、图像、视频等。而数据仓库则更适合存储结构化数据,如关系型数据库中的数据。

2. 数据处理方式:数据湖具有更强大的数据处理能力,可以进行数据清洗、数据转换、数据挖掘等操作。而数据仓库则更注重数据的查询和分析功能。

3. 存储成本:由于数据湖需要存储大量类型多样的数据,因此存储成本相对较高。而数据仓库则可以通过优化存储结构来降低存储成本。

4. 安全性:数据仓库通常具有更高的安全性,可以更好地保护数据隐私。而数据湖则需要加强安全管理,确保数据的完整性和安全性。

在实际应用中,企业需要根据自身的业务需求和数据处理需求来选择适合的数据处理平台。如果需要存储和处理大量类型多样的数据,同时需要进行数据处理、分析和挖掘等操作,那么数据湖可能更适合。如果需要存储和处理结构化数据,同时需要支持管理决策,那么数据仓库可能更适合。

总之,在选择适合的数据处理平台时,企业需要根据自身的需求进行权衡。同时,还需要考虑数据类型、数据处理方式、存储成本和安全性等因素,以确保所选平台能够更好地支持企业的业务决策和发展需求。

7.  数据湖和数据仓库的集成和共存

在这个大数据风行的时代,数据湖与数据仓库犹如一对双胞胎,各具特色而又息息相关。它们各司其职,互相补充,共同为数据的管理和分析撑起了一片天地。

在这个大数据的时代,数据湖和数据仓库犹如一对默契的搭档,相互配合。数据湖可以作为数据仓库的数据源之一,提供实时的、快速的数据存储和处理能力,为数据仓库提供源源不断的能量。同时,数据仓库也可以为数据湖提供一致的、准确的数据基础,助力数据湖的发展壮大。通过相互配合和共同作战,数据湖和数据仓库共同实现了更高效的数据管理和分析。它们就像一队完美的舞者,在大数据的舞台上轻盈地舞动,共同演绎出一场精彩的演出。

7.1.  数据湖与数据仓库的数据交互

数据湖是一个存储各种结构化和非结构化数据的存储库,它以原始的、未经加工的形式保存数据。数据湖提供了灵活性和可扩展性,能够容纳大量的数据,并支持多种数据处理工具和技术。数据仓库则是一个专门用于存储和管理结构化数据的中心化存储库,它经过了数据清洗、转换和整合,用于支持业务报表和分析。

为了实现数据湖和数据仓库的集成和共存,数据交互是至关重要的。以下是一些数据交互的建议:

7.1.1. 批量导入和导出

数据仓库可以定期从数据湖中批量导入数据,以保持数据仓库中的数据与数据湖的同步。这可以通过使用ETL(抽取、转换和加载)工具来实现,将数据从数据湖中提取、转换并加载到数据仓库中。类似地,数据仓库也可以将经过处理和加工的数据批量导出到数据湖,以供其他分析和处理需求使用。

7.1.2. 实时数据流

数据湖和数据仓库之间的实时数据流可以通过消息队列和流处理技术来实现。数据湖可以将原始数据以流的形式发送到数据仓库,数据仓库可以实时接收和处理这些数据,并将结果存储在数据仓库中。这种实时数据流可以用于支持实时报表和分析需求。

7.1.3. 外部表和虚拟视图

数据仓库可以创建外部表或虚拟视图,从数据湖中直接引用数据。这样,数据仓库可以在需要时动态地访问和查询数据湖中的数据,而无需将数据复制到数据仓库中。这种方法可以减少数据冗余,提高数据访问的效率,并确保数据的一致性。

7.2. 数据湖与数据仓库的元数据管理

元数据是描述数据的数据,对于数据湖和数据仓库的集成和共存非常重要。以下是一些元数据管理的方法:

7.2.1. 元数据注册和目录服务

数据湖和数据仓库可以共享元数据注册和目录服务,以确保元数据的一致性和可访问性。元数据注册表可以记录数据湖和数据仓库中的数据集、表、列等信息,并提供元数据搜索和查询的功能。目录服务可以提供数据湖和数据仓库的元数据目录,帮助用户快速找到所需的数据。

7.2.2. 元数据同步和映射

数据湖和数据仓库的元数据可以进行同步和映射,以确保两者之间的数据一致性。元数据同步可以定期将数据湖中的元数据同步到数据仓库中,使数据仓库能够了解数据湖中可用的数据集和表的信息。元数据映射可以建立数据湖和数据仓库之间的映射关系,使数据仓库能够理解数据湖中的数据结构和语义。

7.2.3. 元数据血统和数据质量

元数据血统可以跟踪数据湖和数据仓库中数据的来源和变化历史,帮助用户追溯数据的流动和转换过程。数据质量元数据可以记录数据湖和数据仓库中数据的质量信息,如准确性、完整性和一致性等。这些元数据可以帮助用户评估数据的可信度和可用性。

在数据湖和数据仓库的集成和共存中,数据交互和元数据管理是两个关键方面。通过合理的数据交互方法和有效的元数据管理,可以实现数据湖和数据仓库之间的无缝集成和共存,为企业提供更高效的数据管理和分析能力。

8. 总结

数据湖和数据仓库在大数据环境中扮演着重要的角色,它们的集成和共存是实现高效数据管理和分析的关键。通过数据交互和元数据管理的方法,可以实现数据湖和数据仓库之间的数据流动和信息共享。这种集成和共存的方式可以为企业提供更灵活、可扩展和一致的数据管理解决方案。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/219817.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

【FreeRTOS】消息队列——简介、常用API函数、注意事项、项目实现

在嵌入式系统开发中,任务间的通信是非常常见的需求。FreeRTOS提供了多种任务间通信的机制,其中之一就是消息队列。消息队列是一种非常灵活和高效的方式,用于在不同的任务之间传递数据。通过消息队列,任务可以异步地发送和接收消息…

优化您的Mac体验——System Dashboard Pro for Mac(系统仪表板)

作为Mac用户,我们都希望能够拥有一个高效、流畅的电脑体验。然而,在长时间使用后,我们的Mac可能会变得越来越慢,导致我们的工作效率下降。这时候,System Dashboard Pro for Mac(系统仪表板)就可以派上用场了。它是一款…

vivado时序方法检查2

TIMING-4 &#xff1a; 时钟树上的基准时钟重新定义无效 时钟树上的时钟重新定义无效。基准时钟 <clock_name> 是在时钟 <clock_name> 下游定义的 &#xff0c; 并覆盖其插入延迟和/ 或波形定义。 描述 基准时钟必须在时钟树的源时钟上定义。例如 &#xff0…

mongdb配置ssl

mongodb5.0.9 centos7.6 x86 1、正常启动mongod -f mongodb.conf 【前言】 ssl配置流程步骤&#xff0c;按照以下顺序处理即可。 1.生成证书&#xff0c;根证书&#xff0c;服务端证书&#xff0c;客户端证书 2.配置服务端ssl配置&#xff0c;测试she…

Arrays类 - Java

Arrays类 Arrays类1、常用方法案例 Arrays类 1、常用方法 Arrays 里面包含了一系列静态方法&#xff0c;用于管理或操作数组(比如排序和搜索)。 toString 返回数组的字符串形式 Arrays.toString(arr)【案例1】 sort 排序(自然排序和定制排序) Integer arr[]{1, -1, 7, 0, 8…

云服务器部署过程(从零开始)

首先介绍如何在 Linux 上复制粘贴 CtrlInsert&#xff0c;或者CtrlshiftC复制文本&#xff0c;使用ShiftInsert或CtrlshiftV 在终端中粘贴文本。 搭建java部署环境 要搭建java部署环境&#xff0c;那么首先就需要在Linux上安装jdk&#xff0c;MySQL等必需工具&#xff0c;接…

01_阿里云_Xshell连接服务器

PC使用Xshell连接阿里云服务器 问题引出 之前使用Xshell连接阿里云服务器连接的好好的&#xff0c;今天准备上去服务器学习Linux发现连不上了&#xff0c;后来发现是防火墙的问题&#xff0c;还有阿里云的安全组也需要设置 解决方案 方法一&#xff1a;&#xff08;简单粗暴…

CGAL的周期三角剖分(相关信息较少)

CGAL的周期二维三角剖分类旨在表示二维平面上的一组点的三角剖分。该三角剖分形成其计算空间的分区。它是一个单纯复体&#xff0c;即它包含任何k-单纯形的所有关联j-单纯形&#xff08;j<k&#xff09;&#xff0c;并且两个k-单纯形要么不重叠&#xff0c;要么共享一个公共…

博客访问量到达2万了!

博客访问量到达2万了&#xff01;这也发生的太快了吧&#xff0c;前两天才1万7千访问量&#xff0c;用了平台送的1500的流量券&#xff0c;粉丝从1个&#xff08;N年前的&#xff09;&#xff0c;蹭蹭的往上涨&#xff0c;这也太“假”了吧。关键我也是个菜鸟自学者&#xff0c…

杂散表的阅读

杂散表得阅读 —— 以Marki公司得手册为例 混频杂散&#xff08;Mixing Spurs&#xff09;是指信号经过混频器时&#xff0c;不仅会与本振混频&#xff0c;还会与本振的高次谐波混频&#xff08;对于第二章说的方波本振&#xff0c;信号只与本振的奇次谐波混频因为方波只含有奇…

写论文焦虑?No,免费AI写作大师来帮你

先来看1分钟的视频&#xff0c;对于要写论文的你来说&#xff0c;绝对有所值&#xff01; 还在为写论文焦虑&#xff1f;免费AI写作大师来帮你三步搞定 第一步&#xff1a;输入关键信息 第二步&#xff1a;生成大纲 稍等片刻后&#xff0c;专业大纲生成&#xff08;由于举例&am…

minio配置监听(对象操作日志)

minio配置监听对象操作 本文档适用于minio2021.3.17版本 有时我们需要查看minio中对象操作的日志&#xff0c;比如像监听minio某一个桶中的删除事件&#xff0c;就需要配置监听。minio支持将监听的结果输出到es、pg、amq等等&#xff0c;下面介绍一下将minio对象操作监听结果输…

《C++ Primer》第11章 关联容器

参考资料&#xff1a; 《C Primer》第5版《C Primer 习题集》第5版 关联容器支持高效关键字查找和访问&#xff0c;两个主要的关联容器是 map 和 set 。map 中的元素是键-值&#xff08; key value &#xff09;对&#xff0c;set 中的元素只包含一个关键字。 标准库提供 8 …

C语言学习笔记之数组篇

数组是一组相同类型元素的集合。 目录 一维数组 数组的创建 数组的初始化 数组的使用 数组在内存中的存储 二维数组 数组的创建 数组的初始化 数组的使用 数组在内存中的存储 数组名 数组名作函数参数 一维数组 数组的创建 type_t arr_name [const_n]; //type_…

Python采集豆丁网站文档数据内容, 保存word文档

前言 大家早好、午好、晚好吖 ❤ ~欢迎光临本文章 如果有什么疑惑/资料需要的可以点击文章末尾名片领取源码 开发环境: 版 本&#xff1a; python 3.8 编辑器&#xff1a;pycharm 2022.3.2 模块使用: requests --> pip install requests re base64 docx --> pip …

vue中的动画组件使用及如何在vue中使用animate.css

“< Transition >” 是一个内置组件&#xff0c;这意味着它在任意别的组件中都可以被使用&#xff0c;无需注册。它可以将进入和离开动画应用到通过默认插槽传递给它的元素或组件上。进入或离开可以由以下的条件之一触发&#xff1a; 由 v-if 所触发的切换由 v-show 所触…

K8S部署nginx并且使用NFS存储数据

安装NFS 在master安装NFS systemctl start nfs-server修改配置 /etc/exports /data *(rw,no_root_squash,no_all_squash,sync)目录为 /data 允许所有地址访问 验证下 [rootmaster nginx]# showmount -e 192.168.57.61 Export list for 192.168.57.61: /data *共享可以正常…

我不是DBA之慢SQL诊断方式

最近经常遇到技术开发跑来问我慢SQL优化相关工作&#xff0c;所以干脆出几篇SQL相关优化技术月报&#xff0c;我这里就以公司mysql一致的5.7版本来说明下。 在企业中慢SQL问题进场会遇到&#xff0c;尤其像我们这种ERP行业。 成熟的公司企业都会有晚上的慢SQL监控和预警机制。…

手动创建spring bean并注入

文章目录 前言一、jar包中,相同class不同类加载器加载的时候是同一个class嘛&#xff1f;二、利用ConfigurableListableBeanFactory手动注册bean注册bean,并自动注入依赖bean根据类型获取注入的bean,两个bean是一个吗? 三、同一份字节码,class隔离,bean隔离总结 前言 注入一个…

2952. 需要添加的硬币的最小数量(结论题)

力扣&#xff08;LeetCode&#xff09;官网 - 全球极客挚爱的技术成长平台 分析知&#xff1a;设指针值从1开始依次递增&#xff0c;每次将coins里的值累加起来看能否得到或者大于当前指针值 &#xff0c;否则就将该指针值累加起来&#xff0c;即需要添加的数 class Solution …