GoLang学习之路,对Elasticsearch的使用,一文足以(包括泛型使用思想)(二)

书写上回,上回讲到,Elasticsearch的使用前提即:语法,表结构,使用类型结构等。要学这个必须要看前面这个:GoLang学习之路,对Elasticsearch的使用,一文足以(包括泛型使用思想)(一),因为这篇是基础!!!!!!!

文章目录

  • 使用ElasticSearch
    • `使用前提`
    • 使用API实现对Elasticsearch的增删改查
      • 创建客户端
        • 创建yaml文件
        • 创建客户端
        • 将配置文件加载到客户端对象中
      • 创建索引结构
      • 定义客户端结构体
      • 定义创建索引结构的方法
      • 写一个测试方法
      • 插入一条数据的方法
      • 判断是否存在索引,不存在就创建一个
      • 批量处理
        • 方式一
          • 测试
        • 方法二
        • 方式三
      • 查询

使用ElasticSearch

使用前提

  1. 必须要有一个ElasticSearch服务器
  2. 必须要有一个可视化工具
  3. 安装API包,"github.com/elastic/go-elasticsearch/v8"
import "github.com/elastic/go-elasticsearch/v8"

但是这个包下面其实还有一些包,这些包非常的重要。当时我在使用的时候,根本不知道,走了不少的弯路的,找了官网的文档,又找了一些博客,都没有详细的说明情况和要点。要不就少些,要不就只把部分给列出来。但是现在我将这些无私的奉献给各位。
在这里插入图片描述

因为这个v8的包非常的多,所以很难将所有的放进去。这里我做一些解释:

  1. 客户端:
    • 调用NewDefaultClient()NewClient(cfg Config)方法会返回一个普通客户端
      • NewDefaultClient() 不需要去配置链接时的配置参数,默认参数链接,并返回一个普通客户端
      • NewClient(cfg Config)需要按照总共需要的配置需求去配置参数,并返回一个普通客户端
    • 调用NewTypedClient(cfg Config)会返回一个属性客户端(相比普通客户端强大,但是有局限,后面再说)
  2. 工具包:
    • 这个工具包主要是普通客户端进行调用的,使用的范围是对于批量处理数据的情况
  3. 参数类型包:
    • 我们在对ElasticSearch进行处理的时候会有很多中情况:
      • 首先是对于语法的选择,ElasticSearch有独属于他自己的一套语法。
      • 查询时会有很多选择,比如对于字段是模糊查询,还是精确查询,还是对地图进行查询。这些参数都有,也有对于AI进行处理的参数。(建议下一个翻译软件,去看看。那个参数太多了。。。也就是说功能非常齐全)

…很多内容在GoLang学习之路,对Elasticsearch的使用,一文足以(包括泛型使用思想)(一)

接下来正式开始

使用API实现对Elasticsearch的增删改查

为了实现这些CRUD,我总结了几个基本的使用步骤。(可以不按我这个创建客户端)

  1. 创建客户端
    • 生成yaml配置文件
    • 读取配置文件信息,并保存到客户端上
  2. 创建索引结构
  3. 插入数据
  4. 然后调用API

创建客户端

根据上面所说,客户端在创建的时候,分为两种,一种为普通客户端,一种是属性客户端。而后者的功能更为强大。但是前者的某些功能,属性客户端是没办法的。比如批量处理数据(bulk)

在实际的生产中我们需要创建两个客户端,以便我们在需求变化中获取主动权。

创建yaml文件

文件名: config.yaml
文件中的参数按自己配,千万别一样,你们是连不上 的。

es:
  adders:
    - http://8.210.237.26:9200
  username: elastic
  password:  +Svn3a*I*b2xxbCe9

yaml 中为何要实现数组结构,其本质是,Elasticsearch为了给以后分布式扩展提供渠道。到时候只要将IP地址,填充到配置文件就可以了

创建客户端

建议可以看看配置方法中的源码。

import (
	myElasticSearch "elasticsearch/common/esll"
	"github.com/elastic/go-elasticsearch/v8"
	"net"
	"net/http"
	"time"
)

type ESConfig struct {
	Adders   []string `mapstructure:"adders" json:"adders" yaml:"adders"`
	Password string   `mapstructure:"password" json:"password" yaml:"password"`
	Username string   `mapstructure:"username" json:"username" yaml:"username"`
}

func NewES(config *Config) *myElasticSearch.ElasticSearch {
	//强化版客户端
	clientType, err := elasticsearch.NewTypedClient(elasticsearch.Config{
		Addresses: config.ElasticSearch.Adders,
		Username:  config.ElasticSearch.Username,
		Password:  config.ElasticSearch.Password,
		Transport: &http.Transport{
			//每个host的idle状态的最大连接数目
			MaxConnsPerHost: 10,
			//发送完request后等待serve response的时间
			ResponseHeaderTimeout: 3 * time.Second,
			//(net.Conn, error) 创建未加密的tcp连接
			DialContext: (&net.Dialer{Timeout: time.Second}).DialContext,
			//连接保持idle状态的最大时间,超时关闭pconn
			// todo 看需求是否使用tls证书链接
			/*TLSClientConfig: &tls.Config{
				MaxVersion:         tls.VersionTLS11,
				InsecureSkipVerify: true,
			},*/
		},
		EnableDebugLogger: true,
	})
	if err != nil {
		panic("ElasticSearch clientType connect ping failed:" + err.Error())
	}
	//一般客户端
	client, err := elasticsearch.NewClient(elasticsearch.Config{
		Addresses: config.ElasticSearch.Adders,
		Username:  config.ElasticSearch.Username,
		Password:  config.ElasticSearch.Password,
		Transport: &http.Transport{
			//每个host的idle状态的最大连接数目
			MaxConnsPerHost: 10,
			//发送完request后等待serve response的时间
			ResponseHeaderTimeout: 3 * time.Second,
			//(net.Conn, error) 创建未加密的tcp连接
			DialContext: (&net.Dialer{Timeout: time.Second}).DialContext,
			//连接保持idle状态的最大时间,超时关闭pconn
			// todo 看需求是否使用tls证书链接
			/*TLSClientConfig: &tls.Config{
				MaxVersion:         tls.VersionTLS11,
				InsecureSkipVerify: true,
			},*/
		},
		EnableDebugLogger: true,
	})

	if err != nil {
		panic("ElasticSearch client connect ping failed:" + err.Error())
	}
	return &myElasticSearch.ElasticSearch{
		ClientTyped: clientType,
		Client:      client,
	}
}

将配置文件加载到客户端对象中

viper,这个读取配置文件的工具包:详细请看:文章

import (
	"fmt"
	"github.com/fsnotify/fsnotify"
	"github.com/go-playground/validator/v10"
	"github.com/google/wire"
	"github.com/spf13/viper"
)


type Config struct {
	ElasticSearch *ESConfig `mapstructure:"es" validate:"required"`
}

var Cfg *Config

func ProvideConfig() *Config {
	var cfg Config
	v := viper.New()
	//索引配置文件位置
	v.SetConfigName("config.yaml")
	v.AddConfigPath("./")
	v.SetConfigType("yaml")
	err := v.ReadInConfig()
	if err != nil {
		panic(fmt.Errorf("open error of config file:%s", err))
	}
	//监视器
	v.WatchConfig()
	v.OnConfigChange(func(in fsnotify.Event) {
		fmt.Println("config file changed:", in.Name)
		err := v.Unmarshal(&cfg)
		if err != nil {
			fmt.Println(err)
		}
	})
	//反序列化
	if err := v.Unmarshal(&cfg); err != nil {
		panic(fmt.Errorf("fatal error config file : %s", err))
	}
	vs := validator.New()
	//校验结构
	err = vs.Struct(&cfg)
	if err != nil {
		panic(err)
	}
	Cfg = &cfg
	return &cfg
}

创建索引结构

定义索引结构

在 esll.go 文件中写入

const MappingTpl = `{
 		"mappings":{
 		 "properties":{
  		 "categoryId":     { 
   			"type": "long" 
   			},
   		"productName":   {
   			 "type": "keyword" 
   		 },
		"masterPic":   {
   			 "type": "text"
   		  },
  		 "desc":   {
   			 "type": "keyword" 
   		 },
  		 "price":    { 
   			"type": "long"
   		 },
   		"startProvinceCode":  {
   		 	"type": "text" 
   		 },
   		"startCityCode":         {
   			 "type": "text" 
   		 },
   		"update_time":  { 
   			"type": "long"
   		 },
  		 "create_time":  { 
   			"type": "long"
   		 }
	   }
 	 }
 }`

定义客户端结构体

包:package esll

type ElasticSearch struct {
	ClientTyped *elasticsearchV8.TypedClient
	Client      *elasticsearchV8.Client
}

这里强调说明一下。这里为什么要用两个客户端?因为对于真正的实际运用中会有各种各样的问题出现,不仅会有一个一个查询,一个一个插入的情况,更会有一批一批的查询,插入的。所以这里的客户端对应的都会各有不同。

ClientTyped:功能强大,但是不支持批量处理
Client :调用复杂,但是支持批量处理

定义创建索引结构的方法

包:package esll

// CreateIndex 创建所用的索引结构
func (e *ElasticSearch) CreateIndex(ctx context.Context, indexName string, mappings string) error {
	mapping := types.NewTypeMapping()
	err := mapping.UnmarshalJSON([]byte(mappings))
	if err != nil {
		return err
	}
	_, err = e.ClientTyped.Indices.Exists(indexName).Do(ctx)
	if err != nil {
		log.Printf("索引已经存在")
		return err
	}
	_, err = e.ClientTyped.Indices.Create(indexName).Mappings(mapping).Do(ctx)
	if err != nil {
		log.Printf("索引创建失败")
		return err
	}
	return nil
}

写一个测试方法

func TestMepping(t *testing.T) {
	ctx, _ := context.WithTimeout(context.Background(), 50*time.Second)
	cfg := config.ProvideConfig()
	client := config.NewES(cfg)
	mapping := types.NewTypeMapping()
	err := mapping.UnmarshalJSON([]byte(esll.MappingTpl))
	if err != nil {
		return
	}
	_, err = client.ClientTyped.Indices.Create("test2").Mappings(mapping).Do(ctx)
	if err != nil {
		fmt.Println(err)
	}
}

这里的types文件,是参数的文件,具体可以看看源码详情,根据需求选择

插入一条数据的方法

// IndexDocument 创建一条索引进入文档
func (e *ElasticSearch) IndexDocument(ctx context.Context, indexName string, document interface{}) error {
	do, err := e.ClientTyped.Index(indexName).Document(document ).Do(ctx)
	result := do.Result
	fmt.Println(result)
	if err != nil {
		log.Printf("创建索引文档失败:%s", err)
		return err
	}
	return nil
}

判断是否存在索引,不存在就创建一个

// IsExists 是否存在索引,不存在就创建一个
func (e *ElasticSearch) IsExists(ctx context.Context, indexName string, mappings string) error {
	_, err2 := e.ClientTyped.Indices.Exists(indexName).Do(ctx)
	if err2 != nil {
		//不存在就重新创建一个索引
		err := e.CreateIndex(ctx, indexName, mappings)
		if err != nil {
			return err
		}
	}
	return nil
}

批量处理

方式一
func (e *ElasticSearch) IndexDocumentList(ctx context.Context, indexName string, anyList any, mapping string) error {
	//验证索引是否存在
	if err := e.IsExists(ctx, indexName, mapping); err != nil {
		return err
	}
	//RW := &sync.RWMutex{}
	slice, err := transitionSlice(anyList)
	if err != nil {
		return err
	}
	buf := buffer(ctx, e, indexName, slice, "index")
	//获取当前索引下的文档个数
	//todo:这里诺是出现超量的索引,可以通过for循环确定索要令牌(技术上限流),或者通过协程处理
	//写入缓存中,并绑定索引,
	//转换成json格式
	//结果我发现这个官方已经实现了。。。。

	bulk, err := e.Client.Bulk(
		bytes.NewReader(buf.Bytes()),
		e.Client.Bulk.WithIndex(indexName),
		e.Client.Bulk.WithContext(ctx),
		e.Client.Bulk.WithRefresh("true"))
	//先关闭缓存
	defer bulk.Body.Close()
	if err != nil {
		log.Fatal("ElasticSearch 批量写入 失败:", err)
		return err
	}
	return nil
}
// 上传的缓存逻辑
func buffer(ctx context.Context, client *ElasticSearch, indexName string, slice []any, CRUD string) bytes.Buffer {
	c, _ := client.ClientTyped.Cat.Count().Index(indexName).Do(ctx)
	num, _ := strconv.Atoi(*c[0].Count)
	//创建缓存
	var buf bytes.Buffer
	for i := num; i < len(slice)+num; i++ {
		index := []byte(fmt.Sprintf(`{ "%s" : { "_id" : "%d" } }%s`, CRUD, i, "\n"))
		//这里可以优化通过算法插入
		datas, _ := json.Marshal(slice[i-num])
		datas = append(datas, "\n"...)
		buf.Grow(len(index) + len(datas))
		buf.Write(index)
		buf.Write(datas)
	}
	return buf

}
// todo 数量过多的话可以通过,三种方式,一种通过创建协程,一种通过二叉树递归的方式,另一种通过创建协程加递归的方式
func transitionSlice(anyl any) ([]any, error) {
	val, ok := isSlice(anyl)
	if !ok {
		return nil, errors.New("切片转换失败")
	}
	sliceLen := val.Len()
	list := make([]any, sliceLen)
	for i := 0; i < sliceLen; i++ {
		list[i] = val.Index(i).Interface()
	}
	return list, nil
}
// 判断是否为切片类型
func isSlice(anySlice any) (val1 reflect.Value, ok bool) {
	val := reflect.ValueOf(anySlice)
	if val.Kind() == reflect.Slice {
		ok = true
	}
	val1 = val
	return val1, ok
}
测试
func TestDuck2(t *testing.T) {
	var (
		buf bytes.Buffer
		res *esapi.Response
		err error
	)

	cfg := config.ProvideConfig()
	client := config.NewES(cfg).Client

	for j := 1; j <= 1000; j++ {
		meta := []byte(fmt.Sprintf(`{ "index" : { "_id" : "%d" } }%s`, j, "\n"))
		data := []byte(`{"content":"` + strings.Repeat("ABC", 100) + `"}`)
		data = append(data, "\n"...)
		buf.Grow(len(meta) + len(data))
		buf.Write(meta)
		buf.Write(data)
	}
	res, err = client.Bulk(bytes.NewReader(buf.Bytes()), client.Bulk.WithIndex("test"), client.Bulk.WithRefresh("true"))
	if err != nil {
		t.Fatalf("Failed to index data: %s", err)
	}
	res.Body.Close()
	if res.IsError() {
		t.Fatalf("Failed to index data: %s", res.Status())
	}
}
方法二
unc (e *ElasticSearch) UpdateDocumentList(ctx context.Context, indexName *string, anyList any, typeBulk string, mappings string) error {
	//验证索引是否存在
	if err := e.IsExists(ctx, *indexName, mappings); err != nil {
		return err
	}
	slice, err := transitionSlice(anyList)
	if err != nil {
		return err
	}
	start := time.Now().UTC()
	//设置批量配置文件
	indexer, err := esutil.NewBulkIndexer(esutil.BulkIndexerConfig{
		Index:         *indexName,
		Client:        e.Client,
		NumWorkers:    5,
		FlushBytes:    1024000,
		FlushInterval: 30 * time.Second,
	})
	if err != nil {
		return err
	}

	i := 1002
	//将数据一条一条塞入缓存中
	for _, data := range slice {
		marsha, _ := json.Marshal(data)
		m := fmt.Sprintf(`%s`, marsha)
		i++
		doc := esutil.BulkIndexerItem{
			Index:      *indexName,
			Action:     typeBulk,
			DocumentID: strconv.Itoa(i),
			Body:       strings.NewReader(m),
			OnSuccess: func(ctx context.Context, item esutil.BulkIndexerItem, item2 esutil.BulkIndexerResponseItem) {

				fmt.Printf("[%d] %s test/%s", item2.Status, item2.Result, item.DocumentID)
			},
			OnFailure: func(ctx context.Context, item esutil.BulkIndexerItem, item2 esutil.BulkIndexerResponseItem, err error) {
				if err != nil {
					fmt.Printf(" ERROR: %s \n", err)
				} else {
					fmt.Printf("ERROR: %s: %s \n", item2.Error.Type, item2.Error.Reason)
				}
			},
		}
		err := indexer.Add(ctx, doc)
		if err != nil {
			fmt.Println(" bulk upsert Add doc fail,", err)
		}
	}
	stats := indexer.Stats()
	fmt.Println(strings.Repeat("-", 80))
	dur := time.Since(start)
	m := int64(1000.0 / float64(dur/time.Millisecond) * float64(stats.NumFlushed))
	if stats.NumFailed > 0 {
		fmt.Printf("[%s.bulk:%s]总数据[%d]行,其中失败[%d], 耗时 %v (速度:%d docs/秒)\n",
			*indexName,
			typeBulk,
			stats.NumAdded,
			stats.NumFailed,
			dur.Truncate(time.Millisecond), m)
	} else {
		fmt.Printf("[%s.bulk:%s]处理数据[%d]行,耗时%v (速度:%d docs/秒)\n",
			*indexName,
			typeBulk,
			stats.NumAdded,
			dur.Truncate(time.Millisecond), m)
	}
	err = indexer.Close(ctx)
	//如果没有关闭就需要循环关闭直到彻底关闭
	if err != nil {
		go func(ctx2 context.Context) {
			for {
				err = indexer.Close(ctx2)
				if err != nil {
					return
				}
			}
		}(ctx)
	}
	return nil
}
方式三
func (e *ElasticSearch) Findne(ctx context.Context, indexName string, queryStr any, size uint, offset uint) error {
	if err, _ := e.ClientTyped.Indices.Exists(indexName).Do(ctx); err == false {
		return fmt.Errorf("该索引不存在,不能查找:%s", err)
	}
	typeList := reflect.TypeOf(queryStr)
	if typeList.Kind() == reflect.Ptr {
		typeList = typeList.Elem()
	}
	val := reflect.ValueOf(queryStr)
	if val.Kind() == reflect.Ptr {
		val = val.Elem()
	}
	var name string
	var value string
	query := make(map[string]types.MatchQuery, typeList.NumField())
	var chouse bool
	chouse = true
	var dol types.HitsMetadata
	for i := 0; i < typeList.NumField(); i++ {
		que := &types.MatchQuery{
			Lenient:             &chouse,
			FuzzyTranspositions: &chouse,
		}
		name = typeList.Field(i).Name
		value = val.FieldByName(name).String()
		que.Query = value
		query[name] = *que
		do, _ := e.ClientTyped.Search().
			Index(indexName).
			Query(&types.Query{
				Match: map[string]types.MatchQuery{
					"price": {Query: "123456"},
				},
			},
			).From(int(offset)).Size(int(size)).Do(ctx)
		dol = do.Hits
	}

	mapp["*esll.ProductES"] = &ProductES{}

	m := mapp
	fmt.Println(m)

	//获取类型
	typeLs := reflect.TypeOf(queryStr)
	nam := typeLs.String()
	fmt.Println(nam)
	//从map中找到对应的结构体
	key := mapp[typeLs.String()]
	list := make([]any, 0)
	//深拷贝
	/*
		valo := &key
		key2 := *valo
		key3 := &key2
	*/
	var co any
	for i := 0; i < len(dol.Hits); i++ {
		co = deepcopy.Copy(key)
		//转换为json字符数组
		marshalJSON, _ := dol.Hits[i].Source_.MarshalJSON()
		//解码并绑定
		_ = json.Unmarshal(marshalJSON, &co)
		list = append(list, co)
	}
	return nil
}

查询

var mapp = make(map[string]any, 0)

func (e *ElasticSearch) FindOne(ctx context.Context, searchStruct *SearchStruct) (map[string]any, error) {
	do, err := e.ClientTyped.Search().
		Index(searchStruct.IndexName).
		Query(&types.Query{
			MatchAll: &types.MatchAllQuery{
				Boost:      &searchStruct.Boost,
				QueryName_: &searchStruct.FieldName,
			},
		},
		).From(searchStruct.Form).Size(searchStruct.Size).Do(ctx)
	if err != nil {
		return nil, err
	}
	//name := make(map[string]any)
	marshalJSON, err := do.Hits.Hits[0].Source_.MarshalJSON()
	if err != nil {
		return nil, err
	}
	var p ProductES
	_ = json.Unmarshal(marshalJSON, &p)
	fmt.Println(p)
	//listMap := make(map[string]any)
	//for i := 0; i < len(do.Hits.Hits); i++ {
	//	structName := name["structName"]
	//	stringE, _ := ToStringE(structName)
	//	structs := mapp[stringE]
	//	structl := deepcopy.Copy(structs)
	//	_ = json.Unmarshal(marshalJSON, &structl)
	//	toStringE, _ := ToStringE(i)
	//	listMap[toStringE] = stringE
	//}
	//
	return nil, err

}


// ToStringE 字符串转换工具
func ToStringE(i any) (string, error) {
	i = indirectToStringerOrError(i)

	switch s := i.(type) {
	case string:
		return s, nil
	case bool:
		return strconv.FormatBool(s), nil
	case float64:
		return strconv.FormatFloat(s, 'f', -1, 64), nil
	case float32:
		return strconv.FormatFloat(float64(s), 'f', -1, 32), nil
	case int:
		return strconv.Itoa(s), nil
	case int64:
		return strconv.FormatInt(s, 10), nil
	case int32:
		return strconv.Itoa(int(s)), nil
	case int16:
		return strconv.FormatInt(int64(s), 10), nil
	case int8:
		return strconv.FormatInt(int64(s), 10), nil
	case uint:
		return strconv.FormatUint(uint64(s), 10), nil
	case uint64:
		return strconv.FormatUint(uint64(s), 10), nil
	case uint32:
		return strconv.FormatUint(uint64(s), 10), nil
	case uint16:
		return strconv.FormatUint(uint64(s), 10), nil
	case uint8:
		return strconv.FormatUint(uint64(s), 10), nil
	case json.Number:
		return s.String(), nil
	case []byte:
		return string(s), nil
	case template.HTML:
		return string(s), nil
	case template.URL:
		return string(s), nil
	case template.JS:
		return string(s), nil
	case template.CSS:
		return string(s), nil
	case template.HTMLAttr:
		return string(s), nil
	case nil:
		return "", nil
	case fmt.Stringer:
		return s.String(), nil
	case error:
		return s.Error(), nil
	default:
		return "", fmt.Errorf("unable to cast %#v of type %T to string", i, i)
	}
}

var (
	errorType       = reflect.TypeOf((*error)(nil)).Elem()
	fmtStringerType = reflect.TypeOf((*fmt.Stringer)(nil)).Elem()
)

// Copied from html/template/content.go.
// indirectToStringerOrError returns the value, after dereferencing as many times
// as necessary to reach the base type (or nil) or an implementation of fmt.Stringer
// or error,
func indirectToStringerOrError(a any) any {
	if a == nil {
		return nil
	}
	v := reflect.ValueOf(a)
	for !v.Type().Implements(fmtStringerType) && !v.Type().Implements(errorType) && v.Kind() == reflect.Pointer && !v.IsNil() {
		v = v.Elem()
	}
	return v.Interface()
}

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/276608.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

spring、springmvc、springboot、springcloud简介

spring简介 spring是什么&#xff1f; spring: 春天spring: 轻量级的控制反转和面向切面编程的框架 历史 2002年&#xff0c;首次推出spring雏形&#xff0c;interface 21框架2004年&#xff0c;发布1.0版本Rod Johnson: 创始人&#xff0c;悉尼大学&#xff0c;音乐学博士…

SeaTunnel同步PostgreSQL数据至ClickHouse(1)

ClickHouse简介 ClickHouse最初是为Yandex.Metrica世界第二大Web分析平台而开发的。多年来一直作为该系统的核心组件被该系统持续使用着。目前为止&#xff0c;该系统在ClickHouse中有超过13万亿条记录&#xff0c;并且每天超过200多亿个事件被处理。它允许直接从原始数据中动…

【MATLAB】交叉验证求光滑因子的广义神经网络时序预测算法

有意向获取代码&#xff0c;请转文末观看代码获取方式~也可转原文链接获取~ 1 基本定义 交叉验证求光滑因子的广义神经网络时序预测算法的基本原理如下&#xff1a; 首先&#xff0c;我们需要了解什么是交叉验证和光滑因子。交叉验证是一种评估模型性能的常用方法&#xff0c…

Spring高手之路-Spring事务的传播机制(行为、特性)

目录 含义 七种事务传播机制 1.REQUIRED&#xff08;默认&#xff09; 2.REQUIRES_NEW 3.SUPPORTS 4.NOT_SUPPORTED 5.MANDATORY 6.NEVER 7.NESTED 含义 事务的传播特性指的是当一个事务方法被另一个事务方法调用时&#xff0c;这个事务方法应该如何进行&#xff1f; 七…

Docker安装Grafana

1. 介绍 Grafana 是一个开源的度量分析和可视化工具&#xff0c;可以通过将采集的数据分析、查询&#xff0c;然后进行可视化的展示&#xff0c;并能实现报警。参考官网地址&#xff1a;Run Grafana Docker image | Grafana documentation 2. 安装Grafana (1) . 下载 命令&…

Python中JSON模块的使用

1 JSON简介 JSON是JavaScript Object Notation即Javascript对象简谱的缩写。JSON是一种轻量级的数据交换格式&#xff0c;JSON数据是由键值对组成的结构&#xff0c;与Python中的字典类似&#xff0c;由尖括号包围的键值对组成&#xff0c;键和值的类型可以是字符串、数字、布…

elasticsearch系列六:索引重建

概述 我们再起初创建索引的时候由于数据量、业务增长量都并不大&#xff0c;常常不需要搞那么多分片或者说某些字段的类型随着业务的变化&#xff0c;已经不太满足未来需求了&#xff0c;再或者由于集群上面索引分布不均匀导致节点直接容量差异较大等等这些情况&#xff0c;此时…

Spark编程范例:Word Count示例解析

Apache Spark是一个强大的分布式计算框架&#xff0c;用于处理大规模数据。Word Count示例是Spark入门教程中的经典示例&#xff0c;旨在展示如何使用Spark来进行简单的文本处理和数据分析。本文将深入解析Word Count示例&#xff0c;以帮助大家更好地理解Spark的基本概念和编程…

【12.28】转行小白历险记-刷算法04

01两两交换链表中的节点 整体思路 1.要修改后一个节点的指向一定要知道前一个节点的指向才可以改变后面一个节点的 2.分情况奇数和偶数节点&#xff0c;终止条件很重要 3.虚拟头节点&#xff0c;是对我们操作的指针是不是头节点进行判断 02删除链表的倒数第N个节点 思路 …

低成本高效率易部署,Ruff工业数采网关+IoT云平台赋能工厂数字化管理

随着工业4.0的快速发展&#xff0c;工业物联网是工业企业实现数字化转型的重要助力&#xff0c;物联网技术的应用也越来越广泛。 作为连接设备与网络的关键节点&#xff0c;数据采集网关是连接工业设备与物联网平台的硬件设备&#xff0c;它负责将工业设备的数据采集、传输到物…

idea Spring Boot项目使用JPA创建与数据库链接

1.pom.xml文件中添加依赖 <dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-data-jpa</artifactId></dependency><dependency><groupId>com.mysql</groupId><artifactId>…

c语言:求最小公倍数|练习题

一、题目 输入两个数&#xff0c;求两数的最小公倍数。 如图&#xff1a; 二、思路分析 1、先知道两个数里的最小值(比如&#xff1a;9和6&#xff0c;取6) 2、用2到6&#xff0c;5个数&#xff0c;同时除以9和6,得最小公约数&#xff1a;3 3、用9除33&#xff0c;6除32。得最小…

GitHub教程-自定义个人页制作

GitHub是全球最大的代码托管平台&#xff0c;除了存放代码&#xff0c;它还允许用户个性化定制自己的主页&#xff0c;展示个人特色、技能和项目。本教程旨在向GitHub用户展示如何制作个性化主页&#xff0c;同时&#xff0c;介绍了GitHub Actions的应用&#xff0c;可以自动化…

市场复盘总结 20231228

仅用于记录当天的市场情况&#xff0c;用于统计交易策略的适用情况&#xff0c;以便程序回测 短线核心&#xff1a;不参与任何级别的调整 昨日回顾&#xff1a; -- 今日 select * from ( SELECT top 100CODE,20231228 日期,成交额排名,净流入排名,代码,名称,DDE大单金额,涨幅,…

关于log4j的那些坑

背景&#xff1a;工程中同时存在log4j.xml&log4j2.xml maven依赖如下&#xff1a; 此时工程实际使用的日志文件为log4j.xml 1、当同时设置log4j和log4j2的桥接依赖时 maven依赖如下&#xff1a; 此时启动会有警告日志&#xff1a; 点击告警日志链接&#xff1a;https://…

适用于各种危险区域的火焰识别摄像机,实时监测、火灾预防、安全监控,为安全保驾护航

火灾是一种极具破坏力的灾难&#xff0c;对人们的生命和财产造成了严重的威胁。为了更好地预防和防范火灾&#xff0c;火焰识别摄像机作为一种先进的监控设备&#xff0c;正逐渐受到人们的重视和应用。本文将介绍火焰识别摄像机在安全监控和火灾预防方面的全面应用方案。 一、火…

第十四章 Sentinel实现熔断与限流

Sentinel实现熔断与限流 gitee&#xff1a;springcloud_study: springcloud&#xff1a;服务集群、注册中心、配置中心&#xff08;热更新&#xff09;、服务网关&#xff08;校验、路由、负载均衡&#xff09;、分布式缓存、分布式搜索、消息队列&#xff08;异步通信&#x…

应用在网络摄像机领域中的国产音频ADC芯片

IPC&#xff1a;其实叫“网络摄像机”&#xff0c;是IP Camera的简称。它是在前一代模拟摄像机的基础上&#xff0c;集成了编码模块后的摄像机。它和模拟摄像机的区别&#xff0c;就是在新增的“编码模块”上。模拟摄像机&#xff0c;顾名思义&#xff0c;输出的是模拟视频信号…

设计模式-多例模式

设计模式专栏 模式介绍多例模式和单例模式的区别应用场景Spring中多例模式的优缺点代码示例Java实现多例模式Python实现多例模式 多例模式在spring中的应用 模式介绍 多例模式是一种创建型设计模式&#xff0c;属于对象创建类型。多例模式的特点是允许一个类有多个实例&#x…

语言模型:从n-gram到神经网络的演进

目录 1 前言2 语言模型的两个任务2.1 自然语言理解2.2 自然语言生成 3 n-gram模型4 神经网络语言模型5 结语 1 前言 语言模型是自然语言处理领域中的关键技术之一&#xff0c;它致力于理解和生成人类语言。从最初的n-gram模型到如今基于神经网络的深度学习模型&#xff0c;语言…