GrayLog踩坑历险记

背景

GrayLog作为ELK的替代产品,是新生代的日志采集框架。在一个采集节点日志的需求中,因为节点很多,产生的日志也很多,因此尝试了使用GrayLog进行日志的采集。下面记录一下使用GrayLog中遇到的坑和解决方案。

一、部署与启动

采用Docker方式部署。需要部署三个容器:

graylog: 采集日志的服务,应用方对接graylog服务,进行日志的采集。

elasticsearch: graylog采集的日志最终存储到elasticsearch中。

mongodb: 存储graylog服务的元数据。

项目中使用的graylog版本是5.2.2,es版本是7.7.0,mongodb是最新版本。

Docker部署官方文档地址

启动mongo容器命令:

sudo docker run -d \
--name mongo \
--network demo\
-v /data/llmservice/mongodb:/data/db \
-p 27017:27017 \
mongo

启动es容器命令:

docker run --name elasticsearch --restart=always  --privileged=true  -d -e ES_JAVA_OPTS="-Xms512m -Xmx512m" -e "discovery.type=single-node" -p 9200:9200 -p 9300:9300 elasticsearch:7.7.0

启动graylog服务命令:
首先,生成加密密码,以密码为admin为例:

echo -n admin | shasum -a 256

然后,利用生成的密码启动容器:

sudo docker run -d   --privileged=true \
--link mongo --link elasticsearch \
--name graylog \
--network demo\
-v /data/llmservice/graylog/log/:/usr/share/graylog/data/log \
-v /data/llmservice/graylog/journal/:/usr/share/graylog/data/journal \
-v /data/llmservice/graylog/contentpacks/:/usr/share/graylog/data/contentpacks \
-v /data/llmservice/graylog/plugin/:/usr/share/graylog/data/plugin \
-p 9009:9000 \
-p 12201:12201/udp \
-p 12201:12201 \
-p 1514:1514 \
-p 1514:1514/udp \
-e GRAYLOG_PASSWORD_SECRET=demo@qq.com.cn \
-e GRAYLOG_ROOT_PASSWORD_SHA2=7cff97eaf95509b6fe517568dbcd58e24190e8a34b8910907b54df0b957859bc \
-e GRAYLOG_HTTP_EXTERNAL_URI="http://192.168.0.101:9009/" \
-e GRAYLOG_ELASTICSEARCH_HOSTS="http://192.168.0.101:9200" \
-e GRAYLOG_ROOT_TIMEZONE="Asia/Shanghai" \
graylog/graylog:5.2.2

其中,journal文件夹挂载映射时,启动容器容易出现没有write权限的异常。解决方式是将宿主机上先创建journal文件夹,并且给这个文件夹chmod授777或775的权限即可。

graylog的9000端口是web界面的访问端口,也是API调用的接口。

12201和1514是Input的监听端口,默认是监听tcp协议,/udp表示同时监听udp协议。

GRAYLOG_ROOT_PASSWORD_SHA2使用第一步生成的加密密码,在登录web界面或调用API时,需要用到密码(解密的密码),用户名默认是admin。

如果想改用户名,需要在graylog容器内容的/usr/share/graylog/data/config/graylog.conf中修改root_username用户。此用户名和密码用于web界面的登录和API接口的调用auth认证。

GRAYLOG_HTTP_EXTERNAL_URI配置web界面访问的url地址。一般就是服务器ip和容器9000映射的端口。

GRAYLOG_ELASTICSEARCH_HOSTS配置es的地址。

GRAYLOG_ROOT_TIMEZONE配置时区,不配置时区,graylog默认使用美国时区,与国内时间对不上。

重点:
上面的-e后面的系统配置,可以在graylog.conf配置文件中查看,里面的配置项,都可以在启动命令里加-e,然后加GRAYLOG_前缀,然后所有字母都大写,就可以在启动命令里设置了。
GrayLog参数配置官方地址

二、创建Inputs

访问web管理界面,登录,选择System–>Inputs,创建Inputs监听。
在这里插入图片描述
在这里插入图片描述
填写Title,其他默认即可。这里选GELF UDP协议,选择原因来自官网:

What is the best way to integrate my applications to Graylog?
We recommend that you use GELF. It’s easy for your application developers and eliminates the need to store the messages locally. Also, GELF can just send what app person wants so you don’t have to build extractors or do any extra processing in Graylog.

将我的应用程序集成到Graylog的最佳方式是什么?

我们建议您使用GELF。这对应用程序开发人员来说很容易,并且无需在本地存储消息。此外,GELF可以发送应用程序用户想要的内容,这样您就不必在Graylog中构建提取器或进行任何额外的处理。
出处地址

三、SpringBoot项目集成GrayLog,采集特定日志

网上讲SpringBoot集成GrayLog的博客,大都是demo级别的集成,只是简单的将log4j记录的日志推送到了GrayLog中。但是在实际项目中,不可能把所有的log.info的信息都采集到GrayLog中,而是将特定的日志采集到GrayLog中。需要做以下操作:

3.1 依赖gelf包
		<dependency>
            <groupId>de.siegmar</groupId>
            <artifactId>logback-gelf</artifactId>
            <version>4.0.0</version>
        </dependency>
3.2 logback-spring.xml里配置gelf Appender
<configuration>
	<conversionRule conversionWord="clr" converterClass="org.springframework.boot.logging.logback.ColorConverter" />
	<conversionRule conversionWord="wex" converterClass="org.springframework.boot.logging.logback.WhitespaceThrowableProxyConverter" />
	<conversionRule conversionWord="wEx" converterClass="org.springframework.boot.logging.logback.ExtendedWhitespaceThrowableProxyConverter" />
	<property name="CONSOLE_LOG_PATTERN" value="${CONSOLE_LOG_PATTERN:-%clr(%d{yyyy-MM-dd HH:mm:ss.SSS}){faint} %clr(${LOG_LEVEL_PATTERN:-%5p}) %clr(${PID:- }){magenta} %clr(---){faint} %clr([%15.15t]){faint} %clr(%-40.40logger{39}){cyan} %clr(:){faint} %m%n${LOG_EXCEPTION_CONVERSION_WORD:-%wEx}}"/>
	<appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
		<encoder>
			<pattern>${CONSOLE_LOG_PATTERN}</pattern>
			<charset>UTF-8</charset>
		</encoder>
	</appender>
	<appender name="GELF" class="de.siegmar.logbackgelf.GelfUdpAppender">
		<filter class = "com.demo.engine.logger.EngineFilter"/>
		<graylogHost>graylog服务ip</graylogHost>
		<graylogPort>12201</graylogPort>
		<maxChunkSize>65467</maxChunkSize>
		<encoder class="com.demo.engine.logger.EngineEncoder">
			<!--
		     配置应用名称(服务名称),通过staticField标签可以自定义一些固定的日志字段
		    -->
			<!--<staticField>app_name:${app_name}</staticField>
			<staticField>desc:${desc}</staticField>-->
		</encoder>
	</appender>
	<!-- 控制台输出日志级别 -->
	<root level="info">
		<appender-ref ref="GELF" />
		<appender-ref ref="STDOUT" />
	</root>
</configuration>

配置到此,项目中的log.info等日志就可以采集到GrayLog服务中了。只需要在logback-spring.xml里配置对GrayLog服务的ip和端口,就可以无缝使用日志采集框架采集日志了。

3.3 过滤日志,采集特定日志

定义日志框架的过滤器,例如只采集loggername为demo记录的日志。
先定义日志过滤器:

import ch.qos.logback.classic.spi.ILoggingEvent;
import ch.qos.logback.core.filter.Filter;
import ch.qos.logback.core.spi.FilterReply;
public class EngineFilter extends Filter<ILoggingEvent> {
    @Override
    public FilterReply decide(ILoggingEvent iLoggingEvent) {
        String loggerName = iLoggingEvent.getLoggerName();
        if(loggerName.equals("demo")){//loggerName是demo则采集,否则不采集
            return FilterReply.ACCEPT;
        }else {
            return FilterReply.DENY;
        }
    }
}

在logback-spring.xml里配置过滤器:
在这里插入图片描述

最后,在需要GrayLog采集日志的地方,定义名为demo的日志采集器:

    private static final Logger log = LoggerFactory.getLogger("demo");

使用此对象log.info的日志,会采集到GrayLog中。而定义的其他采集器的log.info则不会采集到GrayLog中。

四、自定义日志字段存入GrayLog

通过log.info()方法存入GrayLog中的日志,只能是一个字符串,因为log.info()的参数是String类型。在实际项目中,往往要对日志通过某个字段进行检索或统计,只存一个字符串无法满足这样的要求。

在logback-spring.xml中,可以配置来定义一些静态的字段和固定的值,但是无法满足动态往GrayLog中添加字段和动态设置值的要求。如何满足这个需求成了能否使用GrayLog的关键。

项目中通过引入gelf包来采集日志到GrayLog中,翻看jar包的源码,找到了jar包发送日志到GrayLog的核心代码GelfEncoder的encode()方法,如下:

@Override
    public byte[] encode(final ILoggingEvent event) {
        final Map<String, Object> additionalFields = new HashMap<>(staticFields);
        addFieldMapperData(event, additionalFields, builtInFieldMappers);
        addFieldMapperData(event, additionalFields, fieldMappers);

        final GelfMessage gelfMessage = new GelfMessage(
            originHost,
            shortPatternLayout.doLayout(event),
            fullPatternLayout.doLayout(event),
            event.getTimeStamp(),
            LevelToSyslogSeverity.convert(event),
            additionalFields
        );

        final byte[] json = gelfMessageToJson(gelfMessage);

        if (appendNewline) {
            final byte[] sep = System.lineSeparator().getBytes(StandardCharsets.UTF_8);
            final ByteBuffer bb = ByteBuffer.allocate(json.length + sep.length);
            bb.put(json);
            for (final byte b : sep) {
                bb.put(b);
            }
            bb.flip();
            return bb.array();
        }

        return json;
    }

从源码可以看出,源码中有添加字段的豁口:

addFieldMapperData(event, additionalFields, builtInFieldMappers);
addFieldMapperData(event, additionalFields, fieldMappers);

查看addFieldMapperData方法源码:

private void addFieldMapperData(final ILoggingEvent event, final Map<String, Object> additionalFields,
                                    final List<GelfFieldMapper<?>> mappers) {
        for (final GelfFieldMapper<?> fieldMapper : mappers) {
            try {
                fieldMapper.mapField(event, (key, value) -> {
                    try {
                        addField(additionalFields, key, value);
                    } catch (final IllegalArgumentException e) {
                        addWarn("Could not add field " + key, e);
                    }
                });
            } catch (final Exception e) {
                addError("Exception in field mapper", e);
            }
        }
    }

可以看到其遍历了mappers参数,然后调用了addField()方法,来动态添加字段。
所以现在的问题转换成如何往mappers里添加字段。
mappers是一个GelfFieldMapper对象的集合。查看gelf包的官方文档,GelfFieldMapper类作者只简单写了几句,并没有提及如何初始化这个类的集合。所以只能自己初始化这个类的集合。
自己初始化的方式就是实现GelfEncoder类,重写encode方法,在encode方法中自定义GelfEncoder类,加入到集合中。代码如下:

public class EngineEncoder extends GelfEncoder {
    @Override
    public byte[] encode(ILoggingEvent event) {
        super.addFieldMapper(new EngineFiledMapper());
        return super.encode(event);
    }
}

可以看到,重写的encode方法,调用了父类的addFieldMapper方法,往fieldMappers属性中手动添加了一个GelfEncoder对象,剩下的逻辑还是父类的encode方法逻辑。

GelfEncoder是一个接口,需要写其实现类,在实现类中,定义我们要动态添加的字段和值,如下:

public class EngineFiledMapper implements GelfFieldMapper {
    @Override
    public void mapField(ILoggingEvent event, BiConsumer valueHandler) {
        if(event.getLoggerName().equals("demo")){
            String message = event.getMessage();
            JSONObject jsonObject = JSONObject.parseObject(message);
                Set<String> strings = jsonObject.keySet();
                for(String key:strings){
                    valueHandler.accept(key,jsonObject.get(key));
                }
        }

    }
}

上述代码的含义是,在log.info()中,记录一个json格式的字符串,在GelfFieldMapper 中,解析json对象的key和value,然后加入到valueHandler中。

最后,在logback-spring.xml中配置我们定义的encoder类:
在这里插入图片描述

所以,在采集特定日志时,log.info中记录一个特定的json对象,json对象里包含我们的自定义字段,然后在GelfFieldMapper 的实现类中,解析这个json,动态添加字段。

最后,在GrayLog中,定义的json字符串,被放入了message字段,json里定义的字段,成了单独的字段存在GrayLog中,如下图:
在这里插入图片描述

五、GrayLog大字段日志无法存储问题解决

在项目中发现,存储日志的某个字段值过大时,无法存入GrayLog中。国内帖子并没有此问题的解决方案,通过参考stackoverflow的相关帖子,找到了解决思路,下面记录解决过程。
大字段没有存进去的原因是graylog根据字段往es建立索引时,字段的类型是es自动设定的,graylog中并没有给用户提供设置字段在es中索引类型的接口。这就造成了es里把某些字段设置成了keyword类型,当这个字段存入过大的数据时,超出了keyword类型的限制,就无法存入es里了,GrayLog采集也就失败了。
解决方案是我们手动初始化es中相关字段的索引类型,初始化好之后,再让graylog往es里采集日志。操作步骤是:
查看es中graylog的相关索引:

curl -X GET "localhost:9200/_cat/indices"

graylog相关的索引为:
在这里插入图片描述
此时es里的索引字段已经确定类型了,es无法直接修改索引字段的类型,所以,这里先停止graylog服务,把这些索引从es里删除:

curl -X DELETE 'http://localhost:9200/graylog_0'
curl -X DELETE 'http://localhost:9200/gl-events_0'
curl -X DELETE 'http://localhost:9200/gl-system-events_0'

然后,再启动graylog服务,又会自动创建上面三个索引。(**注意:**此时不要让graylog采集日志,否则es又会自动生成索引字段的类型)

然后手动指定es索引自定义字段的类型,graylog会默认生成一些索引的字段,如下:

curl -X GET    "localhost:9200/graylog_0/_mapping"

输出:

{
	"graylog_0": {
		"mappings": {
			"dynamic_templates": [{
				"internal_fields": {
					"match": "gl2_*",
					"match_mapping_type": "string",
					"mapping": {
						"type": "keyword"
					}
				}
			},
			{
				"store_generic": {
					"match_mapping_type": "string",
					"mapping": {
						"type": "keyword"
					}
				}
			}],
			"properties": {
				"full_message": {
					"type": "text",
					"analyzer": "standard"
				},
				"gl2_accounted_message_size": {
					"type": "long"
				},
				"gl2_message_id": {
					"type": "keyword"
				},
				"gl2_processing_timestamp": {
					"type": "date",
					"format": "uuuu-MM-dd HH:mm:ss.SSS"
				},
				"gl2_receive_timestamp": {
					"type": "date",
					"format": "uuuu-MM-dd HH:mm:ss.SSS"
				},
				"message": {
					"type": "text",
					"analyzer": "standard"
				},
				"source": {
					"type": "text",
					"analyzer": "analyzer_keyword",
					"fielddata": true
				},
				"streams": {
					"type": "keyword"
				},
				"timestamp": {
					"type": "date",
					"format": "uuuu-MM-dd HH:mm:ss.SSS"
				}
			}
		}
	}
}

这些字段我们无需关注,我们只手动定义自定义字段的类型,命令如下:

curl -X PUT -H  "Content-Type: application/json" -d '{
	"properties": {
		"input": {
			"type": "text",
			"analyzer": "standard"
		},
		"startTime": {
			"type": "keyword"
		}
	}
}' "localhost:9200/graylog_0/_mapping"

我们自定义的input字段,可能存大数据,所以手动指定成text类型。如果让es自动生成,会生成keyword类型。

手动设置好之后,就可以让GrayLog正常采集日志了。

注意:

  1. 在采集特大日志时,比如图片的base64转码,GrayLog还是无法采集,但是手动往es对应的索引里添加数据是能添加的,这个猜测是GrayLog服务内部处理特大日志有问题导致的,只能通过升级GrayLog版本让其自身解决。
  2. 在手动设置es的字段类型时,不能设置Object或嵌套类型,即使我们的自定义字段是map类型或者复杂类型,es里也无法设置Object类型。原因是graylog往es里存数据时,会把值改为String类型。所以即使我们程序中定义的一个字段为map类型,graylog也会将其转成String类型,这也是graylog设计缺陷的一方面。

六、GrayLog的查询和统计接口

项目中用到了日志的查询和统计接口,这里记录一下使用方式。
官方参考地址

定义工具类如下:

public class QueryLogUtils {

    private static final String SEARCH_MESSAGE = "/api/search/messages";
    private static final String SEARCH_AGGREGATE = "/api/search/aggregate";

    //查询日志
    public static GrayLogQueryResponse queryLog(String url,String username,String password,GrayLogQueryParam grayLogQueryParam){
        RestTemplate restTemplate = new RestTemplate();
        HttpHeaders headers = new HttpHeaders();
        headers.add("X-Requested-By","cli");
        headers.add("Accept","application/json");
        headers.add("Content-Type","application/json");
        headers.setBasicAuth(username, password);
        HttpEntity<GrayLogQueryParam> requestEntity = new HttpEntity<>(grayLogQueryParam,headers);
        restTemplate.getInterceptors().add(new BasicAuthenticationInterceptor(username, password));
        ResponseEntity<Map> response = restTemplate.exchange(url+SEARCH_MESSAGE, HttpMethod.POST, requestEntity, Map.class);
        Map responseBody = response.getBody();
        GrayLogQueryResponse grayLogQueryResponse = JSONObject.parseObject(JSON.toJSONString(responseBody), GrayLogQueryResponse.class);
        return grayLogQueryResponse;
    }


    //统计日志
    public static GrayLogQueryResponse queryAggregate(String url,String username,String password,GrayLogAggregateParam grayLogAggregateParam){
        RestTemplate restTemplate = new RestTemplate();
        HttpHeaders headers = new HttpHeaders();
        headers.add("X-Requested-By","cli");
        headers.add("Accept","application/json");
        headers.add("Content-Type","application/json");
        headers.setBasicAuth(username, password);
        HttpEntity<GrayLogAggregateParam> requestEntity = new HttpEntity<>(grayLogAggregateParam,headers);
        restTemplate.getInterceptors().add(new BasicAuthenticationInterceptor(username, password));
        ResponseEntity<Map> response = restTemplate.exchange(url+SEARCH_AGGREGATE, HttpMethod.POST, requestEntity, Map.class);
        Map responseBody = response.getBody();
        GrayLogQueryResponse grayLogQueryResponse = JSONObject.parseObject(JSON.toJSONString(responseBody), GrayLogQueryResponse.class);
        return grayLogQueryResponse;
    }




}

封装查询参数实体类:

/**
 * 
 *  参数样例:
 *  {
 *     "query": "uid:f2f2d454ce99d3c0a575d78088e7753f",
 *     "fields": [
 *         "input",
 *         "startTime"
 *     ],
 *     "from": 2,
 *     "size": 15,
 *     "timerange": {
 *         "type": "keyword",
 *         "keyword": "last 1000 minutes"
 *     },
 *     "sort": "startTime",
 *     "sort_order": "asc"
 * }
 * @date 2024/1/39:44
 */
@Data
public class GrayLogQueryParam {
    private String query; //查询条件
    private List<String> fields; //查询字段
    private Integer from;//从第几条开始
    private Integer size;//到第几条结束
    private Map<String,String> timerange; //时间范围条件
    private String sort; //排序字段
    private String sort_order; //排序类型


    public static class Builder {
        private String query;
        private List<String> fields=new ArrayList<>();
        private Integer from;
        private Integer size;
        private Map<String, String> timerange;
        private String sort;
        private String sort_order;

        public Builder query(String query) {
            this.query = query;
            return this;
        }

        public Builder addField(String field) {
            this.fields.add(field);
            return this;
        }

        public Builder from(Integer from) {
            this.from = from;
            return this;
        }

        public Builder size(Integer size) {
            this.size = size;
            return this;
        }

        public Builder timerange(String key,String value) {
            if(this.timerange==null){
                this.timerange = new HashMap<>();
            }
            this.timerange.put(key,value);
            return this;
        }

        public Builder sort(String sort) {
            this.sort = sort;
            return this;
        }

        public Builder sort_order(String sort_order) {
            this.sort_order = sort_order;
            return this;
        }

        public GrayLogQueryParam build() {
            return new GrayLogQueryParam(this);
        }
    }

    public static Builder builder() {
        return new Builder();
    }

    private GrayLogQueryParam(Builder builder) {
        this.query = builder.query;
        this.fields = builder.fields;
        this.from = builder.from;
        this.size = builder.size;
        this.timerange = builder.timerange;
        this.sort = builder.sort;
        this.sort_order = builder.sort_order;
    }
}

封装统计参数实体类(按某几个字段进行count统计):

/**
 * 官方文档参考地址: https://go2docs.graylog.org/5-2/making_sense_of_your_log_data/simple_search_scripting_api.htm?tocpath=Searching%20Your%20Log%20Data%7C_____6
 *  参数样例:
 *  {
 *     "query": "sceneId:1",
 *     "group_by": [
 *         {
 *             "field": "id"
 *         },
 *         {
 *             "field": "xxx"
 *         },
 *         {
 *             "field": "xxx"
 *         }
 *     ],
 *     "metrics": [
 *         {
 *             "function": "count",
 *             "field": "id"
 *         }
 *     ]
 * }
 */
@Data
public class GrayLogAggregateParam {
    private String query; //查询条件
    private List<Map> group_by; //分组统计字段
    private Map<String,String> timerange; //时间范围条件
    private List<Map> metrics; //分组函数,average, count, latest, max, min, percentile, stdDev, sum, sumOfSquares, variance.


    public static class Builder {
        private String query;
        private List<Map> group_by=new ArrayList<>();
        private Map<String, String> timerange;
        private List<Map> metrics = new ArrayList<>();

        public Builder query(String query) {
            this.query = query;
            return this;
        }

        public Builder addGroupBy(String field) {
            Map<String,String> map = new HashMap<>();
            map.put("field",field);
            //定义统计条数
            map.put("limit","10000");
            this.group_by.add(map);
            return this;
        }


        public Builder timerange(String key,String value) {
            if(this.timerange==null){
                this.timerange = new HashMap<>();
            }
            this.timerange.put(key,value);
            return this;
        }

        /**
         *
         * @param function 函数,avg,count,sum等
         * @param field 函数统计的字段
         * @return
         */
        public Builder addMetrics(String function,String field) {
            Map<String,String> map = new HashMap<>();
            map.put("function",function);
            map.put("field",field);
            this.metrics.add(map);
            return this;
        }



        public GrayLogAggregateParam build() {
            return new GrayLogAggregateParam(this);
        }
    }

    public static Builder builder() {
        return new Builder();
    }

    private GrayLogAggregateParam(Builder builder) {
        this.query = builder.query;
        this.group_by = builder.group_by;
        this.timerange = builder.timerange;
        this.metrics = builder.metrics;
    }
}

封装GrayLog API返回值实体类:

/**
 * 日志查询接口响应格式如下;
 * {
 *     "schema": [
 *         {
 *             "column_type": "field",
 *             "type": "string",
 *             "field": "uid",
 *             "name": "field: uid"
 *         },
 *         {
 *             "column_type": "field",
 *             "type": "string",
 *             "field": "input",
 *             "name": "field: input"
 *         },
 *         {
 *             "column_type": "field",
 *             "type": "string",
 *             "field": "startTime",
 *             "name": "field: startTime"
 *         }
 *     ],
 *     "datarows": [
 *         [
 *             "f2f2d454ce99d3c0a575d78088e7753f",
 *             "{\"nextNode\":\"2\"}",
 *             "2024-01-02 18:15:06"
 *         ]
 *     ],
 *     "metadata": {
 *         "effective_timerange": {
 *             "from": "2023-12-30T15:57:02.330Z",
 *             "to": "2024-01-03T03:17:02.331Z",
 *             "type": "absolute"
 *         }
 *     }
 * }
 *
 *
 * 日志统计接口响应如下:
 * {
 *     "schema": [
 *         {
 *             "column_type": "grouping",
 *             "type": "string",
 *             "field": "id",
 *             "name": "grouping: id"
 *         },
 *         {
 *             "column_type": "grouping",
 *             "type": "string",
 *             "field": "xxx",
 *             "name": "grouping: xxx"
 *         },
 *         {
 *             "column_type": "grouping",
 *             "type": "string",
 *             "field": "xxx",
 *             "name": "grouping: xxx"
 *         },
 *         {
 *             "column_type": "metric",
 *             "type": "numeric",
 *             "function": "count",
 *             "field": "id",
 *             "name": "metric: count(id)"
 *         }
 *     ],
 *     "datarows": [
 *         [
 *             "1",
 *             "B_1",
 *             "2",
 *             11
 *         ],
 *         [
 *             "2",
 *             "B_B_1",
 *             "33",
 *             5
 *         ],
 *         [
 *             "2",
 *             "B_B_13",
 *             "17",
 *             3
 *         ],
 *         [
 *             "2",
 *             "B_B_15",
 *             "8",
 *             3
 *         ],
 *         [
 *             "17",
 *             "xxx",
 *             "19",
 *             3
 *         ],
 *         [
 *             "8",
 *             "xxx",
 *             "-1",
 *             3
 *         ],
 *         [
 *             "19",
 *             "xxx",
 *             "21",
 *             2
 *         ],
 *         [
 *             "21",
 *             "xxx",
 *             "22",
 *             2
 *         ],
 *         [
 *             "22",
 *             "xxx",
 *             "24",
 *             2
 *         ],
 *         [
 *             "24",
 *             "xxx",
 *             "26",
 *             2
 *         ]
 *     ],
 *     "metadata": {
 *         "effective_timerange": {
 *             "from": "2024-01-02T10:57:35.975Z",
 *             "to": "2024-01-03T10:57:35.975Z",
 *             "type": "absolute"
 *         }
 *     }
 * }
 *
 * @date 2024/1/311:10
 */
@Data
public class GrayLogQueryResponse {

    private List<Schema> schema;

    private List<List<Object>> datarows;


    //解析schema和datarows,返回map对象的日志节点数据
    public List logList(){
        List list = new ArrayList<>();
        List<Schema> schemaList = this.schema;
        List<List<Object>> datarows = this.datarows;
        for(List<Object> row:datarows){
            Map<String,Object> map = new HashMap<>();
            for(int i=0;i<row.size();i++){
                Schema schema = schemaList.get(i);
                String field = schema.getField();
                map.put(field,row.get(i));
            }
            String input = map.get("input").toString();
            if(!input.equals("-")){//-代表没有值
                inputMap = JSON.parseObject(input, Map.class);
            }
            list.add(inputMap)
        return list;
    }


    //获取日志统计对象列表
    public List<ComponentNodeAggregate> aggregateList(){
        List<ComponentNodeAggregate> list = new ArrayList<>();
        List<Schema> schemaList = this.schema;
        List<List<Object>> datarows = this.datarows;
        for(List<Object> row:datarows){
            Map<String,Object> map = new HashMap<>();
            for(int i=0;i<row.size();i++){
                Schema schema = schemaList.get(i);
                String field = schema.getField();
                String column_type = schema.getColumn_type();
                if("metric".equals(column_type)){//统计字段,填充count属性
                    map.put("count",row.get(i));
                }else{
                    map.put(field,row.get(i));
                }
            }
            ComponentNodeAggregate componentNodeAggregate = JSON.parseObject(JSON.toJSONString(map), ComponentNodeAggregate.class);
           
            list.add(componentNodeAggregate);
        }
        return list;
    }

    @Data
    public class Schema{
        private String column_type;
        private String type;
        private String field;
        private String name;
    }

}

封装统计返回值对象:

@Data
public class ComponentNodeAggregate {

    private String id;

    private String xxx;

    private String xxx;

    private Integer count;

}

注意: 在查询graylog时,遵循es的查询语法,具体可参考:官网地址

最后

logback-gelf的官网地址

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/367888.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

【开源】WordPress一键崩溃宕机插件(整活娱乐)

插件介绍 可一键实现Wordpress崩溃宕机的整活向插件&#xff08;请勿用于非法途径&#xff0c;仅供整活娱乐&#xff09;。鼓励关注网站性能的提升&#xff0c;以提供更好的用户体验&#xff0c;提倡为用户提供良好体验和高效速度的原则。 介绍 长期以来&#xff0c;人们都在…

iOS图像处理----OpenGL ES之大长腿特效

目录 一、代码部分概括 二、实现流程概括 1、第一次加载图片 ①、GLKView初始化数据 这部分内容主要是初始化顶点数组、上下文以及顶点数组缓存区&#xff0c;需要在加载图片之前做好准备​编辑 ②、加载图片 ③、绘制 2、拉伸图片 ①、滑块调整 ②、图片拉伸过程 3、…

【React】react组件传参

【React】react组件传参 一、props&#xff1a;父组件向子组件传参1、将普通的参数作为props传递2、将jsx作为props传递&#xff08;组件插槽&#xff09; 二、自定义事件&#xff1a;子父组件向父组件传参三、context进行多级组件传参四、redux全局状态管理 一、props&#xf…

Redis客户端有哪些:你了解吗?

一、分类 Redis客户端工具是用来连接和管理redis服务器的软件&#xff0c;它们可以有不同的类型&#xff0c;如桌面客户端、web客户端和IDE插件。不同的客户端工具有各自的优缺点和特色&#xff0c;你可以根据你的需求和喜好选择合适的工具。 1、Redis 命令行工具 redis-cli官…

智慧商城(continue)

文章目录 1.静态页面结构准备和动态渲染2.搜索 - 历史记录管理1. 写好基础静态页面,可以先往里面加一点假数据2. 上面基本的渲染直接利用history渲染就可以了3. 搜索历史基本渲染结束了,开始点击搜索添加历史4. vant内用v-model" ",可以快速拿到搜索框的值5. 往历史记…

【DevOps】产品需求文档(PRD)与常见原型软件

文章目录 1、PRD介绍1.1、概述1.2、前提条件1.3、主要目的1.4、关键内容1.5、表述方式1.6、需求评审人员1.7、一般内容结构 2、需求流程3、常见原型软件3.1、Word3.2、Axure3.2.1、详细介绍3.2.2、应用分类3.2.3、优缺点 3.3、摹客RP3.4、蓝湖3.5、GUI Design Studio 1、PRD介绍…

TQ15EG开发板教程:在VIVADO2023.1 以及VITIS环境下 检测DDR4

打开VIVADO2023.1 创建一个新的工程&#xff0c;设置工程名称和地址 选择RTL工程&#xff0c;勾选不添加文件 搜索15eg&#xff0c;选择xqzu15eg-ffrb1156-2-i 完成创建工程 添加设计模块 设置模块名称 在模块中添加mpsoc器件 双击器件进行配置 若有配置文件预设可以直接导入配…

分布式任务调度框架XXL-JOB详解

分布式任务调度 概述 场景: 如12306网站根据不同车次设置放票时间点&#xff0c;商品成功发货后向客户发送短信提醒等任务,某财务系统需要在每天上午10天前统计前一天的账单数据 任务的调度是指系统为了完成特定业务&#xff0c;基于给定的时间点&#xff0c;时间间隔&#…

C# SSH.NET 长命令及时返回

在SSH中执行长时间的命令&#xff0c;SSH.NET及时在文本框中返回连续显示结果。 c# - Execute long time command in SSH.NET and display the results continuously in TextBox - Stack Overflow 博主管理了一个服务器集群&#xff0c;准备上自动巡检工具&#xff0c;测试在…

计算机网络实验二

目录 实验二 交换机的基本配置 1、实验目的 2、实验设备 &#xff08;1&#xff09;实验内容&#xff1a; &#xff08;2&#xff09;练习&#xff1a; 1.实验内容一&#xff1a;&#xff08;交换机的配置方式&#xff09; 2.实验内容二&#xff1a;&#xff08;交换机…

LabVIEW汽车自燃监测预警系统

LabVIEW汽车自燃监测预警系统 随着汽车行业的飞速发展&#xff0c;汽车安全问题日益受到公众的关注。其中&#xff0c;汽车自燃现象因其突发性和破坏性&#xff0c;成为一个不可忽视的安全隐患。为了有效预防和减少自燃事故的发生&#xff0c;提出了LabVIEW的汽车自燃监测预警…

算法学习——华为机考题库4(HJ26 - HJ30)

算法学习——华为机考题库4&#xff08;HJ26 - HJ30&#xff09; HJ26 字符串排序 描述 编写一个程序&#xff0c;将输入字符串中的字符按如下规则排序。 规则 1 &#xff1a;英文字母从 A 到 Z 排列&#xff0c;不区分大小写。 如&#xff0c;输入&#xff1a; Type 输出…

2024年 复习 HTML5+CSS3+移动web 笔记 之CSS遍 第5天

第 五 天 整个网站例 5.1 准备工作 项目目录与版心 base.css 5.2 网页制作思路 5.3 header 区域-整体布局 5.4 header区域-logo 5.5 header区域-导航 index.html <!DOCTYPE html> <html lang"en"> <head><meta charset"UTF-8">&l…

qt -chart控件设计器可拖拉

qt -chart控件设计器可拖拉 一、演示效果二、安装过程三、核心程序四、程序链接 一、演示效果 二、安装过程 三、核心程序 #include <QtGui> #include <QColor>#include <cstdlib> #include <cassert> #include <numeric>#include <chartwor…

Python 数据分析(PYDA)第三版(六)

原文&#xff1a;wesmckinney.com/book/ 译者&#xff1a;飞龙 协议&#xff1a;CC BY-NC-SA 4.0 十二、Python 建模库介绍 原文&#xff1a;wesmckinney.com/book/modeling 译者&#xff1a;飞龙 协议&#xff1a;CC BY-NC-SA 4.0 此开放访问网络版本的《Python 数据分析第三版…

如何在win系统部署开源云图床Qchan并无公网ip访问本地存储图片

文章目录 前言1. Qchan网站搭建1.1 Qchan下载和安装1.2 Qchan网页测试1.3 cpolar的安装和注册 2. 本地网页发布2.1 Cpolar云端设置2.2 Cpolar本地设置 3. 公网访问测试总结 前言 图床作为云存储的一项重要应用场景&#xff0c;在大量开发人员的努力下&#xff0c;已经开发出大…

01-Java工厂模式 ( Factory Pattern )

工厂模式 Factory Pattern 摘要实现范例 工厂模式&#xff08;Factory Pattern&#xff09;提供了一种创建对象的最佳方式 工厂模式在创建对象时不会对客户端暴露创建逻辑&#xff0c;并且是通过使用一个共同的接口来指向新创建的对象 工厂模式属于创建型模式 摘要 1. 意图 …

Mac M1使用PD虚拟机运行win10弹出“内部版本已过期立即安装新的windows内部版本”

一、问题 内部版本已过期立即安装新的windows内部版本 二、解决 1、如图所示打开zh-CN目录 C:\windows\system32\zh-CN找到licensingui.exe文件 将该文件重命名为licensingui_bak.exe 2、修改完成效果如下 &#xff08;1&#xff09;但操作中发现&#xff0c;需要TrustedIns…

店群如何防关联?抖音小店被限流怎么办?——站斧浏览器云桌面

无论是抖音小店店铺&#xff0c;还是其他店铺&#xff1b;使用相同法人、相同类目&#xff0c;多开都会被限流&#xff0c;甚至严重到全部店铺迟迟不出单。 下面小编根据不同情况给出解决方案&#xff1a; 1.不同法人、相同类目的情况 使用云服务器&#xff08;站斧云桌面&am…

webpack配置

一、很多基础方面的配置被vuecli所集成一般项目都是使用vuecli,不会真正的去从0-1进行webpack配置: 1、vuecli中的webpack基础配置: (1)入口文件默认在src/main;输出在dist; (2)集成了大量的插件和加载器:babel-loader 处理 JavaScript 文件、使用 css-loader 和 style-load…