带着问题去看教程:
不是用logstash来监听我们的日志,我们可以使用logback配置来使用tcp appender通过tcp协议将日志发送到远程logstash实例。
我们可以使用logstash指向多个日志文件。
我们可以在logstash配置文件中使用更复杂的过滤器,以根据需要执行更多操作。
我们可以使用远程elk集群指向我们的日志文件,或者将日志推入,这在将所有应用程序部署到云中时基本上是必需的。
在logstash中创建不同的索引模式。
通过使用微服务,我们已经能够克服许多遗留问题,并且它允许我们创建稳定的分布式应用程序,并对代码,团队规模,维护,发布周期,云计算等进行所需的控制。但它也引入了一些挑战。其他领域,例如分布式日志管理和查看在许多服务中分布的完整事务的日志和一般的分布式调试的能力。
实际上,挑战在于微服务是相互隔离的,它们不共享公共数据库和日志文件。随着微服务数量的增加以及我们使用自动化持续集成工具实现云部署,当我们遇到任何问题时,非常有必要对组件进行一些调试。
感谢开源运动。我们已经拥有了一系列工具,如果一起使用可以发挥魔力。一组如此受欢迎的工具是elastic search,logstash和kibana - 一起称为elk stack 。它们用于实时搜索,分析和可视化日志数据。
elasticsearch是一个基于json的分布式搜索和分析引擎,专为水平可扩展性,最高可靠性和易管理性而设计。
logstash是一个动态数据收集管道,具有可扩展的插件生态系统和强大的elasticsearch协同作用。
kibana通过ui 提供数据可视化。
logstash根据我们设置的过滤条件处理应用程序日志文件,并将这些日志发送到elasticsearch。通过kibana,我们可以在需要时查看和分析这些日志。
所有这三个工具都基于jvm,在开始安装之前,请验证jdk是否已正确配置。检查标准jdk 1.8安装,java_home
并且path
已经完成设置。
从此下载页面下载最新版本的elasticsearch 并将其解压缩到任何文件夹中。
bin\elasticsearch.bat
从命令提示符运行。
默认情况下,它将从http:// localhost:9200
从下载页面下载最新的发行版并解压缩到任何文件夹中。
config/kibana.yml
在编辑器中打开并设置elasticsearch.url
为指向您的elasticsearch实例。在我们的例子中,我们将使用本地实例取消注释elasticsearch.url: "http://localhost:9200"
bin\kibana.bat
从命令提示符运行。
成功启动后,kibana将启动默认端口5601
,kibana ui将在http:// localhost:5601上提供
从下载页面下载最新的发行版并解压缩到任何文件夹中。
logstash.conf
根据配置说明创建一个文件。在实际演示时间内,我们将再次进行精确配置。
现在运行bin/logstash -f logstash.conf
以启动logstash
elk堆栈未启动并正在运行。现在我们需要创建一些微服务并指向api日志路径的logstash。
让我们使用spring boot创建一个应用程序,以缩短开发时间。请按照这些步骤启动此服务。
添加一个restcontroller
类会暴露一些端点一样/elk
,/elkdemo
,/exception
。实际上我们只会测试几个日志语句,因此可以根据您的选择随意添加/修改日志。
package com.example.howtodoinjava.elkexamplespringboot; import java.io.printwriter; import java.io.stringwriter; import java.util.date; import org.apache.log4j.level; import org.apache.log4j.logger; import org.springframework.beans.factory.annotation.autowired; import org.springframework.boot.springapplication; import org.springframework.boot.autoconfigure.springbootapplication; import org.springframework.context.annotation.bean; import org.springframework.core.parameterizedtypereference; import org.springframework.http.httpmethod; import org.springframework.web.bind.annotation.requestmapping; import org.springframework.web.bind.annotation.restcontroller; import org.springframework.web.client.resttemplate; @springbootapplication public class elkexamplespringbootapplication { public static void main(string[] args) { springapplication.run(elkexamplespringbootapplication. class , args); } } @restcontroller class elkcontroller { private static final logger log = logger.getlogger(elkcontroller. class .getname()); @autowired resttemplate resttemplete; @bean resttemplate resttemplate() { return new resttemplate(); } @requestmapping (value = "/elkdemo" ) public string helloworld() { string response = "hello user ! " + new date(); log.log(level.info, "/elkdemo - > " + response); return response; } @requestmapping (value = "/elk" ) public string helloworld1() { string response = resttemplete.exchange( "http://localhost:8080/elkdemo" , httpmethod.get, null , new parameterizedtypereference() { }).getbody(); log.log(level.info, "/elk - > " + response); try { string exceptionrsp = resttemplete.exchange( "http://localhost:8080/exception" , httpmethod.get, null , new parameterizedtypereference() { }).getbody(); log.log(level.info, "/elk trying to print exception - > " + exceptionrsp); response = response + " === " + exceptionrsp; } catch (exception e) { // exception should not reach here. really bad practice :) } return response; } @requestmapping (value = "/exception" ) public string exception() { string rsp = "" ; try { int i = 1 / 0 ; // should get exception } catch (exception e) { e.printstacktrace(); log.error(e); stringwriter sw = new stringwriter(); printwriter pw = new printwriter(sw); e.printstacktrace(pw); string sstacktrace = sw.tostring(); // stack trace as a string log.error( "exception as string :: - > " +sstacktrace); rsp = sstacktrace; } return rsp; } } |
application.properties
在resources
文件夹下打开并添加以下配置条目。
logging.file=elk-example.log spring.application.name = elk-example |
通过浏览http:// localhost:8080 / elk,mvn clean install
使用命令java -jar target\elk-example-spring-boot-0.0.1-snapshot.jar
和测试来执行最终的maven构建并启动应用程序。
不要害怕看到屏幕上的大堆栈跟踪,因为有意识地看看elk如何处理异常消息。
转到应用程序根目录并验证是否elk-example.log
已创建日志文件,并对端点执行几次访问,并验证日志文件中是否添加了日志。
我们需要创建一个logstash配置文件,以便它监听日志文件并将日志消息推送到弹性搜索。以下是示例中使用的logstash 配置,请根据您的设置更改日志路径。
input { file { type => "java" path => "f:/study/eclipse_workspace_mars/elk-example-spring-boot/elk-example.log" codec => multiline { pattern => "^%{year}-%{monthnum}-%{monthday} %{time}.*" negate => "true" what => "previous" } } } filter { #if log line contains tab character followed by 'at' then we will tag that entry as stacktrace if [message] =~ "\tat" { grok { match => [ "message" , "^(\tat)" ] add_tag => [ "stacktrace" ] } } grok { match => [ "message" , "(?<timestamp>%{year}-%{monthnum}-%{monthday} %{time}) %{loglevel:level} %{number:pid} --- \[(?<thread>[a-za-z0-9-]+)\] [a-za-z0-9.]*\.(?<class>[a-za-z0-9#_]+)\s*:\s+(?<logmessage>.*)" , "message" , "(?<timestamp>%{year}-%{monthnum}-%{monthday} %{time}) %{loglevel:level} %{number:pid} --- .+? :\s+(?<logmessage>.*)" ] } date { match => [ "timestamp" , "yyyy-mm-dd hh:mm:ss.sss" ] } } output { stdout { codec => rubydebug } # sending properly parsed log events to elasticsearch elasticsearch { hosts => [ "localhost:9200" ] } } |
在查看kibana中的日志之前,我们需要配置索引模式。我们可以配置logstash-*
为默认配置。我们总是可以在logstash端更改此索引模式并在kibana中进行配置。为简单起见,我们将使用默认配置。
索引模式管理页面如下所示。通过这种配置,我们将kibana指向您选择的elasticsearch索引。logstash使用名称模式创建索引。logstash-yyyy.mm.dd
我们可以在kibana控制台http:// localhost:5601 / app / kibana中执行所有这些配置,然后转到左侧面板中的management链接。
现在,当所有组件都启动并运行时,让我们验证整个生态系统。
转到应用程序并测试端点几次以便生成日志,然后转到kibana控制台,看看日志是否正确堆叠在kibana中,还有许多额外的功能,比如我们可以过滤,查看内置的不同图表等。
以下是kibana中生成的日志的视图。
如对本文有疑问, 点击进行留言回复!!
荐 厉害了!阿里P8架构师用4大技术文档带你深入解读爆火的中台战略
FlowableException: Error initialising dmn data model报错问题
网友评论