当您使用强大的日志管理软件自动触发以保护您的系统时,您已经赢得了一半的战斗,以确保您的it基础设施安全。某些日志管理工具具有阻止可疑ip地址,删除帐户,甚至完全关闭显示受感染迹象的计算机的内置功能。
此外,有效的日志管理工具可以实现并简化您的入侵检测系统。因此,当您的入侵检测系统发出恶意活动信号时,您可以快速检查由日志管理工具生成和维护的日志文件。日志文件可以进一步提供重要线索,便于故障排除以帮助您。
使用日志管理工具的直接好处之一是它可以最大限度地减少生产中的停机时间。日志管理工具是解决方案带中的主要力量,可以使您智能地掌握与生产相关的可能问题。它允许您知道什么时候重要的事情已经改变或改变。反过来,这会对您的技术平稳运行以及整个业务流程产生重大影响。
此外,有效的日志管理对于满足合规性也很重要。某些合规性要求您监控和记录每个应用程序以及it基础架构中的系统的事件。
使用复杂的日志管理工具维护日志文件允许进行根本原因分析,稍后便于调试。你可以避免艰苦的手工努力,试图弄清楚什么是轨道,以及究竟是什么导致了一个可能的问题。这进一步使您在处理所有类型的问题时越来越有效。
您可以浏览日志文件,甚至可以使用该工具发现任何违规行为。这有助于使系统恢复正常工作。日志管理工具可帮助您更深入地识别现代组织遇到的威胁。
jdklog是jdk官方提供的一个记录日志的方式,直接在jdk中就可以使用
import java.util.logging.logger; /**** ** jdklog demo **/ public class jdklog { public static void main( string[] args ) { logger logger = logger.getlogger("jdklog"); logger.info("hello world."); } }
温馨提示:jdklog 的有点是使用非常简单,直接在 jdk 中就可以使用。但 jdklog 功能比较太过于简单,不支持占位符显示,拓展性比较差,所以现在用的人也很少
log4j 是 apache 的一个日志开源框架,有多个分级(debug/info/warn/error)记录级别,可以很好地将不同日志级别的日志分开记录,极大地方便了日志的查看。
logback 其实可以说是 log4j 的进化版,因为它们两个都是同一个人(ceki gülcü)设计的开源日志组件。logback 除了具备 log4j 的所有优点之外,还解决了 log4j 不能使用占位符的问题。
jdklog、log4j、logback 这几个常用的日志记录框架,它们都有各自的优缺点,适合在不同的场景下使用。可能简单的项目直接用 jdklog 就可以了,而复杂的项目需要用上 log4j。
很多时候我们做项目都是从简单到复杂,也就是我们很可能一开始使用的是 jdklog,之后业务复杂了需要使用 log4j,这时候我们如何将原来写好的日志用新的日志框架输出呢?
一个最死板的方法就是一行行代码修改,把之前用 jdklog 的日志代码全部修改成 log4j 的日志接口。但是这种方式不仅效率低下,而且做的工作都是重复性的工作,这怎么能忍呢。
正是因为在实际的项目应用中,有时候可能会从一个日志框架切换到另外一个日志框架的需求,这时候往往需要在代码上进行很大的改动。为了避免切换日志组件时要改动代码,这时候一个叫做 slf4j(simple logging facade for java,即java简单日志记录接口集)的东西出现了。
slf4j(simple logging facade for java,即java简单日志记录接口集)是一个日志的接口规范,它对用户提供了统一的日志接口,屏蔽了不同日志组件的差异。这样我们在编写代码的时候只需要看 slf4j 这个接口文档即可,不需要去理会不同日之框架的区别。而当我们需要更换日志组件的时候,我们只需要更换一个具体的日志组件jar包就可以了。
<?xml version="1.0" encoding="utf-8"?> <project xmlns="http://maven.apache.org/pom/4.0.0" xmlns:xsi="http://www.w3.org/2001/xmlschema-instance" xsi:schemalocation="http://maven.apache.org/pom/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"> <modelversion>4.0.0</modelversion> <groupid>com.wxc</groupid> <artifactid>testlog</artifactid> <version>1.0-snapshot</version> <dependencies> <!-- 添加slf4j日志api --> <dependency> <groupid>org.slf4j</groupid> <artifactid>slf4j-api</artifactid> <version>1.7.20</version> </dependency> <!-- 添加logback-classic依赖 --> <dependency> <groupid>ch.qos.logback</groupid> <artifactid>logback-classic</artifactid> <version>1.2.3</version> </dependency> <!-- 添加logback-core依赖 --> <dependency> <groupid>ch.qos.logback</groupid> <artifactid>logback-core</artifactid> <version>1.2.3</version> </dependency> </dependencies> </project>
xml存放位置
代码如下
<!-- ch.qos.logback.classic.filter.thresholdfilter 临界值过滤器, 过滤掉低于指定临界值的日志 ch.qos.logback.classic.filter.levelfilter 将过滤器的日志级别配置为info,所有info级别的日志交给appender处理,非info级别的日志,被过滤掉。 --> <configuration> <property name="app_name" value="testlog" /> //这里为此项目的日志文件夹名 <property name="log.dir" value="f:/home"></property> //这里为日志的存储地址 <timestamp key="bysecond" datepattern="yyyymmdd hhmmss"/> <contextname>${app_name}</contextname> <appender name="stdout" class="ch.qos.logback.core.consoleappender"> <layout class="ch.qos.logback.classic.patternlayout"> <pattern>%d{yyyy-mm-dd hh:mm:ss.sss} [%thread] %-5level %logger{85} [%file:%line] - %msg%n</pattern> </layout> </appender> <!-- 按日期和大小区分的滚动日志 --> <appender name="file_info" class="ch.qos.logback.core.rolling.rollingfileappender"> <encoder> <pattern>%d{yyyy-mm-dd hh:mm:ss.sss} [%thread] %-5level %logger{85} - %msg%n</pattern> </encoder> <filter class="ch.qos.logback.classic.filter.levelfilter"> <level>info</level> <onmatch>accept</onmatch> <onmismatch>deny</onmismatch> </filter> <rollingpolicy class="ch.qos.logback.core.rolling.timebasedrollingpolicy"> <filenamepattern>${log.dir}/${app_name}/info/info.%d{yyyy-mm-dd}-%i.log</filenamepattern> <maxhistory>30</maxhistory> <timebasedfilenamingandtriggeringpolicy class="ch.qos.logback.core.rolling.sizeandtimebasedfnatp"> <maxfilesize>10mb</maxfilesize> </timebasedfilenamingandtriggeringpolicy> </rollingpolicy> </appender> <!-- 按日期和大小区分的滚动日志 --> <appender name="file_debug" class="ch.qos.logback.core.rolling.rollingfileappender"> <!-- 必须指定,否则不会往文件输出内容 --> <encoder> <pattern>%d{yyyy-mm-dd hh:mm:ss.sss} [%thread] %-5level %logger{85} - %msg%n</pattern> </encoder> <filter class="ch.qos.logback.classic.filter.levelfilter"> <level>debug</level> <onmatch>accept</onmatch> <onmismatch>deny</onmismatch> </filter> <!-- 必需要指定rollingpolicy 与 triggeringpolicy 属性 否则不会生成文件--> <rollingpolicy class="ch.qos.logback.core.rolling.timebasedrollingpolicy"> <filenamepattern>${log.dir}/${app_name}/debug/debug.%d{yyyy-mm-dd}-%i.log</filenamepattern> <maxhistory>30</maxhistory> <timebasedfilenamingandtriggeringpolicy class="ch.qos.logback.core.rolling.sizeandtimebasedfnatp"> <maxfilesize>10mb</maxfilesize> </timebasedfilenamingandtriggeringpolicy> </rollingpolicy> </appender> <!-- error级别只按日期滚动生成日志 --> <appender name="file_error" class="ch.qos.logback.core.rolling.rollingfileappender"> <!-- 必须指定,否则不会往文件输出内容 --> <encoder> <pattern>%d{yyyy-mm-dd hh:mm:ss.sss} [%thread] %-5level %logger{85} - %msg%n</pattern> </encoder> <filter class="ch.qos.logback.classic.filter.thresholdfilter"> <level>error</level> <!-- <onmatch>accept</onmatch> <onmismatch>deny</onmismatch>--> </filter> <!-- 必需要指定rollingpolicy 与 triggeringpolicy 属性 否则不会生成文件--> <rollingpolicy class="ch.qos.logback.core.rolling.timebasedrollingpolicy"> <filenamepattern>${log.dir}/${app_name}/error/error.%d{yyyy-mm-dd}-%i.log</filenamepattern> <maxhistory>30</maxhistory> <timebasedfilenamingandtriggeringpolicy class="ch.qos.logback.core.rolling.sizeandtimebasedfnatp"> <maxfilesize>10mb</maxfilesize> </timebasedfilenamingandtriggeringpolicy> </rollingpolicy> <!-- 默认值是10mb。 --> <!-- <triggeringpolicy class="ch.qos.logback.core.rolling.sizebasedtriggeringpolicy"> <maxfilesize>5mb</maxfilesize> </triggeringpolicy> --> </appender> <!-- 滚动记录文件 --> <appender name="monitor" class="ch.qos.logback.core.rolling.rollingfileappender"> <encoder> <pattern>%d{yyyy-mm-dd hh:mm:ss.sss} [%thread] %-5level %logger{85} - %msg%n</pattern> </encoder> <filter class="ch.qos.logback.classic.filter.thresholdfilter"> <level>debug</level> </filter> <rollingpolicy class="ch.qos.logback.core.rolling.timebasedrollingpolicy"> <filenamepattern>${log.dir}/${app_name}/monitor/monitor.%d{yyyy-mm-dd}-%i.log</filenamepattern> <maxhistory>30</maxhistory> <timebasedfilenamingandtriggeringpolicy class="ch.qos.logback.core.rolling.sizeandtimebasedfnatp"> <maxfilesize>10mb</maxfilesize> </timebasedfilenamingandtriggeringpolicy> </rollingpolicy> </appender> <logger name="org" level="info" /> <!--将org包下面的所有日志级别设为了error --> <logger name="monitor" additivity="false" level="debug" /> <logger name="monitor" additivity="false" level="debug"> <appender-ref ref="monitor" /> </logger> <root level="debug"> <appender-ref ref="stdout" /> <appender-ref ref="file_info" /> <appender-ref ref="file_debug" /> //上线时 这个需注释掉,debug级别的日志 <appender-ref ref="file_error" /> </root> </configuration>
public class testlogback { private final static logger logger = loggerfactory.getlogger(testlogback.class); public static void main(string[] args) { logger.error("测试出错了"); logger.info("测试出错了"); logger.debug("测试出错了"); } public static void testerr() { string[] name = {"1", "2", "3"}; try { system.out.println(name[5]); } catch (exception e) { e.printstacktrace(); logger.error("出现异常:"+e); logger.error("数据越界了"); } } }
链接:https://pan.baidu.com/s/1pzxmldkl92alamo8cg9jfa
提取码:rhgu
https://www.cnblogs.com/baizhanshi/p/7911123.html
如对本文有疑问, 点击进行留言回复!!
springmvc之ResponseBody响应json数据遇到的错误及解决
uni-app 后台升级 静默升级 uniapp 后台更新 静默更新 在线升级
SpringBoot多Module启动报错Could not transfer metadata
Hibernate项目报错:Cannot call sendError() after the response has been committed
网友评论