当前位置:首页 > 技术分析 > 正文内容

性能优越的轻量级日志收集工具,微软、亚马逊都在用

ruisui882个月前 (03-20)技术分析13

ELK日志收集系统大家都知道,但是还有一种日志收集系统EFK,肯定有很多朋友不知道!这里的F指的是Fluentd,它具有Logstash类似的日志收集功能,但是内存占用连Logstash的十分之一都不到,性能优越、非常轻巧。本文将详细介绍Fluentd的使用,主要用来收集SpringBoot应用的日志,希望对大家有所帮助!

Fluentd 简介

Fluentd是一款开源的日志收集功能,致力于为用户搭建统一的日志收集层,和Elasticsearch、Kibana一起使用可以搭建EFK日志收集系统。什么是统一的日志收集层呢?看下下面这张图就清楚了!

安装

你居然还去服务器上捞日志,搭个日志收集系统难道不香么!中已经介绍了ELK日志收集系统的搭建,这里就不再介绍Elasticsearch和Kibana的安装了,直接介绍Fluentd在Docker环境下的安装。

  • 下载Fluentd的Docker镜像;
  • docker pull fluent/fluentd:v1.10
    • 将默认配置fluent.conf文件复制到/mydata/fluentd/目录下,配置信息如下:
    
      @type  forward
      @id    input1
      @label @mainstream
      port  24224
    
    
    
      @type stdout
    
    
    
    • 运行Fluentd服务,需要开放24221~24224四个端口用于接收不同类型的日志;
    docker run -p 24221:24221 -p 24222:24222 -p 24223:24223 -p 24224:24224 --name efk-fluentd \
    -v /mydata/fluentd/log:/fluentd/log \
    -v /mydata/fluentd/fluent.conf:/fluentd/etc/fluent.conf \
    -d fluent/fluentd:v1.10
    • 第一次启动可能会失败,修改目录权限后重新启动即可;
    chmod 777 /mydata/fluentd/log/
    • 使用root用户进入Fluentd容器内部;
    docker exec -it --user root efk-fluentd /bin/sh
    • 安装Fluentd的Elasticsearch插件;
    fluent-gem install fluent-plugin-elasticsearch
    • 如果你依然想使用docker-compose一次性安装EFK的话,可以使用如下脚本,注意使用user:root启动就不需要再修改目录权限了!
    version: '3'
    services:
      elasticsearch:
        image: elasticsearch:6.4.0
        container_name: efk-elasticsearch
        user: root
        environment:
          - "cluster.name=elasticsearch" #设置集群名称为elasticsearch
          - "discovery.type=single-node" #以单一节点模式启动
          - "ES_JAVA_OPTS=-Xms512m -Xmx512m" #设置使用jvm内存大小
          - TZ=Asia/Shanghai
        volumes:
          - /mydata/elasticsearch/plugins:/usr/share/elasticsearch/plugins #插件文件挂载
          - /mydata/elasticsearch/data:/usr/share/elasticsearch/data #数据文件挂载
        ports:
          - 9200:9200
          - 9300:9300
      kibana:
        image: kibana:6.4.0
        container_name: efk-kibana
        links:
          - elasticsearch:es #可以用es这个域名访问elasticsearch服务
        depends_on:
          - elasticsearch #kibana在elasticsearch启动之后再启动
        environment:
          - "elasticsearch.hosts=http://es:9200" #设置访问elasticsearch的地址
          - TZ=Asia/Shanghai
        ports:
          - 5601:5601
      fluentd:
        image: fluent/fluentd:v1.10
        container_name: efk-fluentd
        user: root
        environment:
          - TZ=Asia/Shanghai
        volumes:
          - /mydata/fluentd/log:/fluentd/log
          - /mydata/fluentd/fluent.conf:/fluentd/etc/fluent.conf
        depends_on:
          - elasticsearch #kibana在elasticsearch启动之后再启动
        links:
          - elasticsearch:es #可以用es这个域名访问elasticsearch服务
        ports:
          - 24221:24221
          - 24222:24222
          - 24223:24223
          - 24224:24224
    • 使用新的配置文件fluent.conf替换原来的配置文件,然后重新启动Fluentd服务,新的配置文件会在下面给出。

    Fluentd配置详解

    接下来我们来介绍下Fluentd配置文件如何配置,先放出完全配置,然后我们对里面的一些配置要点进行详细说明。

    完全配置

    
      @type  tcp
      @id    debug-input
      port  24221
      tag debug
      
     @type json
      
    
    
    
      @type  tcp
      @id    error-input
      port  24222
      tag error
      
     @type json
      
    
    
    
      @type  tcp
      @id    business-input
      port  24223
      tag business
      
     @type json
      
    
    
    
      @type  tcp
      @id    record-input
      port  24224
      tag record
      
     @type json
      
    
    
    
      @type parser
      key_name message
      reserve_data true
      remove_key_name_field true
      
        @type json
      
    
    
    
      @type stdout
      output_type json
    
    
    
      @type elasticsearch
      host 192.168.3.101
      port 9200
      type_name docker
      logstash_format true
      logstash_prefix docker-${tag}-logs
      logstash_dateformat %Y-%m-%d
      flush_interval 5s
      include_tag_key true
    

    配置要点解析

    定义了日志收集的来源,可以有tcp、udp、tail(文件)、forward(tcp+udp)、http等方式。

    这里我们从tcp请求收集日志,端口为24221,并且设置了tag为debug。

    
      @type  tcp
      @id    debug-input
      port  24221
      tag debug
      
     @type json
      
    

    定义对原始数据的解析方式,可以将日志转化为JSON。

    比如我们将debug日志转化为JSON可以进行如下配置。

    
      @type  tcp
      @id    debug-input
      port  24221
      tag debug
      
     @type json
      
    

    可以对收集的日志进行一系列的处理,比如说将日志打印到控制台或者对日志进行解析。

    将所有日志打印到控制台的配置:

    
      @type stdout
    

    对于tag为record来源的日志,我们将其中的message属性转化为JSON格式,如果不进行转化的话,message属性将会是一个字符串。

    
      @type parser
      key_name message
      reserve_data true
      remove_key_name_field true
      
        @type json
      
    

    定义了收集到的日志最后输出到哪里,可以输出到stdout(控制台)、file、elasticsearch、mongo等里面。

    这里我们使用elasticsearch来存储日志信息,logstash_format、logstash_prefix、logstash_dateformat主要用来控制日志索引名称的生成,当前配置生成debug日志的索引格式为
    docker-debug-logs-2020-06-03,flush_interval用来控制日志输出到elasticsearch的时间间隔。

    
      @type elasticsearch
      host 192.168.3.101
      port 9200
      type_name docker
      logstash_format true
      logstash_prefix docker-${tag}-logs
      logstash_dateformat %Y-%m-%d
      flush_interval 5s
      include_tag_key true
    

    替换配置文件

    替换掉原来的
    /mydata/fluentd/fluent.conf配置文件,然后再重新启动服务,我们的Fluentd服务就可以开始收集日志了。

    docekr restart efk-fluentd

    结合SpringBoot使用

    其实Fluentd收集日志的原理和Logstash一样,都是通过tcp端口来收集日志,所以我们只要把logback配置文件中原来Logstash日志收集地址端口改为Fluentd的即可。

    • 修改logback-spring.xml配置文件;
    
    
        ${LOG_STASH_HOST}:24221
    
    
    
    
        ${LOG_STASH_HOST}:24222
    
    
    
    
        ${LOG_STASH_HOST}:24223
    
    
    
    
        ${LOG_STASH_HOST}:24224
    
    • 如果你的Fluentd不是部署在原来Logstash的服务器上,还需要修改application-dev.yml配置中的logstash.host属性。
    logstash:
      host: localhost
    • 启动并运行我们的SpringBoot应用。

    Kibana中查看日志

    至此我们的EFK日志收集系统搭建完成了,只需在Kibana中使用即可。

    • 在Management->Kibana->Index Patterns中可以创建Index Patterns,Kibana服务访问地址:http://192.168.3.101:5601

    • 创建完成后查看日志,可以看出该日志收集功能和我们之前搭建的ELK系统完全相同。

    Logstash vs Fluentd

    接下来我们来对这两个日志收集工具的各个方面做个对比。

    参考资料

    官方文档:https://docs.fluentd.org/

    扫描二维码推送至手机访问。

    版权声明:本文由ruisui88发布,如需转载请注明出处。

    本文链接:http://www.ruisui88.com/post/2921.html

    分享给朋友:

    “性能优越的轻量级日志收集工具,微软、亚马逊都在用” 的相关文章

    细数5款国外热门Linux发行版

    Linux系统已经与我们的生活息息相关,当你用Android手机浏览这篇文章时,你就已经在使用Linux系统。当然作为编程开发最热门的系统,他还有很多专注于开发使用的版本。Fedora热门入门推荐,一款优秀的程序猿专供Linux发行版,自带开发者门户,集成大量教程指南、开发集成环境、虚拟机等工具,简...

    Windows 下 Git 拉 Gitlab 代码

    读者提问:『阿常你好,Windows 下 Git 拉 Gitlab 代码的操作步骤可以分享一下吗?』阿常回答:好的,总共分为五个步骤。一、Windows 下安装 Git官网下载链接:https://git-scm.com/download/winStandalone Installer(安装版)注意...

    国产操作系统上Vim的详解03--安装和使用插件 | 统信 | 麒麟 | 中科方德

    原文链接:国产操作系统上Vim的详解03--使用Vundle插件管理器来安装和使用插件 | 统信 | 麒麟 | 中科方德Hello,大家好啊!今天给大家带来一篇在国产操作系统上使用Vundle插件管理器来安装和使用Vim插件的详解文章。Vundle是Vim的一款强大的插件管理器,可以帮助我们轻松地安...

    一文让你彻底搞懂 vue-Router

    路由是网络工程里面的专业术语,就是通过互联把信息从源地址传输到目的地址的活动。本质上就是一种对应关系。分为前端路由和后端路由。后端路由:URL 的请求地址与服务器上的资源对应,根据不同的请求地址返回不同的资源。前端路由:在单页面应用中,根据用户触发的事件,改变URL在不刷新页面的前提下,改变显示内容...

    「干货」Vue+Element前端导入导出Excel

    作者:xrkffgg转发链接:https://segmentfault.com/a/11900000189936191 前言1.1 业务场景由前台导入Excel表格,获取批量数据。根据一个数组导出Excel表格。2 实现原理2.1 引入工具库file-saver、xlsx、script-loader...

    Vue实现动态路由

    通常我们在vue项目中都是前端配置好路由的,但在一些项目中我们可能会遇到权限控制,这样我们就涉及到动态路由的设置了。动态路由设置一般有两种:(1)、简单的角色路由设置: 比如只涉及到管理员和普通用户的权限。通常直接在前端进行简单的角色权限设置(2)、复杂的路由权限设置: 比如OA系统、多种角色的权限...