server: port: 7009 url: http://127.0.0.1:7009/gateway-manage system-title: 网关管理系统 system-sub-title: 网关管理系统 # default-index-page: # default-home-page: route/system/default servlet: context-path: /gateway-manage spring: login-url: /oauth/login login-failure: /oauth/login?error login-process: /userlogin assets-matchers: /assets/** thymeleaf: prefix: classpath:/templates/ suffix: .html mode: HTML5 encoding: UTF-8 cache: false main: allow-bean-definition-overriding: true servlet: multipart: max-file-size: 1GB max-request-size: 1GB datasource: druid: url: jdbc:mysql://127.0.0.1:3306/db_gateway_manage?useUnicode=true&characterEncoding=utf8&characterSetResults=utf8&autoReconnect=true&failOverReadOnly=false&useSSL=false&serverTimezone=UTC db-type: mysql driver-class-name: com.mysql.cj.jdbc.Driver username: root password: root initial-size: 2 min-idle: 2 max-active: 5 max-wait: 60000 time-between-eviction-runs-millis: 60000 min-evictable-idle-time-millis: 300000 validation-query: SELECT 1 FROM DUAL test-while-idle: true test-on-borrow: false test-on-return: false pool-prepared-statements: true max-pool-prepared-statement-per-connection-size: 10 filter: commons-log: connection-logger-name: stat,wall,log4j stat: log-slow-sql: true slow-sql-millis: 2000 connection-properties: druid.stat.mergeSql=true;druid.stat.slowSqlMillis=5000 use-global-data-source-stat: true kafka: bootstrap-servers: 192.168.0.151:9092 producer: # 写入失败时,重试次数。当leader节点失效,一个repli节点会替代成为leader节点,此时可能出现写入失败, # 当retris为0时,produce不会重复。retirs重发,此时repli节点完全成为leader节点,不会产生消息丢失。 retries: 0 #procedure要求leader在考虑完成请求之前收到的确认数,用于控制发送记录在服务端的持久化,其值可以为如下: #acks = 0 如果设置为零,则生产者将不会等待来自服务器的任何确认,该记录将立即添加到套接字缓冲区并视为已发送。在这种情况下,无法保证服务器已收到记录,并且重试配置将不会生效(因为客户端通常不会知道任何故障),为每条记录返回的偏移量始终设置为-1。 #acks = 1 这意味着leader会将记录写入其本地日志,但无需等待所有副本服务器的完全确认即可做出回应,在这种情况下,如果leader在确认记录后立即失败,但在将数据复制到所有的副本服务器之前,则记录将会丢失。 #acks = all 这意味着leader将等待完整的同步副本集以确认记录,这保证了只要至少一个同步副本服务器仍然存活,记录就不会丢失,这是最强有力的保证,这相当于acks = -1的设置。 #可以设置的值为:all, -1, 0, 1 acks: 1 consumer: group-id: WgGateway # smallest和largest才有效,如果smallest重新0开始读取,如果是largest从logfile的offset读取。一般情况下我们都是设置smallest auto-offset-reset: earliest # 设置自动提交offset enable-auto-commit: true # 如果'enable.auto.commit'为true,则消费者偏移自动提交给Kafka的频率(以毫秒为单位),默认值为5000。 auto-commit-interval: 100 max-poll-records: 5 # 数据库 mybatis: config-location: classpath:mybatis/mybatis-config.xml mapper-locations: classpath*:mybatis/mapper/**/*.xml # 文档 swagger: base-package-list: ink.wgink # 访问控制 access-control: role-permission: false # 文件 file: # 文件的保存路径 upload-path: C:\Users\wenc0\Desktop\UploadFiles\ # 图片类型 image-types: png,jpg,jpeg,gif,blob # 视频类型 video-types: mp4,rmvb # 音频类型 audio-types: mp3,wmv,amr # 文件类型 file-types: doc,docx,xls,xlsx,ppt,pptx,txt,zip,rar,apk,pdf # 同时上传最大支持数 max-file-count: 6 # 图片输出压缩质量,大于0,默认0.4 image-output-quality: 0.4 # 媒体最大时长(单位:秒) media-max-duration: # 后台 backend: video: 0 audio: 0 # 微信 wechat: video: 0 audio: 0 # app app: video: 0 audio: 0 # 日志 logging: file: name: C:\Users\wenc0\Desktop\UploadFiles\logs\gateway-manage-logs.log level: org.springframework: error ink.wgink: debug