automated version pull request

js package.json 이나 rust cargo.toml 등에 소스파일에 version 을 명시하는 언어가 있다.
참고로 golang 소스파일에 버전을 명시하지 않는것이 관례라고 한다.
기능 개발을 하고 버전 태깅전에 별도로 소스 버전(package.json 등)수정하기 위해 브랜치 체크아웃 > commit > push > pr > merge 과정을 거쳐야하는데 불편하다.

[해결방법]
메인 브랜치에 커밋이 쌓이면 도구가 자동으로 release pr 을 생성한다.
(주의) 커밋 메시지는 conventional-commits(https://www.conventionalcommits.org)이 아니면 파싱이 실패하고 release pr 이 생성이 안된다.

1. git tag에서 최신 버전 확인 (예: v1.2.3)
2. 그 tag 이후의 conventional-commits를 분석해 버전 자동 결정
- fix: v1.2.4 (patch)
- feat: v1.3.0 (minor)
- feat!: / BREAKING CHANGE v2.0.0 (major)
3. release pr 생성(package.json 버전 업데이트 + CHANGELOG.md 작성 포함)

.github/workflows/release-please.yml 에 다음과 같이 사용
on:
  push:
    branches:
      - main

permissions:
  contents: write
  pull-requests: write

jobs:
  release-please:
    runs-on: ubuntu-latest
    steps:
      - uses: googleapis/release-please-action@v4
        with:
          # 프로젝트의 언어 타입을 지정 (node, rust, go, python 등)
          release-type: node

github action 을 사용할 수 없는 환경이라면 다음과 같이 cli 로 실행하면 된다.
# bunx: npm 레지스트리에서 패키지를 임시 다운로드 후 바로 실행하는 기능입니다.(npx와 동일)
# --release-type : 프로젝트의 언어 타입을 지정 (node, rust, go, python 등)
# --api-url : 기업 github 사용시 별도 설정 필요
# --graphql-url : 기업 github 사용시 별도 설정 필요
bunx release-please release-pr \
    --repo-url=ysoftman/aaa \
    --target-branch=main \
    --release-type=node \
    --token="$GITHUB_TOKEN"

[참고]
이건 rust 전용으로 머지된 커밋을 확인하여 어떤 crate가 변경되었는지 분석해서 cargo.toml의 버전을 업데이트하고 의존성 버전을 맞춘 pr 을 생성한다.
머지 시 crates.io 배포까지 할 수 있다.

이건 개발자가 태그 생성하면 자동으로 빌드 및 파일 업로드해준다.

filebeat kafka out of acceptable range

log 수집용 filebeat pod 하나가 계속 높은 CPU 사용량을 보인다.
로그를 보면
{"log.level":"error","@timestamp":"2026-04-07T08:12:32.206+0900","log.logger":"kafka","log.origin":{"function":"github.com/elastic/beats/v7/libbeat/outputs/kafka.(*msgRef).dec","file.name":"kafka/client.go","file.line":446},"message":"Kafka publish failed with: kafka server: The timestamp of the message is out of acceptable range","service.name":"filebeat","ecs.version":"1.6.0"}

pod 를 재시작해도 시간이 좀 지나면 다시 CPU 사용량이 90%를 넘어간다.

kafka publish 실패 -> 재시도 무한 반복 -> CPU 급증

broker 레벨 timestamp 설정 확인
kafka-configs --bootstrap-server 카프카호스트:9092 --entity-type brokers --describe --all | rg -i timestamp

log.message.timestamp.type=CreateTime (체크 대상 타입)
log.message.timestamp.after.max.ms=3600000 (1시간, 메시지 시간이 이 시간보다 1시간 초과시 거부)
log.message.timestamp.before.max.ms=9223372036854775807 (사실 무제한, 과거 메시지 모두 허용)

메시지 timestamp 가 before / after 를 벗어난 경우 kafka broker가 timestamp 범위 초과로 메시지를 거부한다.
kafka timestamp 설정은 이상이 없어 보인다.

filebeat.yml 설정에 max_retries가 명시되어 있지 않아 디폴트 3으로 사용된다.
output.kafka:
    enabled: true
    hosts: "${kafka_hosts}"
    topic: "%{[@metadata][topic]}"
    partition.round_robin:
      reachable_only: false
      group_events: 1

max_retries 회수가 제한이 있는데도 CPU가 안 떨어진다는 건 처리해야 할 오래된 로그 라인 자체가 엄청나게 많다는뜻일 수 있다.
registry 초기화 후 모든 로그 파일을 처음부터 다시 읽으면서
이벤트마다 전송 시도 -> 실패 -> retry 3번 (backoff 포함) -> drop -> 다음 이벤트 -> 또 실패
이 사이클이 수십만 건 이상 반복되고 있을 수 있습니다. 시간이 충분히 지나면 결국 CPU는 내려가겠지만, 로그 양이 많으면 오래 걸릴 수 있습니다.

해결을 위해선 pod 재시작 한다.
pod 재시작 후 에도 같은 현상이면 container 상에서 registry(active.dat, log.json, 12345.json)을 지우고 재시작하자. 이때 meta.json 을 지우면 pod 재시작시 crash 가 발생하니 유지해야 된다.
실수로 삭제했다면 meta.json 는 이런 내용으로 다시 생성하면 된다.
{"version":"1"}

qsv toolkit

rust csv cli 툴들이 요렇게 있는데 qsv 가 기능이 다양하다.
https://github.com/burntsushi/xsv (유지보수 종료, readonly)
https://github.com/medialab/xan (excel 파일 지원 안함)
https://github.com/dathere/qsv (sql, csv, excel 지원 및 다양한 데이터 처리 기능)

# 설치
brew install qsv
# 또는
cargo install qsv

# excel -> csv 로 변환(csv 에 대해서 데이터 처리 가능)
qsv excel input.xlsx > output.csv

# name 필드가 ysoftman 인 레코드들 중
# pass 필드가 Y 인 레코드들 중
# id,hostname 필드(컬럼)만 조회
# table 로 컬럼 정렬
qsv search -s "name" "ysoftman" output.csv | qsv search -s "pass" "^Y$" | qsv select "id,hostname" | qsv table

# 뷰어(?: help, /: 검색)
qsv lens output.csv

# 테이블 출력
qsv table output.csv

# 필드명(header names)만 조회
qsv headers output.csv

# 구분자, 필드명등의 메타 데이터 확인
qsv sniff output.csv

# qsv edit <파일> <컬럼> <행번호> <새값>
# -i, --in-place 파일 바로 수정 (.bak 로 백업)
qsv edit -i output.csv myval 0 newval

# qsv replace <패턴> <대체값> <파일>
# -o 결과 저장파일
qsv replace "apple" "lemon" output.csv -o result.csv

Prev