2025-01 느낌좋은 노래

2025년 1월 끝자락.. 유튜브에 카페 음악 모음집이 떠서 듣다 몇몇 노래가 넘 좋아 담아본다.
SISO Wave 라는 아티스트가 2025년에 발매한 따끈따근한 곡이다.

SISO Wave - Letter to You

SISO Wave - I'm on Your Track

이외에도 앨범 전반이 노래가 좋다. 이런 좋은 곡들을 발견하고 들으면 보물은 찾은 듯한 기분이 든다.
I'm on Your Track 눈내리는 밤거리는 걸어가는 연인의 썸네일이 아련하게 마음에 맺힌다.
푹신한 소파에 파묻혀 영하권에 눈쌓인 창 밖을 보며 듣기도 좋고, 어디론가 멀리 떠날 때도 듣고 싶다.

LMT KST in golang

golang 에서 한국 로컬 시간 출력시 시대 별로 표시가 달라진다.
기간에 따라
LMT(Local Mean Time)
JST(Japan Standard Time)
KDT(Korea Daylight Time, 한국 써머 타임)
KST(Korea Standard Time)
로 시간도 +08:30 ~ +10:100 까지 다양했다.

시대별 테스트 결과
-> 0100-12-31 09:28:52 +0827 LMT
-> 1908-03-31 08:27:53 +0827 LMT
-> 1908-04-01 08:30:00 +0830 KST
-> 1911-12-31 08:30:00 +0830 KST
-> 1912-01-01 09:00:00 +0900 JST
-> 1945-09-07 09:00:00 +0900 JST
-> 1945-09-08 09:00:00 +0900 KST
-> 1948-05-31 09:00:00 +0900 KST
-> 1948-06-01 10:00:00 +1000 KDT
-> 1960-09-17 09:30:00 +0930 KDT
-> 1960-09-18 08:30:00 +0830 KST
-> 1961-08-09 08:30:00 +0830 KST
-> 1961-08-10 09:00:00 +0900 KST
-> 1987-05-09 09:00:00 +0900 KST
-> 1987-05-10 10:00:00 +1000 KDT
-> 1988-10-08 10:00:00 +1000 KDT
-> 1988-10-09 09:00:00 +0900 KST

golang 에서 time.LoadLocation("Asia/Seoul") 로 존파일을 참고하게 되는데
zdump(timezone dumper)로 timezone 파일을 보면 타임존내용에 시간대별로 구분이 된다.
zdump -v /usr/share/zoneinfo/Asia/Seoul

nvim with llama

# LLM 으로 프로그래밍시 도움을 받고 싶은데, 보안상 외부 서비스는 사용할 수 없고 해서
# 로컬에서 ollama 으로 llama 모델을 사용해 보자.
brew install --cask ollama

# 참고로 M1 MAX 을 사용중인데
# Llama3.3 --> 70B(parameters) 43GB(size) --> 메모리 풀 사용으로 결과 출력이 안돼 포기
# Llama3.2 --> 3B(parameters) 2.0GB(size) --> 빠르게 잘 나온다.
# Mistral --> 7B(parameters) 4.1GB(size) --> llama3.2 와 비슷한 성능

# 모델 다운로드
# 모델은 ~/.ollama/models 에 저장되고 (ollama rm 으로 지울 수 있다.)
ollama pull llama3.2
ollama pull mistral

# 참고로 터미널에서 별도 프롬프트로 사용할 경우
ollama run llama3.2

# ollama 이 떠 있는 상태에서 curl 요청하면 토큰들이 json 응답으로 온다.
curl http://localhost:11434/api/generate -d '{
  "model": "llama3.2",
  "prompt":"Why is the sky blue?"
}'

# nvim 에서 ollama 연결을 위한 플러그인 설치(Lazy 플러그인 매니저 사용)
# 참고로 ollama 띄워져 있지 않으면 자동으로 띄운다.
# 이제 Gen 커맨드로 Ask, Change Code, Enhance Code, Review Code 등의 기능을 사용할 수 있다.
# 현재 버퍼 코드 리뷰 하는 경우
:Gen Review_Code

# 특정 부분만 코드리뷰
코드 블럭 선택:Gen Review_Code

# 한글 chat 으로 코드리뷰  
:Gen Chat > $text 코드리뷰해줘

# vscode, jetbrains 에서는 continue 를 설치하고 ollama 로 연결
# 설치 후 continue 탭에서 llama 3.2 및 localhost 를 명시한다.
# 사용 예시) review @파일명

# 한국어 사용시