Skip to content
Merged
35 changes: 32 additions & 3 deletions README.md
Original file line number Diff line number Diff line change
Expand Up @@ -260,18 +260,46 @@ series: ["지피지기면 백전불태"]
series: ["Know Your Enemy, Know Yourself"]
```

#### 시리즈 순서 지정 (`series_idx`)

기본적으로 시리즈 목록은 날짜순으로 정렬되지만, `series_idx` 필드를 사용하면 원하는 순서를 직접 지정할 수 있습니다.

```yaml
series: ["지피지기면 백전불태"]
series_idx: 1 # 시리즈 내 순서 (정수 또는 소수 사용 가능)
```

- `series_idx`가 설정된 포스트들은 해당 값의 오름차순으로 정렬됩니다.
- `series_idx`가 없는 포스트는 날짜순으로 그 뒤에 이어서 표시됩니다.
- 정수(`1`, `2`, `3`)를 권장하며, 중간에 포스트를 끼워넣을 때는 `series_idx: 15`처럼 여유 있게 간격을 두거나 소수(`2.5`)를 사용할 수 있습니다.

**예시:**
```yaml
# 1편
series: ["지피지기면 백전불태"]
series_idx: 1

# 1.5편 (나중에 끼워넣은 경우)
series: ["지피지기면 백전불태"]
series_idx: 2

# 2편
series: ["지피지기면 백전불태"]
series_idx: 3
```

#### 시리즈 표시 위치

- 시리즈 목록은 포스트 하단(post-footer)에 자동으로 표시됩니다
- 같은 시리즈에 속한 포스트가 2개 이상일 때만 표시됩니다
- 현재 포스트는 강조 표시되고, 다른 포스트들은 클릭 가능한 링크로 표시됩니다
- 포스트는 날짜순으로 정렬되어 표시됩니다
- `series_idx`가 설정된 경우 해당 순서대로, 없으면 날짜순으로 정렬됩니다

#### 예시

같은 시리즈에 속한 포스트들:
- "지피지기면 백전불태 1편: GPU의 역사와 기초" (`series: ["지피지기면 백전불태"]`)
- "지피지기면 백전불태 2편: TPU의 등장과 부상" (`series: ["지피지기면 백전불태"]`)
- "지피지기면 백전불태 1편: GPU의 역사와 기초" (`series: ["지피지기면 백전불태"]`, `series_idx: 1`)
- "지피지기면 백전불태 2편: TPU의 등장과 부상" (`series: ["지피지기면 백전불태"]`, `series_idx: 2`)

이 두 포스트는 각각의 포스트 하단에 시리즈 목록이 표시되어 서로 연결됩니다.

Expand Down Expand Up @@ -584,6 +612,7 @@ Introduction to HyperAccel.
- [ ] 두 파일이 같은 slug를 사용하는지 확인
- [ ] 각 언어별로 제목과 내용이 적절히 번역되었는지 확인
- [ ] 메타데이터(authors, tags, categories 등)가 일관성 있게 설정되었는지 확인
- [ ] 시리즈 포스트인 경우 한/영 버전 모두 `series_idx`가 설정되었는지 확인


## 🔄 워크플로우 요약
Expand Down
1 change: 1 addition & 0 deletions content/posts/TPU-deep-dive/index.en.md
Original file line number Diff line number Diff line change
Expand Up @@ -13,6 +13,7 @@ authors: [Jaewon Lim] # must match with content/authors
tags: ["TPU", "Google", "Ironwood", "TensorFlow", "JAX", "computer architecture"]
categories: ["AI Hardware", "Computer Architecture", "Semiconductor"]
series: ["Know Your Enemy, Know Yourself"]
series_idx: 2
summary: We explore the background of TPU's emergence and analyze Google's AI semiconductor strategy by examining its hardware and software architecture.
comments: true
description: "We explore the background of Google's AI chip TPU, born in 2016, and analyze Google's AI semiconductor market strategy to compete with NVIDIA by examining the hardware and software architecture built over 10 years."
Expand Down
1 change: 1 addition & 0 deletions content/posts/TPU-deep-dive/index.ko.md
Original file line number Diff line number Diff line change
Expand Up @@ -13,6 +13,7 @@ authors: [Jaewon Lim] # must match with content/authors
tags: ["TPU", "Google", "Ironwood", "TensorFlow", "JAX", "computer architecture"]
categories: ["AI Hardware", "Computer Architecture", "Semiconductor"]
series: ["지피지기면 백전불태"]
series_idx: 2
summary: TPU의 등장 배경에 대해 알아보고 하드웨어/소프트웨어 구조를 파헤쳐보면서 구글의 AI 반도체 전략에 대해 분석해봅니다.
comments: true
description: "2016년 탄생한 구글의 AI 칩 TPU의 등장 배경에 대해 알아보고, 10년간 쌓아올린 하드웨어와 소프트웨어 구조를 파헤쳐보면서 엔비디아 맞서기 위한 구글의 AI 반도체 시장 전략에 대해 분석해봅니다."
Expand Down
1 change: 1 addition & 0 deletions content/posts/how-GPU-works/index.en.md
Original file line number Diff line number Diff line change
Expand Up @@ -13,6 +13,7 @@ authors: ["Donghyeon Choi"] # must match with content/authors
tags: ["GPU", "NVIDIA", "Hopper", "CUDA", "GPGPU", "Architecture"]
categories: ["AI Hardware", "Architecture"]
series: ["Know Your Enemy, Know Yourself"]
series_idx: 1
summary: "An overview of how NVIDIA GPUs evolved and how the Hopper architecture hides memory latency with massive parallelism."
comments: true
description: "From 1990s graphics cards through Tesla and CUDA to Hopper, this post walks through the evolution of NVIDIA GPUs and explains how modern GPUs use warps, scheduling and memory hierarchy to hide memory latency and deliver massive parallel performance."
Expand Down
1 change: 1 addition & 0 deletions content/posts/how-GPU-works/index.md
Original file line number Diff line number Diff line change
Expand Up @@ -13,6 +13,7 @@ authors: ["Donghyeon Choi"] # must match with content/authors
tags: ["GPU", "NVIDIA", "Hopper", "CUDA", "GPGPU", "Architecture"]
categories: ["AI Hardware", "Architecture"]
series: ["지피지기면 백전불태"]
series_idx: 1
summary: "NVIDIA GPU의 역사와 Hopper 아키텍처를 통해, 어떻게 GPU가 메모리 레이턴시를 숨기는지 정리한 글입니다."
comments: true
description: "1990년대 그래픽 카드 시절부터 Tesla·CUDA를 거쳐 Hopper에 이르기까지 NVIDIA GPU의 진화 과정을 따라가며, GPU가 어떻게 대규모 병렬성과 스케줄링으로 메모리 레이턴시를 숨기는지 정리한 글입니다."
Expand Down
1 change: 1 addition & 0 deletions content/posts/lpu-deep-dive/index.en.md
Original file line number Diff line number Diff line change
Expand Up @@ -12,6 +12,7 @@ cover:
authors: [Jaewon Lim] # must match with content/authors
tags: ["LPU", "groq", "TSP", "computer architecture", "Nvidia", "ASIC"]
series: ["Know Your Enemy, Know Yourself"]
series_idx: 3
categories: ["AI Hardware", "Accelerator", "Computer Architecture", "Semiconductor"]
summary: We explore the background of Groq and LPU, their hardware/software design philosophy, and analyze NVIDIA's intentions behind acquiring Groq.
comments: true
Expand Down
1 change: 1 addition & 0 deletions content/posts/lpu-deep-dive/index.ko.md
Original file line number Diff line number Diff line change
Expand Up @@ -12,6 +12,7 @@ cover:
authors: [Jaewon Lim] # must match with content/authors
tags: ["LPU", "groq", "TSP", "computer architecture", "Nvidia", "ASIC"]
series: ["지피지기면 백전불태"]
series_idx: 3
categories: ["AI Hardware", "Accelerator", "Computer Architecture", "Semiconductor"]
summary: 그록과 LPU의 탄생 배경과 그들의 하드웨어 / 소프트웨어 설계 철학에 대해 알아보고 엔비디아가 그록을 인수한 의도에 대해 분석해봅니다.
comments: true
Expand Down
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Loading