posts/pytorchcon2025-report/ #4
Replies: 1 comment
-
|
좋은 정보 감사합니다! |
Beta Was this translation helpful? Give feedback.
0 replies
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Uh oh!
There was an error while loading. Please reload this page.
-
posts/pytorchcon2025-report/
PyTorch Conference 2025 참관기
Introduction
안녕하세요? HyperAccel ML팀 Lead 박민호입니다. 지난 10월 22일~23일에 샌프란시스코에서 열렸던 PyTorch Conference 2025에 다녀와서 보고 느낀 점을 공유하려고 합니다.
HyperAccel 소개
저희 HyperAccel은 Large Language Model (LLM)을 효율적으로 추론하는 AI Chip을 설계하는 회사입니다. 현재 FPGA로 IP 검증을 완료했으며, ASIC 칩 및 서버는 내년에 출시 예정입니다. ASIC에서는 Inference를 위해 PyTorch를 지원하는 SDK를 제공할 예정이며, vLLM 및 Kubernetes 지원 계획입니다.
참관 동기
이번 컨퍼런스 참관의 주요 목적은 다음과 같습니다:
https://hyper-accel.github.io/posts/pytorchcon2025-report/
Beta Was this translation helpful? Give feedback.
All reactions