용어집 (Glossary)
A~Z 순으로 정리된 주요 용어. 각 항목 끝 `(Ch N)`은 해당 용어가 도입되거나 집중 논의된 챕터.
정의는 모노레포의 공통 마스터(`glossary/master_ko.md`)와 동일하게 유지된다.
> **신규 용어 추가 시**: 먼저 `glossary/master_ko.md`를 grep — 있으면 정의를 그대로 복사해 `(Ch N)`만 부기,
> 없으면 마스터에 먼저 추가한 뒤 이 파일에 복사. 자세한 워크플로우는 `glossary/README.md` 참조.
ADR (자동 도메인 랜덤화) — 정책이 성공하면 시뮬레이션 매개변수 분포를 자동으로 넓히고 실패하면 좁히는 도메인 랜덤화의 적응적 확장. OpenAI의 Rubik's-cube Shadow Hand (2019)에서 도입. (Ch 7)
AMASS — 표준 인간 스켈레톤으로 리타게팅된 대규모 모션캡처 시퀀스 아카이브. 휴머노이드 모방·모션 prior 학습에 널리 쓰인다. (Ch 6, Ch 8)
ASAP (Aligning Simulation And real-world Physics) — He et al. 2025의 잔차 delta-action 기법. 실로봇 데이터 20분으로 민첩 전신 동작에서 sim-to-real 추종 오차를 약 53% 감소. (Ch 7)
BFM (Behavior Foundation Model) — Yuan et al. 2025가 사전 학습된 전신 휴머노이드 제어기를 언어 모델 파운데이션의 로보틱스 유사체로 프레이밍한 개념. System 0/1/2 아키텍처와 상보적. (Ch 9)
Capture point (CP, 캡처 포인트) — swing 발을 여기에 디디면 inverted-pendulum CoM이 정지하는 지면 위치. 단순하지만 견고한 반응형 발걸음 타깃. N-step capture region으로 일반화된다. (Ch 1, Ch 2)
Centroidal dynamics — 전체 몸 동역학을 CoM 운동과 centroidal momentum으로 환원. task-space 목표와 전신 토크 분배 사이의 다리. (Ch 1, Ch 2)
DDP (Differential Dynamic Programming) — 전신 MPC(예: Koenemann 2015 HRP-2) 내부에 널리 쓰이는 Newton 식 궤적 최적화 solver. (Ch 2)
DeepMimic — Peng et al. 2018의 물리 기반 캐릭터 애니메이션 기법. RL로 참조 모션 추종. 휴머노이드 모션 모방 파이프라인의 조상. (Ch 6, Ch 8)
Delta-action (잔차 행동) — sim 학습된 기저 정책 위에 작은 학습·최적화된 보정을 더하는 sim-to-real 보정 기법. ASAP의 핵심. (Ch 7)
Diffusion policy — Chi et al. 2023이 visuomotor 정책을 denoising-diffusion 모델로 공식화한 것. 현재 조작용 표준 action head. (Ch 8, Ch 10)
Domain randomization (DR, 도메인 랜덤화) — 랜덤화된 시뮬레이션 매개변수에 걸쳐 정책을 학습시켜 현실이 학습 분포 안에 떨어지게 한다. 지배적 sim-to-real 전략. (Ch 7)
Embodiment (임베디먼트) — 로봇의 구체적 물리 구성(기구학·구동·센서). 교차 임베디먼트 전이는 전신 VLA의 열린 프런티어. (Ch 10)
ExBody — 휴머노이드를 위한 인간 모션 모방의 "expressive whole-body control" 작업 라인. 2024–2025 정전의 일부. (Ch 6, Ch 10)
FALCON — Zhang et al. 2025의 힘 적응형 휴머노이드 이동-조작 정책. (Ch 6, Ch 10)
FastTD3 — Seo et al. 2025의 휴머노이드 제어용으로 튜닝된 빠른 TD3 변종. 2025년 알고리즘 프런티어의 일부. (Ch 6, Ch 8)
Flow matching — Lipman et al. 2022의 연속 시간 생성 모델링 프레임워크. π0 VLA의 action head로 쓰인다. (Ch 8, Ch 10)
H2O / OmniH2O — 인간-to-휴머노이드 전신 원격조종과 모방 학습 시스템(He et al. 2024). (Ch 6, Ch 10)
History encoder (이력 인코더) — 휴머노이드 RL 정책에서 과거 관측·행동 창을 요약하는 구성 요소. TCN → LSTM → Transformer가 2020–2024 진화. (Ch 6)
HOVER — He et al. 2024의 다재다능 신경 전신 제어기. 15+ 제어 모드를 갖는 ~1.5M 파라미터 System 1. (Ch 6, Ch 9)
HumanPlus — Fu et al. 2024의 인간 비디오로부터의 휴머노이드 shadowing·모방 파이프라인. (Ch 6, Ch 10)
Humanoid-Gym — Gu et al. 2024의 휴머노이드 특화 오픈소스 RL 프레임워크. Isaac Gym → MuJoCo → 하드웨어 sim-to-sim 패턴을 대중화. (Ch 5, Ch 7)
Hybrid zero dynamics (HZD) — 전체 동역학을 저차원 가상 제약 동역학으로 환원하는 고전 저구동 이족 제어 프레임워크. 두 번째 생은 RL 보상 구조로서. (Ch 2)
IMF (Impact Mitigation Factor) — Wensing et al. 2017이 정의한, 다리형 액추에이터가 충격성 접촉력을 얼마나 잘 흡수하는지를 정량화하는 지표. QDD의 헤드라인 스펙. (Ch 4)
Isaac Gym — Makoviychuk et al. 2021의 GPU 네이티브 물리 시뮬레이터. PhysX 강체 시뮬레이션과 PyTorch 신경망 추론을 단일 GPU에 공존시킨다. 2021년 변곡점. (Ch 5)
Isaac Lab / Orbit — Isaac Sim 위 NVIDIA의 프로덕션 등급 RL 플랫폼, Orbit의 후계자. 프런티어 기업 파이프라인의 기본. (Ch 5)
LAFAN1 — Harvey et al. 2020의 모션캡처 데이터셋. 견고한 motion-in-betweening 라벨을 가지며 AMASS와 함께 모션 prior에 쓰인다. (Ch 6)
Loco-manipulation (이동-조작) — 걷기와 조작을 동시에 하는 공동 문제. 2024–2026 통합 프런티어. (Ch 6, Ch 10)
LIPM (Linear Inverted Pendulum Model, 선형 역진자 모델) — Kajita의 이족 보행용 고전 저차원 환원 모델. 현재도 보상 형성 템플릿과 안전 영역 참조로 쓰인다. (Ch 1, Ch 2)
MPC (Model Predictive Control, 모델 예측 제어) — 짧은 지평선 제어 문제를 반복 resolve하는 receding-horizon 최적화. 전신 MPC는 Boston Dynamics 하이브리드 스택의 척추. (Ch 2, Ch 11)
MuJoCo — DeepMind의 강체 시뮬레이터. JAX 네이티브 MJX 포트와 MuJoCo Playground 프레임워크는 Isaac Lab의 JAX-first 대안. (Ch 5)
OmniRetarget — Yang et al. 2025의 상호작용 보존 retargeting 파이프라인. 물체 메시가 가용할 때 인간 모션으로부터 실현 가능한 휴머노이드 궤적을 생성. (Ch 6, Ch 7)
PHC / PULSE — Luo et al. 2024의 물리 기반 휴머노이드 제어기와 범용 잠재 공간 변종. RL 정책용 모션 prior 발판. (Ch 6, Ch 8)
PhysX — Isaac Gym / Isaac Sim / Isaac Lab의 기반이 되는 NVIDIA 강체 물리 엔진. (Ch 5)
PPO (Proximal Policy Optimization) — Schulman et al. 2017의 on-policy actor-critic 알고리즘. 휴머노이드 보행 RL의 공동체 기본. (Ch 8)
Privileged information / privileged teacher (특권 정보 / 특권 교사) — 오라클 상태(참 동역학, 외란)에 접근하는 교사 정책. 학생 정책이 나중에 이를 증류. teacher-student sim-to-real RL의 핵심. (Ch 6, Ch 7)
QDD (Quasi-Direct Drive) — 저 기어비 외전형 모터, 모터 전류 토크 감지. 2019–2026 휴머노이드 호황이 기반으로 하는 MIT-Cheetah 계보 액추에이터 primitive. (Ch 4)
QP (Quadratic Program, 이차 계획) — 마찰과 관절 한계 제약 하 전신 토크 분배에 쓰이는 볼록 최적화 primitive. 고전 스택의 System 0이자 현대 스택에서도 여전한 안전 필터. (Ch 1, Ch 2)
Retargeting (리타게팅) — 모션캡처 궤적을 원본 스켈레톤에서 타깃 휴머노이드 기구학으로 매핑. 모션 모방 파이프라인의 전제. (Ch 6)
SAC (Soft Actor-Critic) — Haarnoja et al. 2018의 off-policy 최대 엔트로피 RL 알고리즘. 샘플 효율적 휴머노이드 RL에서 PPO의 흔한 대안. (Ch 8)
Sim-to-real — 시뮬레이션 학습 정책을 물리 하드웨어로 전이하는 엔드투엔드 문제. 보행에서 해결, 민첩 조작에서 부분 해결. (Ch 7)
Sim-to-sim — 배치 전 두 시뮬레이터(예: Isaac Gym → MuJoCo)에 걸쳐 정책을 검증하는 저렴한 버그 필터. sim-to-sim에 실패하는 정책은 거의 항상 하드웨어에서도 실패. (Ch 5, Ch 7)
SLIP (Spring-Loaded Inverted Pendulum) — Cassie/ATRIAS 다리 설계의 기반이 되는 에너지 보존 환원 모델. LIPM과 관련되지만 탄성 에너지 저장을 갖는다. (Ch 4)
System 0 / System 1 / System 2 — System 0(~1 kHz 전신 제어)이 System 1(~100–200 Hz visuomotor 정책)의 명령을 실현하고, System 1이 System 2(~7–10 Hz VLM)의 조건에 따라 동작하는 3-레이어 휴머노이드 아키텍처. Figure Helix 02에 의해 결정화. (Ch 9)
TCN (Temporal Convolutional Network) — 초기 teacher-student 정책에 쓰인 causal-convolution 이력 인코더. 나중에 LSTM과 Transformer로 대체됨. (Ch 6)
TD3 (Twin Delayed Deep Deterministic Policy Gradient) — Fujimoto et al. 2018의 off-policy RL 알고리즘. FastTD3의 기저. (Ch 8)
Teacher-student RL (교사-학생 RL) — 2단계 학습 체제. 오라클 정보를 갖는 특권 교사가 배치 가능한 관측만 쓰는 학생으로 증류된다. Lee et al. 2020이 다리 로봇에 도입, Kumar 2021 RMA, Siekmann 2021 Cassie, Radosavovic 2024로 확장. (Ch 6)
Transformer (causal) — Radosavovic 2024가 휴머노이드 보행에 채택한 이력 인코더 아키텍처. 긴 컨텍스트 암묵 적응을 가능하게 한다. (Ch 6, Ch 8)
TWIST — Ze et al. 2025의 휴머노이드용 원격조종 전신 모방 시스템. (Ch 6, Ch 10)
VLA (Vision-Language-Action) — 시각 관측과 언어 지시 양쪽에 행동 생성을 조건화하는 모델 클래스(RT-2, OpenVLA, π0, GR00T N1, Helix). (Ch 8, Ch 10)
VLM (Vision-Language Model, 비전-언어 모델) — 이미지와 텍스트에 공동 추론하는 대형 사전 학습 모델. 3-레이어 아키텍처의 System 2. (Ch 8, Ch 9, Ch 10)
ZMP (Zero Moment Point, 영 모멘트 점) — 순 지면 반력 모멘트가 0인 접촉면 위의 점. 이족 균형의 고전적 기준. (Ch 1, Ch 2)