인간형 로봇
-
클라우드 기반 MLOps와 로봇 개발: 데이터 수집부터 실시간 배포까지Humanoid 2025. 6. 3. 08:26
현대 AI 로봇 개발에는 MLOps라 불리는 머신러닝 파이프라인 운영 개념이 필수적으로 도입되고 있습니다. 이는 소프트웨어 개발의 DevOps처럼, 데이터 수집 → 모델 학습 → 배포 → 피드백 수집의 주기를 자동화하고 반복함으로써 지속적으로 성능을 향상시키는 프로세스입니다.테슬라의 Optimus 개발과 NVIDIA Cosmos를 활용한 로봇 개발 모두 본질적으로 이러한 MLOps 파이프라인을 따르고 있습니다. 각각의 접근 방식에 차이는 있지만, 공통적으로 클라우드 인프라를 활용한 대규모 데이터 처리와 모델 최적화가 핵심에 자리합니다. 아래에서는 Optimus (테슬라)와 Cosmos (NVIDIA 에코시스템) 사례를 염두에 두고, 클라우드 기반 로봇 MLOps 파이프라인을 단계별로 살펴보겠습니다:1) ..
-
현실 데이터와 합성 데이터의 균형점 탐색Humanoid 2025. 5. 12. 09:53
로봇 학습과 AI 개발에서 현실 세계의 데이터와 합성(Synthetic) 데이터를 어떻게 조합할지는 전략적으로 매우 중요합니다. 현실 데이터는 실제 센서, 로봇 운행, 사용자 상호작용 등에서 얻는 진짜 기록이므로 정확하고 신뢰할 수 있는 정보를 담고 있습니다. 반면 합성 데이터는 시뮬레이션이나 생성 AI를 통해 만들어낸 가상 데이터로, 원하는 만큼 풍부하고 다양하게 생성할 수 있으며 라벨링 정보도 자동으로 얻을 수 있다는 강점이 있습니다. 각 데이터의 장단점이 뚜렷하기 때문에, 선도적인 AI 기업들은 현실 vs 합성 데이터 활용에 대한 서로 다른 철학과 접근을 보여주고 있습니다. 1) Tesla: 방대한 현실 데이터 + 시뮬레이션 보완 Tesla는 수백만 대에 이르는 자사 차량으로부터 매일 쏟아지는 방..
-
계층적 강화학습(HRL) 적용 사례Humanoid 2025. 4. 29. 09:14
로봇과 같이 복잡한 시스템의 행동 학습에는 계층적 강화학습(Hierarchical RL, HRL)이 큰 도움이 됩니다. 계층적 RL은 상위 정책(high-level policy)과 하위 정책(low-level policy)의 두 가지 수준으로 정책을 분리하여 학습하는 방법입니다. 상위 정책은 추상적인 의사결정을 담당하고, 하위 정책은 구체적인 제어를 담당하여 두 계층이 협력합니다.예를 들어, 물건을 집어서 옮기는 로봇을 생각해보면, 상위 정책은 “어떤 물건을 집어 어디에 놓을 것인가”와 같은 계획을 세우고, 하위 정책은 “로봇 팔을 어떤 각도로 움직이고 손가락을 어떻게 조작할 것인가”를 수행하는 식입니다[medium.com]. 상위 정책이 큰 그림을 그리면, 하위 정책이 세부 동작을 실행하는 구조인 ..
-
2.1시뮬레이션과 물리 기반 AI의 로봇 학습에서의 역할:Sim-to-Real 기법의 중요성과 도전 과제Humanoid 2025. 3. 21. 08:57
시뮬레이션과 물리 기반 AI의 로봇 학습에서의 역할1. Sim-to-Real 기법의 중요성과 도전 과제Sim-to-Real(시뮬레이션에서 현실로)은 로봇이 가상 환경에서 학습한 모델이나 정책을 실제 물리적 로봇에 이식하는 기술을 말합니다. 이는 로봇 학습에서 중요한 역할을 하지만, 이식 과정에서 이른바 “현실 격차”(reality gap)라는 큰 도전이 존재합니다. 시뮬레이터는 현실 세계의 물리나 센서 특성을 완벽히 재현할 수 없기 때문에, 시뮬레이션에서 잘 동작하던 로봇 제어 정책이 실제 로봇에서는 예상과 다르게 실패할 수 있습니다[ar5iv.labs.arxiv.org]. 예를 들어 시뮬레이션에서는 마찰계수나 센서 잡음 등을 단순화하거나 이상적으로 가정하지만, 실제 환경에서는 변수가 훨씬 많고 ..