비전이 아닌 터치를 사용하여 물체를 회전시키는 로봇 손
인간이 물체를 보지 않고 쉽게 물체를 다루는 방식에서 영감을 받아, 캘리포니아 샌디에고 대학의 엔지니어들이 이끄는 팀은 로봇 손이 시각에 의존하지 않고 터치만으로 물체를 회전시킬 수 있는 새로운 접근 방식을 개발했습니다.
연구원들은 그들의 기술을 사용하여 작은 장난감, 캔, 심지어 과일과 야채까지 다양한 물체를 멍이 들거나 찌그러뜨리지 않고 부드럽게 회전시킬 수 있는 로봇 손을 만들었습니다. 로봇 손은 터치에 기반한 정보만을 사용하여 이러한 작업을 수행했습니다.
이번 연구는 어둠 속에서 물체를 조작할 수 있는 로봇 개발에 도움이 될 수 있다.
이 팀은 최근 2023 로봇공학: 과학 및 시스템 컨퍼런스에서 자신들의 연구 결과를 발표했습니다.
시스템을 구축하기 위해 연구원들은 네 손가락 로봇 손의 손바닥과 손가락에 16개의 터치 센서를 부착했습니다. 각 센서의 가격은 약 12달러이며 간단한 기능을 수행합니다. 즉, 물체가 센서에 닿았는지 여부를 감지합니다.
이 접근 방식을 독특하게 만드는 것은 터치 여부와 관계없이 간단한 이진 신호를 사용하여 로봇 손으로 회전을 수행하는 많은 저비용, 저해상도 터치 센서에 의존한다는 것입니다. 이러한 센서는 로봇 손의 넓은 영역에 분산되어 있습니다.
이는 주로 손가락 끝에 로봇 손의 작은 영역에 부착된 몇 가지 고가의 고해상도 터치 센서를 사용하는 다양한 다른 접근 방식과 대조됩니다.
이번 연구를 이끈 UC San Diego 전기 및 컴퓨터 공학과 교수 Xiaolong Wang은 이러한 접근 방식에는 몇 가지 문제가 있다고 설명했습니다. 첫째, 로봇 손에 소수의 센서가 있으면 물체와 접촉할 가능성이 최소화됩니다. 이는 시스템의 감지 능력을 제한합니다. 둘째, 질감에 대한 정보를 제공하는 고해상도 터치 센서는 시뮬레이션하기가 매우 어렵고 가격도 매우 비쌉니다. 따라서 실제 실험에서 사용하기가 더 어려워집니다. 마지막으로, 이러한 접근 방식 중 상당수는 여전히 비전에 의존하고 있습니다.
Wang은 “여기서 우리는 매우 간단한 솔루션을 사용합니다.”라고 말했습니다. “우리는 이 작업을 수행하기 위해 물체의 질감에 대한 세부 정보가 필요하지 않다는 것을 보여줍니다. 센서가 물체에 닿았는지 여부에 대한 간단한 이진 신호만 있으면 되며 이러한 신호를 시뮬레이션하고 실제 세계로 전송하는 것이 훨씬 쉽습니다.”
연구원들은 또한 바이너리 터치 센서의 넓은 적용 범위를 통해 로봇 손이 물체의 3D 구조와 방향에 대한 충분한 정보를 제공하여 시각 없이 성공적으로 회전할 수 있다고 지적했습니다.
그들은 먼저 불규칙한 모양의 물체를 포함하여 다양한 물체 세트를 회전시키는 가상 로봇 손의 시뮬레이션을 실행하여 시스템을 훈련했습니다. 시스템은 회전 중 특정 시점에 손의 어떤 센서가 물체에 닿는지 평가합니다. 또한 손 관절의 현재 위치와 이전 동작을 평가합니다. 이 정보를 사용하여 시스템은 로봇 손에 다음 시점에 어느 관절이 어디로 가야 하는지 알려줍니다.
그런 다음 연구원들은 시스템이 아직 접하지 못한 물체를 사용하여 실제 로봇 손에서 시스템을 테스트했습니다. 로봇 손은 멈추거나 고정력을 잃지 않고 다양한 물체를 회전시킬 수 있었습니다. 물체에는 토마토, 후추, 땅콩 버터 캔, 장난감 고무 오리가 포함되어 있었는데, 이는 모양 때문에 가장 어려운 물체였습니다. 모양이 더 복잡한 개체는 회전하는 데 시간이 더 오래 걸립니다. 로봇 손은 다른 축을 중심으로 물체를 회전시킬 수도 있습니다.
Wang과 그의 팀은 이제 보다 복잡한 조작 작업에 대한 접근 방식을 확장하기 위해 노력하고 있습니다. 예를 들어 그들은 현재 로봇 손으로 잡고, 던지고, 저글링할 수 있는 기술을 개발하고 있습니다.
Wang은 “손으로 조작하는 것은 우리 인간이 가지고 있는 매우 일반적인 기술이지만 로봇이 숙달하기에는 매우 복잡합니다.”라고 말했습니다. "만약 우리가 로봇에게 이 기술을 부여할 수 있다면 로봇이 수행할 수 있는 작업을 수행할 수 있는 문이 열릴 것입니다."
논문 제목: "보지 않고 회전하기: 터치를 통한 손의 민첩성을 향하여." 공동 저자로는 Binghao Huang*, Yuzhe Qin, UC San Diego; 및 Zhao-Heng Yin* 및 Qifeng Chen, HKUST.