중국 과학자들이 인간의 뇌의 시각 처리 구조에서 영감을 받아 로봇이 인간의 눈보다 4배나 빠른 움직임을 감지하는 데 도움이 되는 새로운 유형의 신경 시뮬레이션 칩을 성공적으로 개발했습니다.
이 기술은 자율 주행차, 서비스 로봇 및 실시간으로 반응해야 하는 많은 자동화 시스템에서 큰 진전을 이룰 것으로 기대됩니다.
이 칩은 베이항 대학교와 베이징 공과대학교 연구팀이 개발했으며, 망막과 시각 피질 사이에 위치한 구조인 측쇄상핵(LGN)의 작동 원리를 기반으로 합니다.
인간 뇌에서 LGN은 환승 기지 및 정보 필터 역할을 하여 시각 시스템이 빠르게 움직이거나 변화하는 물체에 집중하여 처리하는 데 도움이 됩니다.
연구팀에 따르면 이 메커니즘이 반도체 칩의 인공 신경 모듈 설계에 영감을 주었습니다.
기존 카메라 시스템처럼 각 정지 프레임을 처리하는 대신 새로운 칩은 시간 경과에 따른 빛 변화를 직접 감지하여 움직임이 발생하는 즉시 움직임을 식별할 수 있습니다.
일반적인 로봇 시각 시스템에서 카메라는 이미지 시퀀스를 기록한 다음 프레임 간 밝기 변화를 비교하여 움직임을 인식합니다.
이 방법은 상당히 정확하지만 상당한 지연이 있으며, 프레임 하나를 처리하는 데 보통 0.5초 이상 걸립니다.
자율 주행차와 같은 고속 응용 프로그램의 경우 이 작은 지연이 위험 요소가 되어 사고 위험을 증가시킬 수 있습니다.
새로운 신경 시뮬레이션 칩은 시스템이 전체 프레임 대신 움직임이 일어나는 영역에 처리 능력을 집중할 수 있도록 함으로써 이 문제를 해결했습니다.
로봇 팔 운전 및 제어 시뮬레이션 테스트에서 처리 지연은 약 75% 감소한 반면, 복잡한 작업을 수행할 때 동작 추적 정확도는 두 배로 증가했습니다.
주목할 만한 점은 칩의 움직임 감지 능력이 이전 방법보다 4배 더 빠르며, 심지어 일부 상황에서 인간의 눈의 반응 속도를 능가한다는 것입니다.
연구팀은 뇌의 이미지 처리 원칙을 반도체 하드웨어에 적용하는 것이 이러한 진전을 달성하는 데 핵심이라고 생각합니다.
새로운 기술은 자율 주행차의 충돌 방지 시스템, 무인 항공기의 실시간 목표 추적부터 인간의 제스처에 즉시 응답할 수 있는 로봇에 이르기까지 광범위한 응용 잠재력이 있습니다.
가정 환경에서 칩은 로봇이 얼굴 표정이나 손 움직임과 같은 작은 변화를 인식하도록 도와 사람과 기계의 상호 작용을 더 자연스럽게 만들 수 있습니다.
그러나 연구자들은 칩이 최종 이미지를 해석하기 위해 광학 흐름 알고리즘에 여전히 의존하고 있으며 동시에 너무 많은 움직임이 있는 환경에서 어려움을 겪을 수 있다는 점도 인정합니다.
그럼에도 불구하고 이것은 여전히 기계 시각 및 하드웨어 인공 지능 분야에서 중요한 진전으로 간주되며, 주변 세계에 거의 즉각적으로 반응하는 로봇 개발 방향을 열어줍니다.