"생각만으로 스마트폰 앱을 실행하고, 게임을 할 수 있다".꿈 같은 이야기 같지만 조만간 현실이 될 것으로 보인다.
한국과학기술원(카이스트)은 바이오·뇌공학과 정재승 교수 연구팀이 3차원 공간에서 생각만으로 로봇팔을 조종하는 뇌·기계 인터페이스를 개발했다고 23일 밝혔다.
뇌·기계 인터페이스란 사용자의 뇌파를 읽어 명령을 전달하는 기술로서 뇌 활동 만으로 사람의 의도를 파악해 로봇이나 기계를 움직이도록 하는 것이다.
연구팀에 따르면 이번에 개발한 뇌·기계 인터페이스는 사람의 대뇌 심부에서 측정한 뇌파만으로 의도를 파악해 로봇팔의 움직임을 제어하는 시스템이다.
각 차원마다 8가지 방향씩, 3차원 공간에서 모두 24개의 방향으로 움직이는 로봇팔을 90.9~92.6%의 정확도로 제어한다는 것이다.
연구팀은 또 이번에 개발한 시스템의 특징으로 낮은 사양의 하드웨어에도 적용할 수 있다는 점이라고 설명했다. 스마트폰이나 테블릿PC 정도의 기기에 활용 가능하다는 것이다.
현재 수준은 사람의 머리 안에 센서를 삽입하고, 그 센서가 뇌에서 수집한 신호를 해석하는 것이다. 침습적 방법이라고 하는데 두개골 안에 센서를 설치해야 하기 때문에 수술이 필요하다.
연구팀은 비침습적 방법에 의한 뇌·기계 인터페이스를 연구·개발하고 있다. 비침습적 방법을 사용하면 인간의 머리 바깥에 모자나 안경 같은 형태의 센서를 장착해 뇌파를 수집할 수 있다. 이렇게 하면 수술이 필요없다.
다만 현재 기술 수준에서는 센서를 머리 안에 삽입하는 침습적 방법이 비침습적 방법보다 더 정확하기 때문에 비침습적 방법으로도 정확도를 높이는 것이 관건이다.
이번 연구 결과는 팔다리가 불편한 환자나 사고로 팔을 잃은 장애인들에게 로봇팔을 이용할 수 있는 가능성을 제시하고 있다.
더 나아가 뇌·기계 인터페이스가 실용화되면 각종 스마트폰 앱이나 게임, 드론, 메타버스 등에 적용할 수 있다.
이를테면 스마트폰을 켜서 손가락으로 화면을 눌러 이메일 보내는 대신 생각만으로 이메일을 보낼 수 있고, 메타버스의 아바타를 조정할 수 있다.
버튼을 두드려 하는 게임을 생각만으로 할 수도 있고, 기계 조작 없이 생각만으로 드론을 움직일 수 있다는 것이 연구팀의 전망이다.
카이스트 정재승 교수. 영상 캡처정재승 교수는 "이번 시스템은 90~92%의 높은 정확도를 가진 의도 인식 인공지능 시스템을 만들어 메타버스 안에서 아바타를 생각대로 움직이게 하거나 앱을 생각만으로 제어하는 스마트기기 등에 광범위하게 사용될 수 있다"고 말했다.
연구팀은 뇌가 보내는 여러 신호 중 무엇이 진짜 실행하고자 하는 의도인지를 정확히 가려내는 기술을 연구하는 중이다. 여러 계획 중 하나에 불과한 뇌파가 실행되면 곤란하기 때문이다. 연구팀은 이같은 뇌·기계 인터페이스를 5년 안에 상용화하는 것이 목표하고 밝혔다.