Citation

Le, Huy Viet, Sven Mayer, and Niels Henze. "InfiniTouch: Finger-aware interaction on fully touch sensitive smartphones." The 31st Annual ACM Symposium on User Interface Software and Technology. ACM, 2018.

Video

https://www.youtube.com/watch?v=OvvZwMJCyVU

Github Repository

interactionlab/InfiniTouch

Motivation

기존의 터치스크린은 터치하는 손가락에 관계 없이 동작 한다. 하지만 키보드와 마우스와 같이 우리가 자주 접하는 많은 입력 장치들은 여러 손가락을 이용한 다양한 입력을 사용하고 있다. 이렇게 다른 손가락을 다른 기능에 사용하게 되면 입력 가능한 정보의 양이 많아 지게 된다.

이와 더불어서 터치 스크린 너머로 입력 공간을 넓히려는 시도 중에 Back of Device (BoD) 사용한 사례들이 있다. 이러한 연구들은 디바이스 뒷면을 터치 가능한 표면으로 만들어 입력 공간으로 사용 했다. 하지만 BoD에서 손가락 구분을 시도 했던 연구는 없었다.

이 연구는 디바이스 표면 전체에 대해서 터치하는 손가락을 구분하는 시스템을 제시 한다. 이전 연구들과는 다르게 External Device 가 필요 없다. 디바이스 표면의 터치 데이터와 딥러닝을 이용하여 터치 포인트의 손가락 종류를 추정 한다.

<aside> ⚠️ 이 논문에서 External Device의 의미를 잘못 이해 하면 안된다. 이 연구에서 제시하는 프로로타입은 분명 스마트폰 이외에 장비를 필요로 한다. External Device의 의미는 손이나 팔에 착용하는 추가 장비로 해석 해야 할 것이다.

</aside>

Full-Touch Smartphone Prototype

<aside> 📊 이 연구에서 프로토타입이 굉장히 흥미롭다.

</aside>

<aside> ⚠️ 프로토타입 부분을 읽다보면 모든 설명들이 굉장히 자세히 나와 있다. 이 연구에서 저자들이 강조하는 점 중 하나는 Reproducibility 이다. 이 부분은 Related Work를 읽어보면 나와 있다. 이 분야의 관련 연구들이 논문에 자세한 구현 방법을 이야기 하지 않았나보다. 하지만 이 논문을 읽어도 정말 그대로 구현 하는 것은 많은 힘이 들어 보인다. 이 문서에는 구현의 모든 디테일을 적어 놓지는 않았다. 디테일을 알고 싶다면 논문을 직접 읽어보길 바란다. 마지막으로, 프로토타입 및 데이터들은 위에 있는 Github Repository에 모두 공개 되어 있다.

</aside>

전체 표면에서 터치 센싱을 하기위해서 저자들은 두 개의 스마트폰을 이용한다. 하지만 두개의 스마트폰을 단순히 붙히게 되면 기기를 잡는 포즈와 인터랙션에 영향을 주게 된다. 때문에 이 연구에서는 스마트폰을 분해 해서 스크린만 앞뒤로 붙히고 스마트폰의 메인 보드는 따로 연결 하여 붙힌다. 크게 Handheld Device (HD)Hardware Container (HC) 로 나누어 져 있다.

Handheld Device (HD)

사용자가 손으로 잡고 사용하는 디바이스이다. 실제 스마트폰과 비슷한 두깨를 가지고 있다. 스마트폰은 두 개의 LG Nexus 5를 사용 하였다. 이 HD 에는 두 개의 스크린만이 앞뒤로 붙어 있다. 이 두 스크린을 앞 뒤로 붙히기 위해서 프레임이 존재한다. 프레임 측면에는 작은 구리 판들이 붙어 있다. 이는 측면에서의 터치를 센싱 하기 위함이다. 두 스마트폰 스크린은 Flexible Flat Cables (FFC) 를 통해서 HC 와 연결 된다. HD에도 PCB 보드가 있는데 그 안에는 측면 터치 센싱을 위한 터치 컨트롤러가 있다.