수화 몰라도…입모양만 봐도 대화를?

최근 영국 옥스퍼드대학 연구팀이 청각 장애인이 상대방의 입술 움직임만 보고 말을 판단할 수 있게 해주는 전용 소프트웨어인 립넷(LipNet)을 이용해 판독 정밀도 93.4%를 달성했다고 한다. 이 정도면 청각 장애인의 커뮤니케이션 수준을 크게 높일 수 있는 건 물론 음성 인식 기술 향상에도 도움이 될 것으로 보인다. 실제 사람이나 언어에 따라 차이가 있겠지만 전문가도 이런 입술 움직임만 보고 말을 판단하는 정확도는 52% 정도라고 한다. 그만큼 음성을 막아둔 채 입 모양만으로 대화를 알아낸다는 건 쉬운 일이 아닌 것. 립넷은 구글 딥마인드를 활용한 머신러닝 시스템을 이용한다. 지금까지 컴퓨터의 힘을 빌려 입 모양만으로 음성 인식을 하려는 시도가 있었지만 모두 단어 수준을 읽는 정도였다. 하지만 립넷의 경우 전문가가 말이 길어질수록 정확하게 읽어내는 데 주목, 스토리인 문장 전체를 해석하기 위해 노력하고 그런 다음 한 단어씩 정확하게 읽어가는 방식을 택했다고 한다. 다양한 화자를 통해 여러 대화를 데이터베이스로 축적하면서 점점 정확도가 높아진 건 물론이다. 이젠 스마트폰이 보급되면서 영상 통화도 흔한 일이 됐다. 카메라에 대고 말을 하더라도 상대방이 청각 장애인이거나 스피커를 켜놓을 수 없는 상태라면 이를 텍스트로 변환해 커뮤니케이션의 폭을 넓힐 가능성이 있다. 관련 내용은 이곳( http://www.oxml.co.uk/publications/2016-Assael_Shillingford_LipNet.pdf )에서 확인할 수 있다.

All about Tech. 사람과 기술, 제품이 만나는 뉴미디어 테크홀릭입니다.
Follow
4.7 Star App Store Review!
Cpl.dev***uke
The Communities are great you rarely see anyone get in to an argument :)
king***ing
Love Love LOVE
Download

Select Collections