인간은 일련의 잡음도 언어로 인식한다 는 설명 뒤에 기계적 음성인식은 제한된 어휘·화자를 인식하는 데 그친다고 대조하고 있다. 근데 사람도 갑자기 나오는 말이나 대화 문맥에 어긋나는 말은 인식 못해 되풀이나 부연을 요한다. 시동부의 표시와 오류 처리의 차이일 뿐 아닐까? 10.03.07 20:30
언어본능 인지 해석 해독 능력 기계화 로직 _ 기계적 음성인식 환경 쪽이 훨씬 가혹하다 댓글에 계속
6 개의 댓글이 있습니다.
잡음을 언어로 인식하는 건 기계보다 사람이 연산속도가 월등해서 차이가 나는 것일 테고, 음성인식는 또 다른 영역으로 봐야 한다는 것이다.
사람의 대화는 시동부에 일정한 눈짓, 몸짓, 헛기침 같은 소리 등의 다양한 장치가 존재한다. 기계적 음성인식은 그런 것 없이 갑자기 나오는 소리에 반응하도록 항상 대기하고 있어야 한다.
대화 중에도 사람이 인식을 실패했을 때 적당히 무시하고 맞장구만 치거나 역시 눈짓, 몸짓 등의 반응을 통해 이해를 못하고 있음을 표현하는 데 반해 기계는 (짧지만 시간도 더 걸릴 뿐더러) 그러한 표현 수단이 없다. LED 식으로 인식 여부를 표시하는 것도 없으니까.
+ 뒤이어 잠깐 언급되는 미리 등재되지 않은 어휘의 처리는 이 책에서 말하듯이 인간이 기존에 취득한 어간 어미에서 추론할 수 있는데 비해 기계는 그렇지 못하다는 점이 다르긴 하다.
인간은 일련의 잡음도 언어로 인식한다는 설명 뒤에 기계적 음성인식은 제한된 어휘·화자를 인식하는 데 그친다고 대조하는 부분과 컴퓨터 분석기는 너무 꼼꼼해서 손해를 본다. 무의미한 구조도 찾는다 는 서로 배치되는 얘기인 건가? 비교해서 다시 읽어봐야 되겠다.
지금은 반드시 버튼을 눌러야 Siri나 구글 나우 같은 음성 인식이 된다. 그런데 만약 스마트폰이 계속 주변의 소리를 들을 수 있다면? 그러면 그냥 스마트폰을 부르기만 하면 명령 실행이 될 수 있을 것이다.
잡음을 언어로 인식하는 건 기계보다 사람이 연산속도가 월등해서 차이가 나는 것일 테고, 음성인식는 또 다른 영역으로 봐야 한다는 것이다.
10.03.07 20:32사람의 대화는 시동부에 일정한 눈짓, 몸짓, 헛기침 같은 소리 등의 다양한 장치가 존재한다. 기계적 음성인식은 그런 것 없이 갑자기 나오는 소리에 반응하도록 항상 대기하고 있어야 한다.
10.03.07 20:33대화 중에도 사람이 인식을 실패했을 때 적당히 무시하고 맞장구만 치거나 역시 눈짓, 몸짓 등의 반응을 통해 이해를 못하고 있음을 표현하는 데 반해 기계는 (짧지만 시간도 더 걸릴 뿐더러) 그러한 표현 수단이 없다. LED 식으로 인식 여부를 표시하는 것도 없으니까.
10.03.07 20:35+ 뒤이어 잠깐 언급되는 미리 등재되지 않은 어휘의 처리는 이 책에서 말하듯이 인간이 기존에 취득한 어간 어미에서 추론할 수 있는데 비해 기계는 그렇지 못하다는 점이 다르긴 하다.
10.03.07 22:51인간은 일련의 잡음도 언어로 인식한다는 설명 뒤에 기계적 음성인식은 제한된 어휘·화자를 인식하는 데 그친다고 대조하는 부분과 컴퓨터 분석기는 너무 꼼꼼해서 손해를 본다. 무의미한 구조도 찾는다 는 서로 배치되는 얘기인 건가? 비교해서 다시 읽어봐야 되겠다.
10.10.09 12:31지금은 반드시 버튼을 눌러야 Siri나 구글 나우 같은 음성 인식이 된다. 그런데 만약 스마트폰이 계속 주변의 소리를 들을 수 있다면? 그러면 그냥 스마트폰을 부르기만 하면 명령 실행이 될 수 있을 것이다.
13.09.12 21:37