Cited 0 time in
대화체 음성인식을 위한 음소분할기
| DC Field | Value | Language |
|---|---|---|
| dc.contributor.author | 이광석 | - |
| dc.date.accessioned | 2022-12-27T05:23:18Z | - |
| dc.date.available | 2022-12-27T05:23:18Z | - |
| dc.date.issued | 2009 | - |
| dc.identifier.issn | 1975-7700 | - |
| dc.identifier.issn | 2734-0570 | - |
| dc.identifier.uri | https://scholarworks.gnu.ac.kr/handle/sw.gnu/26539 | - |
| dc.description.abstract | 본 연구는 자연음성의 인식을 위하여 신경회로망을 기초로 한 음소 분할기에 대하여 기술하였다. 자연음성의 인식을 위한 음소 분할기의 입력으로는 16차 멜 스케일의 FFT, 정규화된 프레임 에너지, 0∼3[KHz] 주파수 대역 및 그 이상의 대역에서의 에너지 비를 사용하였다. 모든 특징들은 두개의 연속적인 10[msec] 프레임의 차이며, 본 연구에 사용한 음소분할기는 하나의 72입력을 가지는 은닉층 퍼셉트론, 20은닉노드 및 하나의 출력노드로 구성하여 사용하였다. 자연음성에 대한 음소분할의 정확도는 7.8%삽입을 가지는 78%를 얻을 수 있었다. | - |
| dc.format.extent | 5 | - |
| dc.language | 한국어 | - |
| dc.language.iso | KOR | - |
| dc.publisher | 한국지식정보기술학회 | - |
| dc.title | 대화체 음성인식을 위한 음소분할기 | - |
| dc.title.alternative | Phoneme Segmenter for Applying to Spontaneous Speech Recognition | - |
| dc.type | Article | - |
| dc.publisher.location | 대한민국 | - |
| dc.identifier.bibliographicCitation | 한국지식정보기술학회 논문지, v.4, no.1, pp 51 - 55 | - |
| dc.citation.title | 한국지식정보기술학회 논문지 | - |
| dc.citation.volume | 4 | - |
| dc.citation.number | 1 | - |
| dc.citation.startPage | 51 | - |
| dc.citation.endPage | 55 | - |
| dc.identifier.kciid | ART001420381 | - |
| dc.description.isOpenAccess | N | - |
| dc.description.journalRegisteredClass | kciCandi | - |
| dc.subject.keywordAuthor | Speech Detection | - |
| dc.subject.keywordAuthor | Speech segmentation | - |
| dc.subject.keywordAuthor | Spontaneous Speech Recognition Method | - |
Items in ScholarWorks are protected by copyright, with all rights reserved, unless otherwise indicated.
Gyeongsang National University Central Library, 501, Jinju-daero, Jinju-si, Gyeongsangnam-do, 52828, Republic of Korea+82-55-772-0532
COPYRIGHT 2022 GYEONGSANG NATIONAL UNIVERSITY LIBRARY. ALL RIGHTS RESERVED.
Certain data included herein are derived from the © Web of Science of Clarivate Analytics. All rights reserved.
You may not copy or re-distribute this material in whole or in part without the prior written consent of Clarivate Analytics.
