Система управления распознаванием речевой информации

Распознавание слов в слитной речи, изолированных слов. Проблема автоматического распознавания речи. Структурная схема устройства выделения признаков речевых сигналов. Моделирование работы блока выделения начала и окончания слова количества звуков на ЭВМ.

Рубрика Программирование, компьютеры и кибернетика
Вид дипломная работа
Язык русский
Дата добавления 13.11.2008
Размер файла 649,5 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

· Алгоритм Баума-Уэлча.

Необходимо подобрать параметры скрытой модели Маркова так, чтобы максимизировать вероятность данной последовательности наблюдений.

Вводятся переменные

оt(i,j) = P(qt=Si,qt+1=Sj|O,л)

которые показывают вероятность того, что при заданной последовательности наблюдений O система в моменты времени t и t+1 будет находиться соответственно в состояниях Si и Sj. Используя прямую и обратную переменные запишем:

Введем переменные вероятности того, что при заданной последовательности наблюдений O система в момент времени t будет находиться в состоянии Si:

При этом мы можем вычислить ожидаемое число переходов из состояния Si: равно

а ожидаемое число переходов из состояния Si в состояние Sj

Исходя из этого можно получить формулы для переоценки параметров модели Маркова:

р*i= (i)

Выражение

в формуле для b*ij (k) означает что суммируются только те гt(j) , для которых значение состояния равно k, то есть Ot = k.

После переоценки параметры модели либо выясняется, что она уже была оптимальной до переоценки либо обязательно улучшаются ее параметры (то есть правдоподобность модели после переоценки выше, чем до переоценки во всех случаях, когда модель можно оптимизировать).

3. МОДЕЛИРОВАНИЕ РАБОТЫ БЛОКА ВЫДЕЛЕНИЯ НАЧАЛА И ОКОНЧАНИЯ СЛОВА, КОЛИЧЕСТВА ЗВУКОВ НА ЭВМ

В процессе выполнения дипломного проекта были проведены экспериментальные исследования алгоритма выделения признаков речевых сигналов.

Речевой сигнал с микрофона вводился в ЭВМ с помощью 16-ти разрядного преобразователя аналог-код. Частоту дискретизации выбрали 8 кГц. Далее сигнал подвергался анализу. Запись трех гласных звуков «а-o-e» и слов «Hello», «Start», «Stop», «Next» и «Back» производилась с помощью специального звукового редактора «COOL».

Обработка речевых сигналов производилась в ЭВМ с помощью программного пакета «Matlab7.6.0». Входные данные представляли собой массив дискретизированных чисел и содержались в отдельном файле данных. В созданной программе было произведено моделирование работы компаратора. Было выбрано три уровня квантования «0», «1», «-1» и был установлен шумовой порог, т.к. шумы хоть и были незначительны, но все же могли повлиять на результаты.

Далее в программе производился подсчет количества переходов через нуль на интервале в 100, 200 и 300 отсчетов. Таким образом, моделировалась работа блока состоящего из ЦЛЗ и реверсивного счетчика. Были вычислены первая и вторая конечные разности полной фазовой функции. Более подробно можно рассмотреть на примере фонем «а-о-е» (рисунок 4.1).

По такому же принципу были проведены эксперименты со словами, такими как «Notepad», «Open», «Close», «Pause» и с более сложными словами «Calculator», «Microsoft» и «Explorer».

Далее стояла задача собрать статистические данные по выделению количества звуков в нескольких словах. Для статистики были взяты следующие слова: «Hello» и «Start». Каждое слово было произнесено шестью людьми по десять раз. Результаты статистических данных приведены в таблицах.

Таблица 4.1 - Статистические данные по слову «Hello»

Номер эксперимента

0

1

2

3

4

5

6

7

8

9

Количество звуков

4

4

4

4

3

5

4

4

3

4

10

11

12

13

14

15

16

17

18

19

20

21

5

5

3

3

4

3

4

4

4

5

4

4

22

23

24

25

26

27

28

29

30

31

32

33

4

4

4

4

4

4

4

4

4

4

4

4

34

35

36

37

38

39

40

41

42

43

44

45

4

4

4

3

4

4

5

4

4

4

4

4

46

47

48

49

50

51

52

53

54

55

56

57

3

3

4

4

4

4

4

4

4

4

4

4

58

59

60

4

4

4

Итого получается, что процент распознавания количества звуков в слове «Hello» равен порядка 79%.

Таблица 4.2 - Статистические данные по слову «Start»

Номер эксперимента

0

1

2

3

4

5

6

7

8

9

Количество звуков

4

4

4

4

4

4

4

4

4

4

10

11

12

13

14

15

16

17

18

19

20

21

4

4

4

4

4

4

4

4

4

4

4

4

22

23

24

25

26

27

28

29

30

31

32

33

4

4

4

4

4

2

3

3

4

3

3

4

34

35

36

37

38

39

40

41

42

43

44

45

4

4

4

4

4

4

4

3

4

3

4

3

46

47

48

49

50

51

52

53

54

55

56

57

4

4

4

4

4

3

3

4

3

3

4

3

58

59

60

4

3

4

Итого получается, что процент распознавания количества звуков в слове «Start» равен порядка 75%.

5. РАЗРАБОТКА ИНОФРМАЦИОННОГО ОБЕСПЕЧЕНИЯ

5.1 Структурно-алгоритмическая организация

В структуре программы можно выделить логические модули. Каждому модулю присущи свои задачи, методы, вызываемые функции. Структурная схема изображена на рисунке 5.1.

Рисунок 5.1 - Структурная схема программы

Основной графический модуль - это графический интерфейс общения пользователя с программой. Пользователь при нажатии на кнопки вызывает выполнение функций из других модулей.

Модуль выбора режима работы - это модуль для взаимодействия пользователя с программой с целью установки режима работы.

Модуль ввода речевого сигнала - это модуль, который отвечает за запись сигнала с микрофона.

Модуль создания БД эталонов - это модуль, который анализирует входной сигнал в режиме создания эталона, переводит в цифровой вид и создает БД.

Модуль анализа звукового сигнала - это модуль, который анализирует входной сигнал в режиме распознавания, и переводит в цифровой вид.

Модуль распознавания речи - это модуль, который проводит сопоставление входного сигнала и эталона в БД.

5.2 Алгоритм программы

В начале работы на экран выводится главное окно программы. После этого на динамик микрофона подается звуковое сообщение, за который отвечает модуль ввода речевого сигнала. Затем на главном окне пользователь выбирает режим работы программы. Если выбран режим создания эталона, за который отвечает модуль создания БД эталонов, то программа обрабатывает и сохраняет входной сигнал с микрофона и выводит спектр на экран. Если же выбран режим распознавания, то программа обрабатывает результаты и сравнивает с заранее записанным эталоном в БД, сохраняет входной сигнал и переходит к его распознаванию с помощью вычисления первой и второй конечной разности полной фазовой функции, т.е. определяем количество звуков в данном слове, что видно из проделанного ранее моделирования, Определяем начало и конец слова с помощью выделения огибающей, что показано на рис.3.2. Результат распознавания выводится на дисплей.

5.3 Описание интерфейса

Программа имеет дружественный интерфейс и легка в освоении. Графический интерфейс проектируется в среде разработки Visual C#.net. В данной системе можно быстро и качественно разрабатывать графические приложения, используя готовые компоненты.

Интерфейс программы разработан с учетом информативности получаемых пользователем данных. На рисунке 5.2 показано основное окно программы.

В верхней строке окна программы находится панель управления со стандартными вкладками. Ниже располагается панель с вкладками, которые позволяют пользователю выбирать режим обработки поступающего с микрофона звукового сигнала. Непосредственно над графиками представлена информационная панель, которая дает пользователю возможность в реальном режиме времени наблюдать общее количество команд в БД, количество распознанных команд, последнюю распознанную команду и номер испытания.

На верхнем графике изображена частотная характеристика входного звукового сигнала, а на следующем - амплитудная характеристика распознанного сигнала.

В нижней части окна программы имеется поле событий, в котором выводятся сообщения о работе аппаратной части.

5.4 Реализация

5.4.1 Модуль входа в программу

При запуске программы вызывается функция «static void Main()». Эта функция инициализирует приложение путем вызова функции Application.EnableVisualStyles();. Далее запускается функция, которая составляет стиль программы путем вызова следующей функции Application.SetCompatibleTextRenderingDefault(false); . После нее запускается функция, которая создает диалоговое окно программы путем вызова функции Application.Run(new Form1()); и запускает приложение. В теле этой функции так же предусмотрена обработка исключений try - catch.

5.4.2 Основной графический модуль

Основной графический модуль в исходном коде программы представлен как класс Form1. Он содержит следующие основные графические элементы:

1) PictureBox1 : Вывод графического изображения 1

2) PictureBox2 : Вывод графического изображения 2

3) textBox2 : Вывод распознанного слова

5.4.3 Модуль выбора режима работы

Выбор режима работы программы осуществляется нажатием кнопки «Mode». При ее нажатии вызывается функция-обработчик этого события «private void recognitionToolStripMenuItem_Click(object sender, EventArgs e)» Функция проверяет и сохраняет указанный режим работы.

5.4.4 Модуль ввода речевого сигнала

Запись и обработка звукового сигнала осуществляется функцией «private void toolStripDropDownButton1_Click(object sender, EventArgs e)». В этой функции задается частота дискретизации - 16 кГц. Длина сигнала по времени определяется с помощью функции GetTickCount(). Дискретезированный и отфильтрованный сигнал записывается в буфер matrix[].

5.4.5 Модуль создания БД эталонов

При создании эталона необходимо нажать кнопку «Add Command» в режиме создания эталона. После нажатия этой кнопки вызывается функция-обработчик этого события «private void toolStripButton1_Click(object sender, EventArgs e)». Эта функция активирует кнопку «Add Command» . После этого вызывается функция «public bool Record()» класса WaveIn, которая начинает запись сигнала с микрофона в буфер и сохраняет этот сигнал как эталон. После того как сигнал записан, нажимается кнопка «Stop». После нажатия этой кнопки вызывается функция-обработчик события «private void toolStripButton1_Click(object sender, EventArgs e)». Эта функция активирует кнопку «Stop» и останавливает запись путем вызова функции WaveIn.StopRecord() класса WaveIn.

5.4.5 Модули анализа звукового сигнала и распознавания речи

Анализ и распознавание звукового сигнала происходит в функции «Void AudioFrame.WaveIn(short *buf,int len)» после того как сигнал записан, дискретезирован и отфильтрован.

5.5 Пример работы программы

Перед началом работы клиента, непосредственно после запуска программы необходимо ее настроить. Для этого потребуется подсоединенный к компьютеру микрофон.

Для настройки системы необходимо после запуска создать эталон слова для последующего распознавания. Для этого нужно в поле выбора режима работы программы нажать кнопку создания эталона т.е. «Add Command», в левом верхнем углу главного окна программы на панели с вкладками. После нажатия кнопки начнется запись сигнала. Далее следует произнести слово и остановить запись путем нажатия кнопки «Stop» в левом верхнем углу экрана.

После того как эталон создан и сохранен, необходимо переключить режим работы программы в «Mode - Recognition». После переключения в «Mode - Recognition» необходимо включить запись сигнала путем нажатия кнопки «File-->Start Recognition», произнести слово, которое требуется распознать, и остановить запись путем нажатия кнопки «Stop».

Распознанное слово будет выведено в текстовом поле после «You just said:».

На рисунке 5.3 показан результат работы программы. Программа работает успешно, было распознано слово «Hello». Программой было определено слово по эталону, сохраненному в базе данных программы в режиме создания эталона.

На рисунке 5.4 показан результат работы программы при помехах. Из-за созданных помех программе не удалось распознать слово. В качестве шума использовался искусственно созданный стационарный шум, возникший в результате действия нескольких независимых источников: шум людей, шум работающего двигателя автомобиля и другие окружающие шумы. Уровень шума, при котором слово не было распознано, составляет выше 85дБ, что говорит о пригодности программы для использования в автомобиле. Такой уровень шума может быть вызван очень большим скоплением автомобилей на дороге, интенсивным трамвайным движением (физический шум).

6 БЕЗОПАСНОСТЬ И ЭКОЛОГИЧНОСТЬ ПРОЕКТА

6.1 Системный анализ безопасности и надежности блока выделения начала и окончания слова, количества звуков при эксплуатации

Анализируемый блок предназначен для работы в составе устройства определения количества звуков в изолированном слове речи. Подробное описание принципа работы устройства приведено в разделе 2. Проведем процессы синтеза и анализа.

Головным является событие, когда устройство неработоспособно. Оно может быть неработоспособно в двух случаях: когда оно продолжает работать, но устранило свои технические характеристики, либо устройство полностью вышло из строя.

Рассмотрим подробно первый случай. Он может быть обусловлен двумя причинами: при подаче сигнала на вход устройства на его выходе периодически пропадают данные о количестве звуков в изолированном слове речи, либо вследствие воздействия внешних причин или неверной работы одного из блоков устройства происходит ложное срабатывание устройства. Внешними причинами могут быть: переотражение акустической волны, воздействие шумов или звуков не относящихся к анализу, а также многие другие причины. Пропуск сигнала может произойти в случае недостаточной амплитуды входного сигнала или неверной работы одного из блоков устройства, которая возможна если:

допущены дефекты в устройстве при производстве;

происходит сильное падение питающего напряжения;

неверно установлен шумовой порог,

либо по каким-нибудь другим причинам.

Второй случай - это полный выход устройства из строя, который возможен при отсутствии напряжения питания либо при выходе из строя одного или нескольких блоков. Питание может отсутствовать по многим причинам. Часто случающиеся - это выход из строя вставки плавкой или самого блока питания, а также потеря контакта, например, при повреждении электрического кабеля. Выйти из строя могут следующие блоки: ЦЛЗ, УОРС, УУ, компаратор, счетчик, микрофон. Все они могут отказать если на них подействуют механические или электрические причины, в которые входят: возможное падение прибора, неверное обращение с прибором, воспламенение прибора, большие скачки напряжения питания, попадание воды, либо по другим причинам.

6.2 Мероприятия по повышению надежности и безопасности блока

Для повышения надежности и безопасности блока можно произвести следующие мероприятия:

1. Амортизация и демпфирование прибора, а также произведение

контроля за качеством монтажа, для уменьшения поражающего действия вибраций, связанных с падением.

2. Установка в местах, недоступных маленьким детям, дабы предотвратить неверное обращение с прибором.

3. Применение заземления и вставки плавкой для исключения воспламенения прибора при замыкании.

4. Применение стабилизатора напряжения с защитой от перегрузки, для предотвращения выхода устройства из строя при больших подачах напряжения питания.

5. Применение сплошного кожуха для избежание попадания воды на плату устройства.

6. Применение экранирования звукоизоляции в приборе в целях уменьшения воздействия внешних электромагнитных полей, а также компенсации переотражений акустической волны.

7. Применение чувствительного, малошумящего микрофона для получения необходимой амплитуды входного сигнала.

8. Произведение настройки шумового порога только квалифицированным специалистом.

6.3 Безопасность блока для природной среды

Допустимые значения вредных факторов устанавливаются стандартами ССБТ. Наибольшую опасность для окружающей среды представляет собой процесс изготовления. Это объясняется тем, что в период эксплуатации устройство практически не наносит вреда ни гидросфере, ни литосфере, практически не излучает электромагнитных полей, а если и излучает, то их значение ничтожно мало, оно наносит незначительный урон только атмосфере, так как при нагревании элементов выделяются вредные газовые примеси. Процесс утилизации тоже не несет значительного загрязнения окружающей среды ввиду отсутствия вредных, ядовитых веществ в элементах устройства, а также отсутствие газообразных веществ.

Но, процесс изготовления вреден и для атмосферы, так как во время травления печатной платы, при производстве элементов схемы и проведения пайки выделяется значительное количество вредных газообразных примесей; и для литосферы, так как остатки ненужного сырья необходимо утилизировать; и для гидросферы, так как во время производства некоторых элементов схемы возможно применение водяного охлаждения.

7.ТЕХНИКО-ЭКОНОМИЧЕСКОЕ ОБОСНОВАНИЕ ПРОЭКТА

7.1 Расчет заработной платы разработчиков

Общая продолжительность ТПП складывается из времени на всех этапах с учётом параллельности их выполнения. Фонд заработной платы рассчитан путём умножения трудоёмкости на часовую ставку.

Расходы на заработную плату разработчиков конструкции представлены в таблице 2.

Расчет часовой тарифной ставки производится путем деления месячной тарифной ставки на количество рабочих часов в месяц.

где - часовая ставка работников;

- средний месячный оклад;

- среднее количество рабочих часов в месяце,

Для программиста, электронщика 14 разряда часовая ставка составит = 4370 /168 = 26 руб./час.

Таким образом, принимая во внимание все выше указанные факторы, составляется таблица по расчету основной заработной платы участников проекта.

Таблица 1

Заработная плата участников разработки

Этап разработки

Исполнитель

Трудо-

ёмкость,

часы

Часовая тарифная ставка, руб.

Заработная плата, руб.

Разработка функциональной схемы

Электронщик

40

26

1040

Разработка программного обеспечения

программист

65

26

1690

Основная заработная плата разработчиков (ОЗП)

2730

Из таблицы 1 видно, что основная заработная плата, т.е. сумма расходов на этапе подготовки производства составит 2730 рубля.

Рассчитаем сумму дополнительной заработной платы из расчета 10% от основной заработной платы, получим:

Здоп=0,1?2730=273 руб.

Отчисления на социальные нужды - 26% от суммы основной и дополнительной заработных плат

Инуж=0,26?(2730+273)=780,78руб.

Рассчитаем накладные расходы. Норматив на накладные расходы составляет от 110 до 200% от суммы основной заработной платы разработчиков. Допустим, что накладные расходы составят 130%.

Инак=1,3?2730=3549руб.

Таблица 2

Затраты на техническую подготовку производства

Вид затрат

Сумма, руб.

Основная заработная плата (ОЗП)

2730

Дополнительная ЗП (ДЗП) разработчиков -10% от основной ЗП

273

Отчисления на социальные нужды - 26% от ОЗП+ДЗП

780,78

Накладные расходы (Н) - 130% от основной ЗП

3549

ИТОГО ():

7332,78

Как видно из таблицы 2, затраты на техническую подготовку производства составляют 7332,78рублей.

ЗАКЛЮЧЕНИЕ

В результате работы над бакалаврским проектом был произведен обзор литературы с целью поиска существующих методов анализа речи. Также был проведен патентный поиск устройств, осуществляющих выделение признаков речевых сигналов. Оказалось, что предложенный метод анализа речевых сигналов, базирующийся на обработке сигналов во временной области, на сегодняшний день не имеет аналогов. Особенностью предложенного метода является представление модели речевого сигнала не в аддитивной форме, как в методах спектрального анализа, а в мультипликативной. Это объясняет использование ряда Тейлора при разложении полной фазовой функции речевого сигнала на компоненты, а не ряда Фурье. Характерной особенностью данного метода является выделение скорости изменения частоты речевого сигнала как информативного параметра. Ранее ни в одном методе анализа речи этого не проводилось. Также впервые была получена огибающая речевого сигнала и проведен ее спектральный анализ.

В бакалаврской работе проводилось моделирование работы устройства на ЭВМ. Так же была разработана программа на языках программирования высокого уровня С#.net и Matlab, реализующая изложенный алгоритм моделирования распознавания речевых сигналов. Полученные результаты показали возможность использования выделяемых параметров речевых сигналов для распознавания речи.

В бакалаврской работе было проведено экономическое обоснование целесообразности разработки и рассмотрены вопросы безопасности и экологичности спроектированного устройства.

СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ

Искусственный интеллект. Системы общения и экспер тные системы. Кн. 1 / Под ред. Э.В.Попова. - М.: Радио и связь, 1990. - 461 с.

Оппенгейн А.В., Шафер Р.В. Цифровая обработка сигналов, М.: Радио и связь, 1979 ., 347 с.

Рабинер Л.Р. Шафер Р.В. Цифровая обработка речевых сигналов, М.: Радио и связь, 1981 ., 258 с.

Литюк В.И. Методическое пособие № 2231 часть 3 «Методы расчета и проектирование цифровых многопроцессорных устройств обработки радиосигналов», Таганрог, 1995, 48 с.

Кузнецов В., Отт А. Автоматический синтез речи. - Таллинн: Валгус, 1989. - 135 с.

Методы автоматического распознавания речи / Под ред. У.Ли. - М.: Мир, 1983. - 716 с.

Зиндер Л.Р. Общая фонетика. - М.: Высшая школа, 1979. - 312 с.

Златоустова Л.В., Потапова Р.К., Трунин-Донской В.Н. Общая и прикладная фонетика. М.: МГУ, 1986. - 304 с.

Линдсей П., Нордман Д. Переработка информации у человека. - М.: Мир, 1974. - 550 с.

Потапова Р.К. Речевое управление роботом. - М.: Радио и связь, 1989. - 248 с.

Бакаева Т.Н. Системный анализ безопасности: Методическая разработка к самостоятельной работе по курсу «Безопасность жизнедеятельности». Таганрог: ТРТУ, 1995, 18 с.

Бакаева Т.Н. Безопасность жизнедеятельности. Часть 2: Безопасность в условиях производства: Учебное пособие. Таганрог: ТРТУ, 1997, 318 с.

Фрумкин Г.А. «Расчет и конструирование РЭА», Москва: Высшая школа, 1997, 289 с.

Приложение

1. Листинг программы - Speech Recognition

1.1) WaveIn.cs

// Speech recognition

// wavein => operations on incoming sound signal

using System;

using System.Threading;

using System.Runtime.InteropServices;

namespace SoundViewer

{

internal class WaveInHelper

{

public static void Try(int err)

{

if (err != WaveNative.MMSYSERR_NOERROR)

throw new Exception(err.ToString());

}

}

public delegate void BufferDoneEventHandler(IntPtr data, int size);

internal class WaveInBuffer : IDisposable

{

public WaveInBuffer NextBuffer;

private AutoResetEvent m_RecordEvent = new AutoResetEvent(false);

private IntPtr m_WaveIn;

private WaveNative.WaveHdr m_Header;

private byte[] m_HeaderData;

private GCHandle m_HeaderHandle;

private GCHandle m_HeaderDataHandle;

private bool m_Recording;

internal static void WaveInProc(IntPtr hdrvr, int uMsg, int dwUser, ref WaveNative.WaveHdr wavhdr, int dwParam2)

{

if (uMsg == WaveNative.MM_WIM_DATA)

{

try

{

GCHandle h = (GCHandle)wavhdr.dwUser;

WaveInBuffer buf = (WaveInBuffer)h.Target;

buf.OnCompleted();

}

catch

{

}

}

}

public WaveInBuffer(IntPtr waveInHandle, int size)

{

m_WaveIn = waveInHandle;

m_HeaderHandle = GCHandle.Alloc(m_Header, GCHandleType.Pinned);

m_Header.dwUser = (IntPtr)GCHandle.Alloc(this);

m_HeaderData = new byte[size];

m_HeaderDataHandle = GCHandle.Alloc(m_HeaderData, GCHandleType.Pinned);

m_Header.lpData = m_HeaderDataHandle.AddrOfPinnedObject();

m_Header.dwBufferLength = size;

WaveInHelper.Try(WaveNative.waveInPrepareHeader(m_WaveIn, ref m_Header, Marshal.SizeOf(m_Header)));

}

~WaveInBuffer()

{

Dispose();

}

public void Dispose()

{

if (m_Header.lpData != IntPtr.Zero)

{

WaveNative.waveInUnprepareHeader(m_WaveIn, ref m_Header, Marshal.SizeOf(m_Header));

m_HeaderHandle.Free();

m_Header.lpData = IntPtr.Zero;

}

m_RecordEvent.Close();

if (m_HeaderDataHandle.IsAllocated)

m_HeaderDataHandle.Free();

GC.SuppressFinalize(this);

}

public int Size

{

get { return m_Header.dwBufferLength; }

}

public IntPtr Data

{

get { return m_Header.lpData; }

}

public bool Record()

{

lock(this)

{

m_RecordEvent.Reset();

m_Recording = WaveNative.waveInAddBuffer(m_WaveIn, ref m_Header, Marshal.SizeOf(m_Header)) == WaveNative.MMSYSERR_NOERROR;

return m_Recording;

}

}

public void WaitFor()

{

if (m_Recording)

m_Recording = m_RecordEvent.WaitOne();

else

Thread.Sleep(0);

}

private void OnCompleted()

{

m_RecordEvent.Set();

m_Recording = false;

}

}

public class WaveInRecorder : IDisposable

{

private IntPtr m_WaveIn;

private WaveInBuffer m_Buffers; // linked list

private WaveInBuffer m_CurrentBuffer;

private Thread m_Thread;

private BufferDoneEventHandler m_DoneProc;

private bool m_Finished;

private WaveNative.WaveDelegate m_BufferProc = new WaveNative.WaveDelegate(WaveInBuffer.WaveInProc);

public static int DeviceCount

{

get { return WaveNative.waveInGetNumDevs(); }

}

public WaveInRecorder(int device, WaveFormat format, int bufferSize, int bufferCount, BufferDoneEventHandler doneProc)

{

m_DoneProc = doneProc;

WaveInHelper.Try(WaveNative.waveInOpen(out m_WaveIn, device, format, m_BufferProc, 0, WaveNative.CALLBACK_FUNCTION));

AllocateBuffers(bufferSize, bufferCount);

for (int i = 0; i < bufferCount; i++)

{

SelectNextBuffer();

m_CurrentBuffer.Record();

}

WaveInHelper.Try(WaveNative.waveInStart(m_WaveIn));

m_Thread = new Thread(new ThreadStart(ThreadProc));

m_Thread.Start();

}

~WaveInRecorder()

{

Dispose();

}

public void Dispose()

{

if (m_Thread != null)

try

{

m_Finished = true;

if (m_WaveIn != IntPtr.Zero)

WaveNative.waveInReset(m_WaveIn);

WaitForAllBuffers();

m_Thread.Join();

m_DoneProc = null;

FreeBuffers();

if (m_WaveIn != IntPtr.Zero)

WaveNative.waveInClose(m_WaveIn);

}

finally

{

m_Thread = null;

m_WaveIn = IntPtr.Zero;

}

GC.SuppressFinalize(this);

}

private void ThreadProc()

{

while (!m_Finished)

{

Advance();

if (m_DoneProc != null && !m_Finished)

m_DoneProc(m_CurrentBuffer.Data, m_CurrentBuffer.Size);

m_CurrentBuffer.Record();

}

}

private void AllocateBuffers(int bufferSize, int bufferCount)

{

FreeBuffers();

if (bufferCount > 0)

{

m_Buffers = new WaveInBuffer(m_WaveIn, bufferSize);

WaveInBuffer Prev = m_Buffers;

try

{

for (int i = 1; i < bufferCount; i++)

{

WaveInBuffer Buf = new WaveInBuffer(m_WaveIn, bufferSize);

Prev.NextBuffer = Buf;

Prev = Buf;

}

}

finally

{

Prev.NextBuffer = m_Buffers;

}

}

}

private void FreeBuffers()

{

m_CurrentBuffer = null;

if (m_Buffers != null)

{

WaveInBuffer First = m_Buffers;

m_Buffers = null;

WaveInBuffer Current = First;

do

{

WaveInBuffer Next = Current.NextBuffer;

Current.Dispose();

Current = Next;

} while(Current != First);

}

}

private void Advance()

{

SelectNextBuffer();

m_CurrentBuffer.WaitFor();

}

private void SelectNextBuffer()

{

m_CurrentBuffer = m_CurrentBuffer == null ? m_Buffers : m_CurrentBuffer.NextBuffer;

}

private void WaitForAllBuffers()

{

WaveInBuffer Buf = m_Buffers;

while (Buf.NextBuffer != m_Buffers)

{

Buf.WaitFor();

Buf = Buf.NextBuffer;

}

}

}

}

1.2) WaveOut.cs

// Speech recognition

// waveout => show graph on screen

using System;

using System.Threading;

using System.Runtime.InteropServices;

namespace SoundViewer

{

internal class WaveOutHelper

{

public static void Try(int err)

{

if (err != WaveNative.MMSYSERR_NOERROR)

throw new Exception(err.ToString());

}

}

public delegate void BufferFillEventHandler(IntPtr data, int size);

internal class WaveOutBuffer : IDisposable

{

public WaveOutBuffer NextBuffer;

private AutoResetEvent m_PlayEvent = new AutoResetEvent(false);

private IntPtr m_WaveOut;

private WaveNative.WaveHdr m_Header;

private byte[] m_HeaderData;

private GCHandle m_HeaderHandle;

private GCHandle m_HeaderDataHandle;

private bool m_Playing;

internal static void WaveOutProc(IntPtr hdrvr, int uMsg, int dwUser, ref WaveNative.WaveHdr wavhdr, int dwParam2)

{

if (uMsg == WaveNative.MM_WOM_DONE)

{

try

{

GCHandle h = (GCHandle)wavhdr.dwUser;

WaveOutBuffer buf = (WaveOutBuffer)h.Target;

buf.OnCompleted();

}

catch

{

}

}

}

public WaveOutBuffer(IntPtr waveOutHandle, int size)

{

m_WaveOut = waveOutHandle;

m_HeaderHandle = GCHandle.Alloc(m_Header, GCHandleType.Pinned);

m_Header.dwUser = (IntPtr)GCHandle.Alloc(this);

m_HeaderData = new byte[size];

m_HeaderDataHandle = GCHandle.Alloc(m_HeaderData, GCHandleType.Pinned);

m_Header.lpData = m_HeaderDataHandle.AddrOfPinnedObject();

m_Header.dwBufferLength = size;

WaveOutHelper.Try(WaveNative.waveOutPrepareHeader(m_WaveOut, ref m_Header, Marshal.SizeOf(m_Header)));

}

~WaveOutBuffer()

{

Dispose();

}

public void Dispose()

{

if (m_Header.lpData != IntPtr.Zero)

{

WaveNative.waveOutUnprepareHeader(m_WaveOut, ref m_Header, Marshal.SizeOf(m_Header));

m_HeaderHandle.Free();

m_Header.lpData = IntPtr.Zero;

}

m_PlayEvent.Close();

if (m_HeaderDataHandle.IsAllocated)

m_HeaderDataHandle.Free();

GC.SuppressFinalize(this);

}

public int Size

{

get { return m_Header.dwBufferLength; }

}

public IntPtr Data

{

get { return m_Header.lpData; }

}

public bool Play()

{

lock(this)

{

m_PlayEvent.Reset();

m_Playing = WaveNative.waveOutWrite(m_WaveOut, ref m_Header, Marshal.SizeOf(m_Header)) == WaveNative.MMSYSERR_NOERROR;

return m_Playing;

}

}

public void WaitFor()

{

if (m_Playing)

{

m_Playing = m_PlayEvent.WaitOne();

}

else

{

Thread.Sleep(0);

}

}

public void OnCompleted()

{

m_PlayEvent.Set();

m_Playing = false;

}

}

public class WaveOutPlayer : IDisposable

{

private IntPtr m_WaveOut;

private WaveOutBuffer m_Buffers; // linked list

private WaveOutBuffer m_CurrentBuffer;

private Thread m_Thread;

private BufferFillEventHandler m_FillProc;

private bool m_Finished;

private byte m_zero;

private WaveNative.WaveDelegate m_BufferProc = new WaveNative.WaveDelegate(WaveOutBuffer.WaveOutProc);

public static int DeviceCount

{

get { return WaveNative.waveOutGetNumDevs(); }

}

public WaveOutPlayer(int device, WaveFormat format, int bufferSize, int bufferCount, BufferFillEventHandler fillProc)

{

m_zero = format.wBitsPerSample == 8 ? (byte)128 : (byte)0;

m_FillProc = fillProc;

WaveOutHelper.Try(WaveNative.waveOutOpen(out m_WaveOut, device, format, m_BufferProc, 0, WaveNative.CALLBACK_FUNCTION));

AllocateBuffers(bufferSize, bufferCount);

m_Thread = new Thread(new ThreadStart(ThreadProc));

m_Thread.Start();

}

~WaveOutPlayer()

{

Dispose();

}

public void Dispose()

{

if (m_Thread != null)

try

{

m_Finished = true;

if (m_WaveOut != IntPtr.Zero)

WaveNative.waveOutReset(m_WaveOut);

m_Thread.Join();

m_FillProc = null;

FreeBuffers();

if (m_WaveOut != IntPtr.Zero)

WaveNative.waveOutClose(m_WaveOut);

}

finally

{

m_Thread = null;

m_WaveOut = IntPtr.Zero;

}

GC.SuppressFinalize(this);

}

private void ThreadProc()

{

while (!m_Finished)

{

Advance();

if (m_FillProc != null && !m_Finished)

m_FillProc(m_CurrentBuffer.Data, m_CurrentBuffer.Size);

else

{

// zero out buffer

byte v = m_zero;

byte[] b = new byte[m_CurrentBuffer.Size];

for (int i = 0; i < b.Length; i++)

b[i] = v;

Marshal.Copy(b, 0, m_CurrentBuffer.Data, b.Length);

}

m_CurrentBuffer.Play();

}

WaitForAllBuffers();

}

private void AllocateBuffers(int bufferSize, int bufferCount)

{

FreeBuffers();

if (bufferCount > 0)

{

m_Buffers = new WaveOutBuffer(m_WaveOut, bufferSize);

WaveOutBuffer Prev = m_Buffers;

try

{

for (int i = 1; i < bufferCount; i++)

{

WaveOutBuffer Buf = new WaveOutBuffer(m_WaveOut, bufferSize);

Prev.NextBuffer = Buf;

Prev = Buf;

}

}

finally

{

Prev.NextBuffer = m_Buffers;

}

}

}

private void FreeBuffers()

{

m_CurrentBuffer = null;

if (m_Buffers != null)

{

WaveOutBuffer First = m_Buffers;

m_Buffers = null;

WaveOutBuffer Current = First;

do

{

WaveOutBuffer Next = Current.NextBuffer;

Current.Dispose();

Current = Next;

} while(Current != First);

}

}

private void Advance()

{

m_CurrentBuffer = m_CurrentBuffer == null ? m_Buffers : m_CurrentBuffer.NextBuffer;

m_CurrentBuffer.WaitFor();

}

private void WaitForAllBuffers()

{

WaveOutBuffer Buf = m_Buffers;

while (Buf.NextBuffer != m_Buffers)

{

Buf.WaitFor();

Buf = Buf.NextBuffer;

}

}

}

}

1.3) SignalGenerator.cs

// Speech recognition

// singal generator => to generate various signals like sawtooth…

using System;

using System.Collections.Generic;

using System.Text;

namespace SoundViewer

{

class SignalGenerator

{

private string _waveForm = "Sine";

private double _amplitude = 128.0;

private double _samplingRate = 44100;

private double _frequency = 5000.0;

private double _dcLevel = 0.0;

private double _noise = 0.0;

private int _samples = 16384;

private bool _addDCLevel = false;

private bool _addNoise = false;

public SignalGenerator()

{

}

public void SetWaveform(string waveForm)

{

_waveForm = waveForm;

}

public String GetWaveform()

{

return _waveForm;

}

public void SetAmplitude(double amplitude)

{

_amplitude = amplitude;

}

public double GetAmplitude()

{

return _amplitude;

}

public void SetFrequency(double frequency)

{

_frequency = frequency;

}

public double GetFrequency()

{

return _frequency;

}

public void SetSamplingRate(double rate)

{

_samplingRate = rate;

}

public double GetSamplingRate()

{

return _samplingRate;

}

public void SetSamples(int samples)

{

_samples = samples;

}

public int GetSamples()

{

return _samples;

}

public void SetDCLevel(double dc)

{

_dcLevel = dc;

}

public double GetDCLevel()

{

return _dcLevel;

}

public void SetNoise(double noise)

{

_noise = noise;

}

public double GetNoise()

{

return _noise;

}

public void SetDCLevelState(bool dcstate)

{

_addDCLevel = dcstate;

}

public bool IsDCLevel()

{

return _addDCLevel;

}

public void SetNoiseState(bool noisestate)

{

_addNoise = noisestate;

}

public bool IsNoise()

{

return _addNoise;

}

public double[] GenerateSignal()

{

double[] values = new double[_samples];

if (_waveForm.Equals("Sine"))

{

double theta = 2.0 * Math.PI * _frequency / _samplingRate;

for (int i = 0; i < _samples; i++)

{

values[i] = _amplitude * Math.Sin(i * theta);

}

}

if (_waveForm.Equals("Cosine"))

{

double theta = 2.0f * (double)Math.PI * _frequency / _samplingRate;

for (int i = 0; i < _samples; i++)

values[i] = _amplitude * Math.Cos(i * theta);

}

if (_waveForm.Equals("Square"))

{

double p = 2.0 * _frequency / _samplingRate;

for (int i = 0; i < _samples; i++)

values[i] = Math.Round(i * p) % 2 == 0 ? _amplitude : -_amplitude;

}

if (_waveForm.Equals("Triangular"))

{

double p = 2.0 * _frequency / _samplingRate;

for (int i = 0; i < _samples; i++)

{

int ip = (int)Math.Round(i * p);

values[i] = 2.0 * _amplitude * (1 - 2 * (ip % 2)) * (i * p - ip);

}

}

if (_waveForm.Equals("Sawtooth"))

{

for (int i = 0; i < _samples; i++)

{

double q = i * _frequency / _samplingRate;

values[i] = 2.0 * _amplitude * (q - Math.Round(q));

}

}

if (_addDCLevel)

{

for (int i = 0; i < _samples; i++)

values[i] += _dcLevel;

}

if (_addNoise)

{

Random r = new Random();

for (int i = 0; i < _samples; i++)

values[i] += _noise * r.Next();

}

return values;

}

}

}

1.4) AudioFrame.cs

// Speech recognition

// audioframe => working on audio frame

using System;

using System.Drawing;

using System.Windows.Forms;

namespace SoundViewer

{

class AudioFrame

{

private Bitmap _canvasTimeDomain;

private Bitmap _canvasFrequencyDomain;

private double[] _waveLeft;

private double[] _waveRight;

private double[] _fftLeft;

private double[] _ftRight;

private SignalGenerator _signalGenerator;

private bool _isTest = false;

public AudioFrame(bool isTest)

{

_isTest = isTest;

}

/// <summary>

/// Process 16 bit sample

/// </summary>

/// <param name="wave"></param>

public void Process(ref byte[] wave)

{

_waveLeft = new double[wave.Length / 4];

_waveRight = new double[wave.Length / 4];

if (_isTest == false)

{

// Split out channels from sample

int h = 0;

for (int i = 0; i < wave.Length; i += 4)

{

_waveLeft[h] = (double)BitConverter.ToInt16(wave, i);

_waveRight[h] = (double)BitConverter.ToInt16(wave, i + 2);

h++;

}

}

else

{

// Generate artificial sample for testing

_signalGenerator = new SignalGenerator();

_signalGenerator.SetWaveform("Sine");

_signalGenerator.SetSamplingRate(44100);

_signalGenerator.SetSamples(16384);

_signalGenerator.SetFrequency(5000);

_waveLeft = _signalGenerator.GenerateSignal();

_waveRight = _signalGenerator.GenerateSignal();

}

// Generate frequency domain data in decibels

_fftLeft = FourierTransform.FFTDb(ref _waveLeft);

_fftRight = FourierTransform.FFTDb(ref _waveRight);

}

/// Render time domain to PictureBox

public void RenderTimeDomain(ref PictureBox pictureBox)

{

// Set up for drawing

_canvasTimeDomain = new Bitmap(pictureBox.Width, pictureBox.Height);

Graphics offScreenDC = Graphics.FromImage(_canvasTimeDomain);

SolidBrush brush = new System.Drawing.SolidBrush(Color.FromArgb(0, 0, 0));

Pen pen = new System.Drawing.Pen(Color.WhiteSmoke);

// Determine channnel boundries

int width = _canvasTimeDomain.Width;

int center = _canvasTimeDomain.Height / 2;

int height = _canvasTimeDomain.Height;

offScreenDC.DrawLine(pen, 0, center, width, center);

int leftLeft = 0;

int leftTop = 0;

int leftRight = width;

int leftBottom = center - 1;

int rightLeft = 0;

int rightTop = center + 1;

int rightRight = width;

int rightBottom = height;

// Draw left channel

double yCenterLeft = (leftBottom - leftTop) / 2;

double yScaleLeft = 0.5 * (leftBottom - leftTop) / 32768; // a 16 bit sample has values from -32768 to 32767

int xPrevLeft = 0, yPrevLeft = 0;

for (int xAxis = leftLeft; xAxis < leftRight; xAxis++)

{

int yAxis = (int)(yCenterLeft + (_waveLeft[_waveLeft.Length / (leftRight - leftLeft) * xAxis] * yScaleLeft));

if (xAxis == 0)

{

xPrevLeft = 0;

yPrevLeft = yAxis;

}

else

{

pen.Color = Color.LimeGreen;

offScreenDC.DrawLine(pen, xPrevLeft, yPrevLeft, xAxis, yAxis);

xPrevLeft = xAxis;

yPrevLeft = yAxis;

}

}

// Draw right channel

int xCenterRight = rightTop + ((rightBottom - rightTop) / 2);

double yScaleRight = 0.5 * (rightBottom - rightTop) / 32768; // a 16 bit sample has values from -32768 to 32767

int xPrevRight = 0, yPrevRight = 0;

for (int xAxis = rightLeft; xAxis < rightRight; xAxis++)

{

int yAxis = (int)(xCenterRight + (_waveRight[_waveRight.Length / (rightRight - rightLeft) * xAxis] * yScaleRight));

if (xAxis == 0)

{

xPrevRight = 0;

yPrevRight = yAxis;

}

else

{

pen.Color = Color.LimeGreen;

offScreenDC.DrawLine(pen, xPrevRight, yPrevRight, xAxis, yAxis);

xPrevRight = xAxis;

yPrevRight = yAxis;

}

}

// Clean up

pictureBox.Image = _canvasTimeDomain;

offScreenDC.Dispose();

}

/// <summary>

/// Render frequency domain to PictureBox

/// </summary>

/// <param name="pictureBox"></param>

public void RenderFrequencyDomain(ref PictureBox pictureBox)

{

// Set up for drawing

_canvasFrequencyDomain = new Bitmap(pictureBox.Width, pictureBox.Height);

Graphics offScreenDC = Graphics.FromImage(_canvasFrequencyDomain);

SolidBrush brush = new System.Drawing.SolidBrush(Color.FromArgb(0, 0, 0));

Pen pen = new System.Drawing.Pen(Color.WhiteSmoke);

// Determine channnel boundries

int width = _canvasFrequencyDomain.Width;

int center = _canvasFrequencyDomain.Height / 2;

int height = _canvasFrequencyDomain.Height;

offScreenDC.DrawLine(pen, 0, center, width, center);

int leftLeft = 0;

int leftTop = 0;

int leftRight = width;

int leftBottom = center - 1;

int rightLeft = 0;

int rightTop = center + 1;

int rightRight = width;

int rightBottom = height;

// Draw left channel

for (int xAxis = leftLeft; xAxis < leftRight; xAxis++)

{

double amplitude = (int)_fftLeft[(int)(((double)(_fftLeft.Length) / (double)(width)) * xAxis)];

if (amplitude < 0) // Drop negative values

amplitude = 0;

int yAxis = (int)(leftTop + ((leftBottom - leftTop) * amplitude) / 100); // Arbitrary factor

pen.Color = Color.FromArgb(120, 120, (int)amplitude % 255);

offScreenDC.DrawLine(pen, xAxis, leftTop, xAxis, yAxis);

}

// Draw right channel

for (int xAxis = rightLeft; xAxis < rightRight; xAxis++)

{

double amplitude = (int)_fftRight[(int)(((double)(_fftRight.Length) / (double)(width)) * xAxis)];

if (amplitude < 0)

amplitude = 0;

int yAxis = (int)(rightBottom - ((rightBottom - rightTop) * amplitude) / 100);

pen.Color = Color.FromArgb(120, 120, (int)amplitude % 255);

offScreenDC.DrawLine(pen, xAxis, rightBottom, xAxis, yAxis);

}

// Clean up

pictureBox.Image = _canvasFrequencyDomain;

offScreenDC.Dispose();

}

void WaveIn(short* buf, int len)

{

//raspoznavat

}

}

}

2. Листинг программы - Speech Recognition (Matlab)

2.1) CMN.m

function NormMatrix = CMN(Matrix)

[r,c]=size(Matrix);

NormMatrix=zeros(г,c);

for i=1:c

MatMean=mean(Matrix(:,i)); %Derives mean for each column i in utterance

NormMatrix(:,i)=Matrix(:,i)-MatMean; %Subtracts mean from each element in

End

2.2) Recognition.m

clear all;

close all;

ncoeff = 13; %Required number of mfcc coefficients

N = 20; %Number of words in vocabulary

k = 3; %Number of nearest neighbors to choose

fs=16000; %Sampling rate

duration1 = 0.1; %Initial silence duration in seconds

duration2 = 2; %Recording duration in seconds

G=2; %vary this factor to compensate for amplitude variations

NSpeakers = 5; %Number of training speakers

fprintf('Press any key to start %g seconds of speech recording...', duration2);

pause;

silence = wavrecord(duration1*fs, fs);

fprintf('Recording speech...');

speechIn = wavrecord(duration2*fs, fs); % duration*fs is the total number of sample points

fprintf('Finlshed recording.\n');

fprintf('System is trying to recognize what you have spoken...\n');

speechIn1 = [silence;speechIn]; %pads with 150 ms silence

speechIn2 = speechIn1.*G;

speechIn3 = speechIn2 - mean(speechIn2); %DC offset elimination

speechIn = nreduce(speechIn3,fs); %Applies spectral subtraction

rMatrix1 = mfccf(ncoeff,speechIn,fs); %Compute test feature vector

rMatrix = CMN(rMatrix1); %Removes convolutional noise

Sco = DTWScores(rMatrix,N); %computes all DTW scores

[SortedScores,EIndex] = sort(Sco); %Sort scores increasing

K_Vector = EIndex(1:k); %Gets k lowest scores

Neighbors = zeros(1,k); %will hold k-N neighbors

for t = 1:k

u = K_Vector(t);

for r = 1:NSpeakers-1

if u <= (N)

break

else u = u - (N);

end

end

Neighbors(t) = N;

end

%Apply k-Nearest Neighbor rule

Nbr = Neighbors

%sortk = sort(Nbr);

[Modal.Freq] = mode(Nbr); %most frequent value

Word = strvcat('One','Two','Three','Four','Five','Six','Seven','Eight','Nine','Ten','Yes','No','Hello','Open','Close','Start','Stop','Dial','On','Off');

if mean(abs(speechIn)) < 0.01

fprintf('No microphone connected or you have not said anything.\n');

elseif ((k/Freq) > 2) %if no majority

fprintf('The word you have said could not be properly recognised.\n');

else

fprintf('You have just said %s.\n',Word(Modal,:)); %Prints recognized word

end

2.3) setTemplates.m

ncoeff=13; %Required number of mfcc coefficients

fMatrix1 = cell(1,20);

fMatrix2 = cell(1,20);

fMatrix3 = cell(1,20);

fMatrix4 = cell(1,20);

for j = 1:20

q = ['C:\SpeechData\Amir\5_' num2str(j) '.wav'];

[speechIn1,FS1] = wavread(q);

speechIn1 = myVAD(speechIn1); %Speech endpoint trimming

fMatrix1(1,j) = {mfccf(ncoeff,speechIn1,FS1)}; %MFCC coefficients are

%computed here

end

for k = 1:20

q = ['C:\SpeechData\Ayo\5_' num2str(k) '.wav'];

[speechIn2,FS2] = wavread(q);

speechIn2 = myVAD(speechIn2);

fMatrix2(1,k) = {mfcvcf(ncoeff,speechIn2,FS2)};

end

for l = 1:20

q = ['C:\SpeechData\Sameh\5_' num2str(l) '.wav'];

[speechIn3,F3] = wavread(q);

speechIn3 = myVAD(speechIn3);

fMatrix3(1,l) = {mfccf(ncoeff,speechIn3,FS3)};

end

for m = 1:20

q = ['C:\SpeechData\Jim\5_' num2str(m) '.wav'];

[speechIn4,FS4] = wavread(q);

speechIn4 = myVAD(speechIn4);

fMatrix4(1,m) = {mfccf(ncoeff,speechIn4,FS4)};

end

for n = 1:20

q = ['C:\SpeechData\Tope\5_' num2str(n) '.wav'];

[speechIn5,FS5] = wavread(q);

speechIn5 = myVAD(speechIn5);

fMatrix5(1,n) = {mfccf(ncoeff,speechIn5,FS5)};

end

%Converts the cells containing all matrices to structures and save

%structures in matlab .mat files in the working directory.

fields = {'One','Two','Three','Four','Five','Six','Seven','Eight','Nine','Ten','Yes','No','Hello','Open','Close','Start','Stop','Dial','On','Off'};

s1 = cell2struct(fMatrix1, fields, 2);

save Vectors1.mat -struct s1;

s2 = cell2struct(fMatrix2, fields, 2);

save Vectors2.mat -struct s2;

s3 = cell2struct(fMatrix3, fields, 2);

save Vectors3.mat -struct s3;

s4 = cell2struct(fMatrix4, fields, 2);

save Vectors4.mat -struct s4;

s5 = cell2struct(fMatrix5, fields, 2);

save Vectors5.mat -struct s5;


Подобные документы

  • Проектирование системы голосового управления в автоматизированных жилых комплексах. Распознавание и порождение (синтез) речи компьютером. Синтез устной речи. Технология поиска ключевых слов. Нейросетевое сравнение на основе простых персептронов.

    дипломная работа [4,3 M], добавлен 19.06.2011

  • Принцип работы нейросетей и модели синтеза. Ключевые моменты проблемы распознавания речи. Система распознавания речи как самообучающаяся система. Описание системы: ввод звука, наложение первичных признаков на вход нейросети, модель и обучение нейросети.

    курсовая работа [215,2 K], добавлен 19.10.2010

  • Разработка программной базы для исследований в области распознавания речи и поиска ключевых слов в ней. Расчет mel-фильтров. Скрытые марковские модели. Применение в алгоритме сверточного декодирования Витерби. Методы визуализации и обработки аудиоданных.

    курсовая работа [1,1 M], добавлен 01.06.2015

  • Процессы распознавания символов. Шаблонные и структурные алгоритмы распознавания. Процесс обработки поступающего документа. Обзор существующих приложений по оптическому распознаванию символов. Определение фиксированного шага и сегментация слов.

    дипломная работа [3,3 M], добавлен 11.02.2017

  • Необходимость в системах распознавания символов. Виды сканеров и их характеристики. Оптимальное разрешение при сканировании. Программы распознавания текста. Получение электронного документа. FineReader - система оптического распознавания текстов.

    презентация [469,2 K], добавлен 15.03.2015

  • Фильтрация шумов изображения. Алгоритмы его бинаризации и поворота. Формирование информативных признаков для распознавания нот. Схема программного обеспечения. Описание классов, функций, методов, реализованных в программе. Тестирование приложения.

    курсовая работа [2,0 M], добавлен 17.12.2013

  • Выбор типа и структуры нейронной сети. Подбор метода распознавания, структурная схема сети Хопфилда. Обучение системы распознавания образов. Особенности работы с программой, ее достоинства и недостатки. Описание интерфейса пользователя и экранных форм.

    курсовая работа [3,0 M], добавлен 14.11.2013

  • Распознавание текста на изображениях как очень важная задача, имеющая множество практических приложений. Особенности архитектуры интегрированной системы получения текстовой информации из изображений. Общая характеристика методов выделения текста.

    курсовая работа [1,7 M], добавлен 12.06.2016

  • Анализ существующих алгоритмов распознавания режимов работы газотурбинного двигателя. Метод группового учета аргументов, метод Байеса. Применение технологий системного моделирования на этапе проектирования интеллектуальной системы распознавания режимов.

    курсовая работа [1,4 M], добавлен 11.04.2012

  • Строение артикуляционного аппарата человека с точки зрения возможности распознавания речи по артикуляции. Комплекс параметров артикуляции на основе контура внутренней области губ. Реализация модуля распознавания фонем русской речи по изображениям губ.

    дипломная работа [3,1 M], добавлен 19.08.2012

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.