Характеристика маркетинга как концепции управления
Современное состояние концепции, переход от массового маркетинга к персонифицированному. Организационная структура, характеристика элементов и их взаимосвязь. Необходимость в использовании маркетинга как концепции управления, функциональная структура.
Рубрика | Маркетинг, реклама и торговля |
Вид | учебное пособие |
Язык | русский |
Дата добавления | 23.03.2011 |
Размер файла | 1,0 M |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
ь Коэффициент вариации - величина относительной изменчивости переменной, представляющая собой отношение ее стандартного отклонения к ее среднему значению. Коэффициент вариации имеет смысл, если переменную измеряют по относительной шкале.
3. Показатели формы распределения - полезны для понимания природы распределения переменной. Форму распределения оценивают с помощью асимметрии и эксцесса.
ь Асимметрия. Распределение переменной может быть симметричным или асимметричным (скошенным). При симметричном распределении частоты любых двух значений переменной, которые расположены на одном и том же расстоянии от центра распределения, одинаковы. Равны между собой также и значения среднего арифметического, моды и медианы. Распределение асимметрично, если значения переменной, равноудаленные от среднего, имеют разную частоту, т.е. одна ветвь распределения вытянута больше.
ь Эксцесс - это показатель относительной крутости (островершинности или плосковершинности) кривой вариационного ряда по сравнению с нормальным распределением. Эксцесс нормально распределенной случайной величины равен нулю. Если эксцесс положителен, то распределение более островершинно. При отрицательном значении распределение более плосковершинно по сравнению с нормальным.
ПРОВЕРКА ГИПОТЕЗ:
Базовый анализ данных неизменно включает в себя статистическую проверку гипотез. Этапы проверки:
1. Формулирование гипотез. Нулевая гипотеза - предположение о том, что между определенными статистическими параметрами генеральной совокупности (средними или долями) не существует связи или различия. Ее подтверждение не требует от компании каких-либо действий. Альтернативная гипотеза - утверждение о том, что между определенными статистическими параметрами (средними или долями) генеральной совокупности есть связь или различия. Ее подтверждение означает, что руководству компании следует предпринимать какие-либо действия или менять свои взгляды на положение дел.
Маркетолог всегда проверяет именно нулевую гипотезу. Она имеет отношение к конкретному значению параметра совокупности а не к выборочным статистикам.
Проверка гипотез имеет два исхода: нулевая гипотеза отвергается, а альтернативная -- принимается, или нулевая гипотеза не отклоняется, исходя из представленных доказательств.
В исследованиях нулевую гипотезу формулируют так, что ее непринятие ведет к желаемому заключению. Альтернативная гипотеза представляет заключение, для которого маркетологи ищут доказательство его справедливости. Если она подтверждается - разрабатываются планы действий для изменения ситуации.
Для проверки используется: Односторонний критерий - критерий проверки нулевой гипотезы, когда альтернативная гипотеза имеет четкую направленность. И Двусторонний критерий - критерий проверки нулевой гипотезы, когда альтернативная гипотеза не имеет четкой направленности.
2. Выбор подходящего метода проверки. Т.е. для проверки нулевой гипотезы необходимо выбрать подходящий статистический метод (статистический критерий). Исследователь должен принимать во внимание саму процедуру вычисления выборочной статистики и характерное для нее выборочное распределение. Выборочная статистика критерия - мера соответствий выборки нулевой гипотезе. Она часто подчиняется таким распространенным распределениям, как нормальное, Стьюдента (т-распределение) или хи-квадрат распределение.
3. Выбор уровня значимости. Какой бы вывод мы ни сделали в отношении изучаемой совокупности, всегда существует риск неверного заключения. При этом встречаются два типа ошибок.
Ошибка I рода (альфа-ошибка) - имеет место тогда, когда по результатам выборочного распределения отклоняют нулевую гипотезу, которая на самом деле верна. Вероятность ошибки первого рода устанавливается, исходя из допустимого уровнях риска отклонения истинной нулевой гипотезы. Выбор уровня риска зависит от того, во сколько оценивается ошибка первого рода.
Ошибка II рода (бета-ошибка) - имеет место тогда, когда результаты выборки ведут к принятию нулевой гипотезы, которая фактически ошибочна. Вероятность совершения ошибки II рода также называют мощностью статистического критерия. Мощность критерия - вероятность отклонения нулевой гипотезы, когда она неверна и должна быть отвергнута. Хотя величина ? неизвестна, она связана с ?. Чрезвычайно низкое значение ? (например, 0,001) приведет к недопустимо высокому значению ?. Поэтому необходимо сбалансировать два типа ошибок. В качестве компромисса ? часто устанавливают равной 0,05; иногда ей присваивают значение 0,01; другие значения а встречаются редко. Риском ? и ? можно управлять, увеличив размер выборки. Для данного уровня значимости ? увеличение размера выборки уменьшит значение ?, повысив тем самым мощность статистического критерия.
4. Сбор данных. Определяют размер выборки, приняв во внимание желаемые значения вероятностей сокращения ошибок I и II рода и других количественных факторов. Затем вычисляют значение выборочной статистики. Здесь можно использовать Z-статистику:
,
где р-выборочная доля, - доля элементов, обладающих признаком, - среднеквадратическое отклонение по выборочным долям:
5. Определение критического значения Z-статистики. Определение вероятности, которую примет статистика критерия при выполнении нулевой гипотезы, установленной значением критерием Z-статистики. Для этого исследуют таблицы нормального распределения. Сравнивают полученные значения Z-параметра с критическим и делают вывод, какая гипотеза подтверждается: нулевая или альтернативная.
6. Этапы 6 и 7. Сравнение выборочного значения Z-статистики с критическим значением и принятие решения. Если вероятность получения вычисленного значения выборочной статистики меньше, чем уровень значимости ?, то нулевую гипотезу отклоняют. Справедливо и следующее утверждение: если вычисленное значение выборочной статистики больше, чем критическое значение, то нулевую гипотезу также отклоняют.
8. Вывод с точки зрения маркетингового исследования.
На основании результатов проверки статистической гипотезы следует сделать заключение с точки зрения стоящей перед нами проблемы маркетингового исследования. Маркетологи используют проверку статистической гипотезы как ля проверки наличия связей между переменными, так и для проверки различий между параметрами генеральной совокупности.
ПОСТРОЕНИЕ ТАБЛИЦ СОПРЯЖЕННОСТИ ПРИЗНАКОВ
Помимо ответов на вопросы, относящихся к анализу одной переменной, маркетологов часто интересуют дополнительные вопросы о связи этой переменной с другими переменными.
Построение таблиц сопряженности признаков, кросс-табуляция - статистический метод, который одновременно характеризует две или больше переменных и заключается в создании таблиц сопряженности признаков, отражающих совместное распределение двух или больше переменных с ограниченным числом категорий или определенными значениями.
Кросс-табуляция представляет собой процесс объединения распределений частот значений двух или больше переменных в одну таблицу. Категории одной переменной помешают в таблицу так, чтобы они размещались в ней {сопрягались) в соответствии с категориями другой или другими несколькими переменными. Таким образом, распределение частот одной переменной подразделяется на группы в зависимости от категорий других переменных.
Таблицами сопряженности широко пользуются при проведении прикладных маркетинговых исследований, поскольку
¦ менеджеры, которые недостаточно владеют статистическими методами, легко интерпретируют и понимают процедуру кросс-табуляции и ее результаты;
¦ очевидность трактовки результатов анализа ясно свидетельствует о возможных управленческих действиях;
¦ ряд операций кросс-табуляции позволяет лучше понять сложное явление, чем это сделал бы один многовариантный анализ;
¦ кросс-табуляция облегчает проблему разбросанных ячеек, которая затрудняет дискретный много вариантный анализ;
¦ анализ методом кросс-табуляции прост для выполнения и поэтому обращен к исследователям, менее искушенным в вопросах статистики.
Построение таблиц сопряженности для двух и трех переменных.
Кросс-табуляцию с двумя переменными можно рассматривать как двумерную. Например, кросс-табуляция данных, касающихся пола и использования Интернет. В данном случае возможно два варианта построения таблиц. Выбор варианта зависит от того, какая переменная рассматривается как независимая, а какая как зависимая. Общее правило гласит - проценты необходимо вычислять для каждой категории независимой переменной (так, чтобы суммарное значение категорий зависимой переменной применительно к каждой категории независимой переменной давало 100%).
Часто введение третьей переменной позволяет маркетологу четче уяснить природу исходной связи между двумя переменными. Третья переменная может привести к четырем возможностям:
1.Уточнить связь, наблюдаемую между двумя исходными переменными.
2. Указать на отсутствие связи между двумя переменными, хотя первоначально связь наблюдалась. Другими словами, третья переменная покажет, что исходная связь между двумя переменными была ложной.
3. Показать некоторую связь между двумя переменными, хотя первоначально она не наблюдалась. В этом случае третья переменная показывает скрытую связь между первыми двумя переменными.
4. Не показать никаких изменений в первоначальной связи.
Необходимо отметить, что кросс-табуляция - неэффективный способ проверки связей для ситуаций с несколькими переменными, она рассчитает просто связь между переменными, а не причинность.
Для таблиц сопряженности признаков можно рассчитывать некоторые статистики:
ь Критерий хи-квадрат - критерий, используемый для проверки статистической значимости наблюдаемых связей в таблицах сопряженности признаков. Он помогает определить наличие или отсутствие систематической связи между двумя переменными. При этом в нулевой гипотезе утверждает, что между двумя переменными не существует никакой связи. Проверка нулевой гипотезы выполняется вычислением частот распределения признаков анализируемых переменных в ячейках таблицы, которые можно было бы ожидать, если бы не существовало зависимости между переменными, и при данных итоговых числах в каждом ряду и колонке. Для проведения проверки определяют прежде всего ожидаемую частоту: , где - итоговое число в ряду, - итоговое число в колонке.
С учетом ожидаемой частоты определяют хи-квадарат:
,
где - фактически наблюдаемая частота признака, - ожидаемая частота. Чем больше разница между ожидаемыми и фактическими частотами, тем выше значение статистики.
Важной характеристикой критерия хи-квадрат является число степеней свободы: , r - кол-во рядов/строк, с - столбцов/колонок. Нулевая гипотеза отклоняется - когда расчетное значение хи-квадрат больше критического значения хи-квадрат с ответствующим числом степеней свободы.
Распределение хи-квадрат представляет собой асимметричное распределение, форма которого зависит исключительно от числа степеней свободы: с ростом чиста степеней свободы распределение хи-квадрат становится более симметричным.
Статистику хи-квадрат также можно использовать в проверках степени согласия, чтобы определить, согласуется ли определенная модель с наблюдаемыми данными. Эти проверки выполняют вычислением значимости (уровня статистической значимости) выборочных отклонений от предполагаемых теоретических (ожидаемых) распределений, а также можно выполнить как на основе таблиц сопряженности, так и на основе таблиц распределения частот (одномерная табуляция).
Значение хи-квадрат следует вычислять только для числовых данных. Если данные представлены в виде процентов, то сначала их необходимо перевести в абсолютные единицы или числа. Кроме того, допущение, лежащее в основе проверки с помощью критерия хи-квадрат заключается в том, что наблюдения проведены независимо.
Правило: проверку по критерию хи-квадрат нельзя выполнять, если ожидаемые или теоретические частоты в любой из ячеек меньше пяти. Если число наблюдений в любой ячейке меньше десяти, или если таблица имеет два рядка и две колонки (таблица 2 х 2), то необходимо использовать поправочный коэффициент. С поправочным коэффициентом значение хи-квадрат = 2,133, что не является значимым при уровне значимости, равном 0,05. Поэтому лучше использовать другую статистику (фи-коэффициент).
ь Фи-коэффициент - мера тесноты связи переменных для конкретного вида таблицы: с двумя рядками и двумя колонками (таблица 2 х
,
ь где - хи-квадрат. Фи-квадрат принимает значение, равное 0, если связь отсутствует, на что также указывает и значение хи-квадрат, равное 0. При сильной связи между переменными фи-коэффициент имеет значение 1 и все наблюдения находятся на главной или второстепенной диагонали.
ь Коэффициент сопряженности признаков - мера тесноты связи в таблицах любого размера. Так, фи-коэффициент применяют только к таблице 2 X 2, а коэффициент сопряженности признаков используют для оценки тесноты связи в таблицах любого размера. , Значения коэффициента сопряженности находятся в диапазоне от 0 до 1. При отсутствии связи он равен нулю (т.е. переменные статистически независимы), но своего максимального значения (1) он никогда не достигает. Максимальное значение коэффициента сопряженности зависит от размера таблицы (числа рядков и колонок). Поэтому он используется только для сравнения таблиц одинакового размера.
ь V-коэффициент Крамера - мера тесноты связи, используемая в таблицах, больших по размеру, чем 2x2. Коэффициент Крамера получают путем корректировки фи-коэффициента в зависимости от количества строк и столбцов, находящихся в пределах от 0 до 1. Чем больше значение к V-коэффициента - тем сильнее связь между показателями, но он не указывает как связаны переменные.
,
где r - кол-во строк, c - столбцов.
ь Коэффициент "лямбда" - используется если, переменные измерены с помощью номинальной шкалы. Асимметрический коэффициент "лямбда" показывает выраженное в процентах улучшение при прогнозировании значения зависимой переменной при данном значении независимой переменной.
Значения коэффициента "лямбда" лежат в пределах от 0 до 1. Значение "лямбда", равное О, означает, что никакого улучшения в прогнозировании не наблюдается. Значение 1 указывает на то, что прогноз может быть сделан без ошибки. Это происходит тогда, когда каждая категория независимой переменной связана с одной категорией зависимой переменной.
Асимметрический коэффициент "лямбда" подсчитывают для каждой из зависимых переменных. Также рассчитывают симметричный коэффициент "лямбда" - он не дает предположения о том, какая из переменных зависимая. Он измеряет общее улучшение прогнозирования, когда прогноз уже сделан в обоих направлениях.
Таким образом, кросс-табуляции - это наиболее простой метод анализа данных и дает достоверные данные, если проверка этих табуляций будет проведена в определенной последовательности. В частности, правильно будет сформулирована и проверена нулевая гипотеза. Ее проверка может быть проведена с помощью хи-квадрат.
Если гипотеза подтверждается - связи между переменными нет, значит дальше использовать данную табуляцию нет смысла.
Если гипотеза отклонена - необходимо выяснить тесноту связи между переменными (фи-коэф., коэф. сопряженности, коэф. Крамера, лямбда). Если связь есть и она сильна - делают выводы.
ПРОВЕРКА ГИПОТЕЗ О РАЗЛИЧИЯХ
Часто в маркетинговых исследованиях возникает проверка гипотезы о различиях, которая предполагает использование различных статистик в зависимости от того:
· Какие данные использует исследователь
· Сколько выборок сформировано
Процедуры проверки гипотез можно в общем виде классифицировать на параметрические и непараметрические. Параметрические методы - предполагают, что изучаемые переменные измерены с помощью интервальной шкалы и полученные данные называют метрическими.
Непараметрические методы - предполагают, что переменные измерены с помощью номинальной или порядковой шкал и полученные данные называют неметрические.
Дальнейшая классификация проводится в зависимости от количества выборок: одна, две или больше.
Выборки независимы в том случае, если взяты случайным образом из различных генеральных совокупностей.
Выборки являются парными (связанными), когда данные двух выборок имеют отношение к одной и той же группе респондентов.
Метрические данные |
Неметрические данные |
|||
1 выборка |
Т-критерий Z-критерий |
1 выборка |
Хи-квадрат кр.Колмогорова-Cмирнова кр. Манна-Уитни |
|
2независ. выборки |
Двухгрупповой Т-критерий Z-критерий |
2независ. выборки |
кр.Колмогорова-Cмирнова кр. Манна-Уитни |
|
Парные выборки |
Парный Т-критерий |
Парные выборки |
Хи-квадрат Кр. МакНемара Кр. Вилкоксона |
Процедура проверки гипотезы о различиях
1. Сформулировать основную и альтернативную гипотезы
2. Выбрать статистику для проверки гипотез
3. Выбрать уровень значимости (?) для проверки правильности гипотезы [~0,75]
4. Количество выборок, которое будет использоваться и для каждой выбрать среднее значение и стандартное отклонение
5. Вычислить значение Т-статистики, предположив, что нулевая гипотеза верна
6. Сопоставить полученные статистики с уровнем значимости ?: если расчет статистики< ?,гипотезу отклоняют; расчет> - гипотезу принимают
Используемые статистики:
Ш Т-критерий - одномерный метод проверки гипотез, использующий t-распределение. Применяется, если стандартное отклонение неизвестно и размер выборки мал.
,
где - ср.значение ГС (генеральная средняя), - ср.значение заданной в утверждении нулевой гипотезы, - стандартная ошибка среднего по исследуемой выборке. Т-распределение - симметричное колоколоподобное распределение, используемое для проверки выборок небольшого размера (п < 30).
Ш Z-критерий - одномерный метод проверки гипотезы, использующий стандартное нормальное распределение. Используется, когда известно стандартное отклонение ГС:
,
где - стандартное отклонение ГС
Ш Если работают с 2 независимыми выборками и измерения, проведенные в 1 выборке не оказывают влияния на другую - вычисления можно проводить на основе средних значений по каждой выборке. При этом определяют среднее значение и дисперсии.
Если расчетные значения дисперсии совпадают в обоих выборках - можно использовать показатель объединенной дисперсии, который рассчитывается из двух дисперсий выборок. В этом случае, Т-статистику определяют:
,
где 1,2 - выборки. Число степеней свободы в данном случае = n1+n2 -2
Ш Если неизвестно, равны ли дисперсии двух совокупностей, то для проверки выборочной дисперсии используем F-критерий (критерий Фишера) - статистический критерий для проверки равенства двух дисперсий из двух совокупностей.
,
где S1,2 - дисперсия для выборки 1,2; - степени свободы.
Вообще, F-статистика позволяет определять распределение частот в зависимости от числа степеней свободы. Если вероятность F-статистики выше уровня значимости ?, то нулевую гипотезу не отклоняют и используют t-критерий, в основе которого лежит оценка объединенной дисперсии. Если вероятность F-статистики меньше или равна а, то нулевую отклоняют и используют t-критерий, в основе которого лежит оценка отдельных дисперсий.
Ш t-критерий парных выборок - критерий для различий средних значений парных выборок. Чтобы вычислить значение t-критерия для парных выборок, вводят переменную разности, обозначаемую D, и вычисляют ее среднее и дисперсию. После этого вычисляют t-статистику. Число степеней свободы равно п -- 1, где п -- число пар:
,
где и
Ш U-критерий Манна-Уитни - статистический критерий для переменной, измеренной с помощью порядковой шкалы, который сравнивает различие в показателях положений двух совокупностей, исходя из наблюдений, взятых из двух независимых выборок. При использовании этого показателя 2 выборки объединяют и все проведенные наблюдения ранжируют в порядке возрастания значений. Сам критерий вычисляют, как число повторений рангов из одной выборки, которое стоит впереди рангов второй.
Ш Критерий серий - критерий случайности для дихотомических (двузначных) переменных. Эту проверку выполняют, определяя, действительно ли порядок или последовательность, в которой получены наблюдения, случайны.
Ш Биномиальный критерий - статистический критерий согласия для дихотомических переменных. Он проверяет степень согласия наблюдаемого числа наблюдений в каждой категории с числом наблюдений, ожидаемым в условиях конкретного биномиального распределения.
Ш Критерий Колмогорова-Смирнова - стат.проверка, проводимая по выборке из упорядоченных данных для определения, соответствует ли определенный наблюдавшийся образец частот ожидаемому образцу; используется также для определения того, взяты ли две независимые выборки из оной и той же ГС или из совокупностей с одними и тем же распределением.
Ш Критерий попарных сравнений Вилкоксона - метод проверки, посредством которого анализируют разности между парными наблюдениями, учитывая их величину. Используется для изучения различий в показателях центральной тенденции двух генеральных совокупностей на основе парных наблюдений. В этом методе вычисляют разности между парами переменных и ранжируют абсолютные значения разностей. На следующем этапе суммируют положительные и отрицательные ранги. Далее на основании положительных и отрицательных сумм рангов рассчитывают z-статистику. В соответствии с нулевой гипотезой, утверждающей об отсутствии различий, z представляет собой случайную величину, распределенную по нормальному закону, со значением медианы, равным 0, и дисперсией 1 для больших выборок. Критерий Уилкоксона соответствует парному t-критерию.
В углубленном анализе используются также и более сложные виды анализа: дисперсионный и ковариационный, регрессионный и корреляционный, дискриминантный, факторный, кластерный анализ, многомерное шкалирование и совместный анализ.
КОРРЕЛЯЦИОННЫЙ И РЕГРЕССИОННЫЙ АНАЛИЗ
КОРРЕЛЯЦИОННЫЙ АНАЛИЗ - статистический метод, используемый для оценки степени близости взаимосвязи между двумя и более сопоставимыми по интервалу переменными к линейной.
Парная корреляция. Часто при проведении исследования нас интересует связь между двумя метрическими переменными, как, например: (1)Насколько сильно связан объем продаж с расходами на рекламу? (2)Существует ли связь между долей рынка и количеством торгового персонала? (3)Связано ли восприятие качества товаров потребителями с их восприятием цены?
Размещено на http://www.allbest.ru/
В таких ситуациях наиболее широко используемой статистикой является коэффициент парной корреляции, который характеризует степень тесноты связи между двумя метрическими (измеряемыми с помощью интервальной или относительной шкал) переменными. Его также называют коэффициентом корреляции Пирсона, простой коэффициент корреляции, линейный коэффициент корреляции или просто коэффициент коррекции. Он используют, чтобы определить, существует ли между переменными линейная зависимость. Он показывает степень, в которой вариация одной переменной X связана с вариацией другой переменной У, т.е. меру зависимости между переменными Х и У.
.
Его квадрат - измеряет долю вариации одной из переменных, обусловленную вариацией другого. Коэффициент парной корреляции измеряется в пределах: 0±1. Чем ближе коэффициент к 1, тем сильнее (теснее) связь.
r: 0,2-0,3 |
r :0,31-0,74 |
r : >0,75 |
|
слабая |
средняя |
сильная |
Связь оценивается не только «по силе», но и «по знаку»: она может быть как положительной (связь прямая - с ростом факторной величины увеличивается результирующая)), так и отрицательной (обратная - с ростом факторной величины результирующая снижается).
Частная корреляция. Это мера зависимости между двумя переменными при фиксированных (исключенных) или скорректированных эффектах одной или нескольких переменных. Позволяет ответить на следующие вопросы:
Размещено на http://www.allbest.ru/
(1)Зависит ли объем продаж от расходов на рекламу, если фиксировать влияние цены? (2) Существует ли связь между долей рынка и количеством торгового персонала, если зафиксировать эффект от усилий по продвижению товара? (3) Связано ли восприятие качества товаров потребителями с их восприятием цены, если исключить эффект торговой марки?
В этих ситуациях необходимо вычислить силу связи между X и Y, исключив при этом эффект влияния третьей переменной Z. Сначала следует удалить эффект Z из значения переменной X. Для этого следует использовать коэффициент парной корреляции между X и Z, и вычислить значения X, исходя из информации о Z. Затем полученное значение X вычитают из фактического значения X, получая скорректированное значение X. Аналогично корректируют значения У, чтобы исключить эффект, и скорректированный коэффициент обозначают
Частные коэффициенты корреляции характеризуются так называемом порядком, который указывает количество переменных, на которые необходимо внести поправку или которые следует проконтролировать (исключить). Простой коэффициент корреляции имеет нулевой порядок, поскольку отсутствует необходимость исключать дополнительные переменные при определении силы связи между двумя переменными. Коэффициент представляет собой частный коэффициент корреляции первого порядка, т.к. при его расчете контролируют эффект от влияния одной дополнительной переменной Z, частный коэффициент корреляции второго порядка контролирует эффект от влияния двух переменных и т.д.
Частные коэффициенты корреляции могут оказаться полезными для выявления ложных связей. Связь между X и Y является ложной, если X связана с Z, которая является (независимой переменной) для У. В этом случае корреляция между X и У исчезнет, если контролировать эффект от влияния переменной Z.
Частичный коэффициент корреляции - Мера зависимости между У и X, когда линейные эффекты других независимых переменных исключены из X (но не из У).
НеметричесРазмещено на http://www.allbest.ru/
кая корреляция. Коэффициент неметрической корреляции - Показатель корреляции для двух неметрических переменных, в котором используются ранги переменных.
Иногда необходимо вычислить коэффициент корреляции между двумя неметрическими переменными. Вспомним, что неметрические переменные нельзя измерить с помошью интервальной или относительной шкалы и они не подчиняются закону нормального распределения. Если мы имеем дело с порядковыми и числовыми неметрическими переменными, то для изучения связи между ними можно использовать два показателя неметрической корреляции: коэффициент ранговой корреляции Спирмена и коэффициент ранговой корреляции Кендалла.
Для вычисления обоих коэффициентов используют ранги, а не абсолютные значения переменных, и подход, лежащий в основе их применения, совершенно одинаков. Оба коэффициента изменяются в диапазоне от--1 до +1.
Правило: коэффициент ранговой корреляции Кендалла целесообразно использовать, когда большинство наблюдений попадает в относительно небольшое число категорий (что приводит к большому количеству связанных рангов). И наоборот, целесообразно использовать коэффициент Спирмена, когда мы имеем относительно большое число категорий (что приводит к небольшому количеству совпадающих рангов).
Парная корреляция, так же как частный и частичный коэффициенты корреляции, составляют концептуальную основу для парного и множественного регрессионного анализа.
РЕГРЕССИОННЫЙ АНАЛИЗ - статистический метод, используемый для построения уравнения, которое соотносит единственную переменную-критерий с одной или более переменными предикторами; когда рассматривается одна переменная-предиктор имеет место простой регрессионный анализ, тогда как во множественном регрессионном анализе участвуют две и более переменных-предикторов.
Регрессионный анализ используют в следующих случаях.
1. Действительно ли независимые переменные обуславливают значимую вариацию зависимой переменной: действительно ли эти переменные взаимосвязаны?
2. В какой степени вариацию зависимой переменной можно объяснить независимыми переменными: теснота связи?
3. Определить форму связи: математическое уравнение, описывающее зависимость между зависимой и независимой переменными. Предсказать значения зависимой переменной.
4. Контролировать другие независимые переменные при определении вкладов конкретной переменной.
Хотя независимые переменные могут объяснять вариацию зависимой переменной, это необязательно подразумевает причинную связь. Использование в регрессионном анализе таких терминов, как зависимая или переменная- критерий и независимая (предиктор) отражает наличие математической зависимости между переменными. Данная терминология не подразумевает существование причинно-следственной связи между переменными. Регрессионный анализ имеет дело с природой и степенью связи между переменными и не предполагает, что между ними существует какая-либо причинная связь.
Различают парную регрессию (одна переменная предиктор) и множественную (несколько предикторов).
С помощью парной регрессии устанавливается математическая зависимость (в виде уравнения) между метрической зависимой переменной и метрической независимой переменной (предиктором). Уравнение описывает прямую линию, и для его вывода используют метод наименьших квадратов. В случае построения регрессии с нормированными данными отрезок, отсекаемый на оси ОУ, принимает значение, равное 0, и коэффициенты регрессии называют взвешенными "бета"-коэффициентами. Силу тесноты связи измеряют коэффициентом детерминации, который показывает, насколько изменился результат под влиянием учтенного в анализе факторного признака. Стандартную ошибку уравнения регрессии используют для оценки точности предсказания, и ее можно интерпретировать как род средней ошибки, сделанной при теоретическом предсказании У, исходя из уравнения регрессии.
Множественная регрессия - статистический метод, с помощью которого можно вывести математическую зависимость между двумя и более независимыми переменными и зависимой, выраженной с помощью интервальной и относительной шкалы. Частный коэффициент регрессии представляет ожидаемое изменение У, когда X, меняется на одну единицу, а переменные от Х2 до Хк остаются постоянными. Силу тесноты связи измеряют коэффициентом множественной детерминации . Значимость общего уравнения регрессии проверяется общим F-критерием. Отдельные частные коэффициенты регрессии можно проверить на значимость, используя F-критерий приращений. Диаграммы рассеяния остаточных членов, когда их значения представлены графически в зависимости от предсказанных теоретических значений У,, времени или предикторов, полезны для проверки соответствия основным допущениям и подобранной регрессионной модели.
При пошаговой регрессии предикторы вводят или выводит из уравнения регрессии один за другим с целью выбора меньшего их числа, которые объясняют большую часть вариации критериальной переменной. В случае пошаговой и множественной регрессии возможна Мультиколлинеарность - очень высокая взаимная корреляция между предикторами. Наличие тесной связи между независимыми переменными означает введение в анализ переменных, дублирующих друг друга, что в целом приводит к искажению результатов. При выявлении мультиколлинеарности одна из переменных, являющаяся возбудителем спокойствия, должна быть исключена из анализа.
Перекрестная проверка может установить, верна ли регрессионная модель для сопоставимых данных, не использованных при ее вычислении. Она является полезным методом при оценке регрессионной модели.
Можно использовать номинальные (категориальные) переменные как предикторы путем их кодирования как фиктивных переменных (способных принимать лишь два значения 0 и 1). Множественная регрессия с фиктивными переменными предоставляет общий метод для выполнения дисперсионного и ковариационного анализа.
ДИСПЕРСИОННЫЙ И КОВАРИАЦИОННЫЙ АНАЛИЗ
Используются для изучения различий средних значений зависимых переменных, вызванных влиянием контролируемых независимых переменных, при условии, что учтено влияние неконтролируемых независимых переменных. По сути, дисперсионный анализ применяют как проверку статистической значимости различий выборочных средних для двух или больше совокупностей. Обычно нулевая гипотеза утверждает, что все выборочные средние равны. Например, исследователю интересно узнать, действительно ли люди с различным уровнем потребления сухих завтраков (едят много, средне, слабо и вообще не едят) различаются предпочтением к То1а1 сегеа!, измеренным по девяти балльной шкале Лайкерта. Проверку нулевой гипотезы, утверждающей, что четыре группы потребителей не различаются предпочтением к То1а1, можно выполнить, используя дисперсионный анализ.
Дисперсионный анализ - статистический метод изучения различий между выборочными средними для двух или больше совокупностей.
В своей простейшей форме дисперсионный анализ должен иметь зависимую переменную (предпочтение к сухому завтраку То/а! сегеа!), которая является метрической (измеренной с помощью интервальной или относительной шкалы). Кроме того, должна быть одна или больше независимых переменных (потребление продукта: сильное, среднее, слабое и отсутствие потребления). Все независимые переменные должны быть категориальными (неметрическими), их еще называют факторами
Конкретная комбинация уровней факторов называется факторным экспериментом (условиями испытаний)
Однофакторный дисперсионный анализ включает только одну категориальную переменную или единственный фактор. Различия в предпочтениях потребителей с сильным, средним, слабым и нулевым уровнями потребления можно изучить с помощью однофакторного анализа (также Зависит ли намерение потребителей приобрести товар данной торговой марки от разницы в уровнях цен? Различаются ли разные сегменты рынка с точки зрения объема потребления товара?), в котором факторный эксперимент представлен определенным уровнем фактора (пользователи со средним уровнем потребления как раз и составляют факторный эксперимент).
Основные статистики, используемые в однофакторном дисперсионном анализе:
Эта-квадрат - корреляционное отношение. С ее помощью выражают степень влияния или силу эффекта независимой переменной, фактора на зависимую. Значение его лежит в интервале от 0 до 1.
F-статистика - отношение межгрупповой дисперсии к дисперсии ошибки (отношение среднего квадрата X к среднему квадрату ошибки). C его помощью проверяют нулевую гипотезу о том, что категориальные средние в двух выборочных совокупностях равны.
Средний квадрат - сумма квадратов отклонений наблюдений, деленная на соответствующее ей число степеней свободы.
SSмежду, вариация зависимой переменной, обусловленная различием средних между группами (межгрупповая дисперсия) Вариация переменной У, связанная с вариацией средних значений категорий переменной X, Она представляет собой вариацию между уровнями переменной или долю в сумме квадратов переменной У, связанную с переменной X.
SSвнутри, вариация зависимой переменной, обусловленная вариацией внутри каждой группы категорий (внутригрупповая дисперсия). Это вариация переменной У, обусловленная изменением внутри каждой из групп переменной X. Она осуществляется за счет всех факторов, кроме X (при исключенном X).
Общая сумма квадратов SSy - Полная дисперсия переменной У.
Процедура выполнения однофакторного дисперсионного анализа: (1) определение зависимой и независимой переменных; (2) разложение полной дисперсии (на два компонента: вариация связанная с независимой переменной, и вариация, связанная с ошибкой); (3) измерение эффектов (эффект влияния независимой переменной на зависимую); (4) проверка значимости (проверка нулевой гипотезы, утверждающей, что групповые средние в рассматриваемой совокупности равны, с помощью F-статистики); (5) интерпретация результатов (если нулевую гипотезу не отклоняют, то незав.переменная не оказывает статистически значимого влияния на зависимую; если нулевую отклоняют, то эффект незав.переменной на зависимую трактуется как статистически значимый. .
Многофакторный дисперсионный анализ - модель дисперсионного анализа, которая включает два или больше факторов. Т.е. включает одновременное исследование двух или больше категориальных независимых переменных. Процедура многофакторного анализа аналогична процедуре однофакторного. Статистики, соответствующие многофакторному анализу, также определяются аналогично определению статистик в однофакторном дисперсионном анализе. Главное преимущество этого анализа в том, что он позволяет изучить взаимодействия между независимыми переменными. Взаимодействия имеют место, когда эффекты одного фактора на зависимую переменную зависят от уровня других факторов. Значимость общего эффекта, эффекты взаимодействия и главные эффекты отдельных факторов изучают с помощью соответствующих F-критериев. Имеет смысл проверять значимость главных эффектов отдельных факторов, только если соответствующие эффекты взаимодействия незначимы.
Многомерный дисперсионный анализ - аналогичен дисперсионному анализу за исключением того, что вместо одной метрической зависимой переменной имеется две или больше переменных. В этом случае цель остается той же, поскольку многомерный анализ проверяет различия между группами. В отличие от одномерного (дисперсионного), который проверяет групповые различия в отношении единственной зависимой переменной, многомерный одновременно проверяет групповые различия в отношении нескольких зависимых переменных. При дисперсионном анализе нулевую гипотезу формулируют следующим образом: средние зависимой переменной равны во всех группах. Многомерный дисперсионный анализ лучше использовать, если имеется две или больше зависимых переменных, которые коррелируют. Если же имеется много зависимых переменных, которые не коррелируют или являются ортогональными, то лучше для каждой зависимой переменной выполнить одномерный дисперсионный анализ.
Если набор независимых переменных состоит из категориальных и метрических переменных, то их изучают методом КОВАРИАЦИОННОГО АНАЛИЗА - специальный метод анализа дисперсий, в котором эффекты одной или больше сторонних переменных, выраженных в метрической шкале, удаляют из зависимой переменной перед выполнением дисперсионного анализа.
Ковариационный анализ необходим, если исследователь хочет изучить предпочтения пользователей в группах с различным уровнем потребления и уровнем лояльности, приняв во внимание отношение респондентов к составу продуктов питания и к значению завтрака, как способу приема пищи. Две последние переменные измеряются шкале Лайкерта. В этом случае категориальные независимые переменные (потребление продукта и лояльность к торговой марке) по-прежнему называются факторами, в то время как метрические независимые переменные (отношение к составу продуктов питания и значение, придаваемое завтраку) -- ковариатами.
Ковариата - метрическая независимая переменная, используемая в ковариационном анализе.
Чаще всего ковариату используют для удаления посторонней вариации из зависимой переменной, поскольку самыми важными являются эффекты факторов. Вариацию в зависимой переменной, обусловленную ковариатой, удаляют корректировкой среднего значения зависимой переменной в пределах каждого условия эксперимента. Затем, исходя из скорректированных оценок, выполняют дисперсионный анализ. Значимость суммарного эффекта ковариат, как и эффект каждой ковариаты, проверяют с помощью F-критериев. Коэффициенты ковариат позволяют понять влияние, оказываемое на зависимую переменную. Ковариационный анализ наиболее полез, когда ковариата линейно связана с зависимой переменной и не связана с факторами.
ДИСКРИМИНАНТНЫЙ АНАЛИЗ
Используется для анализа данных в том случае, когда зависимая переменная категориальная, а предикторы (независимые переменные) интервальные.
Например, зависимая переменная может быть выбором торговой марки персонального компьютера (торговые марки А, В или С), а независимыми переменными могут быть рейтинги свойств персональных компьютеров, измеренные по семибалльной шкале Лайкерта. Дискриминантный анализ преследует такие цели.
1. Определение дискриминантных функций или линейных комбинаций независимых переменных, которые наилучшим образом различают (дискриминируют) категории (группы) зависимой переменной.
2. Проверка существования между группами значимых различий с точки зрения независимых переменных.
3. Определение предикторов, вносящих наибольший вклад в межгрупповые различия.
4. Отнесение случаев к одной из групп (классификация), исходи из значений предикторов.
5. Оценка точности классификации данных на группы.
Дискриминантная функция - выведенная посредством дискриминантного анализа линейная комбинация независимых переменных, с помощью которой можно наилучшим образом различить (дискриминировать) категории зависимой переменной.
Метод дискриминантного анализа описывается числом категорий, имеющихся у зависимой переменной. Если она имеет две категории, то метод называют дискриминантным анализом для двух групп. Если анализируют три или больше категорий, то метод называют множественным дискриминантным анализом.
Главное отличие между ними заключается в том, что при наличии двух групп возможно вывести только одну дискриминантную функцию. Используя множественный дискрими-нзнтный анализ, можно вычислить несколько функций.
С помощью этого метода можно получить ответы на:
¦ Чем, с точки зрения демографических характеристик, отличаются приверженцы данного магазина от тех, у кого эта приверженность отсутствует?
¦ Отличаются ли в потреблении замороженных продуктов покупатели, которые пьют безалкогольные напитки мало, умеренно и много?
¦ Различаются ли между собой различные сегменты рынка по своим предпочтениям к средствам массовой информации?
¦ Какие существуют различия между постоянными покупателями местных универсальных магазинов и постоянными покупателями общенациональных сетей универмагов с точки зрения стиля жизни?
¦ Какими отличительными характеристиками обладают потребители, реагирующие на прямую почтовую рекламу?
модель дискриминантного анализа
,
где D - дискриминантный показатель (дискриминант), b - дискриминантный коэффициент или вес, X-- предиктор или независимая переменная. Коэффициенты или веса определяют таким образом, чтобы группы максимально возможно отличались значениями дискриминантнои функции. Это происходит тогда, когда отношение межгрупповой суммы квадратов к внутригрупповой сумме квадратов для дискриминантных показателей максимально. Любая другая линейная комбинация предикторов приводит к меньшему значению этого отношения.
Статистики, связанные с дискриминантным анализом:
Каноническая корреляция - измеряет степень связи между дискриминантными показателями и группами. Это мера связи между единственной дискриминирующей функцией и набором фиктивных переменных, которые определяют принадлежность к данной группе.
Центроид (средняя точка) - это средние значения для дискриминантных показателей конкретной группы. Центроидов столько, сколько групп, т.е. один центроид для каждой группы. Средние группы для всех функций -- это групповые центроиды.
Классификационная матрица - ее называют смешанной матрицей, или матрицей предсказания. Онасодержит ряд правильно классифицированных и ошибочно классифицированных случаев. Верно классифицированные случаи лежат на диагонали матрицы, поскольку предсказанные и фактические группы одни и те же. Элементы, не лежащие по диагонали матрицы, представляют случаи, классифицированные ошибочно. Сумма элементов, лежащих на диагонали, деленная на общее количество случаев, дает коэффициент результативности.
Коэффициенты дискриминантной функции (ненормированные) - это коэффициенты переменных, когда они измерены в первоначальных единицах.
Дискриминантные показатели - сумма произведений ненормированных коэффициентов дискриминантной функции на значения переменных, добавленная к постоянному члену.
Собственное (характеристическое) значение - это отношение межгрупповой суммы квадратов к внутри-групповой сумме квадратов. Большие собственные значения указывают на функции более высокого порядка.
F-статистика и ее значимость - Значения F-статистики вычисляют однофакторный дисперсионный анализ, разбивая на группы независимую переменную. Каждый предиктор, в свою очередь, служит в дисперсионном анализе метрической зависимой переменной.
Средние группы и групповые стандартные отклонения - показатели вычисляют для каждого предиктора каждой группы.
Объединенная межгрупповая корреляционная матрица-вычисляют усреднением отдельных ковариационных матриц для всех групп.
Нормированные коэффициенты дискриминзнтных функций - коэффициенты дискриминантных функций используют как множители для нормированных переменных, т.е. переменных с нулевым средним и дисперсией, равной 1.
Структурные коэффициенты корреляции (дискриминантные нагрузки) - линейные коэффициенты корреляции между предикторами и дискриминантной функцией.
Общая корреляционная матрица - Если при вычислении корреляций наблюдения обрабатывают так, как будто они взяты из одной выборки, то в результате получают общую корреляционную матрицу.
Коэффициент ? Уилкса - для каждого предиктора -- это отношение внутри групповой суммы квадратов к общей сумме квадратов. Его значение варьирует от 0 до 1. Большое значение ? (около 1) указывает на то, что средние групп не должны различаться. Малые значения ? (около 0) указывают на то, что средние групп различаются.
Стадии выполнения анализа:
1. Формулирование проблемы. Требует определения целей, зависимой и независимых переменных. Выборку делят на две части. Анализируемую выборку используют для вычисления дискриминантной функции; проверочную -- для проверки достоверности модели.
2. Вычисление коэффициентов дискриминантной функции. Определение функции, включает выведение такой линейной комбинации предикторов (дискриминантных функций), чтобы группы максимально возможно различались между собой значениями предикторов.
3. Определение значимости функции. Она включает проверку нулевой гипотезы о том, что в совокупности средние всех дискриминантных функций во всех группах равны между собой. Если нулевую гипотезу отклоняют, та имеет смысл интерпретировать результаты.
4. Интерпретация результатов. Интерпретация дискриминантных весов или коэффициентов аналогична такой же стадии во множественном регрессионном анализе. Приданной мультиколлинеарности в предсказанных переменных не существует однозначной меры относительной важности предикторов в дискриминации ими групп. Но некоторое представление об относительной важности переменных можно получить, изучив абсолютные значения нормированных коэффициентов дискриминантной функции и структуру корреляций или дискриминантных нагрузок. Эти коэффициенты линейной корреляции между каждым предиктором и дискриминантной функцией представляют дисперсию, которую предиктор делит вместе с функцией. Другое средство интерпретации результатов - разработка характеристической структуры для каждой группы, исходя из групповых средних для предикторов.
5. Оценка достоверности. Она включает разработку классификационной матрицы. Дискриминантные веса, определенные с помощью анализируемой выборки, умножают на значения независимых переменных в проверочной выборке, чтобы получить дискриминантные показатели для случаев в этой выборке. Затем случаи распределяют по группам, исходя из дискриминантных показателей и соответствующего правила принятия решения. Определяют процент верно классифицированных случаев и сравнивают его с процентом случаев, которое можно ожидать на основе классификации методом случайного выбора. Для оценки коэффициентов существует два известных подхода. Прямой метод включает оценку дискриминантной функции при одновременном введении всех предикторов. Альтернативный ему пошаговый метод включает последовательное введение предсказанных переменных, исходя из их способности дискриминировать группы.
ФАКТОРНЫЙ АНАЛИЗ
Класс методов, используемых, главным образом, для сокращения числа переменных и их обобщения.
В ходе проведения маркетингового исследования можно столкнуться с множеством переменных, большинство из которых взаимосвязаны. Для удобства обработки данных их число следует снизить до приемлемого уровня. С этой целью связи между коррелированными переменными анализируют и представляют в виде небольшого числа факторов. Например, можно измерить имидж магазина, попросив респондентов оценить магазины по ряду пунктов и выразить эту оценку по семантической дифференциальной шкале. Затем полученные оценки можно проанализировать, чтобы определить факторы, характеризующие имидж магазина. В дисперсионном анализе, множественной регрессии и дискриминантном анализе в качестве зависимой переменной рассматривается одна переменная, а остальные являются независимыми (предикторами). Однако в факторном анализе такого разграничения не делают. Поэтому факторный анализ -- это скорее метод анализа взаимозависимости, т.к. в нем проверяются всевозможные варианты взаимозависимых связей.
Используют в следующих ситуациях:
· Для определения основных факторов, которые объясняют связи в наборе переменных. Фактор - латентная переменная, конструируемая таким образом, чтобы можно было объяснить корреляцию между набором переменных. Например, можно использовать набор высказываний об образе жизни для измерения психографических профилей потребителей. Затем эти высказывания подвергают факторному анализу, чтобы определить основные психографические факторы.
· Для определения нового, меньшего по размеру, набора некоррелирующих переменных, заменяющих исходный набор коррелирующих переменных, на основании которого дальше выполняется многомерный анализ (регрессионный или дискриминантный). Например, выявленные психографические факторы можно использовать как независимые переменные при объяснении различий между лояльными и нелояльными потребителями.
· Для преобразования большего по размеру набора в меньший набор ясно выраженных переменных для использования их в последующем многомерном анализе. Например, несколько исходных заявлений о стиле жизни, которые сильно коррелируют с выявленными факторами, можно использовать как независимые переменные для объяснения различий между лояльными и нелояльными клиентами.
Факторный анализ широко используется в маркетинговых исследованиях.
¦ При сегментации рынка для определения латентных переменных с целью группировки потребителей.
¦ При разработке товарной стратегии факторный анализ используется для определения характеристик торговой марки, влияющих на выбор потребителей.
¦ При разработке рекламной стратегии с помощью факторного анализа пытаются понять, каким передачам отдают предпочтение потребители целевого рынка.
¦ При разработке стратегии ценообразования факторный анализ определяет характеристики потребителей, чувствительных к цене.
Модель факторного анализа: С математической точки зрения факторный анализ в некоторой степени аналогичен множественному регрессионному анализу в том смысле, что каждая переменная выражена как линейная комбинация латентных факторов. Можно подобрать веса так, чтобы первый коэффициент значения фактора объяснял наибольшую долю полной дисперсии. Затем отобрать второй набор весов так, чтобы второй фактор вносил наибольший вклад в остаточную дисперсию при условии, что он не коррелирует с первым фактором. Этот же принцип применяется для отбора дополнительных весов для дополнительных факторов. Таким образом, можно оценить факторы так, чтобы их значения, в отличие от значений исходных переменных, не коррелировали. Более того, первый фактор объясняет наибольшую дисперсию в данных, второй фактор -- вторую по величине дисперсию и т.д.
Подобные документы
Характеристика основных концепций маркетинга: концепции совершенствования производства, концепции совершенствования товара, концепции интенсификации коммерческих усилий. Анализ рекламных затрат при использовании основных маркетинговых стратегий.
контрольная работа [235,0 K], добавлен 22.04.2010Функция маркетинга как деятельность всех видов предпринимательства по обеспечению сбыта продукции. Эволюция концепции маркетинга. Сущность концепции социально-ориентированного маркетинга. Сервизация экономики как современная концепция маркетинга.
реферат [17,2 K], добавлен 31.03.2010Теоретическое изучение основных элементов концепции маркетинга: потребности, желания, спроса, товара, обмена, сделки. Оценка целесообразности применения элементов маркетинга ОАО "Икар". Обобщение задач, функций и прав маркетинговых служб предприятия.
контрольная работа [44,4 K], добавлен 09.01.2011Современный уровень развития маркетинга. Концепции маркетинга. Современное состояние маркетинга в АПК. Зарубежный опыт развития агромаркетинга. Анализ состояния маркетинга на предприятии. Анализ внутренней среды предприятия.
курсовая работа [135,1 K], добавлен 01.06.2007Концепции маркетинга. Возможности компании. Роль и структура маркетинга в бизнесе. Окружающая среда маркетинга. Желания потребителя. Что такое желания потребителя. Неосязаемость. Неотделимость. Непостоянство. Несохраняемость. Право собственности.
доклад [65,2 K], добавлен 06.10.2008Главные особенности развития концепции современного маркетинга в Российской Федерации. Организационно-правовая и экономическая структура предприятия ООО "Тюменьзарубежтур". Особенности маркетинговой концепции в компании, пути её усовершенствования.
курсовая работа [230,0 K], добавлен 26.10.2013Сущность и концепции планирования маркетинга. Структура плана маркетинга и этапы его разработки. Организационно-экономическая характеристика предприятия, анализ возможностей и угроз, цели и стратегии маркетинга, его бюджет на основе прогноза продаж.
курсовая работа [71,1 K], добавлен 03.12.2013Сущность, принципы, функции и цели маркетинга. Особенности современных концепций маркетинга: совершенствования товара и производства, интенсификации коммерческих усилий, чистого маркетинга, социально-этичного маркетинга, международного маркетинга.
курсовая работа [41,0 K], добавлен 15.10.2011Становление концепции холистического маркетинга. Современные тенденции развития глобального интегрировано-коммуникативного и концептуально-интеграционного маркетинга. Достижение желаемых уровней сбыта на разных рынках, принципы и методы их решения.
реферат [138,4 K], добавлен 26.12.2014Определение образовательной услуги в концепции маркетинга, анализ рынка. Применение концепции маркетинга на рынке образовательных услуг Республики Беларусь. Совершенствование деятельности субъектов рынка образовательных услуг на принципах маркетинга.
магистерская работа [93,6 K], добавлен 08.06.2010