Автоматизация работы SEO-специалиста
Определение поисковой оптимизации, элементы оптимизации. Виды работ SEO-специалиста. Работа над ключевыми словами. Работа над основным текстом. Присваивание сайту понятного пользователю доменного имени. Оптимизация динамичных страниц и программного кода.
Рубрика | Программирование, компьютеры и кибернетика |
Вид | дипломная работа |
Язык | русский |
Дата добавления | 10.11.2014 |
Размер файла | 3,0 M |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ
Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования
«КУБАНСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ»
(ФГБОУ ВПО «КубГУ»)
Физико-технический факультет
Кафедра теоретической физики и компьютерных технологий
Допустить к защите в ГАК
Заведующий кафедрой
д-р. физ.-мат. наук, профессор
В.Н. Тумаев
ДИПЛОМАЯ РАБОТА
АВТОМАТИЗАЦИЯ РАБОТЫ SEO-СПЕЦИАЛИСТА
Работу выполнил _________________ Шевченко Александр Александрович
Специальность 230201 - Информационные системы и технологии
Научный руководитель
канд. физ.-мат. наук, доцент __________________________ А. А. Мартынов
Нормоконтролёр
канд. физ.-мат. наук, доцент ___________________________А. А. Мартынов
Краснодар 2014
СОДЕРЖАНИЕ
ОБОЗНАЧЕНИЯ И СОКРАЩЕНИЯ
ВВЕДЕНИЕ
1. SEO и её назначение
1.1 Определение и предмет поисковой оптимизации
1.2 История развития поисковой оптимизации
1.3. Основные элементы оптимизации
2. Виды работ SEO-специалиста
2.1 Работа над ключевыми словами
2.2 Работа над основным текстом
2.3 Работа с мета-тегами
2.3.1 Тег заголовка <title>
2.3.2 Тег описания <description>
2.3.3 Тег ключевых слов <keywords>
2.4 Технические работы над сайтом
2.4.1 Присваивание сайту понятного пользователю доменного имени
2.4.2 Выделение отдельного IP-адреса
2.4.3 Структурирование разделов сайта
2.4.4 Создание карты сайта sitemap
2.4.5 Управление индексацией с помощью служебного файла «robots»
2.4.6 Оптимизация динамичных страниц и программного кода
2.4.7 Использование каскадных таблиц стилей
3. Существующие инструменты оптимизации веб-страниц
3.1 Системы автоматического продвижения сайтов
3.1.1 Приложение Allsubmitter
3.1.2 Приложение Site-Auditor
3.1.3 Онлайн-инструмент Be1
3.1.4 Приложение Yazzle
3.1.5 Приложение Page Promoter
3.1.6 Приложение SeoRate
3.1.7 Система SeoPult
3.2 Системы анализа поисковой статистики
4. Проект программы автоматизации работы SEO-специалиста
ЗАКЛЮЧЕНИЕ
СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ
ПРИЛОЖЕНИЕ А
ПРИЛОЖЕНИЕ Б
ПРИЛОЖЕНИЕ В
ОБОЗНАЧЕНИЯ И СОКРАЩЕНИЯ
SEO (англ. Search Engine Optimization) - поисковая оптимизация
SEM (англ. Search Engine Marketing) - поисковый маркетинг
SMM (англ. Social Media Marketing) - маркетинг в социальных сетях
ТИЦ тематический индекс цитирования
ВИЦ взвешенный индекс цитирования
PR (англ. Page Rank) - ранг страницы
ПМ поисковая машина
CGI (англ. Common Gateway Interface) - общий интерфейс шлюза
CSS (англ. Cascading Style Sheets) - каскадные таблицы стилей
JSON (англ. JavaScript Object Notation) - текстовый формат обмена данными, основанный на языке JavaScript
API (англ. Application Programming Interface) - интерфейс программирования приложений
SOAP (англ. Simple Object Access Protocol) - простой протокол доступа к объектам
ВВЕДЕНИЕ
В условиях развития глобального информационного пространства, когда возникают уникальные возможности в коммуникации и информационном обмене, всё большее значение приобретает сеть Интернет, как средство донесения информации до широких народных масс. При этом главным источником информации в сети выступают веб-сайты, на которые ложится основная информационная нагрузка. Содержа в себе данные различных тематик, веб-ресурсы являют собой хаотически разветвлённую сеть из множества миллионов электронных страниц.
При этом возникают огромные трудности в поиске и ориентировании среди информационных потоков такого объёма. Именно для навигации и успешного обнаружения нужной информации, были созданы поисковые системы. Невозможно представить себе современный Интернет без поисковиков. Храня информацию о миллиардах веб-страниц, эти системы являются наиболее мощным инструментом для поиска информации и распределения пользовательского внимания. Именно привлечение внимания пользователей посредством демонстрации целевой веб-страницы в поисковой системе является целью поисковой оптимизации.
Особую актуальность в данных условиях обретает умение повысить рейтинг сайта в глазах поисковой системы, что автоматически обеспечит ресурсу пользовательское внимание. Отнимая большое количество времени и трудозатрат, меры по поисковой оптимизации неустанно требуют улучшений в процессе их выполнения. В связи с этим остро встаёт вопрос об автоматизации работы специалистов, занятых оптимизацией сайтов с целью сокращения времени и трудозатрат при данных видах работ.
На основании вышеизложенного возможно формирование основной цели данной работы: создание программного продукта, позволяющего автоматизировать часть работ SEO-специалиста.
Непосредственно перед выполнением дипломной работы были поставлены следующие цели:
1. снизить количество времени и трудозатрат на оптимизацию сайтов посредством разработки специализированного приложения;
2. реализовать в данном приложении функционал по работе с ключевыми словами и сбору поисковой статистики запросов пользователей;
3. учесть в приложении региональные особенности поиска пользователей по запросам;
4. включить в состав программного продукта функционал семантического анализа текста для определения его ключевых фраз.
1. SEO и её назначение
1.1 Определение и предмет поисковой оптимизации
Чтобы осознать непосредственно рассматриваемый предмет и его назначение, необходимо изучить его предметную область. Прежде всего, расшифруем саму аббревиатуру «SEO»: Search Engine Optimization (англ. оптимизация под поисковые машины, поисковая оптимизация).
Под поисковой оптимизацией понимают комплекс мер, направленных на повышение позиции сайта в поисковой выдаче по определённым поисковым запросам. При этом соответствие содержания сайта запросу называют релевантностью. Поисковая оптимизация включает в себя как улучшение внутреннего содержания сайта (качества и количества информации, совершенствования внутренних технических аспектов реализации сайта, улучшения его визуальной привлекательности для потенциальных пользователей), так и работу над внешними факторами (ссылки, ведущие на сайт, цитируемость сайта на других ресурсах и прочее).
Согласно исследованиям компании Forrester Research Inc в 2013 году, процент посетителей сайтов распределяется следующим образом:
1. Через поисковые системы - 81%;
2. По ссылке с другого сайта - 59%;
3. Через маркетинговые коммуникации - 56%;
4. Через телевидение - 48%;
5. Посредством онлайн-рекламы - 20%;
6. По радио - 19%;
7. Через рассылку электронной почтой - 10%.
Рисунок 1 - Распределение притока аудитории на сайты
Следовательно, наиважнейшим источником посетителей для сайта являются поисковые системы.
В последнее время всё чаще звучит определение поисковой оптимизации как ветви Интернет-маркетинга. Поисковый маркетинг, как следующий шаг в развитии SEO являет собой ту же поисковую оптимизацию, сместившую свой фокус, однако, в сторону поиска новых путей понравиться пользователю. Данная оптимизация сайта включает в себя не только техническую работу над страницами ресурса, но и анализ рынка поисковых услуг с учётом текущих потребностей в спросе и предложении. Эта новая ступень работы над качеством сайтов породила в наши дни на свет множество удобных для пользователей, сложных в технической реализации и, безусловно, полезных в своей тематической группе сайтов, что в целом благотворно сказалось на общем уровне качества Интернет-ресурсов.
Процесс оптимизации сайта для поисковых систем заключается в определённой работе над контентом сайта и его структурой, а также над внутренними и внешними факторами, позволяющими поисковым машинам, основываясь на текущей версии их алгоритма, присваивать сайту некоторое место в поисковой выдаче среди прочих известных ему страниц. При этом специалист, занимающийся оптимизацией сайта, должен ориентироваться не только в текущей версии поискового алгоритма той или иной поисковой системы, но и знать некоторые психологические аспекты поведения пользователей в сети Интернет.
Согласно исследованию компании Google, проведённому в 2012 году, имеется следующее распределение посетителей сайтов в поисковой выдаче в зависимости от позиции, показанное в таблице 1.
Таблица 1 - Распределение посетителей сайтов
Первая страница выдачи |
Вторая страница выдачи |
|||
Позиция в выдаче |
Процент посетителей |
Позиция в выдаче |
Процент посетителей |
|
1-я позиция |
30% |
1-я позиция |
6% |
|
2-я позиция |
15% |
2-я позиция |
4% |
|
3-я позиция |
7% |
3-я позиция |
2% |
|
4-я позиция |
5% |
4-я позиция и ниже |
менее 1% |
|
5-я позиция |
4% |
|||
6-я позиция |
4% |
|||
7-я позиция |
2% |
|||
8-я позиция |
2% |
|||
9-я позиция |
3% |
|||
10-я позиция |
5% |
Как видно из таблицы 1, наиболее успешными с точки зрения посетителей являются первые три строчки выдачи. Как правило, перед началом оптимизации ставится задача, на какое место в поисковой выдаче ожидается продвинуть сайт. Учитывая поведенческие факторы, такие, как потеря интереса у пользователей по мере удаления от вершины поисковой выдачи, целью оптимизации является непосредственно первая страница поисковика и три строчки второй страницы.
Следует также отметить, что поисковую оптимизацию также иногда называют «продвижением», имея в виду продвижение определённых страниц сайта как можно ближе к первому месту в поисковой выдаче по определённому запросу.
В целом, поисковая оптимизация делится на два вида: внешнюю и внутреннюю оптимизацию.
Внутренняя поисковая оптимизация - это набор действий и методов, направленных на улучшение внутреннего содержания и структуры сайта. К внутренней оптимизации непосредственно относится:
· создание семантического ядра сайта, то есть подбор тех ключевых слов, по которым сайт будет отображаться в результатах поиска;
· редактирование текстов, исправление орфографических либо логических ошибок;
· техническая работа над структурой сайта, как то: создание карты сайта, присваивание страницам легко запоминающихся и понятных адресов, задание инструкций для поисковых роботов и прочие методы, призванные упростить работу с сайтом как пользователям, так и поисковым машинам;
· работа над дизайном сайта и повышение визуальной привлекательности ресурса;
· устранение технических ошибок, замедляющих или вовсе компрометирующих работу сайта: начиная от несуществующих ссылок и дублей страниц, заканчивая грубыми семантическими и логическими ошибками в коде страниц, действующих на них скриптов, сетевых приложений.
Рисунок 2 - Схема работ SEO-специалиста
К внешней оптимизации относится такие методы, как наращивание ссылочной массы на сайт и анализ работы, произведённой другими оптимизаторами. Наращивание ссылочной массы представляет собой приобретение (как коммерческое, так и добровольное) ссылок на продвигаемый сайт. На заре своего существования, поисковые системы ориентировались в основном на то, сколько ссылок имеет сайт и согласно этому присваивали им место в поисковой выдаче. Сейчас же поисковики научились более тщательно анализировать содержание сайта, что, несомненно, благоприятно отразилось на качестве Интернет-ресурсов.
Не смотря на то, что внутренняя оптимизация сайта стала более важна, нежели внутренняя, последний вид оптимизации также важен для повышения позиции сайта. Внешняя оптимизация влияет на такие показатели, как ТИЦ и PR.
ТИЦ (Тематический Индекс Цитирования) - индекс, разработанный компанией «Яндекс», отражающий, сколько сайтов по схожей тематике ссылаются на определённый ресурс. Данный индекс влияет только на позицию сайта в Yandex-каталогах.
ВИЦ (Взвешенный Индекс Цитирования) - совокупность параметров, учитывающая популярность сайтов, ссылающихся на определённый ресурс.
PR (англ. Page Rank) - «ранг страницы», аналогичный метод компании «Google», определяющий количество и популярность станиц, ссылающихся на тот или иной ресурс. Каждой странице либо объекту в сети присваивается некоторое начальное числовое значение, которое изменяется в зависимости от количества ссылок на него. Суть метода в том, что все объекты, связанные гиперссылками представляются в виде графа и чем больше ссылаются на определённую страницу в сети, тем «важнее» она выглядит для поисковой системы. Примечательная особенность, отличающая этот метод от метода ТИЦ - это то, что ранг может присваиваться как страницам, так и любому объекту, то есть любому графу.
Кроме того, существует определённое деление на типы поисковой оптимизации в зависимости от применяемых методов, так называемые: «белая», «серая» и «чёрная» оптимизация.
Под «белой» оптимизацией подразумевают некий комплекс мер, направленных на повышение позиции сайта в поисковой выдаче, в результате которых не нарушаются какие-либо правила, установленные поисковыми сервисами для индексируемых сайтов. Другими словами, оптимизатор не должен пытаться обмануть поисковую систему, заставляя её, при помощи неких уловок, думать, будто оптимизируемый сайт является лучше (как в плане технического исполнения, так и по содержащейся информации), нежели он есть на самом деле.
«Чёрная» оптимизация же наоборот, ставит своей целью именно обман поисковой системы, что зачастую влечёт за собой соответствующие последствия со стороны поисковой машины. Сайт, уличённый в жульничестве, может быть понижен в общей поисковой выдаче, а то и вовсе исключён из него, не говоря уже о морально-этических аспектах такого рода оптимизации. Ведь специалисты, избирающие такой вид работ по оптимизации, далеко не всегда заботятся об удобстве и информативности их сайта непосредственно для пользователя, что в целом негативно складывается на общей картине Интернета.
Рисунок 3 - Пример "чёрных" методов оптимизации
Что касается «серой» оптимизации, то она не влечёт серьёзных санкций со стороны поисковиков, так как не нарушает напрямую тех правил, которые устанавливают поисковые системы для сайтов при индексации. Данный вид продвижения требует от специалиста хорошего уровня навыков и опыта, а также знаний внутреннего устройства и принципов работы поисковой машины.
Какой бы путь ни выбрал в своей работе оптимизатор, ему необходимо, хотя-бы в общих чертах, представлять себе работу поисковых сервисов. В настоящее время эти сервисы занимают ведущее положение в распределении трафика пользователей сети Интернет. В ней размещены многие миллионы сайтов и найти из них нужные, а тем более, запомнить их адреса рядовому пользователю бывает трудно, а порой и вовсе непосильно. Таким образом, поисковые системы выполняют наиважнейшую функцию: они занимаются распределением внимания пользователей между сайтами, занесёнными в их базу данных.
Поисковая система в целом состоит из пяти основных программных компонентов:
1. «Паук» (англ. Spider) - модуль, скачивающий страницы из сети Интернет. Он воспринимает информацию страницы в режиме исходного кода и именно в таком виде сохраняет её в базе данных.
2. «Краулер» (англ. Crawler), что в переводе с английского означает «ползающий». Этот модуль ответственен за просматривание всех ссылок, имеющихся на странице и занесение их в базу данных. На основе этой информации он формирует путь, по которому будет двигаться «Паук».
3. Индексатор (англ. Indexer) - данный модуль разделяет страницу на составные элементы, такие как: заголовки, подзаголовки, основной текст, жирный и курсивный шрифт, а также прочие информативные элементы. Разделив, таким образом, страницу, он проводит её анализ в зависимости от текущего алгоритма поисковой системы.
4. База данных (англ. Database) - фактическое место хранения всей накопленной информации о веб-сайтах, собранной как «краулером», так и «пауком», а также результатов работы индексатора и прочей информации, необходимой для работы системы.
5. Система выдачи результатов (англ. Search engine results engine) - это программный модуль, просматривающий базу данных и выбирающий наиболее релевантные запросу пользователя страницы.
Рисунок 4 - Схема работы поисковой машины
На заре своего существования работу поисковой машины выполняли живые люди. Они просматривали все найденные ими сайты и сортировали их по каталогам. Позднее, опираясь на эту базу каталогов, поисковые машины стали осуществлять самостоятельный поиск новых страниц. Это происходит следующим образом.
Вначале «краулер» просматривает известные ему ресурсы в поиске новых ссылок. Он совершает регулярные проходы всех известных ему ссылок разыскивая при этом новые. Находя их, он выполняет по ним переход. Стоит отметить, что на каждое доменное имя «краулером» выделяется определённое время для поиска ссылок. После истечения этого времени, «краулер» отправляется дальше по сети, возвращаясь в следующем проходе.
Далее начинает свою работу модуль, называемый «пауком». Он пользуется найденными «краулером» ссылками, как картой, и скачивает содержимое страниц в режиме исходного кода и передаёт её для обработки индексатору. Этот модуль разделяет текст страницы на составные элементы: заголовки, жирный и подчёркнутый текст, выделение абзацев и прочее. Это делается для удобства поиска по проиндексированным документам. Обработанные страницы поступают в базу данных поисковой системы. Следует отметить, что на данный момент поисковые роботы проводят индексацию мультимедийных данных (таких, как аудио- и видеофайлы, флеш-анимация и прочие крайне неэффективно. Этот факт оказывает существенное влияние на выбор методов поисковой оптимизации сайта. Ввиду этого многие SEO-специалисты рекомендуют закрывать программный код внутри страницы специальными HTML-тегами для предотвращения индексации.
Рисунок 5 - Схема извлечения данных из поисковой машины
Неверно считать, будто поисковая машина производит поиск заданной пользователем фразы по всей сети Интернет. Скачанные в режиме исходного кода страницы хранятся в базе данных поисковой системы, а затем извлекаются, когда пользователь вводит свой запрос в поисковую строку. Работая с таким огромным объёмом информации, необходимо применять особые алгоритмы, сортирующие результаты поиска. Данные алгоритмы, постоянно обновляющиеся и дорабатывающиеся, составляют основу работы поисковой системы. Именно они определяют, какие страницы попадут на первые страницы поисковой выдачи, какие будут отображаться после десятой страницы, а какие вовсе не отобразятся для пользователя.
Не смотря на то, что поисковые системы стараются как можно чаще обновлять свои базы данных, существует множество сайтов, которые никогда не попадут в поисковую выдачу, будь то:
· ресурсы, доступ к которым защищён паролем;
· не связанные с другими сайтами ресурсы;
· сайты, представляющие из себя так называемый «информационный шум»: брошенные, незавершённые сайты;
1.2 История развития поисковой оптимизации
Период с 1997 по 1999 годы можно считать временем зарождения поисковых систем. Новые сайты добавлялись в базу данных поисковой машины вручную и сортировались по специальным тематическим каталогам. Программы индексации на тот момент были не столь совершенны и применяли лишь малое количество низкоэффективных алгоритмов ранжирования. В таких условиях недобросовестные оптимизаторы пользовались массой различных уловок и ухищрений, чтобы добиться неправомерно высокого рейтинга в глазах поисковой машины. Работа по оптимизации внутреннего содержания страниц сайта практически не проводилась, а мета-информация, заголовки, комментарии страниц, ключевые слова и множество другой служебной информации было переполнено нерелевантными, но пользовавшимися популярностью словами. Сотрудники поисковых компаний были не в силах уследить за безмерным множеством страниц и лишь со временем поисковые машины научились фильтровать недобросовестные методы держателей сайтов.
Так, к середине 1999 года, поисковые машины прибегли к технологиям поискового серфинга. Впервые была представлены технологии, позволяющие отслеживать переходы пользователей по определённым поисковым запросам, а также стало возможным отслеживать количество ресурсов, ссылающихся на ту или иную страницу в сети Интернет. Оставаясь и поныне одним из самых популярных, данный метод был назван ссылочной популярностью.
После спама мета-данных многие оптимизаторы обратились к такому сервису, как ссылочные фермы (англ. link farm). Ввиду того, что поисковая машина оценивает качество и количество ссылок на тот или иной сайт, данные ресурсы предоставляли сайтам большое количество ссылок на требуемые страницы, создавая тем самым ссылочную сеть. Не смотря на заявления, будто данные ресурсы призваны для создания единого ссылочного пространства, настоящая их цель была получить верхние позиции в поисковой выдаче для определённый сайтов. В конечном итоге, поисковики научились объективно оценивать сайт и с учётом этих методов.
Рисунок 6 - Пример ссылочной фермы
К началу 2000-х появляется большое количество редактируемых вручную каталогов сайтов, издаваемых сообществами редакторов и собранных по различным тематикам. Данные каталоги, образовали довольно обширную ссылочную сеть с большим множеством качественных ресурсов, которые позволяют добиться довольно релевантных результатов поиска. С этого момента начинается смещение фокуса в оптимизации сайтов в сторону более качественной работы как над его внутренним содержанием, так и внешними факторами.
В настоящее время алгоритмы работы поисковых систем настолько усложнились, что они способны учитывать многие сотни факторов, влияющих на качество сайта. Если в период 1998 - 99 г. многие оптимизаторы прибегали к таким методам, как большое количество не связанных с темой сайта ключевых слов, что повышало вероятность попадания на первые страницы поисковой выдачи, то сейчас такие манипуляции невозможны. Многие поисковые системы, в том числе Google и Yandex, научились распознавать и пресекать такого рода оптимизацию. Помимо прочего, был введён лимит на длину читаемых мета-тегов и начался их анализ качества и благодаря этому верхние позиции поисковой выдачи стали более релевантными запросам пользователей. Также свою роль сыграл анализ факторов, не связанных с контентом страницы, такие как ссылочная популярность.
Следует помнить, занимаясь оптимизацией страниц сайта, что ресурсы поисковика ограничены. Поисковая система обладает своим внутренним временем, отводящимся на обработку каждой страницы, пределом глубины поиска по сайту, а также рядом других ограничений, накладываемых фактическими аппаратно-программными ресурсами. Также следует помнить, что каждая поисковая машина обладает определённым сводом правил, по которым проводится индексация. Эти правила могут иметь отличия в различных версиях поисковых алгоритмов, а также у различных поисковых систем. В зависимости от текущей версии, поисковая машина проводит индексацию и ранжирование страниц с различными результатами. Но вне зависимости от версий и самих поисковиков, все они стремятся повысить качество и разнообразие предоставляемой пользователям информации. Учитывая данную их особенность, необходимо строить собственную деятельность таким образом, чтобы повысить качество как технической, так и информационной стороны оптимизируемого сайта.
Один из важных аспектов, на которые следует обратить внимание перед тем, как приступить к оптимизации, - это структура сайта. Поисковые машины обрабатывают многие миллионы веб-страниц в день, так что просматривать большое количество вложенных страниц у них просто нет времени. Это означает, что сайты со слишком сложной структурой будут либо индексироваться довольно долго, либо игнорироваться поисковиком вообще. Для того, чтобы этого не произошло, следует прибегать к вложенности не выше трёх. Например: «».
Рисунок 7 - Пример трёхуровневой структуры сайта
Другой аспект - это написание грамотного кода HTML-страниц. Это также довольно важно, так как экономит время чтения страницы для поисковика. При этом следует учитывать несколько факторов:
· все парные теги должны быть закрыты (например: <head></head>)
· не следует использовать html-теги, не поддерживаемые популярными браузерами
· не следует использовать устаревших тегов (например: <frame> или <bgsound>)
· также не стоит использовать элементы кода, которые поисковая машина ещё не умеет обрабатывать (например: некоторые теги XML)
Для того чтобы быть уверенным в качестве своего кода, необходимо следовать стандартам Консорциума Всемирной паутины (Wide Web Consortium, W3C) [10]. Приведение страницы к стандартам Консорциума не повлияет на позицию в поисковой выдаче, но облегчит работу непосредственно поисковой машины с сайтом.
1.3. Основные элементы оптимизации
· Тег <title> веб-страницы. Является заголовком всей страницы и появляется в поисковой выдаче и заголовке окна браузера.
· Тег <description> веб-страницы. Отображается в результатах поиска под заголовком как краткое описание страницы. Имеет фиксированную длину, различную у разных поисковых машин и их версий.
· Тег <keywords> веб-страницы. Отвечает за то, какие ключевые запросы будут присвоены странице. По этим ключевым словам пользователями производится поиск, а поисковиками - ранжирование страниц. В настоящее время считается необязательным, так как многие поисковики научились более тщательно анализировать содержимое страницы.
· Основной текст. При этом важно учитывать плотность ключевых фраз непосредственно в тексте. Также важно, чтобы ключевые слова располагались ближе к началу текста и соответствовали его содержанию.
· Расположение текста. Важно учитывать особенности дизайна сайта и психологические аспекты пользователей для грамотного расположения текста на странице.
· Заголовки h1, h2, h3 и прочие. Указывать правильные заголовки критично, так как современные поисковые машины принимают этот аспект как важный при сканировании и ранжировании страниц.
· Различное выделение текста (полужирный, курсив, подчёркнутый текст и прочее). Данное выделение воспринимается поисковиками как важная информация. Ввиду этого рекомендуется уместное выделение текста без излишнего злоупотребления.
· Понятный URL. Для того, чтобы посетителям было комфортнее ориентироваться на сайте и для лучшего запоминания адресов, следует применять понятные человеку адреса. Например: http://mysite.com/diectory1/page1.php выглядит понятнее и лучше запоминается, чем http://mysite.com/#newwindow=1&q=cfvsq+j%2Csxysq+pgfhjc.
· Веб-дизайн. Наличие своего стиля в оформлении сайта, а также его удобство повышают привлекательность ресурса в глазах пользователя.
· Атрибуты <alt> и <title> в теге изображения <img>. Это нужно для того, чтобы при отключенном в браузере отображении изображений пользователь мог ориентироваться в документе, не теряя смысловой линии. Считается устаревшим отношением к времени, когда скорость Интернет-трафика была недостаточной и для её повышения отключались некритичные для информативности элементы. Поисковые системы, всё ж, считают указывание этих тегов хорошим тоном и до сих пор учитывают их при индексации.
· Релевантные заголовки ссылок тега <a href>. Это позволяет пользователю представлять, куда он попадёт при переходе по данной ссылке. Считается хорошим тоном и учитывается поисковиками при индексации.
· Чёткая структура ссылок. Определённая упорядоченная система ссылок позволяет не только перенаправить поток пользователей на определённую, нужную страницу, но и поощряется со стороны поисковых систем. Иерархия и порядок в ссылках сайта (особенно внутренних) позволяет сделать сайт более дружественным в навигации и смысловом наполнении.
· Применение каскадных таблиц стилей (CSS). Данные таблицы призваны для правильного и удобного позиционирования всей информации на сайте. Вместе с элементами веб-дизайна, они составляют основу внешнего представления ресурса. Использование данных таблиц также поощряется поисковыми системами.
· Вложенность не выше трёх. Как уже упоминалось выше, не стоит прибегать к вложенности папок выше трёх, так как это замедлит либо вовсе помешает работе поисковой машины.
· Информационное меню внизу сайта. Данное меню, помимо боковой и верхней колонки, способствует удобству в навигации и также поощряется поисковиками.
· Карта сайта (sitemap). Данная карта не отображается для пользователей и хранится в специальном файле sitemap.xml. Данный файл предназначен исключительно для служебного пользования поисковой системой и содержит полную структуру всего сайта, что упрощает его индексацию.
· Тематическая релевантность. Очень важно, чтобы по содержанию сайт соответствовал заявленной тематике. Подмена или несоответствие содержания сайта выбранной теме влечёт за собой санкции со стороны поисковой системы.
· Отдельный IP. Расположение сайта на одном постоянном IP-адресе упрощает работу поисковиков и вызывает у них больше доверия.
В процессе оптимизации следует учитывать такие факторы, как Google SandBox (англ. песочница). Данное явление затрагивает в основном англоязычные сайты и заключается в замедлении сайта в системе ранжирования Google. Этот эффект направлен на ресурсы, созданные относительно недавно и призван замедлить продвижение сайтов, оптимизируемых в сжатые сроки, в том числе чёрными методами.
На данный момент поисковая система Google в своей выдаче учитывает статистику запросов авторизированных пользователей, их закладки и посещаемые ресурсы. Не смотря на то, что эти данные могут внести неясность в истинные позиции сайта при ранжировании, пользовательские данные не оказывают существенного влияния на результаты выдачи.
Рисунок 8 - Примеры презентации
Одним из главных условий притока посетителей на сайт в последние годы стало использование так называемой презентации. Она являет собой теги <title> страницы и <meta> описания. Приемлемой с точки зрения, как поисковой машины, так и человека считается презентация, несущая информативность и соответствующая содержанию страницы. Именно основываясь на этих факторах пользователь, вводивший запрос, обратит внимание на определённый ресурс [8].
2. Виды работ SEO-специалиста
Деятельность SEO-специалиста в общем виде можно разделить на два вида: внешняя оптимизация и внутренняя оптимизация.
К внешней оптимизации относится работа со всевозможными ссылками, как по направлению из страницы, так и направленными на страницу.
Внутренняя оптимизация состоит из работы непосредственно со страницей, начиная от технической работы и заканчивая информационным наполнением. Можно выделить следующие направления внутренней оптимизации:
· работа над ключевыми словами;
· работа над контентом сайта;
· работа с мета-тегами страниц;
· технические работы над сайтом.
2.1 Работа над ключевыми словами
Ключевым словом является слово или фраза, которую вводит в строку запроса поисковой машины пользователь. От этой фразы, помимо прочих факторов, зависит, какой набор страниц выдаст поисковик после ранжирования результатов. На данный момент ведущие поисковые системы, такие, как Google или Яндекс, учитывают в своих алгоритмах ранжирования ключевые фразы не только в соответствующих тегах веб-страницы, но и непосредственно в тексте [9].
При этом, подбирая ключевые фразы, необходимо помнить простые правила:
· Ключевая фраза должна быть точной. Пользователь, зачастую, проводя поиск в сети Интернет, ищет вполне специализированную информацию. К примеру, запрос «утюги» является слишком общим. Пользователь, скорее всего, введёт запрос «утюги с отпаривателем» или название определённой модели утюга.
· Ключевая фраза должна быть релевантной. Если на странице представлена информация о кипятильниках, а ключевые слова утверждают, что страница об утюгах, то пользователь будет введён в заблуждение и, скорее всего, покинет эту страницу почти сразу. Также это влечёт за собой санкции со стороны поисковой системы.
· Ключевая фраза должна обладать определённой плотностью. Рекомендуемая плотность является эмпирической величиной и составляет около 3-5% от общего количества слов в тексте.
Плотность ключевых слов являют собой величину, определяющую отношение ключевых слов к общему количеству текста.
Существует множество эмпирических формул для определения плотности ключевых слов на странице. Вот некоторые из них:
(1)
где P - искомая величина плотности, W - общее количество слов в тексте, K - количество ключевых слов.
Таким образом, имея текст в 700 слов, мы попадём в рекомендуемый диапазон ключевых слов при их количестве от 21 до 35.
(2)
где P - искомая величина плотности, K - количество ключевых слов, F - количество ключевых фраз, W - общее количество слов в тексте.
При тексте в 700 слов рекомендуемый диапазон будет достигнут при наличии в тексте 15 ключевых фраз, состоящих из двух слов.
Данные расчёты не указывают о положении ключевых слов в тексте. Имея всё те же 17-35 ключевых слов, но разместив их, к примеру, в конце текста страницы, а не в начале, можно получить разные результаты. Поисковый робот, зайдя на страницу и не обнаружив в её начале ключевой информации, не станет тратить свои ценные производительные ресурсы и оставит страницу, пометив как нерелевантную. Помимо этого должна сохраняться смысловая и стилистическая структура информации веб-страницы, иначе это может оттолкнуть пользователей, пришедших на сайт.
На эти параметры также влияет такое важное в оптимизации понятие, как близость ключевых слов. Основной принцип его таков: ключевые слова во фразе должны быть расположены как можно ближе. Стоит помнить, однако, что смысловая ценность текста не должна теряться и в данном случае. К примеру, фраза «У нас вы найдёте большой выбор тефлоновых утюгов с отпаривателем» более оптимизирована под запрос «тефлоновые утюги с отпаривателем», чем «Множество наших тефлоновых утюгов имеют функцию отпаривания». В данном примере расстояние между ключевыми словами больше за счёт внедрения слов «имеют функцию» [5].
При введении поискового запроса длиной от двух и более символов, поисковая машина обращает внимание не только на положение ключевых слов на странице, но и их близость между собой, отдавая предпочтение наиболее близким вариациям.
Не смотря на это, анализ высокорейтинговых страниц показывает, что многие из них обладают довольно низкой плотностью ключевых слов [1]. Это позволяет говорить о том, что параметр плотности ключевых фраз не является универсальным. Некоторые из страниц в первой десятке поисковых результатов могут иметь настолько низкую плотность ключевых слов, что их можно считать близкой к нулю. Тем не менее, их высокая позиция обеспечивается, помимо прочих факторов, релевантными входящими ссылками на страницу.
Плотность и расстояние между ключевыми словами являются одними из структурных характеристик веб-страницы. Расположение информации на сайте в общем можно охарактеризовать схемой, приведённой на рисунке 9. В разделе 1 указываются заголовки статей, логотипы, основное меню, контактные телефоны, форма авторизации и прочие элементы. Колонки 3 и 5, как правило, используются как вспомогательное меню и информационная (чаще рекламная) панель. В разделе 2 имеется различного рода служебная информация, как например, более развёрнутое название фирмы, дополнительные контактные данные, адреса и прочая информация. Такую структуру имеет большинство сайтов в сети Интернет. Зная эту структуру, следует учитывать, что поисковые роботы читают сайт слева-направо и сверху-вниз. Тем самым, расположение ключевых слов, заголовков, контактных данных и другой важной информации необходимо выбирать ближе к верхней части страницы. Изображения же, как и код PHP, JavaScript и другую неиндексируемую информацию стоит размещать ниже на странице. Данные рекомендации основаны также на том, что поисковые системы имеют ограниченные ресурсы и не обнаружив существенной информации в шапке сайта и верхних частях нижележащих колонок, они оставят индексацию страницы и перейдут на следующую. Ввиду этого рейтинг страницы может быть снижен, что не является желательным.
Рисунок 9 - Пример шаблона сайта
Работа над ключевыми словами является наиболее долгой и трудоёмкой из всех видов работ SEO-специалиста. Составляя список ключевых слов, необходимо проанализировать тематику, назначение сайта, учесть его потенциальную аудиторию и их интересы. Также специалистами по продвижению учитывается региональные особенности целевой аудитории.
Существуют различные варианты написания ключевых фраз, появляющиеся в результате опечаток или грамматических ошибок. Выявление таковых и внесение их в список ключевых слов страницы также способствует дополнительному притоку посетителей, хоть этот приток будет меньшим, нежели от правильно подобранной фразы.
Ещё одним важным фактором при работе с ключевыми словами является коэффициент эффективности ключевого слова KEI (англ. Keyword Effectiveness Index). Это числовой показатель, впервые предложенный Самантой Рой, одним из ведущих специалистов в области поисковой оптимизации. Этот коэффициент рассчитывается для каждой поисковой машины в отдельности и опирается на два параметра:
1. Частоту поиска (популярность) ключевой фразы в выбранном поисковике.
2. Количество сайтов-конкурентов (конкурентность), использующих ту же ключевую фразу.
Учитывая оба эти параметра, вычисляется коэффициент эффективности ключевой фразы:
(3)
где KEI - коэффициент эффективности ключевой фразы, P - параметр популярности фразы за последние два месяца, C - конкурентность фразы.
Шкала эффективности коэффициента KEI распределяется следующим образом:
· коэффициент меньше 10 - неэффективная фраза;
· коэффициент в пределах от 10 до 100 - фраза средней эффективности;
· коэффициент в пределах от 100 до 400 - фраза высокой эффективности;
· коэффициент свыше 400 - сверхэффективная фраза.
2.2 Работа над основным текстом
Ввиду того, что поисковые машины для определения тематики сайта опираются на обычный текст, основная информация на страницах должна быть представлена в текстовом виде. Графическая информация, анимация, элементы программного кода PHP и скриптов Java поисковой машиной игнорируются и не вносятся в индекс, но они являются полезными с точки зрения увеличения привлекательности и функционала сайта для пользователя.
Рекомендуемая длина текста на каждой странице - не менее 250 слов. Данная величина обусловлена тем, что поисковый робот имеет ограниченные аппаратно-программные ресурсы, а пользователи могут потерять интерес к сайту при большом количестве однотипной информации на нём. Важно, чтобы контент страницы периодически обновлялся. В этом случае поисковые роботы будут охотнее индексировать страницу, так как в их алгоритмах поведения приветствуется сайты, имеющие новую информацию и периодически её обновляющие. Период обновления может колебаться от минут и секунд (для сайтов биржевых сводок) до дней и месяцев (для периодических Интернет-изданий и новостных лент).
При этом написание уникальных, единственных в своём роде текстов для сайта является существенным фактором при оптимизации, но, как правило, отнимает большое количество времени. Для ускорения процесса написания статей, существует несколько проверенных на практике методик. К ним можно отнести:
· создание блога/форума. Поисковые системы приветствуют наличие форумов и блогов на сайтах, так как они довольно часто обновляют свою информацию и содержат большое количество ссылок от пользователей.
· включение в структуру сайта раздела «Часто задаваемые вопросы». Данный раздел представляет из себя базу знаний, которая со временем наполняется пользовательскими вопросами.
· создание новостной ленты. Лента новостей с информационных ресурсов способствует наполнению сайта контентом, а также привлекает дополнительных пользователей за счёт свежих новостей.
· открытие рубрики «Советы эксперта». Подобно разделу часто задаваемых вопросов, эта рубрика будет способствовать пополнению сайта контентом, а также улучшит взаимодействие с пользователями.
· открытие рубрики «Фото/Видео/Совет дня». В этой рубрике публикуется соответствующий контент, выбранный пользователями или администраторами сайта. Накапливаясь, данная информация будет способствовать увеличению количества уникального контента на сайте.
Одна из основных трудностей при работе над контентом страницы, помимо написания непосредственно текстов, - это встраивание ключевых слов в требуемый текст. Главное правило здесь - чтобы текст после добавления ключевых фраз сохранял стилистическую и смысловую целостность, при этом не был перегружен навязчивыми предложениями. В противном случае блок анализа текста поисковой машины сочтёт контент страницы некачественным и понизит её рейтинг, а пользователи, не удовлетворившись предоставленной информацией, быстро покинут сайт. Помимо этого не следует использовать большое количество жаргонизмов и специальных терминов, особенно не прилагая пояснений, что ухудшит понимание текста для пользователей, не сведущих в той или иной области. Большое же количество текста, не обладающее графическими материалами и чёткой структурой абзацев, также будет отталкивать внимание пользователей, перешедших на сайт.
При работе над контентом страницы рекомендуется пользоваться такими приёмами, как, к примеру «Призыв к действию» (англ. Call to Action). Данный приём заключается в размещении на странице активных ссылок на формы оформления заказов (для Интернет-магазинов), различные формы обратной связи, в том числе и страницы заказа обратного звонка и другие действия [4].
Специалисты в области оптимизации рекомендуют выстраивать текстовую информацию таким образом, чтобы сместить смысловой фокус веб-страницы на две либо три основных ключевых фразы. После индексации страниц поисковиками и последующим их ранжированием, было эмпирически установлено, что присутствует так называемый эффект «наложения» ключевых слов. Данное явление заключается в том, что если страница сайта имеет высокий рейтинг в каком-либо поисковике по определённой ключевой фразе, то пересекающаяся с ней фраза, упомянутая на другой странице сайта, также будет иметь более высокий рейтинг. К примеру, имеется страница с ключевой фразой «прелюбопытнейшие утюги с отпаривателем», высоко оценённая поисковой машиной. Тогда другие страницы данного сайта, имеющие ключевые слова, к примеру, «утюги с отпаривателем» или «утюги» получат более высокий рейтинг от поисковика.
2.3 Работа с мета-тегами
2.3.1 Тег заголовка <title>
Тег <title> являет собой заглавие всей страницы. Именно этот тег поисковая машина демонстрирует в виде ссылки на страницу в результатах поисковой выдачи. Кроме того, от привлекательности информации в данном теге во многом зависит, перейдёт ли пользователь на сайт. В связи с этим можно выделить следующие аспекты, влияющие на совместимость с поисковой машиной:
· Тег заглавия для поисковой машины является сообщением о содержании просматриваемого ею ресурса. Несоответствие заглавия содержанию страницы влечёт за собой санкции со стороны поисковика.
· Заглавие должно содержать именно те ключевые слова, которые заявлены как приоритетные остальным. Это повысит качество сайта для пользователей и рейтинг страницы для поисковика.
· Положение ключевых слов в заголовке является важным: рекомендуется располагать ключевые слова как можно ближе к началу заголовка. Это обусловлено техническим особенностями работы поисковых систем.
· Поисковые машины понижают рейтинг страниц-дубликатов. Вследствие этого, не следует присваивать разным страницам одинаковые заголовки, так как это воспринимается ПМ как дублирование.
Средняя длина заголовка (исключая служебные символы, стоп-слова, пробелы) для ПМ не превышает 60 символов, а у некоторых - 70 символов. Стоит учитывать, что ввиду ограниченности ресурсной базы и при жёстких временных ограничениях на обработку каждой страницы, ПМ может считывать количество символов заголовка меньше заявленного. Все остальные символы сверх лимита поисковиком игнорируются и не рассматриваются [2].
В теге заголовка не рекомендуется использовать так называемые стоп-слова. Данные слова настолько обще описывают предметную область, что поисковые системы при индексировании их игнорируют. Также к стоп-словам относят местоимения, предлоги, служебные символы вроде знаков восклицания или вопроса, отдельные символы, буквы алфавита или цифры (кроме номеров телефонов). Несмотря на то, что они игнорируются поисковой машиной, некоторые из этих стоп-слов вносят ясность в содержание заголовка и улучшают его восприятие пользователем [7]. Ввиду этого не стоит вовсе отказываться от стоп-слов, но и излишне насыщать ими текст также не принесёт пользы.
Следует выделить также теги заголовков текста: <h1>, <h2>,…, <h6>. Эти теги делают возможным смысловую разметку текста страницы и улучшают читаемость текста для пользователя.
Нумерация тегов может быть соотнесена с их важностью для поисковика. Важность уменьшается от 1 до 6. Они также являются хорошим местом для размещения ключевых слов, но эти теги следует применять с осторожностью. При чрезмерном и необоснованном помещении текста в данные теги могут быть расценены поисковыми роботами как недобросовестная оптимизация и навлечь санкции [10].
Кроме этого, текст в этих тегах, как и в тега ссылок <a> можно выделить полужирным шрифтом, что также привлечёт внимание поисковика. Для поисковой машины полужирный текст в целом означает важную для понимания информацию и является приоритетной. Стоит отметить, что полезность данного выделения тем меньше, чем чаще оно встречается в тексте.
2.3.2 Тег описания <description>
Данный тег является невидимым для пользователя и содержит в себе краткое описание страницы. Содержание этого тега не влияет на позицию сайта в итоговой выдаче. Тем не менее, этот тег представляет коммерческую презентацию сайта в поисковой выдаче. Данная презентация составляется поисковой системой непосредственно из самого описания и информации на странице. Наличие грамотно подобранного описания, содержащего релевантные ключевые слова, может убедить пользователя перейти непосредственно на сайт [8].
Рекомендуемая длина мета-описания ограничивается в среднем 200-250 знаками, включая пробелы и служебные символы. Размер описания колеблется в зависимости от особенностей поисковой машины и текущей версии её алгоритмов. Все символы сверх указанной величины будут проигнорированы поисковиком. Не следует использовать ключевые фразы в описании страницы. Существуют рекомендации по ограничению количества встречаемости ключевых слов в описании до 3-5 раз на страницу [1].
Описание строится по тому же принципу, что и текст страницы, но оно значительно короче. Это налагает определённые условия на его структуру. Ключевые слова должны располагаться ближе к началу описания, при этом само описание не должно состоять только лишь из ключевых слов.
Добавлять мета-описания необходимо для каждой страницы сайта, при этом они не должны копировать друг друга. Тогда, имея множество связанных описаний, заголовков и основной информации на страницах, можно создать множество точек входа на сайт, по которым пользователи смогут найти интересующую их информацию. Это увеличивает приток посетителей в сравнении с ситуацией, когда вся оптимизация нацелена на главную страницу.
2.3.3 Тег ключевых слов <keywords>
Тег ключевых слов являет собой служебную информацию страницы, в которой указывается краткий набор ключевых фраз, по которым следует характеризовать деятельность сайта. Длина читаемой длины тега для поисковиков в среднем равна 200 символам, включая пробелы и служебные символы [1].
В начале 90-х, когда поисковые машины только начинали своё становление, они производили ранжирование страниц, опираясь непосредственно на ключевые слова в теге <keywords>. Это приводило к частым несоответствиям заявленной и фактической информации на сайте. Вследствие этого, большинство поисковиков, в том числе и наиболее крупные, такие, как Google и Яндекс, стали меньше учитывать данный тег при ранжировании результатов поиска.
Таким образом, использовать мета-теги ключевых слов, следует с большой осторожностью, так как большого прироста в рейтинге среди поисковых машин они принесут, но могут навлечь санкции со стороны поисковика. При работе с данным тегом не следует допускать повторения ключевых слов, избегать ключевых слов, не соответствующих содержанию сайта, а также необходимо соблюдать авторские права.
Особенностью данного тега является то, что в нём допускается введение ключевых слов с орфографическими ошибками. Они могут появляться, когда пользователи вводят текст в строку запроса поисковой машины, поэтому поисковики лояльно относятся к данному приёму, так как он направлен на повышение удобства для пользователей.
Как показывает практика, в данный тег следует включать не только непосредственные ключевые слова, по которым ведётся оптимизация, но и связанные с содержанием страницы слова. К ним можно отнести:
· различные варианты ключевых слов (склонения существительных, спряжения глаголов, множественные формы);
· сокращённые формы ключевых слов;
· жаргонизмы и прочие узкоспециальные термины, присущие освещаемой области;
· орфографические ошибки, опечатки и прочие формы неправильного описания.
Ввиду экономии индексируемого пространства тега, а также для того, чтобы ключевые слова индексировались в различных комбинациях, возможно опущение запятых из данного тега. Кроме этого, у поисковиков существует определённая особенность в восприятии всей мета-информации страницы. А именно, они могут объединять рядом стоящие фразы в смысловые блоки.
К примеру, имея в мета-теге ключевых слов две фразы «утюги с отпаривателем» и «тефлоновые утюги», мы можем объединить их во фразу «тефлоновые утюги с отпаривателем». При этом поисковая машина будет учитывать запросы пользователей как по запросу «утюги с отпаривателем», так и по «тефлоновые утюги». Данный приём позволяет избегать повторения слов теле тега, как это приведено в примере со словом «утюг».
Рисунок 10 - Пример объединения ключевых слов
На рисунке 10 представлен пример такого объединения по запросу «тефлоновые утюги с отпаривателем». Красным цветом на рисунке выделена информация, которую поисковая машина посчитала критичной. Жёлтым цветом выделена информация, которая была оценена, как относящаяся к теме страницы. Как видно из данного рисунка, объединение ключевых слов не вносит негативного влияния в результаты ранжирования и не влияет отрицательно на рейтинг страницы.
2.4 Технические работы над сайтом
Технические работы над сайтом включают в себя комплекс мер, направленных на улучшение его функциональных возможностей. К таким мерам относятся:
· присваивание сайту понятного пользователю доменного имени;
Подобные документы
Функционирование систем массового обслуживания с разными типами заявок. Построение математической модели. Постановка задачи оптимизации среднего времени ожидания. Решение задачи оптимизации и разработка программного кода для оптимизации системы.
курсовая работа [538,5 K], добавлен 11.08.2017Графическая иллюстрация работы методов оптимизации. Работа с запрограммированными методами первого, второго и нулевого порядков. Анализ свободно распространяемого программного обеспечения. Применяемая архитектура практикума, пользовательский интерфейс.
дипломная работа [3,9 M], добавлен 14.10.2010Функционирование систем массового обслуживания с разными типами заявок. Построение математической модели, постановка задачи оптимизации среднего времени ожидания. Решение задачи оптимизации системы. Разработка программного кода для оптимизации системы.
дипломная работа [581,7 K], добавлен 27.10.2017Исследование методов оптимизации программного кода на языке Си с помощью компилятора. Тестирование результатов утилитой optbench.c. Определение особенностей оптимизации компилятора на собственной программе. Удачные примеры быстроты и компактности кода.
лабораторная работа [26,5 K], добавлен 17.12.2012Назначение и классификация методов поисковой оптимизации. Эффективность поискового метода. Методы поиска нулевого порядка: исходные данные, условия, недостатки и применение. Структура градиентного метода поиска. Основная идея метода наискорейшего спуска.
лекция [137,8 K], добавлен 04.03.2009Выделение объектов. Работа с объектами. Форматирование данных. Автоматизация ввода данных. Форматирование ячеек. Абсолютные и относительные адреса. Присваивание имен ячейкам и блокам ячеек. Работа с книгами.
реферат [15,0 K], добавлен 17.11.2002Общее описание и особенности использования программы, предназначенной для определения нечетных чисел, находящихся в массиве чисел. Листинг и методы оптимизации данной компьютерной программы. Источники оптимизации кода, описание выполненных команд.
лабораторная работа [17,4 K], добавлен 25.03.2011Работа с фигурным текстом. Форматирование и редактирование текста. Редактирование узлов фигурного текста. Привязка текста к фигурам. Выравнивание текста на фигуре. Перспектива, оболочки и выдавливание. Работа с простым текстом.
реферат [12,7 K], добавлен 21.12.2003Программирование численных методов одномерной оптимизации. Решение одномерных задач оптимизации методами последовательного поиска. Градиентные методы и их применение для оптимизации на ЭВМ математических моделей объектов. Методы нулевого порядка.
контрольная работа [257,9 K], добавлен 15.01.2009Базовый синтаксис языка программирования С#. Объявление переменных и присваивание им значений. Управление порядком выполнения программы. Выполнение преобразований с помощью команд преобразования. Определение классов, конструктора, работа с файлами.
курс лекций [692,5 K], добавлен 23.11.2009