Автор Анна Евкова
Преподаватель который помогает студентам и школьникам в учёбе.

Аналитический обзор развития технологий Интернета (подробно)

Содержание:

Введение

Актуальность работы. Глобальная информационная сеть Интернет уже давно является движущей силой и неотъемлемой частью развития современной цивилизации. Благодаря Интернету человечество получило возможность установить эффективные коммуникативные связи. В связи со скоростью и размерами распространения компьютеризации в мире историю человечества делятся на две эры - до и после появления сети Интернет. На сегодняшний день в сети Интернет подключены сети, которые соединяют большинство городов на планете и даже Антарктику. С каждым днем уровень интереса всех слоев общества к глобальной информационной сети Интернет растет и количество пользователей постоянно увеличивается. С учетом этого становится особенно острой потребность в информации о сети Интернет, ее сервисы и возможности, которые существуют в Интернете, а также обзор развития технологий Интернета.

Объект исследования: технологии Интернета.

Предмет исследования: особенности различных видов интернета.

Цель работы: выполнить аналитический обзор развития технологий Интернета.

Для осуществления поставленной цели необходимо решить задачи:

рассмотреть историю возникновения интернет;

-указать перспективы развития технологий Интернета;

-выявить элементы технологии Интернета;

- проанализировать Internet как глобальную индустрию

Глава 1. История возникновения и перспективы развития Интернет

1.1 История возникновения интернет

Всемирная паутина "W.W.W." - такое название получил Интернет благодаря глобальному распространению во всем мире. На фоне активного развития и воплощения идей "электронного государства" [4, с. 14] переоценить его значимость невозможно: без преувеличения можно утверждать, что современный Интернет является отдельной частью объективной реальности.

В современном мире вряд ли можно встретить человека, который бы не был его пользователем, а тем более - не знала о его существовании. Интернет доступен любому и представляет собой бесконечное информационное поле. В нем представлена самая разнообразная информация - легальная и нелегальная, моральная и аморальная, социальная, политическая, правовая, медицинская, экономическая, религиозная, компьютерная и любая другая, загружена человеком в это поле с помощью компьютера [2, с. 15].

Еще 50 лет назад Интернет смело мог бы стать предметом (темой) фантастических романов, но сейчас - это реальный, отдельный, созданный человеком мир, в котором можно оказаться благодаря соответствующей компьютерной технике. В этом мире существуют вещи, осуществляются действия, происходят события, а по мнению некоторых даже живет Бог [3]. Природа его является материальная, хотя как знать ... Ведь созданный мир, возможно, был совсем не созданным, а только открытым, выявленным человеком ... А случилось это так. Без преувеличения можно утверждать, что Интернет является одним из главных достижений "холодной войны" и, как оказалось впоследствии, аполитичный [1, с. 45].

Четвертого октября 1957 года Советский Союз успешно запустил первый искусственный спутник на орбиту Земли. «Спутник-1» шокировал мир, особенно США, в которых в разработке была собственная программа запуска спутников, но она еще не стартовала. Это событие непосредственно привело к тому, что в 1969 году по инициативе Пентагона было создано Агентство передовых исследовательских проектов Министерства обороны США - DARPA (Department of Defence ARPA - Advanced Research Projects Agency). На организацию возложили задачу исследований и разработки передовых идей и технологий, которые выходят за рамки текущих потребностей. Создание Интернета стало известным проектом этого Агентства. В 1960 году психолог и ученый в области компьютерных технологий Ликлайдер (Joseph Licklider) опубликовал работу «Симбиоз компьютера и человека" (Man-Computer Symbiosis) [6], в котором прослеживалась четко выраженная идея компьютеров, соединенных в сеть, используемых для хранения и извлечения информации.

Первым письменным описанием социальных взаимодействий, которые удалось наладить с использованием сетевых технологий, была серия заметок, написанных Дж. К. Р. Ликлайдерoм из MIT в августе 1962 году, в которых была описана его концепция "Галактической сети". Он предусматривал появление глобального взаимосвязанной совокупности компьютеров, с помощью которых каждый мог бы быстро получить доступ к данным и программам с любого узла. По своей сути эта концепция напоминала современный Интернет. Ликлайдер первым возглавил научно-исследовательскую компьютерную программу в агентстве DARPA, начиная с октября 1962 года работая в DARPA, он убедил своих последователей Ивана Сазерленда, Боба Тейлора и ученого из MIT Лоренса Дж. Робертса в важности этой концепции сети.

Ученый Леонард Клейнрок в MIT опубликовал первую статью по теории пакетной коммутации в июле 1961 году и первую книгу по этой теме в 1964 году. Клейнрок убедил Робертса в теоретической возможности связи с использованием пакетов вместо цепей, стало важным шагом в области развития компьютерной сети. Другой важный шаг заключался в том, чтобы заставить компьютеры общаться друг с другом. Для изучения этого вопроса в 1965 году, работая вместе с Томасом Меррилл, Робертс подключил компьютер TX-2, который находился в штате Массачусетс, к компьютеру Q-32 в Калифорнии с использованием низкоскоростной телефонной линии. В результате этого была создана первая, хотя и небольшая, широкомасштабная компьютерная сеть. В результате этого эксперимента пришло понимание того, что общие компьютеры могут работать вместе, выполнять программы и при необходимости изымать данные на удаленном компьютере, однако система коммутируемым телефонным линиям совершенно не подходила для этого. Уверенность Клейнрока в необходимости в пакетной коммутации была подтверждена.

В конце 1966 Робертс отправился в DARPA для разработки концепции компьютерной сети, быстро составил свой план для сети "ARPANET" (Advanced Research Projects Agency Network - сеть Агентства Перспективных Исследований) и затем опубликовал его в 1967 г.

На конференции, где он представлял доклад, была также доклад Дональда Дэвиса и Роджера Скантлберы с NPL (Великобритания) по концепции сети на основе передачи пакетов. Скантлберы рассказал Робертсону о работе над NPL, а также о работе Пола Барана и других работниках группы RAND. Группа RAND написала статью по сетям с коммутацией пакетов для безопасной передачи голоса в военных целях в 1964 году. Получилось так, что работа в MIT (1961-1967 г.г.), в группе RAND (1962-1965 г.г.) и NPL (1964-1967г.г.) велась параллельно, при этом ученые-исследователи не знали о работе других.

Слово "пакет" было принято с работы в NPL, предложена для использования скорость линии в проекте сети ARPANET была обновлена с 2,4 Кбит / с до 50 Кбит / с. В августе 1968 г.., после того, как Робертс и сообщество, финансируемое DARPA, уточнили общую структуру и характеристики для сети ARPANET, DARPA опубликовала заказ на разработку одного из главных компонентов, пакетных коммутаторов, которые назывались соединяющий процессорами сообщений (IMP).

В декабре 1968 году в конкурсе победила группа, возглавляемая Франко Хартом из компании Heart Bolt Beranek and Newman (BBN). Во время работы команды BBN над процессорами IMP вместе с Бобом Каном, который сыграл важную роль в разработке общей архитектуры сети ARPANET, были существенно изменены и оптимизированы топология и экономика сети Робертсом, который работал вместе с Говардом Франко и его командой в Network Analysis Corporation, а также была подготовлена сетевая измерительная система группой Клейнрока в UCLA.

Поскольку Клейнрок давно начал заниматься разработкой теории пакетной коммутации, а также благодаря его концентрации на анализе, структуре и измерении, его центр Network Measurement Center в UCLA был выбран в качестве первого узла в сети ARPANET. Все это происходило в сентябре 1969 года, когда BBN установила свой первый процессор IMP в UCLA, и был подключен первый хост-компьютер. Проект Дуга Энгельбарта по "Дополнению интеллекта человека" (который включал NLS, первичную систему гипертекста) в научно-исследовательском институте Станфорда (SRI) предоставил второй узел. SRI поддерживал Сетевой информационный центр, который возглавляла Элизабет (Джейк) Фейнлер и включал такие функции, как обслуживание таблиц имен хостов для отображения адресов, а также каталог RFC. Через месяц, когда институт SRI подключился к сети ARPANET, было отправлено первое сообщение между узлами их лаборатории Клейнрока в SRI. Были добавлены два дополнительных узлы в Калифорнийском университете в Санта-Барбаре и Университета Юта. Эти два последних узлы включали прикладные проекты визуализации, когда Глен Куллер и Бартон Фрайд из Калифорнийского университета в Санта-Барбаре исследовали методы отображения математических функций с использованием дисплеев с блоком памяти для решения проблемы обновления по сети, и Роберт Тейлор и Иван Сазерленд в Юта исследовали методы представления в формате 3D по сети.

Таким образом, к концу 1969 года были соединены вместе четыре хост компьютера в первичную сеть ARPANET, которая стала зародышем Интернета [5, с. 73]. Даже на раннем этапе следует отметить, что исследования в области сетевых технологий включали как работу над самой сетью, так и о том, каким образом использовать эту сеть. Эта традиция сохраняется и по сей день.

В последующие годы компьютеры быстро добавлялись в сети ARPANET, а также была продолжена работа по созданию готового протокола связи между узлами, а также другого сетевого программного обеспечения. В декабре 1970 г.. Network Working Group (NWG), которая работала под руководством С. Крокера завершила работу над созданием первичного протокола связи между узлами сети ARPANET. Он назывался протоколом управления сетью (NCP). По мере того, как на узлах сети ARPANET было завершено внедрение NCP в период 1971-1972 г.г. пользователи сети наконец смогли приступить к разработке дополнений.

В октябре 1972 г. Кан организовал большую и очень успешную демонстрацию сети ARPANET на Международной конференции по компьютерной связи (ICCC). Это была первая публичная демонстрация новой сетевой технологии для широкой публики. В том же 1972 году было представлено первичное "горячее" дополнение - электронная почта. В марте Рэй Томлинсон из BBN написал простую программу для отправки и чтения сообщений электронной почты. При этом главной мотивацией для него послужила необходимость в простом механизме координации для разработчиков сети ARPANET. В июле Робертс внес усовершенствования, написав первую служебную программу для работы с электронной почтой, которая отражала, позволяла выборочно читать, хранить в файл, пересылать и отвечать на сообщения. С этого момента началась эпоха электронной почты как крупнейшего сетевого применения в течение нескольких десятилетий. Это стало предвестником той "всемирной паутины", которую мы видим сегодня, а именно стремительного роста всех видов трафика между людьми.

Следующий этап развития Интернета связан с разработкой относительно дешевого мини-компьютера и машинно-независимой операционной системы UNIX. Для новой системы была характерна неограниченная для того времени свобода действия, предоставленная рядовому пользователю, и, что особенно важно, с самого начала своего существования UNIX была системой, ориентированной на работу в сети и не требовала для этого дополнительных компонентов.

В 1976 г.. Майк Леек создал программу UNIX-to-UNIXCopyProgram. В результате, любой компьютер с этой программой мог связываться с любым компьютером через телефонную сеть и обмениваться файлами данных.

В 1979 г.. произошло превращение Интернета в содружество независимых сетей.

В 1990г. Федеральный совет по информационным сетям отменила правило, согласно которому, для присоединения к Интернету была необходима рекомендация какого-либо государственного органа.

Сейчас Интернет - это эпоха электронной коммерции, виртуального офиса, дистанционного обучения и мультимедийных цифровых ресурсов.

В связи с постоянным развитием информационных технологий появляются различные информационные ресурсы. Одним из основных ресурсов Интернет есть сервисы - услуги, предоставляемые пользователям и основанные на его технологиях. Эти ресурсы отличаются друг от друга методами обработки составляющих их информационных объектов и формам представления. Поэтому сегодня в Интернет существует большое количество сервисов, обеспечивающих работу со всем спектром ресурсов.

Наиболее известными среди них являются:

электронная почта (E-mail), что обеспечивает возможность обмена сообщениями одного человека с другим или несколькими абонентами;

телеконференции, или группы новостей (Usenet), обеспечивающие возможность коллективного обмена сообщениями;

сервис FTP - система файловых архивов, обеспечивает хранение и пересылку файлов различных типов;

сервис Telnet, предназначенный для управления удаленными компьютерами в терминальном режиме;

World Wide Web (WWW) - гипертекстовая (гипермедиа) система, предназначенная для интеграции различных сетевых ресурсов в единое информационное пространство;

сервис DNS, или система доменных имен, обеспечивает возможность использования для адресации узлов сети мнемонических имен вместо числовых адресов;

сервис IRC, предназначенный для поддержки текстового общения в реальном времени (chat).

Перечисленные выше сервисы относятся к стандартным. Это означает, что разработчики программного обеспечения при практической реализации обязаны выдерживать общие технические требования. Наряду со стандартными сервисами существуют и нестандартные. Например, системы типа Instant Messenger (своеобразные Интернет-пейджеры - ICQ, AOl, Demoson-line и т.п.), системы Интернет-телефонии, трансляций радио и видео и т.д. Важной особенностью таких систем является отсутствие международных стандартов, что может привести к возникновению технических конфликтов с другими подобными сервисами.

Появляются и быстро распространяются новые информационные источники электронные газеты, электронные мультимедийные журналы, еженедельные радиопередачи, транслируемые через Интернет, видеоконференции и другие. Уровень интереса всех слоев общества к глобальной информационной сети Интернет растет с каждым днем. Количество пользователей резко увеличивается и уже достигла миллиардной отметки. Никто и ничто не способно остановить этот лавинообразный процесс. Итак, Интернет стал неотъемлемой частью человечества и его движущей силой.

1.2 Перспективы развития технологий Интернета

Сегодня невозможно представить нашу жизнь без Интернета и информационных технологий. Они прочно вошли в нашу жизнь, значительно упростив ее. С развитием информационных технологий нам становятся доступны новые инструменты, которые делают привычные нам процессы быстрее, удобнее, и дешевле. Однако, те изменения, которые мы сейчас видим – это только верхушка айсберга. Сетевые технологии находятся лишь в начале пути своего роста и по-настоящему большие инновации ждут нас впереди. Итак, рассмотрим некоторые направления развития компьютерных сетей и Интернета на ближайшие десятилетия. Будет расти охват аудитории, Интернет появится в самых отдаленных местах планеты. К концу 2012 г. число пользователей Интернет по всему миру достигло 2,4 миллиард пользователей по всему миру. К 2020 г. по прогнозам Национального Научного Фонда США число пользователей Интернет возрастет до 5 млрд. Интернет станет более распределен географически. Самый большой прирост пользователей в ближайшие 10 лет будет происходить за счет жителей развивающихся стран в Африке (сейчас используют не более 7 %), Азии (около 19%) и Среднего Востока (около 28 %). Для сравнения, в настоящее время более 72 % жителей Северной Америки используют Интернет.

В информационных технологиях начинается эпоха программного обеспечения. Сейчас мы переживаем этап интеллектуализации «железа», когда программное обеспечение становится важнее самого оборудования. Индустрия ПО будет расти большими темпами, а рынок «железа» будет сокращаться.

1) Увеличивается скорость передачи данных и пропускная способность. В ближайшем будущем можно будет передавать данные со скоростью света. Уже сегодня есть технология WiGik, которая позволяет на расстоянии нескольких километров передавать информацию со скоростью 7 ГБит /сек. методом кодирования информации на физическом уровне. Так же и с пропускной способностью. Согласно данным компании Cisco, сегодня одновременно в Skype работает свыше 35 млн. пользователей, в Facebook – свыше 200 млн, каждую минуту на YouTube загружают 72 часа видео. Изображения и видео файлы, обмен которыми постоянно происходит во «всемирной паутине», требуют более высокой пропускной способности. И технологии будут развиваться в этом направлении. Пользователи будут общаться, и обмениваться информацией посредством видео голоса в режиме реального времени. Все больше и больше появляется сетевых приложений, требующих взаимодействия в реальном времени.

2) Семантический WEB. Мы правомерно движемся в сторону «семантического интернета», в котором информации придается точно определенный смысл, что позволяет компьютерам «понимать» и обрабатывать ее на семантическом уровне. Сегодня компьютеры работают на синтаксическом уровне, на уровне знаков, они считывают и обрабатывают информацию по внешним признакам. Семантический WEB позволит находить информацию по поиску: «Найти информацию о животных, использующих звуковую локацию, но не являющихся ни летучей мышью, ни дельфином», например.

3) Новые объекты передачи. Благодаря развитию новых технологий можно будет передавать через компьютерные сети то, что раньше казалось невозможным. Например – запах. Машина анализирует молекулярный состав воздуха в одной точке и передает эти данные по сети. В другой точке сети этот молекулярный состав, т.е. запах синтезируется. Прототип подобного устройства уже выпустила американская компания Mint Foundry, называется она Olly, пока не поступила в свободную продажу .

4) Интернет станет сетью вещей, а не только компьютеров. Каждый год у пользователя увеличивается число устройств, который выходят в сеть: компьютеры, телефоны, планшеты и т.д. Уже сегодня количество IP-адресов превышает количество населения Земли (IP-адреса нужны для работы бытовых приборов). С новой архитектурой компьютерных сетей наступит эра «интернетавещей». Вещи и предметы будут взаимодействовать через сети, это откроет большие возможности для всех сфер жизнедеятельности человека. Одна из ближайших разработок – это «умная пыль» ‒ датчики, разбросанные на большой территории, собирающие информацию. Национальный Научный Фонд США прогнозирует, что около миллиардов датчиков на зданиях, мостах, дорогах будут подключены к Интернет для таких целей, как мониторинг использования электричества, для обеспечения безопасности и т.д. «Умный интернет» превратит социальные сети (в том виде, что мы имеем сегодня) в социальные медиасистемы. В помещениях будут установлены камеры и различные датчики. Через собственный аккаунт можно будет кормить питомцев и запускать стиральную машину, например .

5) Роботизация общества. Уже сегодня мы знаем примеры беспилотных летающих аппаратов, пылесосовавтоматов, в Японии «работают» роботыполицейские – все эти технологии выполняют свои функции без вмешательства человека. И с каждым годом проникновение таких машин будет только увеличиваться. Одна из нерешаемых задач в вычислительных технологиях – это проблема воссоздания компьютером мышления. Однако, можно соединить человеческий мозг с кибернетической, компьютерной системой. По оценкам экспертов, первый такой «сверх человек», киберорганизм появится еще до 2030 года. Он будет физически совершенный, устойчивый к болезням, радиации и экстремальным температурам. И при этом у него будет мозг человека.

6) Новый статус человека в Интернете. Интернет меняет быт человека. «Всемирная паутина» становится не только площадкой для получения информации и общения, но и инструментом реализации бытовых нужд: таких, как совершение покупок, оплата коммунальных услуг и др. Интернет изменил отношение человека с государством. Личное общение, персональное обращения в специальные службы будет минимизировано. Подать документы в ВУЗ, вызвать скорую, написать заявление в полицию, оформить паспорт – все это уже сегодня, возможно, сделать электронно. Нужно говорить и о новом статусе человека в мире интернет-технологий. Доступ в сеть станет гражданским правом каждого человека, будет свято охраняться и контролироваться законом наряду с прочими гражданскими свободами. Это недалекое будущее. Для воле излияния граждан больше не нужны специальные площадки, трибуны, СМИ. В связи с этим станет минимум анонимности. Роскоши менять пароли и заводить аккаунты под несуществующими именами, оставлять едкие комментарии под шапкой-невидимкой – скорее всего не станет. Логин/пароль для входа в сеть могут стать средством идентификации личности, а к нему будут привязаны его реальные паспортные данные.

7) Изменения рынка труда и сферы образования. Активное проникновение сетевых технологий и интернета приведут к изменениям на рынке труда и в сфере образования. Социальные сети, электронная почта, Skype, информационные ресурсы, корпоративные сайты и встроенные в компьютер программы привязывают людей не столько к конкретному офису, сколько к самому компьютеру. А тут уже не важно, откуда ты им пользуешься: с работы, из дома, с кафе или с побережья Индийского океана. Сотрудников, выполняющих свою работу дистанционно, будет все больше. И все больше будет офисов в «кармане», т.е. виртуальных предприятий, которые существуют только в Интернете. Людей, получающих образование дистанционно через новые форматы, предоставляемые сетью Интернет – тоже.

8) Интернет станет более «зеленым». Сетевые технологии потребляют слишком много энергии, объем его растет, и эксперты сходятся во мнении, что будущая архитектура компьютерных сетей должна быть более энергоэффективной. Интернет занимает 2% мирового потребления электроэнергии, что эквивалентно мощности работы 30ти атомных электростанций – 30 млрд. Вт. Тенденция к «озеленению» или «экологизации» сети Интернет будет ускоряться по мере роста цен на энергоносители.

9) Кибероружие и кибервойны. У развития интернеттехнологий и возможностей компьютерных сетей есть и другая сторона медали. Начиная от киберпреступлений, связанных с увеличением в интернете электронной коммерции, до кибервойн. Киберпространство уже официально признано пятым «полем боя». Военноморские силы США в 2010 году даже создали кибервойска CYBERFOR, которые находятся в непосредственном подчинении у командования ВМС США. Сегодня под вирусные атаки хакеров попадают не только ПК рядовых пользователей, но и промышленные системы, управляющие автоматизированными производственными процессами. Вредоносный червь может быть использован в качестве шпионажа, а также диверсий электростанций, аэропортов других жизнеобеспечивающих предприятий. Так, в 2010 году компьютерный червь Stuxnet поразил ядерные объекты Ирана, отбросив атомную программу этой страны на два года назад. Применение вредоносной программы оказалось по эффективности сравнимо с полноценной военной операцией, но при отсутствии жертв среди людей. Уникальность этой программы заключалась в том, что впервые в истории кибератак вирус физически разрушил инфраструктуру. Нынешняя архитектура компьютерных сетей такую безопасность обеспечить не может. Поэтому, индустрия антивирусов/web-защиты и разработки новых технологий по обеспечению безопасности будет расти с каждым годом .

Таким образом, интернет за два с лишним десятка лет его развития практически не менялся концептуально и архитектурно. С одной стороны, внедрялись новые технологии передачи данных, с другой – создавались новые сервисы, но основная концепция сети, архитектура компьютерных сетей остаются на уровне 80-х годов прошлого столетия. Перемены не только давно назрели, но и жизненно необходимы. Т.к. на основе старой архитектуры невозможны инновации.

Глава 2. Анализ технологий Интернета

2.1. Элементы технологии

Основными элементами технологии WWW являются :

  • язык гипертекстовой разметки документов (Hyper Text Markup Language - HTML);
  • протокол обмена гипертекстовой информацией (Hyper Text Transfer Protocol - HTTP);
  • универсальный способ адресации ресурсов в сети (Universal Resource Identifier - URI, и Universal Resource Locator - URL);
  • система доменных имен (Domain Name System - DNS);
  • универсальный интерфейс шлюзов (Common Gateway Interface - CGI), добавленный позже сотрудниками Национального Центра Суперкомпьютерных Приложений (National Center for Supercomputing Applications - NCSA).
  • расширяемый язык разметки (eXtensible Markup Language - XML), рекомендованный Консорциумом Всемирной паутины.

Язык гипертекстовой разметки HTML создан на опыте использования редактора TeX и системно- и аппаратно-независимых методов представления текста в электронной форме (Standard Generalized Markup Language - SGML, стандарт ISO 8879). Основная идея гипертекста заключается в присутствии внутри ASCII-текста форматирующих полей и ссылок как на части внутри документа, так и на другие документы. Благодаря этому можно просматривать документы в том порядке, в каком требуется, а не последовательно, как при чтении книг. База данных гипертекста является частью файловой системы, которая содержит текстовые файлы в формате HTML и связанные с ними графику, мультимедиа и другие ресурсы.

Текстовый формат XML добавился несколько позже и был предназначен для описания систем хранения структурированных данных. Целью создания формата XML было обеспечение совместимости при передаче структурированных данных между разными системами обработки информации, особенно при передаче таких данных через Internet, а также для создания на его основе более специализированных языков разметки, иногда называемых словарями. Словари, основанные на XML, сами по себе формально описаны, что позволяет программно изменять и проверять документы на основе этих словарей, не зная их семантики, то есть не зная смыслового значения элементов. Важной особенностью XML также является применение так называемых пространств имен (Name Space).

Для получения файла из Internet браузеру нужно знать, где находится файл и как общаться с компьютером, на котором этот файл находится. Программа-клиент WWW передает имя необходимого файла, его местоположение в Internet (адрес хоста) и метод доступа (обычно протокол HTTP или FTP). Комбинация этих элементов формирует универсальный идентификатор ресурса (Universal Resource Identifier - URI). URI определяет способ записи адресов различных информационных ресурсов. В основу URI были заложены идеи расширяемости, полноты и читаемости. Реализация URI для WWW является способом адресации в сети (Universal Resource Locator - URL). Общий формат ссылки URL - <протокол://узел/путь/файл /метка>.

Internet является совокупностью эффективных методов коммуникации (на базе современных стандартизированных протоколов связи) и работы с информацией, находящейся на удаленных носителях. Кроме непосредственных функций по транзиту данных любых типов технологии Internet обеспечивают широкий спектр разнообразных информационных услуг, реализуемых различными службами:

  • служба пересылки и приема сообщений (E-mail);
  • служба гипертекстовой среды (WWW);
  • служба передачи файлов (File Transfer Protocol - FTP);
  • служба удаленного управления компьютером (Teletype Network - Telnet);
  • служба имен доменов (Domain Name System);
  • служба телеконференций (Users Network - Usenet) и чат-конференций (Internet Relay Chat - IRC).

Программная индустрия для Web испытывает сейчас настоящий бум: сотни компаний - разработчиков программного обеспечения для Web создают новые технологии и инструментальные средства для навигации, работы в Сети и разработки пользовательских приложений. К их числу можно отнести:

  • программы просмотра и навигации (браузеры);
  • средства поиска и доставки информации (поисковые машины);
  • программное обеспечение Internet и Web-серверов, серверные приложения и расширения;
  • средства администрирования в сетях;
  • клиентские приложения и расширения (Web-сервисы);
  • инструментальные средства разработки;
  • средства обеспечения безопасности.

Инструментальные средства разработки Internet-приложений разнообразны и включают:

  • редакторы гипертекста и графические редакторы;
  • средства разметки карт изображений и конверторы изображений;
  • средства мультимедиа (аудио, анимация, видео);
  • средства генерации виртуальной реальности;
  • средства и языки программирования серверных и клиентских приложений и расширений.

Редакторы гипертекста формируют HTML-файлы в режимах программирования или WYSIWYG (What You See Is What You Get). Можно использовать и обычные текстовые редакторы, а также средства, встроенные в браузеры. К этой же группе относятся конверторы, "перегоняющие" офисные документы в гипертекст. Графические редакторы служат для создания изображений, включаемых в гипертекст.

Средства разметки карт изображений позволяют разбить изображение на участки и связать гиперссылки с каждым из них. Такие средства могут быть встроены в графический редактор. Конверторы изображений обеспечивают преобразование форматов, размеров и цветов, создание специальных эффектов.

Средства мультимедиа предназначены для создания звукового и музыкального сопровождения, анимационных и видеороликов. Часто воспроизведение файлов мультимедиа осуществляется клиентскими расширениями или специальными Helper-программами.

Средства генерации виртуальной реальности позволяют запрограммировать трехмерные сцены и управление ими на языке VRML (Virtual Reality Modeling Language). Ввиду того, что процесс воспроизведения виртуальной реальности достаточно сложен, могут потребоваться дополнительные средства автоматизированного проектирования и анимации. Для просмотра Web-страниц с VRML- изображениями необходимо использовать соответствующие браузеры, например: WebSpace от Silicon Graphics или VRML-расширения для Internet Explorer или Netscape Navigator.

Системы программирования клиентских приложений предназначены для разработки и отладки сценариев (на языках VBScript или JavaScript) и мобильных приложений (на языке Java), выполняемых на стороне клиента. Наибольшие удобство и производительность разработки дают средства визуального программирования. В качестве средств программирования серверных приложений могут применяться как обычные системы программирования (Visual Basic, C/C++, Java), так и интерпретаторы команд (UNIX-shell, REXX и др.) и интерпретаторы и компиляторы сценариев на JavaScript, VBScript и Perl. Для создания клиентских и серверных расширений используются системы программирования, которые позволяют создавать компоненты с использованием механизмов ActiveX или Plug-in, представленных в виде встроенных или дополнительных библиотек интерфейсов.

Средства администрирования, как правило, поставляются в составе программного обеспечения Web-сервера и служат для конфигурирования, активации и мониторинга Web-сервисов, для контроля актуальности гиперссылок и связности гипертекстовой структуры, для учета и протоколирования использования серверов, для настройки и сопровождения системы безопасности.

Средства безопасности могут быть встроены в программное обеспечение Internet-серверов или представлены в виде дополнительных компонентов: комплексов Firewall и Proxy-серверов, выполняющих фильтрацию данных на различных уровнях.

На ранних стадиях развития сеть Internet была "улицей с односторонним движением", так как информация с Web-страниц поступала к пользователю от Web-сервера только при наличии запроса пользователя. С появлением в языке HTML диалоговых свойств пользователь получил обратную связь с Web-сервером. Обмен параметров при этом осуществляется через специальный графический интерфейс (Computer Graphical Interface - CGI).

В последнее время все большее распространение получает механизм согласования запускаемых программ через многоцелевые расширения почтовой службы Internet (Multipurpose Internet Mail Extensions - MIME). Современные браузеры, помимо взаимодействия с Web-серверами через протокол http, могут работать с различными типами серверов и служб с использованием протоколов FTP, File, Gopher, Mailto, NNTP, Telnet, WAIS.

В состав URL входит информация о методе доступа, требующаяся браузеру, чтобы использовать любой из этих протоколов.

Средства разработки приложений в комплексах прикладных программ для пользовательских персональных компьютеров облегчают создание HTML-страниц для Web-серверов.

Intranet - это внутреннее информационное пространство организации, реализуемое либо в локальной сети LAN (Local Area Network), либо в компьютерной сети WAN (Wide Area Network), охватывающей несколько территорий и включающей в себя десятки и/или сотни тысяч компьютеров) и обладающее всеми возможностями Internet.

Intranet ориентирован, как правило, на применение в рамках одного компактного или распределенного предприятия и отличается высокой безопасностью и скоростью работы. Используется для решения задач по автоматизации документооборота, информационному сопровождению бизнес-процессов, поиска и совместного доступа к данным и документам организации и имеет шлюзы для подключения в Internet. Для примера можно привести Intranet-сети, реализованные на основе технологий Microsoft. Пользователь работает с данными в привычном интерфейсе, пользуясь средствами Microsoft Office для доступа к сетевым данным.

Отметим, что сеть Intranet - отличная платформа для работы с информацией внутри предприятия. Современный Web-браузер доступен для любой клиентской системы. Рынок программного обеспечения для Web-серверов весьма разнообразен - пользователи не привязаны к одному поставщику.

2.2 Internet как глобальная индустрия

Большинство приложений разработано на базе принципа открытых систем и прекрасно взаимодействуют. Технология Web обладает свойством наращиваемости и может применяться в любых вычислительных сетях.

Многообразие протоколов, служб, клиентских приложений, возможностей работы практически с любыми серверными платформами (Linux, Windows, Solaris, BSD и др.) и операционными системами превратили Internet в мощный инструмент, широко использующийся в бизнесе. Распределенные информационные системы, построенные на Internet-технологиях, стали обычным явлением. Многие сферы бизнеса получили приставку "е" - e-Business, что означает "электронный бизнес". В настоящее время сеть Internet является основой перехода к информационному обществу, а сам он становится глобальной индустрией в информационном, экономическом и социальном пространствах. По оценкам различных международных аналитических служб, общий оборот в Internet-индустрии к 2010 году может составить более 12 триллионов долларов.

Аналитический отдел Yandex опубликовал исследование, посвященное развитию Internet в регионах России. В основу исследования легли данные различных служб самого Yandex, а также информация Фонда "Общественное мнение" (ФОМ), TNS, компании RU-Center и проекта "Черный квадрат".

Выяснилось, что услугами Internet в России пользуется 25% населения, то есть 29 миллионов человек, из них более 6 миллионов - в Москве и Санкт-Петербурге.

Проведенное исследование подтвердило лидерство обеих столиц по всем показателям распространения Internet и активности пользователей. В частности, по проникновению Internet Москва обгоняет регионы больше чем в 2,5 раза, Санкт-Петербург - в 1,5 раза. Уровень покупательской онлайн-активности обоих мегаполисов также значительно выше. Московские покупатели в 16 раз активнее региональных, петербуржцы - в 6 раз.

Что касается регионов, то больше всего пользователей Internet после Москвы и Санкт-Петербурга насчитывается в Центральном федеральном округе (ЦФО) - 17% всех российских пользователей. Отстают по этому показателю Урал и Дальний Восток (6% и 5% соответственно). ЦФО также занял за счет Московской области третье место по числу доменов на тысячу пользователей, почти в 2 раза превысив средний показатель.

По уровню проникновения Internet первое место среди всех федеральных округов занимает Северо-западный федеральный округ (без учета Санкт-Петербурга). Проникновение Internet в этом регионе составляет 31%, что на 9% больше, чем в среднем по округам. Вторую строчку по этому показателю занимает Дальневосточный федеральный округ - 28%. Однако на Дальнем Востоке меньше всего электронных СМИ, при этом они являются самыми активными. Среднестатистическое СМИ из этого округа предлагает 14 новостей в день. Это в два раза больше среднего. Около 70% дальневосточного новостного трафика поступает из Владивостока.

По двум важным показателям Internet-активности пользователей (развитие блогосферы и покупательская онлайн-активность) среди федеральных округов лидирует Урал, опережая среднероссийские показатели в два раза. Очевидно, что на эти результаты сильно влияет Екатеринбург.

Именно этот город оказался самым Internetизированным после Москвы и Санкт-Петербурга. Далее следуют Краснодар и Новосибирск. Также в первую десятку рейтинга Internetизации входят пять поволжских городов - Самара, Пермь, Казань, Уфа и Нижний Новгород. Южный и Сибирский федеральные округа наиболее близки к средним российским показателям развития Internetа.

Кроме разницы между столицами и регионами очень заметна разница между городами и остальной частью России. По данным TNS, Internet используют около 40% жителей городов с населением более 100 тысяч человек. Фактически это означает, что проникновение Internet в маленьких городах и деревнях существенно ниже 20%.

По данным Yandex, число сайтов в Рунете выросло за 2007 год на 66%. Каждый день в зоне .RU регистрируется более 1000 новых доменов, что соответствует росту на 62% в год. Этот рост линейный, а не экспоненциальный. Количество доменов, зарегистрированных в регионах, увеличивается несколько медленнее (за последний год - на 57%).

Небольшой (по историческим меркам) срок существования сервиса WWW показал его востребованность все возрастающему числу пользователей. Это стало хорошим стимулом для развития Web-ориентированных концепций и технологий, увеличивающих возможности пользователей. Массовое внедрение и использование этих решений - причина качественных изменений во Всемирной паутине, своего рода смена «версии» Web. На текущий момент аналитики Internet выделяют три таких «версии» — Web 1.0, Web 2.0 и Web 3.0 (стоит отметить, что деление это условное и часто критикуемое).

Понятие Web 1.0 — это общий термин, описывающий состояние Всемирной Паутины за первое десятилетие ее существования. Для 90-х годов XX века были характерны низкая компьютерная грамотность пользователей, медленные типы подключения и ограниченное число сервисов Internet. Web-сайтам того времени были присущи следующие основные черты:

  • Статичное содержимое Web-страниц, контент создавался и поддерживался разработчиками Web-сайта.
  • Фреймовая и/или табличная верстка.
  • Низкое качество разметки (зачастую контент был представлен в виде обычного текста, заимствованного из конференций UseNet и подобных источников, и заключенного в тег <pre>).
  • Широкое использование нестандартных тегов, поддерживаемых только конкретным браузером.
  • Использование физических или внедренных стилей, редко - встраиваемых и, тем более, связанных таблиц стилей.
  • Указание информации о рекомендованной версии браузера и разрешении монитора, при которых дизайн сайта отображается корректно.
  • Гостевые книги, форумы или чаты — как инструменты обратной связи и придания интерактивности.
  • Использование графических и текстовых информеров (погода, курс доллара и т.п.) для агрегирования информации.

Условное окончание эпохи «Web 1.0» датируется 2001 годом, когда произошел обвал акций Internet-компаний. Собственно, существовавшие сайты никуда не делись, но вот вновь создаваемые сайты все больше и больше отличались от типичных «Web-один-нольных».

Web 2.0 — совокупность Web-технологий, ориентированная на активное участие пользователей в создании контента Web-сайтов.

Появление названия Web 2.0 принято связывать со статьёй Тима О’Рейли «What Is Web 2.0» от 30 сентября 2005 года.

Особенности Web 2.0

  • Привлечение «коллективного разума» для наполнения сайта;
  • Взаимодействие между сайтами с использованием Web-сервисов;
  • Обновление Web-страниц без перезагрузки;
  • Агрегирование и синдикация информации;
  • Объединение различных сервисов для получения нового функционала;
  • Дизайн с применением стилевой разметки и акцентом на юзабилити.

Основные элементы Web 2.0

Web-сервисы (Web-службы) — это сетевые приложения, доступные по протоколу HTTP, в качестве протоколов взаимодействия использующие основанные на XML форматы данных (RPC, SOA и подобные). В результате программное обеспечение может использовать Web-службы вместо того, чтобы самостоятельно реализовывать требуемый функционал (например, проверить введенный в форме почтовый адрес). В отличие от обычных динамических библиотек, такой подход обладает рядом плюсов:

  • Web-служба находится на серверах компании, которая её создала (рисунок 1). Поэтому в любой момент пользователю доступна самая свежая версия программы и ему не приходится заботиться об обновлениях и вычислительных мощностях, требуемых для выполнения операции.
  • Инструменты для работы с HTTP и XML есть в любом современном языке программирования, поэтому Web-службы являются платформонезависимыми.

Asynchronous JavaScript and XML — подход к построению пользовательских интерфейсов Web-приложений, при котором Web-страница, не перезагружаясь, асинхронно загружает нужные пользователю данные. Использование Ajax стало наиболее популярно после того, как Google начала активно использовать его при создании своих сайтов, таких как Gmail и Google Maps. Часто Ajax считают синонимом Web 2.0, что совершенно не так. Web 2.0 не привязан к какой-то одной технологии или набору технологий, с тем же успехом ещё в 1999 году возможность асинхронного обновления страницы уже предоставлял Flash 4.

Одновременное распространение информации в том числе аудио- и видео- на различные страницы или web-сайты, как правило, с использованием технологий RSS или Atom. Принцип заключается в распространении заголовков материалов и ссылки на них (например, последние сообщения форумов, и т. п.). Первоначально эта технология использовалась на новостных ресурсах и в блогах, но постепенно сфера применения расширилась.

Web mash-up (дословный перевод — «смешение») — сервис, который полностью или частично использует в качестве источников информации другие сервисы, предоставляя пользователю новую функциональность для работы. В результате такой сервис может становиться также новым источником информации для других Web mash-up сервисов. Таким образом образуется сеть зависимых друг от друга сервисов, интегрированных друг с другом. Например, сайт транспортной фирмы может использовать карты сервиса Google Maps для отслеживания местонахождения перевозимого груза.

Тэги - ключевые слова, описывающие рассматриваемый объект, либо относящие его к какой-либо категории. Это своего рода метки, которые присваиваются объекту, чтобы определить его место среди других объектов. С понятием меток тесно связано понятие фолксономии — термина, о котором широко заговорили именно в связи с ростом сервисов Web 2.0, таких как Flickr, del.icio.us, и, в дальнейшем, Wink.

Появление и быстрое распространение блогов тоже вписывается в концепцию Web 2.0, создавая так называемую «редактируемую Паутину» (writable web).

Возможность пометить документ ключевыми словами существует и в языке HTML (англ. keywords), однако этот способ был полностью скомпрометирован широким его использованием в целях поискового спама.

Социализация - использование разработок, которые позволяют создавать сообщества пользователей.

  • В понятие социализация сайта можно также включить возможность индивидуальных настроек сайта и создание личной зоны (личные файлы, изображения, видео, блоги) для пользователя, чтобы пользователь чувствовал свою уникальность.
  • Поощрение, поддержка и доверие «коллективному разуму».
  • При формировании сообщества большое значение имеет соревновательный элемент, Репутация или Карма, которые позволяют сообществу саморегулироваться и ставить пользователям дополнительные цели присутствия на сайте.

Понятие Web 2.0 также отразилось и в дизайне. Предпочтительными стали округлость, имитация выпуклых поверхностей, имитация отражений на манер глянцевого пластика современных hi-end устройств (к примеру, плееры). В целом, восприятие внешнего вида на глаз кажется более приятным. Графика таких сайтов занимает больший объём, нежели при использовании аскетичного дизайна. Отчасти эта тенденция связана с совпавшим по времени выходом новых версий операционных систем использующих вышеупомянутые идеи.

Однако однообразие таких сайтов явно и в последнее время считается, графический облик классического дизайна Web 2.0, устаревшим и не креативным. Особенно это отражается в современной тенденции создания информативных сайтов, где главную роль играет простота, изящество, графичность и юзабилити. В дизайне не должно быть ограничений, но Web 2.0 их прививает.

При использовании технологий web 2.0 вы становитесь арендатором сервиса и/или дискового пространства у какой-то сторонней компании. Возникающая при этом зависимость формирует ряд недостатков новых сервисов:

•зависимость сайтов от решений сторонних компаний, зависимость качества работы сервиса от качества работы многих других компаний;

•слабая приспособленность нынешней инфраструктуры к выполнению сложных вычислительных задач в браузере;

•уязвимость конфиденциальных данных, хранимых на сторонних серверах, для злоумышленников (известны случаи хищения личных данных пользователей, массовых взломов учётных записей блогов).

Фактически сайт эпохи Web 2.0 на первый взгляд интерактивен и дружелюбен, позволяет себя легко настраивать. Однако сбор статистики о пользователях, их предпочтениях и интересах, личной жизни, карьере, круге друзей могут помочь владельцу сайта манипулировать сообществом. По самым пессимистичным прогнозам многочисленные сайты Web 2.0 вкупе с другими современными технологиями дают прообраз тоталитарной системы «Большого брата».

Web 3.0 — это принципиально новый подход к обработке информации, представленной во Всемирной паутине. Web 3.0 в первую очередь подразумевает под собой иной подход к обработке информации сообществом пользователей. Если Web 1.0 предполагает Web-мастера в качестве поставщика контента, а Web 2.0 — сообщество равноправных пользователей, генерирующих контент в рамках тематического проекта, то Web 3.0 уже позволяет этим самым равноправным пользователям "выбирать" экспертов в заданной области (или в нескольких областях) и "наделять его властью". Такие общепризнанные эксперты-выдвиженцы постепенно расширяют свое влияние на сообщество, могут выступать его модераторами, управлять сообществом при помощи дополнительных прав и расширенных возможностей в рамках Internet-проекта. Это исключает возможность управления сообществом некомпетентных и малозначимых его участников, что является очень важным вещью — достаточно вспомнить «Web-два-нольное» равноправие на проекте Wikipedia, из-за которого ее создатель должен был более десятка раз исправлять свою собственную (!) биографию – пользователи считали, что в ней есть неточности и честно ее исправляли.

Также термином Web 3.0 часто называют концепцию семантической паутины (Semantic Web).

Семантическая паутина (англ. Semantic Web) — часть глобальной концепции развития сети Internet, целью которой является реализация возможности машинной обработки информации, доступной во Всемирной паутине. Основной акцент концепции делается на работе с метаданными, однозначно характеризующими свойства и содержание ресурсов Всемирной паутины, вместо используемого в настоящее время текстового анализа документов. Термин впервые введён Тимом Бернерсом-Ли в мае 2001 года в журнале «Scientific American», и называется им «следующим шагом в развитии Всемирной паутины». В семантической паутине предполагается повсеместное использование, во-первых, унифицированных идентификаторов ресурсов (URI), а во-вторых — онтологий и языков описания метаданных.

Эта концепция была принята и продвигается Консорциумом W3. Для её внедрения предполагается создание сети документов, содержащих метаданные о ресурсах Всемирной паутины и существующей параллельно с ними. Тогда как сами ресурсы предназначены для восприятия человеком, метаданные используются машинами (поисковыми роботами и другими интеллектуальными агентами) для проведения однозначных логических заключений о свойствах этих ресурсов.

Семантическая паутина — это надстройка над существующей Всемирной паутиной, которая призвана сделать размещённую в ней информацию более понятной для компьютеров. Машинная обработка возможна в семантической паутине благодаря двум её важнейшим характеристикам:

  • Повсеместное использование унифицированных идентификаторов ресурсов (URI). Традиционная схема использования таких идентификаторов в современном Internet сводится к установке ссылок, ведущих на объект, им адресуемый. Очевидным свойством такой ссылки является возможность «загрузки» объекта, на который она указывает. Таким объектом может быть Web-страница, файл произвольного содержания, фрагмент Web-страницы, а также неявное указание на обращение к реально существующему физическому ресурсу по протоколу, отличному от HTTP (например, ссылки mailto:). Концепция семантической паутины расширяет это понятие, включая в него ресурсы, недоступные для скачивания. Адресуемыми с помощью URI ресурсами могут быть, например, отдельные люди, города и другие географические сущности, художественные артефакты и т. д. К идентификатору предъявляются несколько простых требований: он должен быть уникальной строкой определённого формата, адресующей реально существующий объект;
  • Повсеместное использование онтологий и языков описания метаданных. Современные методы автоматической обработки данных, доступных в Internet, как правило, основаны на частотном и лексическом анализе текстового содержимого, которое прежде всего предназначено для восприятия человеком. В семантической паутине предлагается использовать форматы описания, доступные для машинной обработки (например, семейство форматов, часто упоминаемое в литературе как «Semantic Web family»: RDF, RDF Schema или RDF-S, и OWL), в свою очередь, использующие URI для адресации описываемых и описывающих объектов, а также онтологии и дескрипционные логики в качестве базовых математических формализмов.

Несмотря на все преимущества, предоставляемые семантической паутиной в случае её внедрения, существуют сомнения в возможности её полной реализации, и тому есть несколько причин:

  • практическая нереализуемость - разные комментаторы высказывают различные причины, которые могут быть препятствием к этому, начиная с человеческого фактора (люди склонны избегать работы по поддержке документов с метаданными, открытыми остаются проблемы истинности метаданных, и т. д.), и заканчивая сложностью определения онтологии верхнего уровня (корня иерархии), критической для семантической паутины;
  • дублирование информации - необходимость описания метаданных так или иначе приводит к дублированию информации. Каждый документ должен быть создан в двух экземплярах: размеченным для чтения людьми, а также в машинно-ориентированном формате;
  • невозможность получения коммерческой выгоды - известно, что основное финансирование современных Internet-ресурсов (за исключением строго некоммерческих проектов) обеспечивают рекламодатели. Главный критерий, от которого зависит стоимость рекламного места — посещаемость сайта. Однако в случае реализации семантических поисковых систем, которые будут сами отбирать и сразу предоставлять нужную пользователю информацию, отпадает необходимость посещать сайт — источник материала, а значит пользователь не увидит рекламу, и как следствие прекратится финансирование Internet-проектов.

Техническую часть семантической паутины составляет семейство стандартов на языки описания, включающее XML, XML Schema, RDF, RDF Schema, OWL, а также некоторые другие. Располагая их в порядке повышения уровня абстракции, реализуемого тем или иным языком, получаем:

  • XML предоставляет синтаксис для определения структуры документа, подлежащего машинной обработке. Синтаксис XML не несёт семантической нагрузки.
  • XML Schema определяет ограничения на структуру XML-документа. Стандартный синтаксический анализатор языка XML в состоянии проверить произвольный XML-документ на соответствие его структуры так называемой схеме документа, описанной в XML Schema.
  • RDF представляет собой простой способ описания экземплярных данных в формате субъект-отношение-объект, в котором в качестве любого элемента этой тройки используются только идентификаторы ресурсов. Существует стандартизованное отображение этих троек на XML-документы предопределённой структуры (т. е. консорциумом W3 определена схема XML-документов, содержащих RDF-описания), а также на другие форматы представления (например, в нотацию N3).
  • RDF Schema описывает набор атрибутов (здесь их точнее назвать отношениями), таких, как rdfs:Class, для определения новых типов RDF-данных. Языком поддерживается также отношение наследования типов rdfs:subClassOf.
  • OWL расширяет возможности по описанию новых типов (в частности, добавлением перечислений), а также позволяет описывать новые типы данных RDF Schema в терминах уже существующих (например, определять тип, являющийся пересечением или объединением двух существующих).

Форматы описания метаданных в семантической паутине предполагают проведение логического вывода на этих метаданных, и разрабатывались с оглядкой на существующие математические формализмы в этой области. Математическое обоснование тех или иных конструкций языка описания необходимо для проведения заключений о свойствах программ, обрабатывающих данные в этом формате.

Особенно сильно это относится к языку OWL. Базовым формализмом для него являются дескрипционные логики, а сам язык разбит на три вложенных подмножества (в порядке вложенности): OWL Lite, OWL DL и OWL Full.

Доказано, что логический вывод на метаданных с выразительностью OWL Lite выполняется за полиномиальное время (другими словами, задача вывода принадлежит к классу P). OWL DL описывает максимальное разрешимое в данный момент подмножество дескрипционных логик, но некоторые запросы по таким данным могут требовать экспоненциального времени выполнения. OWL Full реализует все существующие конструкторы дескрипционных логик, но не каждый запрос в этом подмножестве языка может быть разрешён (слово «разрешён» здесь употребляется в значении, основанном на корне «решать»).

Простая структура предикатов языка RDF, в свою очередь, позволяет использовать при его обработке опыт из теорий логических баз данных, логики предикатов, и т. д.

Заключение

За несколько последних десятилетий Internet и Web стали, пожалуй, самыми успешными в мире проектами, которые так или иначе изменили практически все области экономики и общество в целом, послужили катализаторами для новых форм коммуникаций, сотрудничества, инноваций, радикально поменяли способы работы с информацией и знаниями.

Если в начале своего становления Internet рассматривался как набор слабо связанных компьютеров, использующих стандартные протоколы для коммуникации и доставки данных, то теперь, например, отчет DG INFSO определяет Internet как совокупность технологий, покрывающих Web-службы для обеспечения бизнес-процессов на основе функциональной совместимости, голосовые и видео-коммуникации, доставку контента и социальные сети.

Список литературы

  1. Войниканис Е. А. Информация. Собственность. Интернет : традиция и новеллы в современном праве / Е. А. Войниканис, М. В. Якушев. – М. : Волтерс Клувер, 2004. – 176 с.
  2. Дрейфус С. Компьютерный андеграунд : истории о хакинге, безумии и одержимости / Сьюлетт Дрейфус ; при участии Джулиана Ассанжа ; пер. с англ. А. Лущанова ; под ред. К. Жвакина. – Екатеринбург : У-Фактория, 2005. – 488 с. – (Киберtime/nonfiction).
  3. Портал для связи с Богом Интернета [Электронный ресурс] : офиц. сайт. – Электрон. данные. – 2010–2016. – Режим доступа: http://greati.net (дата обращения: 02.11.2018). – Загл. с экрана.
  4. Серго А. Г. Интернет и право / А. Г. Серго. – М. : Бестселлер, 2003. – 269 с. – (Бизнес-класс.Юридическая защита Интернет-бизнеса).
  5. Таненбаум Э. Компьютерные сети / Э. Таненбаум, Д. Уэзеролл. – 5-е изд. – СПб. : Питер, 2012. – 960 с. – (Классика Computer Science).
  6. Licklider J. C. R. Man-Computer Symbiosis [Electronic resource] / J. C. R. Licklider // IRE Transactions on Human Factors in Electronics. – Electronic text data. – 1960. – Vol. HFE-1. – P. 4–11. – Mode of access: http://groups.csail.mit.edu/medg/people/psz/Licklider.html (date of request: 02.11.2018). – Title from screen.