Web 3.0: Менеджеры знаний
Алексей Андреев
🕛 20.04.2007, 10:52
Поскольку все рекламные технологии являются «надстройкой» над технологиями коммуникации, первая часть моего доклада будет посвящена общим концепциям. А именно - тем проблемам, которые возникают в современных массовых интернет-сервисах, а также вариантам решения этих проблем.Минусы Web 2.0: сервисы без контента
Хотя у концепции Web 2.0 нет четкого определения, можно выделить некоторые общие черты. Данная концепция является ответом на проблемы «классического» Веба, или Web 1.0, который представлял собой нечто вроде «супер-библиотеки» - статичные сайты со специально подготовленным, вручную структурированным контентом, который, однако, производился «немногими для многих», с большим недостатком обратной связи; пользователи являлись лишь пассивными потребителями.
Адепты следующего поколения - Web 2.0 - ушли в другую крайность. Обычно под Web 2.0 понимают массовые сервисы, дающие возможность пользователями самостоятельно производить контент (дневники, статьи, фотоальбломы, сборники ссылок), а также манипулировать связями между своими и чужими материалами в Сети (настраивать собственные ленты для чтения избранных веблогов или новостей, встраивать собственные материалы в коллективные блоги и википедии, и т.д.) Очевидно, что само по себе производство контента было доступно и раньше, так что основная черта Web 2.0 - это именно сервисы веб-связи.
Таким образом, вместо «супер-библиотеки» получился «супер-телеграф» - создатели Web 2.0 дистанциировались от работы с контентом. Зачастую они просто не знают, что происходит внутри их сервиса, не могут влиять на этот «народный» контент или использовать его. Самый забавный пример - основателю Wikipedia пришлось 18 раз исправлять собственную биографию на данном сайте, потому что другие люди тоже переписывали ее много раз. Сейчас вокруг Wikipedia затеяно несколько судебных процессов, а в прошлом году ее основатели были вынуждены запретить незарегистрированным пользователям редактировать страницы Википедии. Однако ясно, что данная «одномерная» мера не решит проблему.
Еще более заметны эти недостатки, когда на сервисах Web 2.0 пытаются строить какой-то «содержательный» (т.е. связанный с контентом) бизнес - например, контекстную рекламу. Для работы с контентом применяются примитивные поисковые роботы, которые даже в случае Web 1.0 едва ли могли похвастаться «осмысленными» результатами. Что же говорить о Web 2.0, где вместо статичных сайтов мы имеем тонны ежедневного «потока сознания» от миллионов пользователей!
Неудивительно, что каждый пятый веблог на сегодня является спаммерским, причем спаммеры легко обманывают автоматические системы ранжирования. С другой стороны, в прошлом году администрация LiveJournal.com использовала роботов в цензуре: ряд популярных аккаунтов были закрыты на основании ключевой фразы «Убей НАТОвца» - причем под раздачу попали не только участники флеш-моба, но и те, кто лишь упомянул об этой акции. Таким образом, «роботизированный» подход запросто делает «популярными» спаммеров, зато действительно интересный контент может быть проигнорирован или даже уничтожен.
Решения Web 3.0: эксперты против роботов
Термин Web 3.0 начали активно использовать в конце прошлого года. Но при ближайшем рассмотрении почти все предлагаемые на Западе концепции являются лишь эскалацией проблем Web 2.0. Обычно речь идет о новых поколениях роботов для более персональной организации контента - примерно как если бы речь шла о замене черно-белого телевизора с шестью каналами на цветной и стоканальный. Ясно, что концептуальных отличий в работе с информацией здесь не будет: мы получим лишь новую версию «пространства заданных альтернатив», причем альтернативы эти задаются очень примитивными машинными форматами.
Отдельной критики в этом смысле заслуживают проекты, которые продвигаются под пафосным названием «социальный поиск» - например, MyWeb 2.0 от Yahoo. В таком подходе действительно есть некоторый «социальный элемент»: предполагается, что пользователи будут давать оценки найденным в Интернете сайтам, а другие члены сообщества при последующем поиске смогут получать результаты с этой разметкой «одобрения» или «неодобрения». Но оценка в данном случае все равно получается не человеческая. Весь набор ваших впечатлений о сайте предлагается сократить до примитивного, одноразового машинного ярлыка типа «хорошо/плохо». Это язык, специально созданный для удобства роботов, но не людей. На выходе мы получаем лишь очередную систему автоматической сортировки - разве что с парой новых параметров. Ответом станут новые формы автоматизированного спама, просто учитывающие эти параметры.
Решить указанные проблемы можно лишь в том случае, если признать, что лучшим передатчиком знаний для человека (не просто «интересной информации», а именно актуальных знаний) является другой человек, а не робот. При условии, что этот человек не идиот, а специалист в заданной области знаний.
Таким образом, в нашем понимании Web 3.0 - это в первую очередь новая профессия людей, и новые инструменты для работы этих людей. Данная профессия - «менеджер знаний» - и должна стать связующим звеном между шизофренически разделенными Web 1.0 (контент) и Web 2.0 (народные сервисы связи).
Web 1.0 ======> Web 3.0 <======= Web 2.0
контент ==> менеджеры знаний <== сообщества
контент ==> менеджеры знаний <== сообщества
Что представляют собой данные «посредники»? Это, к примеру, веблоггер, который собирает интересные ссылки на новости и делится ими с сообществом своих читателей (у них тоже могут быть сетевые дневники, но они не настолько хороши в поиске новостей). Кстати, изначально термином «веблог» обозначалось именно собрание интересных ссылок, на не просто «сетевой дневник». Культура таких веблогов появилась в Рунете еще в 1996 году, но затем она растворилась в массовой культуре обычных дневников скучающих офисных работников - как говорилось выше, стандартные одномерные сервисы типа LiveJournal зачастую просто не позволяют найти хороший веблог среди моря спаммеров и графоманов.
Другой пример - более жизненный. Недавно автор данного доклада искал себе квартиру в Москве. Метод Web 1.0 означал бы размещение своего объявления на сайтах по квартирам, либо самостоятельный поиск чужих объявлений. Способ неудобен: параметров для поиска много, а через Интернет можно проверить лишь несколько самых простых (число комнат, близость к метро, цена и т.п.), причем самые главные параметры (состояние квартиры и вменяемость хозяев) проверить вообще невозможно. С другой стороны, можно воспользоваться методом Web 2.0, то есть опросить знакомых через сообщества или социальные сети. Здесь картина обратная - множество сочувствующих и проверенных людей, но никто из них, увы, не сдает квартиры.
Тот метод, которым воспользовался я, можно вполне характеризовать как «Web 3.0». Я связался с человеком, которого мне рекомендовали, и передал ему свои пожелания. Он, в свою очередь, передал мой заказ группе агентов по квартирам. Данную профессию можно считать достаточно молодой: я имею в виду ее современный вариант. У этих агентов имеются оперативные электронные базы свободных квартир, с одной стороны, и базы заявок с другой. Так что работа агента состоит в чистом виде из человеческих стратегий «менеджера знаний», который и связывает меня с нужной мне квартирой.
Стоит отметить одну любопытную мета-стратегию - уже не первый раз «победителем» при поиске квартиры для меня стала агент-женщина. Что вполне логично с точки зрения биологии. Целевая установка мужской особи в природе, как правило, более примитивна: найти подходящую партнершу для передачи генов. Женщины тоже выбирают партнеров, но у них есть и другая цель - дети. В результате такой более сложной организации женщины зачастую лучше работают с информацией, когда дело касается многофакторного и многоходового поиска. Они умеют «выращивать» информацию, а не только «ловить» ее одним чемпионским прыжком, как мужчины или роботы. В частности, по данным аналитиков из Jupiter MMXI, во время поиска в интернете женщины обычно лучше мужчин знают, что ищут, и тратят на поиск меньше времени. В этом свете даже возникает подозрение, что разработки в духе Semantic Web (куда относится и MyWeb 2.0) являются лишь жалкой попыткой мужской мести за данное преимущество женщин в работе с информацией.
Технологии Web 3.0: социальная CMS
Поскольку агенты системы Web 3.0 работают «между» Web 1.0 и Web 2.0, то и технологии для их работы, очевидно, представляют собой нечто промежуточное.
От классического Web 1.0 нам достались системы управления контентом (CMS), которые позволяют хорошо структурировать информацию, но не очень пригодны для использования сообществами. Управление в них обычно построено по простой и заранее определенной схеме - администрация и «все остальные». Скандалы вокруг Wikipedia связаны именно с попыткой передать такую классическую CMS в массы «как есть», в полностью анархическом режиме управления.
В то же время Web 2.0 предлагает сервисы для «сообществ» и «социальных сетей», в которых возможны различные «роли» и «статусы». Однако такие проекты не имеют надстройки в виде CMS, которая позволяла бы участникам сообщества создавать разнообразный общественно-значимый контент (помимо общения в «одномерных» группах и форумах).
Таким образом, основная технология Web 3.0 - это социальная CMS, то есть CMS с добавленной к ней системой управления сообществом, которая позволяла бы сообществу «выращивать» своих «менеджеров знаний» и давать им дополнительные возможности и права при работе с контентом (модерация форумов, редактирование и публикация статей, проведение консультаций и подготовка офлайновых мероприятий, дизайн и программные доработки сайта, и т.д.).
Бизнес-модель Web 3.0: экологичная реклама
С учетом сказанного о женских преимуществах в работе с информацией, нам посчастливилось работать в проекте, где сконцентрирован самый стратегический ресурс страны - это крупнейшее женское сообщество Рунета Eva.Ru. Рекламные модели, которые реализуются в данном проекте, повторяют примеры работы «менеджеров знаний», которые приводились выше. С одной стороны, у нас имеются производители контента (клиенты, производящие рекламную информацию о своих товарах и продуктах). С другой стороны, есть крупное потребительское сообщество со своими запросами. В качестве агентов, которые налаживают связь между сторонами, выступают эксперты сообщества.
Конечно, про обычные рекламные агентства тоже можно сказать, что они работают «между» производителем и потребителем. Однако на практике они ориентированы только на обслуживание клиентов, а о потребителях в лучшем случае знают лишь общую статистическую информацию. В нашей же версии эксперт - это человек, который действительно работает «внутри» сообщества, знает его реальные запросы и настроения, а также участвует в прямой коммуникации с обратной связью.
Откуда берутся такие эксперты? Поскольку они занимают промежуточное положение между производителем услуг/товаров и сообществом, то и вариантов, естественно, два.
Первый: эксперты могут «вырастать» в самом сообществе - при наличии механизмов социальной CMS, позволяющей их выявлять и привлекать к интересной для них деятельности, включающей и рекламные акции. Примером таких акций на Eva.Ru могут служить спонсорские фотоконкурсы. При этом речь идет не об одноразовых акциях (что само по себе не ноу-хау), а о постоянно идущих мероприятиях, которые не теряют популярности ни у сообщества, ни у клиентов (Procter&Gamble и др.) Темы конкурсов никогда не повторяются; помимо темы, эксперты сообщества каждый раз разрабатывают новые правила с учетом пожеланий клиентов и интересов сообщества; правила должны быть такими, чтобы число фотографий получилось не маленьким, но и не очень большим; задействуются механизмы идентификации, чтобы на конкурс не попали чужие фотографии; и т.д. Ясно, что наладить такую деятельность как постоянный процесс не сможет обычное рекламное агентство, живущее про отстраненному принципу «разместила и забыла».
Другой вариант появления экспертов - со стороны клиента, как в случае онлайновых консультаций. Но и здесь можно говорить о «выращивании» экспертов, поскольку им необходимо найти общий язык с сообществом. В случае слишком навязчивой и грубой рекламы сообщество просто «отторгает инородное тело».
Очевидным недостатком такой рекламной модели является трудность работы с туповатыми клиентами, живущими в прошлом веке и неспособными внятно рассказать о своем товаре. Причем проблема обычно не в самом производителе товаров/услуг, а в безграмотности его рекламного отдела, который и является «бутылочным горлышком» при коммуникации с потребителем. С другой стороны, в случае вменяемого клиента он получает хорошую возможность представить свой товар более дружественным, экологичным способом. Более того, часто оказывается, что в сообществе уже сформирован определенный тренд в сторону данного товара - так что многие рекламные акции «самоподдерживаются» за счет сообщества.
Перспективы: Вавилон должен быть разрушен
В 2002 году, когда возник проект Eva.ru, его доход на 100% составляла обычная медийная реклама (баннеры). Новые рекламные модели, о которых говорилось выше, развивались как дополнительные - но на сегодня они дают примерно столько же, сколько и медийная реклама (т.е. 50/50 в общем доходе проекта).
Важно отметить, что развитие этих форм рекламы не потребовало технических доработок проекта - даже простые, изначально заложенные механизмы «социальной CMS» оказались вполне достаточными. Конечно, за годы накопилось много замечаний, которые будут учтены в следующей версии данного сервиса. Однако даже те возможности, которые есть сейчас, еще не реализованы полностью.
В частности, в прошлом году мы задумались о поисковой рекламе, и вероятно, воспользуемся одной из предлагаемых партнерских программ (Google, Yandex, «Бегун» и т.п.) Но уже сейчас ясно, что наши возможности позволяют делать более интересную поисковую рекламу, чем то, что предлагают данные компании.
Дело в том, что помимо замечательных технологий анализа данных, поисковые системы должны еще получать где-то эти самые данные. Но многие данные в Интернете им не даются, либо они не умеют их взять. К примеру, довольно простой внутренний поисковик на Eva.Ru позволяет анализировать «социальный контекст» найденных материалов. Получив два текста по заданной теме, можно узнать, что один из них написан человеком с высоким статусом в сообществе (напр., Общественный Редактор), а его «профессия», то есть место наибольшей активности на сайте, соответствует тематике текста (напр., «Медицина»). Другой же текст написан человеком, которого многократно штрафовали, а его профессия довольно далека от темы статьи (напр., «Политика»).
Получить такую полезную «социальную» информацию в обычном массовом поисковике едва ли возможно. В связи с этим в ближайшем будущем мы можем прийти к ситуации, когда пользователи в первую очередь будут применять локальные поисковики по сообществам. Причем наиболее популярными будут такие, которые находят онлайнового эксперта-человека, а не только его «мертвый» текст (возможный прототип - каталог сообщества Ezhe.Ru). И лишь во вторую очередь будут использоваться глобальные поисковики с их абстрактными, не социализированными результатами.
В ответ на это глобальные поисковики наверняка попытаются навязать нам некий общий стандарт представления социальных данных. Но стандарт этот будет, как обычно, очень неполным, а его массовое применение будет также означать и массовую уязвимость. Так что в конце концов Вавилонская башня единой семантики все равно распадется на отдельные языки - то есть опять-таки все вернется к специализированным сервисам для сообществ.