Показаны сообщения с ярлыком Интернет. Показать все сообщения
Показаны сообщения с ярлыком Интернет. Показать все сообщения

пятница, мая 01, 2009

Слайды с первой демонстрации WolframAlpha

Я недавно рассказывал про выходящую в мае систему WolframAlpha. Появилось видео с первой демонстрацией возможностей системы.

вторник, апреля 28, 2009

Может ли машина мыслить?

1. Тест Тьюринга или "Может ли машина Мыслить"

В своей знаменитой статье "Computing Machinery and Intelligence", напечатанной в 1950 году в журнале Mind, английский математик А. Тьюринг предложил обсудить вопрос "Может ли машина мыслить?".
Для того чтобы ответить на этот вопрос необходимо точное определением слова "мыслить". Однако употребление этого слова слишком широко, поэтому Тьюринг предлагет вопрос переформулировать в рамках игры, которую он называет "Игра в имитацию". Игра устроена следующим образом.

Играют трое: мужчина (A), женщина (B) и ведущий (неважно какого пола). Ведущий находится не втой же комнате, где игроки. Задача ведущего состоит в том, чтобы определить кто из игроков мужчина, а кто женщина, задавая им различные вопросы. При этом вопросы передаются игрокам в виде текстовых сообщений. Задача игрока A - ввести ведущего в заблуждение. Задача игрока B - помочь ведущему. Ответы игроков также передаются ведущему в виде текстовых сообщений.
Исходный вопрос "Может ли машина мыслить" теперь предлагается переформулировать так:

Что случится, если машина будет играть роль A в этой игре? Будет ли ведущий ошибаться также часто, как в том случае, если роль A играет мужчина?
Описанное сейчас принято называть "тестом Тьюринга" - возможность компьютерных программ успешно играть в различные разновидности игры "в имитацию". В некоторых кругах считается, что момент когда компьютер сможет пройти тест Тьюринга, означает, что человечество создало думающие машины.

2. Wolfram Alpha

Завтра, 28 апреля 2009 года, для сотрудников Harvard Law School состоится первая открытая презентация нового проекта создателя системы компьютерной алгебры Стивена Вольфрама - Wolfram Alpha. Сам же проект обещают открыть в мае 2009 года. Что такое Wolfram Alpha? Это "система отвечающая на вопросы". Идея состоит в том, что ей можно будет задавать вопросы на естественном языке (английском), а системы будет давать на них точные (по возможности) ответы. Этим она сильно отличается от современных поисковых систем, которые выдают не ответы, а страницы, на которых встречаются ключевые слова.

Примеры:
  • если ввести “3/26/2009 + 90 days”, то в качестве ответа вернется страница, с числом, на 90 дней отстоящее от 26 марта 2009 года
  • если ввести "mt. everest height length of golden gate”, то вернется страница, на которой высота горы Эверест будет выражена в длинах моста "Золотые Ворота" в Сан-Франциско
  • если ввести "how many internet users there are in Europe", то система выдаст точную цифру, а также графики и статистику по отдельным странам
  • система умеет решать математические задачи - несложные интегралы, производные, уравнения (она же основана на движке Mathematica, как никак)
  • умеет отвечать на вопросы по физике и химии
  • вместе с информацией о каждом факте система показывает ссылку на источник
Дополнительные ссылки, если хочется почитать про Alpha:
  1. Исходное объявление Стивена Вольфрама
    http://blog.wolfram.com/2009/03/05/wolframalpha-is-coming/
  2. Разные дополнительные статьи
Резюме: Wolfram Apha - это очень мощный способ поиска ответов по различным энциклопедическим источникам.

3. IBM играет в "Jeopardy"

11 мая 1997 года шахматный компьютер Deep Blue выграл матч у действующего чемпиона мира Г. Каспарова (Каспаров правда утверждает, что представители IBM жульничали). Сегодня, 27 апреля 2009 года, компания IBM обнародовала свой проект Watson - систему, распознающую естественный язык и умеющую давать ответы на вопросы в игре "Jeopardy!", аналогом которой является российская "Своя игра". Предполагается что Watson сможет стать полноценым конкурентом игрокам-людям в этой игре. Компьютер, на котором будет работать программное обеспечение Watson - IBM Blue Gene/P.


4. Что дальше?

Компьютеры пока ещё конечно не научились проходить тест Тьюринга. Но сдается мне, что мы находимся совсем недалеко. Конечно, и система Alpha и Watson - это только шаги, далеко не первые, но и не заключительные. Мы подбираемся к прохождению теста очень близко и это замечательно, так как открывает очень многие дороги.

Тест Тьюринга не дает ответа на вопрос "может ли компьютер мыслить? ". Тест Тьюринга дает ответ на вопрос - может ли компьютер действовать так, как будто бы он мыслит? Мне кажется, Тьюринг специально сформулировал вопрос именно так, для того чтобы не было возражений среди философски и религиозно-настроенных части общества. Потому что следующим вопросом ведь был бы - а может ли человек действовать так, как будто бы он мыслит?

вторник, сентября 16, 2008

Рынок, Роботы, Люди

Сейчас, как известно, финансовый кризис. И вот на его фоне прочитал совершенно удивительную историю. Оригинал можно прочитать тут


Итак, в один прекрасный день, акции одного из крупнейших авиаперевозчиков США United Airlines падают почти в 4 раза, вот так, как этот провал на графике:

(график взят тут)

Что же произошло? У меня здесь не финансовый блог, так что не пугайтесь. 


Пролог (рынок)
декабрь 2002 года, Чикаго

В  2002 году компания United Airlines испытывала значительные финансовые трудности и, в итоге, объявила себя банкротом. В декабре 2002 года в газете Chicago Tribune была по этому поводу опубликована статья.

Роботы
6-7 сентября 2008 года, Интернет (Флорида, Калифорния, Нью-Йорк)

восточное время (7 сентября), 00:08

Чуть позже полуночи ссылка на статью 2002 года каким-то образом появилась в списке "самых просматриваемых" ссылок сайта газеты The Sun Sentinel, принадлежащей той же компании, которой принадлежит и Chicago Tribune, а потому пользующейся общим с ней архивом старых выпусков.

западное время (6 сентября), 21:23

Робот автоматической службы новостей Google News обнаружил ссылку на сайте The Sun Sentinel, обработал страницу и посчитал её новостью, поскольку в самой статье даты не было, зато страница содержала текущую дату. Тогда робот добавил новость в индекс, проставив ей то число, когда он её нашел, то есть ... 6 сентября 2008 года (поскольку Google находится на западном побережье США и там 7 сентября ещё не наступило). На главной странице Google News новость видна не была, но она была видна в поиске, а также была выслана по почте и RSS рассылкам, тем кто был подписан на новости с определенными ключевыми словами в них.

восточное время (7 сентября), 8: 15

Сотрудник компании Income Security Advisors получил уведомление от Google News о новости про авиакомпанию и немедленно выслал информацию в информационное агенство Bloomberg, специализирующееся на финансовых новостях. Которое, в свою очередь, быстро выдало информацию "в эфир". 

восточное время (7 сентября), 9:02

Акции United Airlines рухнули, но очень быстро выяснилось, что "новость" о банкротстве является ошибочной и акции восстановились почти до прежнего уровня.

Люди
17 сентября 2008

Расказанная история получила большую огласку, была написано много статей, в том числе и та, по которой я вел изложение и ссылка на которую приведена в начале статьи. И большинство из комментаторов отмечают насколько же все стало автоматизировано и как мы зависимы от технологий и, соответственно, какова может быть цена программной ошибки.

А я вот о чем подумал. Я вполне легко могу себе представить все случившиеся "технологические" ошибки. Нет даты на странице. Запросто. Дата есть, но она всегда текущая. Легко. Статья 2002 года непонятно как попавшая в список "Самые просматриваемые". Элементарно. Бот, проиндексировавший именно эту статью. Естественно.

Что мне трудно понять, так это то, что профессиональный сотрудник Income Security Advisors не проверил новость просто потому, что она получена от Google. 

Мне начинает казаться, что нужно обучать людей отличать достоверную информацию в интернете от недостоверной. 

Возможность опубликовывать информацию без всякой проверки, редактуры и цензуры - это огромное достижение. Однако обратной его стороной является тот факт, что на читателя обрушивается громадное количество мнений, фактов и мыслей. Отличить проверенное от непроверенного, обоснованное от необоснованного, хорошее от плохого стало сложнее чем раньше. Просто за счет того, что количество информации увеличилось, а возможности "подать" её красиво стали практически безграничны.

Нужно оценивать ту информацию, которая предлагается в интернете: обращать внимание на автора, место публикации и тому подобное. Эта культура ведь существует и в не-онлайн жизни: к публикации в "Комсомольской правде" меньше доверия, чем к публикации в "Коммерсанте". Это конечно не значит что "Комсомолка" все врет, а "Коммерсант"всегда прав. Вовсе нет. И там и там бывает и хорошее и плохое. Просто где-то - чаще хорошее, а где-то чаще "жареные факты". Также и в интернете.

На практике, мне кажется, совершенно необходимо к вещам найденным в интернете прикладывать как минимум здравый смысл - мы же все-таки люди, а не роботы.

P.S. Времена (00:08 и т.п.) происходящих событий выдуманы, остальное вроде так и было.

среда, марта 07, 2007

MyLifeBits - уже реальность?

Как я сегодня выяснил, я немного запаздываю с прочтением новостей и то, о чем я собираюсь написать сегодня уже давно написано другими и успешно забыто. Но я все равно попробую.

Проект

Недавно я узнал о проекте MyLifeBits. MyLifeBits - проект, которым занимается исследовательское отделение компании Microsoft - Microsoft Research. В чем идея? Идея в том, чтобы записывать ВСЮ жизнь человека в некую базу данных, называемую цифровой памятью. Под всей жизнью понимается, что будет записано:

  • Все телефонные звонки
  • Программы, передаваемые по радио и телевидению, которые человек смотрит
  • В процессе работы на компьютере записывается:
    • Каждая посещаемая web-страница
    • Каждое полученное или отправленное сообщение по MSN, ICQ или другому интернет-пейджеру
    • Открываемые файлы
    • Проигрываемая музыка
    • Все производимые поисковые запросы
    • Окна являющиеся в данный момент активными
    • Все действия клавиатурой и мышью
  • В процессе передвижения человека также записывается
    • Информация о местонахождении (при помощи портативного GPS устройства, передающего информацию прямо в базу данных по беспроводной связи)
    • Специальная камера SenseCam, разработанная Microsoft Research автоматически производит фотографию в случаях:
      • появления рядом человека (инфракрасный датчик отмечает появление тёплого тела неподалёку)
      • существенного изменения освещённости, что может свидетельствовать о смене местоположения (человек вошёл куда-то или вышел откуда-то)
  • Помимо всего вышеперечисленного, предполагается также запись биологических параметров (пульс, давление и тому подобное) при помощи специальных датчиков.
Ну понятное дело, что к приведённому списку можно добавить ещё что-то. Тем не менее для понимания общей идеи я думаю списка вполне достаточно.

В недавней статье в Scientific American, основной разработчик всего этого безобразия, Gordon Bell, рассказывает как в 1998 году ему пришла в голову идея, что нужно наконец начать жить по "безбумажной технологии". Человек он, по всей видимости, очень упорный и упёртый, поэтому раз уж он "чего решил, то выпьет обязательно". Короче говоря, он нанял специального секретаря, который немного ни мало за несколько лет умудрился оцифровать все, что нашему герою пришло в голову оцифровать. А пришло ему в голову много чего: все документы, фотографии, видеозаписи были отсканированы и оцифрованы. Сколько денег было заплачено секретарю не раскрывается, но полагаю что немало. И вот в этот момент, когда все уже было оцифровано, Gordon осознал тот факт, что воспользоваться всей этой ценнейшей, по его мнению, информацией чрезвычайно сложно ...

Ведь совершенно невозможно в этом массиве что-нибудь найти. А особенно большая проблема стоит если ты хочешь осуществить "ассоциативный" поиск - например найти, тот файл в который ты записывал номер телефона, в тот момент когда по телевизору шел такой-то фильм. Ну вот с этого то собственно и начался проект MyLifeBits.

Сейчас уже существует специальное программное обеспечение, позволяющее снабжать все данные метаинформацией, производить поиск и так далее. Также есть некоторые подвижки в решении задачи автоматического снабжения записываемых данных метаинформацией (например фотографии автоматически можно привязывать к месту, где они сделаны, пользуясь системой глобального позиционирования).

Также активно развивается направление, связанное с записью медицинской информации и раннего обнаружения болезней.

Естественно, что сотрудники Microsoft Research, смотрят в будущее и уже сейчас, как и любые приличные научные деятели, отметили в своих собственных работах некоторые недостатки. В частности, речь идет о возможных проблемах связанных с вторжением частную жизнь, возможной "автоматической" записью секретных данных (торговых, коммерчески и научных, с которыми человек сталкивается по работе). Есть конечно и технические проблемы - хранение огромных объёмов информации, резервное копирование, потенциальное устаревание форматов данных - ведь предполагается хранить данные всю человеческую жизнь, а вероятно и дольше. Ну конечно же тут примешиваются и проблемы морально-этического плана, о которых наверное лучше всего рассказывается в фильме Final Cut.

Вот такой вот проект.

Реальность

Microsoft Research потратил на проект уже почти 10 лет и я даже представить себе не могу сколько денег. И до конца ещё очень далеко, масса проблем ещё не решена, причём многие из этих проблем не очень и понятно как решать. Самые трудные проблемы - не технические. Самые трудные проблемы - этические. Имею ли я право записывать других людей, которых я вижу? И так далее. Из-за этических сложностей многим кажется, что это даже хорошо, что до завершения проекта и возможности записать все ещё так далеко.

А так ли далеко?

На самом деле, мне кажется что человечество уже очень близко подошло к тому, чтобы мечта этого человека из MS стала реальностью ... причем вероятно совершенно без участия самого этого человека и описанного проекта MS Research.

В 1998 году ещё не было Google ... Вот в чем дело. А сейчас Google есть. И очень интересно посмотреть на мир именно глазами этих ребят.

Уже сейчас Google имеет возможность записывать про нас очень многое. Зависит конечно от человека, но про меня лично Google вполне может знать:
  • большинство web-страниц, которые я посещаю
  • содержимое очень многих моих электронных писем (Google Desktop Search)
  • содержимое моих входящих и исходящих мгновенных сообщений
  • текущее местонахождение (погоду смотрю ... )
  • содержимое почти всех файлов на жестком диске моего компьютера (Google Desktop Search)
  • ну естественно порядочный процент моих поисковых запросов, как на локальном компьютере, так и в Интернет (локально я пока ещё не все ищу Google-ом)
Как вам этот список? Ничего не напоминает? По-моему очень даже похож на список того, что записывается в проекте MyLifeBits. И самое главное, что количество видов информации, которыми может обладать Google обо мне, с каждым наверное днем расширяется. Ведь помимо всего этого Google ещё знает или может знать:
  • Какие RSS feed-ы и блоги я читаю (Google Reader)
  • На какие сайт я "люблю" ходить (bookmarks)
  • Информацию о моих покупках (Google Checkout)
  • Информацию о моих сайтах в интернет (Google Analytics)
  • Даже содержимое этого блога, который вы сейчас читаете (ведь я же пользуюсь blogger)
Я не пытаюсь нарисовать Google, как страшного большого брата, следящего за всеми и стремящегося к мировому господству (как например делается здесь).

Я говорю о том, что возможно специализированные проекты немного опоздали - MyLifeBits уже записываются без нашего ведома и желания.

Пока что Google не знает что у нас завтра на обед - но возможно что-то вроде Google Food Delivery уже на подходе?

d3c01991-6913-44cd-afda-12562c9b9d33

среда, декабря 27, 2006

Всемирная помойка 2: Wikiasari

Некоторое время назад я писал здесь про репутационный поиск - о том что неплохо бы было организовывать поиск не только на основе ссылочного ранжирования, но в первую очередь на основе репутации автора.

Так вот, идея наконец была подхвачена! :-) Вот уже 4-й день все новостные сайты и блоги сообщают о новой инициативе основателя Wikipedia Джимми Уэйлса (Jimmy Wales) - "революционной" поисковой системе - Wikiasari (от слова wiki, что на гавайском означает "быстрый", и слова asari, что переводится как "тщательный поиск" с японского).

Первое сообщение, судя по всему, было сделано британской The Times: Founder of Wikipedia plans search engine to rival Google.

Итак, о чем собственно речь? Вот что говорит по этому поводу сам Джимми:

"Поиск - часть фундаментальной инфраструктуры интернет. И, в настоящее время, он не работает.

Почему он не работает? Он не работает потому же, почему обычно не работает не свободное программное обеспечение: недостаток свободы, слабое участие общественности, недостаток прозрачности. Теперь мы изменим все это.

...

Nutch и Lucene и некоторые другие проекты предоставляют сейчас инфраструктуру для того, чтобы создать новый вид поисковой системы, которая опирается на человеческий интеллект, для достижения тех результатов, которых пока не могут достичь алгоритмы."

И вот ещё цитата (по The Times): "На самом деле, если подумать то одной из основных задач поисковой системой является задача принятия решения - эта страница хорошая или эта страница плохая. У компьютеров очень плохо получается решать эту задачу, зато у самих людей получается очень неплохо! Нам достаточно просто посмотреть на страницу пару секунд мы можем определить хороша страница или плоха".

Реально Джимми предлагает именно репутационый поиск, о котором я писал чуть раньше - с возможностью проставлению рейтингов результатам.

Проект должен стартовать в начале 2007 года и сейчас Уэйлс ищет разработчиков, желающих принять участие в проектах.

четверг, декабря 21, 2006

Пояснение об анонимности в Сети

В ходе дискуссий на RSDN я обнаружил что употребляю термины “анонимность” и не анонимность, применительно к авторству информации в интернет не до конца пояснив что имеется ввиду. В посте “Всемирная помойка или почему поиcк не всегда помогает” я писал о том, что анонимность представляет собой “вещь препятствующую репутации”.

Я не имел ввиду, что необходимо под каждым своим сообщением писать свои имя, фамилию, домашний адрес и номер паспорта. Я имел ввиду, что должна быть возможность определить источник информации однозначно - посмотрев на две заметки или два сообщения в форуме, нужно иметь возможность определить написал ли их один и тот же человек или разные. Будут они подписаны ником, которым человек все время пользуется или его реальным именем и фамилией - неважно.

(я конечно понимаю, что кто-то может написать что-то, “войдя в систему” под ником исходного автора, или сидя за его домашним компьютером, но это, как мне кажется, немного другая тема).

Итак, не анонимная информация - это такая информация, которую можно однозначно идентифицировать с автором, где под автором подразумевается любой тип идентификатора - хоть GUID -нужно только чтобы один и тот же идентификатор использовался постоянно.

P.S. Анонимностью часто называют невозможность вычислить “физического” человека по его присутствию в сети - об этом речи нет. Скажем так человек должен сам решать должен ли его”авторский идентификатор” иметь какое-то отношение к его реальной жизни. Это отдельная большая тема.

RSDN: Влияние интернета на качество знаний

Удивительным образом, сегодня на RSDN обнаружил тему, которая на мой взгляд очень тесно связана с моим последним опусом по поводу поиска и анонимности в интернет. Топик называется “Влияние интернета на качество знаний“. В основном обсуждающие ушли в тему “раньше и трава была зеленее и деревья выше…”, а также в критику этого. Мне же вот кажется что проблема есть. И она как раз в прямую связана с моим предыдущим постом “Всемирная помойка или почему поиск не всегда помогает”. Вот мое мнение (скопировано прямо из указанного топика):

Речь я думаю скорее шла о том, что любыми знаниями и инструментами нужно уметь правильно пользоваться.
То есть гуглом нужно уметь пользоваться и осознавать степень точности, глубины и полноты того, что ты
от него получаешь.

А современное образование не очень этому способствует. Отсюда и получается то самое дилетантство, о котором
говорил автор исходного топика. Люди просто не всегда правильно пользуются хорошим инструментом.

Кроме того, в интернет довольно плохо продумана концепция авторства — то есть читая ту или иную информацию ты не всегда можешь понять
насколько можно доверять ей. Ведь наша оценка во многом основана на субъективном восприятии “репутации” того или иного человека —например если я вижу в форуме C++ сообщения от Павла Кузнецова, то ещё до прочтения я буду доверять ему больше чем сообщению от Васи Пупкина. Потому что “репутация”. В интернет понять кто является автором того или иного сообщения можно не всегда, а соответственно степень доверия этому сообщению может быть довольно трудно определить.Тот кто этого не понимает —вполне может нахвататься разного рода псевдонаучных теорий и быть искренне уверенным что они правдивы — просто потому что “печатному” слову доверие больше чем устному.

Проблема образования и слишком большого количества анонимности в интернет, имхо. Анонимность провоцирует людей на написание непроверенных ине очень выверенных статей, а недостаток умения работать с материалом побуждает других людей верить всему этому.

Всемирная помойка, или почему поиск не всегда помогает

Интернет - это всемирная помойка. Это утверждение уже давно стало общим местом. И ведь действительно - интернет заполнен спамом, огромную долю “информационного” наполнения сайтов составляет порнография. Из оставшегося - неимоверное количество различных форумов и мест общения, качество информационного наполнения которых просто неимоверно низко. Огромное количество непроверенной, неточной, неполной, неприменимой к конкретному случаю и просто ложной информации. Масса псевдонаучных, лживых и популистских ресурсов, на которых рассказывается о вечных двигателях, дармовых источниках энергии, инопланетянах, телепатии и тому подобном.

Все это - явления из реальной жизни, перекочевавшие в виртуальную и нашедшие там свой второй дом. Причем этот второй дом - существенно лучше первого. Огромная разница, благодаря которой все это стало возможным, состоит в анонимности интернета. До появления Сети, многочисленной армии шарлатанов, графоманов (коим принадлежит без сомнения и ваш покорный слуга) и прочих недостаточно компетентных личностей, противостояла армия редакторов, корректоров, рецензентов и так далее. Книга статья или заметка не может появиться, без того чобы её прочел редактор, корректор, возможно один или несколько научных консультантов. Попасть “в печать” было трудно. Многие не справлялись с этими трудностями и просто не могли проникнуть на страницы изданий и стать доступными широким массам читателей. Конечно, в этом было много плохого - можно было пользоваться всеми этими “заградотрядами” как цензурой, отсекать инакомыслящих и “не давать дороги молодым перспективным ученым”. Но было в этом и хорошее - псевдонаучные, безграмотные теории не могли пройти редакторов и консультантов. А самое главное - автор не мог остаться в тени. Уже если книга или статья выходила, и оказывалось что её научное “качество” не заслуживает никакой критики, то репутация автора очень страдала. И наоборот, хорошая работа, выполненная на высоком уровне, давала автору заслуженную славу и уважение коллег. Репутация автора - очень важная вещь. При помощи репутации автора мы выбираем книги, музыку, фильмы. Это не всегда может быть правлиьный подход, но это подход которым пользуются люди - даже современный мир шоу-бизнеса основан на репутации раскрученных звезд. Собственно “раскрутка” - это и есть способ искуственного поднятия репутации.

Наш способ первоначального “нахождения” вещей основан на репутации - мы смотрим кто автор того или иного произведения искусства, теории или гипотезы и на основании личности автора часто делаем вывод, заслуживает ли его создание дальнейшего рассмотрения. Мы идем на “Дениса Мацуева”, а не на Ивана Иванова, если мы ничего не знаем про Иванова. Мы выбираем учебник “Фихтенгольца”, потому что у него заслуженная репутация.

Анонимность - это вещь препятствующая репутации. Как можно выбрать между двумя учебниками, если неизвестно кто написал их - студент второго курса или маститый ученый? Как можно решить пойти ли смотреть фильм Иванова или Петрова, если мы ничего не знаем ни про Иванова, ни про Петрова? Только одним способом - посмотреть оба фильма, выбрать лучший и в следующий раз у вас уже будет знание… А что если фильм не подписан? Очень трудно сделать осознанный выбор, имея только анонимные данные.

С другой стороны, для некомпетентного автора, анонимность - лучший подарок. Можно совершенно не опасаться последствий.

Мне кажется что именно из-за того, что Интернет-технологии не предлагают никаких простых механизмов для обеспечения авторства и получается это самое наполнение Сети мусором.
Необходимо разрабатывать системы, обеспечивающие наличие и обеспечение авторства, тогда и поиск будет работать как надо.

( Между прочим такие системы вроде бы уже есть и разрабатываются, но конечно до массового применения им пока далеко. Проект пионера гипертекста Теда Нельсона Xanadu включал в себя обязательный copyright, то есть по сути систему гарантирующую авторство. Надо признать, что это очень интересный (особенно учитывая тот факт что он зародился ещё в 60-е годы), но совершенно провальный проект. )

Заметим, что поиск информации - это тот же выбор. Системы поиска, ранжирующие результаты по количеству внешних ссылок, по сути пользуются вторичным индексом. Человек, как мне кажется, ищет пользуясь репутационными критериями. А уже в результате этих репутационных критериев возникает желание сослаться натого или иного автора. Но не наоборот! Я включу книгу Страуструпа в свою библиографию не потому что его книгу уже включили другие, а потому что его репутация в моих глазах достаточно высока!

Поиск должен быть репутационным, документы следует ранжировать не по ссылочной популярности, а по репутационной, то есть по степени уважаемости автора данной страницы. Для этого конечно необходима соответствующая техническая поддержка авторства, которая обеспечивала бы необходимую и неизменяемую технологию подписи и соответствия подписи реальному человеку или компании. Тогда, неподписанные, анонимные статьи попадали бы на более низкие места в поисковых запросах, и может быть стали бы исчезать.