Вы в курсе, какой проц крутится на поисковике? Что там учитывается слово, все его падежи, формы, синонимы, антонимы, наличие/отсутствие, процентное совпадение и тому подобное. Что-то подобное поисковику будет жрать половину ресурсов домашнего компьютера, как минимум.
я не просто в курсе использования aot/clucene/etc,
но и сам участвовал в разработке подобного софта.
и да, обычный домашний компьютер
не напрягаясь способен обработать количество информации,
которое
запредельно превышает ваши потребности.
вряд ли у вас будет свыше 70 утилиток которые одновременно будут долбить 2 миллиарда запросов по одной и той же базе.
а эту нагрузку база выдержит вообще не напрягаясь.
что касается поисковиков:
задача дата-центров обрабатывать колоссальное количество запросов
от миллионов пользователей.
проблема яндекса не в том, что бы обработать колоссальный объем данных.
(эта проблема успешно решается архитектурами баз данных)
а в том, что бы обработать колоссальное количество клиентов.
(парк серверов нужен, что бы преодолеть ограничения медленной связи интернетов)