Van egy másik igéretesnek látszó kezdeményezés a területen a Grub.org, ami egy elosztott crawler. Ha valaki feltelepíti a Grub programját a gépre, akkor az ő gépéről is futni fog egy program ami a web egy részét bejárja és az eredményeket feltölti a Grub adatbázisába. Annyiban más a megközelítés mint a korábban említett esetben, hogy itt központi index épül. Sokáig haldokolni látszott a Grub, míg az idén nyáron felkarolta a Wikia, akik a nyílt keresőjük részeként építenek a Grub projektre.
Négy alapelvet fogalmaznak meg arról milyennek is kell lennie a jövő internetes keresőjének:
1. Átlátható - Lehessen tudni, hogyan működik a rendszer, milyen algoritmusokra épül. Nyílt forráskód, nyílt tartalom.2. Közösség - Mindenki hozzájárulhat valamivel
3. Minőség - Jelentősen javítani találatok pontosságát és jobbá tenni a keresési élményt
4. Adatvédelem - Ne tároljunk semmilyen személyes, azonosítható adatot
Jogos felvetések, amelyek közül én elsősorban az elsőt tartom nagyon lényegesnek. Ki tudhatja valójában, hogy egy-egy találat miért pont oda rangsorolódik valamelyik üzleti keresőben? A keresők nagyon is fekete dobozként működnek. Persze ezzel lehet vitatkozni is, hiszen ha tudom a pontos rangsor képzési eljárást, akkor elvileg könnyebben előre is tudom juttatni a saját oldalamat.
Mindenesetre aki rögtön a tettek mezejére akar lépni, javaslom töltse is le a Grub crawlert és futtassa a gépén. Elég jól beállítható, hogy mennyi erőforrást (processzor és sávszélesség) engedünk használni. Ha letöltötted és futtatni akarod csatlakozz a Hungary csoporthoz. Egy tagja már van. :o)