Nasz zespół pracuje nad unikalną usługą łączącą możliwości systemu Web Archive (archive.org) i wyszukiwarki.
Doświadczenie w tworzeniu usługi odzyskiwania witryn Archivarix pozwoliło nam rozpocząć pracę nad czymś dużym.
Klasyfikujemy i indeksujemy wszystkie pobrane dane, aby ułatwić wyszukiwanie.
Dane nie są usuwane i są przechowywane w wygodnym formacie do dalszego przetwarzania.
Zapisane witryny są technicznie statyczne. Narzędzia takie jak Archivarix CMS pozwalają na przeglądanie i edycję ich jako jednej witryny, dodawanie dynamicznej części, łączenie danych z różnych witryn i dokonywanie niezbędnej optymalizacji bez posiadania wiedzy technicznej.
Począwszy od uruchomienia projektu Archivarix Site Restore Project w 2017 roku, zaczęliśmy równolegle zbierać dane z witryn na żywo.
Od 2009 r. Zbieramy i zbieramy dane historyczne dotyczące różnych wskaźników witryn i informacji o domenach, które aktualizujemy codziennie.
Treść witryn, które przetwarzamy w celu wyszukiwania pełnotekstowego i klasyfikacji treści, rozpoczyna się w 1996 roku.
Nasza baza danych zawiera informacje o danych historycznych dla ponad 350 milionów domen.
Liczba zaangażowanych serwerów przetwarzających Spider i Archivarix przekracza już 50.
Nasze serwery codziennie pobierają z Internetu ponad 100 GB treści internetowych.
Codziennie zbieramy i analizujemy około 50 GB danych metrycznych dla domen i witryn z różnych źródeł. Niektóre z nich są wymienione poniżej.
Uruchomiliśmy nasz własny indeks linków zwrotnych w 2010 roku i dziś ich pająki indeksują do 8 miliardów stron dziennie.
Alexa Internet zbiera statystyki ruchu na stronie, globalne rankingi i inne informacje od 1996 roku. W 1999 roku Amazon kupił usługę.
Założona przez Brewstera Keila, który kilka lat wcześniej założył Alexa Internet. Przechowuje kopie stron internetowych od 1996 roku i archiwizuje materiały w różnych formatach w celu uzyskania swobodnego dostępu.
Firma zajmująca się opracowywaniem i sprzedażą sprzętu sieciowego. Ale oprócz tego dostarcza użytecznych danych w dziedzinie bezpieczeństwa, które tworzy na podstawie statystyk swojego wyposażenia.
Niezależna międzynarodowa firma, która reguluje nazwy domen, adresy IP i inne ważne aspekty Internetu.
Pierwotnie nazywany MajesticSEO od 2008 roku, zapewnia wiele przydatnych narzędzi dla webmasterów.
Serwis (pierwotnie nazywany SEOmoz) powstał w 2004 roku jako blog i post internetowy na temat optymalizacji pod kątem wyszukiwarek. Udostępnia teraz wiele przydatnych narzędzi dla webmasterów.
Amerykańska firma, która utrzymuje dwie z trzynastu usług głównych DNS, a także zarządza rejestrami dwóch najważniejszych stref domen w Internecie .com i .net.