Googlebot är Googles webbkrypningsrobot (kallas ibland även en spindel). Crawling är processen där Googlebot upptäcker nya och uppdaterade sidor som ska läggas till i Google-indexet. Vi använder en stor uppsättning datorer för att hämta (eller krypa) miljarder sidor på webben. Googlebot använder en algoritmisk process: dataprogrammen bestämmer vilka webbplatser som ska genomsökas, hur ofta och hur många sidor som ska hämtas från varje webbplats. Googlebots genomsökningsprocess börjar med en lista över webbsidor, genererade från tidigare genomsökningsprocesser och kompletterad med webbplatskartor som tillhandahålls av webbansvariga. När Googlebot besöker var och en av dessa webbplatser upptäcker den länkar (SRC och HREF) på varje sida och lägger till dem i listan över sidor som ska genomsökas. Nya webbplatser, ändringar i befintliga webbplatser och döda länkar noteras och används för att uppdatera Google-indexet. För webbansvariga: Googlebot och din webbplats Hur Googlebot får tillgång till din webbplats För de flesta webbplatser borde Googlebot inte få tillgång till din webbplats mer än en gång i några sekunder i genomsnitt. På grund av nätverksfördröjningar är det dock möjligt att frekvensen verkar vara något högre under korta perioder. Googlebot var utformad för att distribueras på flera maskiner för att förbättra prestanda och skala när webben växer. För att minska användningen av bandbredd kör vi också många sökrobotar på maskiner som ligger nära de webbplatser som de indexerar i nätverket. Därför kan dina loggar visa besök från flera maskiner på google, alla med användaragenten Googlebot. Vårt mål är att krypa så många sidor från din webbplats som vi kan vid varje besök utan att överväldiga dina serverns bandbredd. Be om en ändring i genomsökningsgraden. Blockering av Googlebot från innehåll på din webbplats Det är nästan omöjligt att hålla en webbserver hemlig genom att inte publicera länkar till den. Så snart som någon följer en länk från din hemliga server till en annan webbserver, kan din hemliga URL visas i hänvisningsetiketten och kan lagras och publiceras av den andra webbservern i referensloggen. På samma sätt har webben många föråldrade och brutna länkar. När någon publicerar en felaktig länk till din webbplats eller inte uppdaterar länkar för att spegla ändringar på din server, försöker Googlebot att ladda ner en felaktig länk från din webbplats. Om du vill hindra Googlebot från att krypa innehåll på din webbplats har du ett antal alternativ. inklusive att använda robots. txt för att blockera åtkomst till filer och kataloger på din server. När du har skapat din robots. txt-fil kan det vara en liten fördröjning innan Googlebot upptäcker dina ändringar. Om Googlebot fortfarande krypterar innehåll du har blockerat i robots. txt, kontrollera att robots. txt är på rätt plats. Den måste vara i serverns översta katalog (till exempel, examplobot. txt), vilket innebär att filen i en underkatalog inte har någon effekt. Om du bara vill förhindra att filen inte hittade felmeddelanden i din webbserverlogg kan du skapa en tom fil med namnet robots. txt. Om du vill förhindra att Googlebot följer några länkar på en sida på din webbplats kan du använda metakoden nofollow. För att hindra Googlebot från att följa en enskild länk, lägg till attributet RelNofollow till länken själv. Här är några ytterligare tips: Testa att din robots. txt fungerar som förväntat. I verktyget Test robots. txt på sidan Blockerade webbadresser kan du se exakt hur Googlebot tolkar innehållet i din robots. txt-fil. Googles användaragent är (tillräckligt tillräckligt) Googlebot. Verktyget Hämta som Google i sökkonsolen hjälper dig att förstå exakt hur din webbplats visas för Googlebot. Det kan vara mycket användbart när du felsöker problem med innehållet på webbplatsen eller upptäckbarhet i sökresultaten. Se till att din webbplats är genomsökbar Googlebot upptäcker webbplatser genom att följa länkar från sida till sida. Sidan Crawl-felsökning i sökkonsolen visar alla problem som Googlebot hittade när du krypterade din webbplats. Vi rekommenderar att du granskar dessa genomsökningsfel regelbundet för att identifiera eventuella problem med din webbplats. Om din robots. txt-fil fungerar som förväntat, men din webbplats inte får trafik, är det några möjliga anledningar till att ditt innehåll inte fungerar bra i sökningen. Problem med spammare och andra användaragenter De IP-adresser som används av Googlebot ändras från tid till annan. Det bästa sättet att identifiera åtkomst av Googlebot är att använda användaragenten (Googlebot). Du kan verifiera att en bot som använder din server verkligen är Googlebot genom att använda en omvänd DNS-sökning. Googlebot och alla respektabla sökrobotar respekterar direktiven i robots. txt, men vissa nogoodniks och spammare gör det inte. Rapportera spam till Google. Google har flera andra användaragenter, inklusive Feedfetcher (användaragent Feedfetcher-Google). Eftersom Feedfetcher-förfrågningar kommer från uttryckliga åtgärder av mänskliga användare som har lagt till flödena på deras startsida för Google och inte från automatiserade sökrobotar, följer Feedfetcher inte robots. txt-riktlinjerna. Du kan hindra Feedfetcher från att krypa din webbplats genom att konfigurera servern för att visa ett 404, 410 eller annat felstatusmeddelande till användaragent Feedfetcher-Google. Mer information om Feedfetcher. Var denna artikel till hjälp Hur kan vi förbättra det våra värderingar vårt folk Ledande b2b-utgivare, specialiserat på online, interaktiva professionella samhällen Med en rad tjänster, inklusive webbplatser, e-postpublikationer, branschpriser och evenemang, levererar Sift Media originalt varumärkesinnehåll till över en halv miljoner yrkesverksamma inom redovisning, IT, HR och utbildning, marknadsföring och småföretag. Genom att producera kvalitetsinnehåll och engagera vår professionella publik på flera kontaktpunkter erbjuder vi b2b-märken unika marknadsföringsmöjligheter som ger en genuin avkastning på investeringar. Våra värderingar Vi tror på att skapa innehåll, möjliggöra konversationer och konvertering av affärsmöjligheter, både för våra företagsgrupper och för våra annonseringskunder. Genom att fokusera på innehåll och främja samhällsengagemang syftar vi till att skapa tillförlitliga och unika miljöer för företags varumärken och affärspersonal för att optimera relationer. Våra människor Vårt folk är vår största tillgång och vi har varit lyckliga att locka till några av de bästa digitala talangerna i landet. Med ledande ledningsgrupp, erfarna kampanj - och kontoansvariga, prisbelönta redaktörer och ett ledande produktions - och teknikteam har vi en struktur och kvalitet som skiljer oss från andra utgivare. Ta reda på mer och träffa laget nedan. Tom Dunkerley Finansinspektör Steven Priscott, Sift Vår historia David Gilroy och nuvarande VD Ben Heald, Sift, grundades av Andrew Gray och erbjöd branschspecifika informationstjänster som utnyttjade internet genom att integrera traditionella nyheter och webbinnehåll. Med Bens bakgrund i redovisning bestämdes det att detta skulle vara den första marknaden för prospektering och sålunda 1997 var AccountingWEB. co. uk född. Formeln fungerade, och om 12 månader hade cirkulationslistan gått från 10 till 4000, med intäkter som genererades från annonser i veckobrevs bulletiner. Sift Media når nu över 700 000 registrerade affärsmän varje månad och levererar över 5 miljoner sidvisningar över sin portfölj med 11 titlar i Storbritannien och USA. Inte bara fortsätter vi att utveckla några av de mest lojala och engagerade affärsrörelserna online, vi erbjuder ledande lösningar för annonsörer. För en mer detaljerad historia besök vår företags webbplats sikt. Om du vill vara med i en av Storbritanniens mest spännande utgivare och du tror att du har passion och färdigheter för att bli en värdefull del av laget, varför inte kolla in våra nuvarande lediga platser.
No comments:
Post a Comment