|
|
Att bli synlig på Internet |
![]() |
|
|---|
Synligheten på Internet liknar mycket synligheten i verkliga livet. Om man lever ett isolerat liv, utan större umgänge eller socialt engagemang, och håller en låg profil på arbetsplatsen, så är det inte så många som vet om att man finns. Eller tar notis om ens existens. Internet fungerar på samma sätt. På "webben" finns hela urvalet, från websiter som får flera tusen besök per dag, till websiter som nästan ingen vet om. Om det är så att man vill vara mer synlig i vardagslivet, kanske för att man har startat en liten firma och vill ha kunder, så får man jobba på det. Det finns då det "traditionella" sättet med reklamkampanjer, som kostar pengar. Och det finns det mer "informella" sättet; att helt enkelt höja sin profil i alla möjliga sammanhang. Man kan alltså göra mer väsen av sig på jobbet (men inte så att man får sparken!), utvidga sitt umgänge, engagera sig i politik och i ideell verksamhet, med syftet att träffa folk och knyta nyttiga kontakter. I ekonomier som fungerar dåligt (som t.ex. de hädangångna kommunistregimerna i östra Europa) så utvecklar folk spontant denna förmåga att bygga nätverk. När varu- och tjänste-utbud fungerar dåligt är det nödvändigt för ens överlevnad under någorlunda drägliga former att själv hitta dessa varor och tjänster. Motsvarande kontaktknytande på Internet tar sig uttryck i form av länkar. Du länkar till andra, och de länkar till dig.
"Visibilitet" är nyckelordet (från engelskans "visibility"). Jag känner en egenföretagare som haft sin website uppe i c:a 2 år. Men söker man på hans företagsnamn med t.ex. "Google" så får man bara en (EN!) träff! Och den länken går till en annan website, som nämner det aktuella företaget, men utan att länka till det. Så; den aktuella websiten lever sitt isolerade liv, som Robinson Crusoe på sin ö. Med tanke på att webhotell och egen Internet-domän kostar pengar, så är detta förhållande inte särskilt lyckat. Man kan fråga sig vad en sådan website gör för nytta.
Man frågar sig då förstås; varför hittar inte sökrobotarna på Internet ("Google", "Yahoo", "AltaVista", etc.) denna website? Hur söker de egentligen? Ja, man hittar sällan det man letar efter, om man inte vet vad man letar efter. Mig veterligt så finns det ingen sökrobot som regelbundet kollar i registren hos de myndigheter som registrerar nya domäner, för att se om där finns några nykomlingar. Utan man får helt enkelt, som ny domän-ägare och website-ägare, slå på trumman för sig själv i början. Det är som att vara kille och gå på dans. Om man inte tar initiativet och bjuder upp, så får man stå och bara titta på hela kvällen.
Man får helt enkelt göra klart för sig vad man vill ha ut av sin website-satsning. En viss visibilitet torde vara ett självklart mål. Men om man agiterar för en viss åsikt, driver en förening av något slag eller har ett företag, så vill man nå folk med sin website. Vad som är viktigt är då:
![]() ![]()
Nej, jag tänker inte på hur det är att åka med bussarna i kollektivtrafiken, utan på detta med nätverk, som ju är huvudrubriken för denna spalt. Om man har gott om tid och är utåtriktad så finns det utmärkta komplement till "visibility". Man tar helt enkelt kontakt med andra website-ägare, inte som kund utan på ett mer personligt plan. Man knyter kontakter, och odlar bekantskaper. Det ska då sägas med en gång att detta funkar i allmänhet bara för ensam-företagare, inte när personen i andra änden är en anställd. Vad går det ut på? Ja, det är samma grej som när du går med i din lokala företagarförening. Bara medlemsskapet ger inte mycket utdelning, du bör också gå på deras sammankomster, spela golf o.dyl. så att du träffar de andra medlemmarna. På webben kan du på liknande sätt ställa frågor om web-upplägg, priser, varför det finns vissa produkter men inte andra, eller associera till något som du förmodar att motparten är intresserad av. I förlängningen väcker detta kanske ett ömsesidigt intresse för varandras produkter eller tjänster, som sedan poppar upp i backhuvudet när motparten eller dennes bekanta kanske behöver en produkt eller tjänst som du erbjuder. En variant på detta är webforum där medlemmarna "reviewar" varandras websiter och talar om vad som skulle kunna göras bättre. Det finns flera sådana "fora". En amerikansk sådan hittar du t.ex. på the Webproworld Community.
Rubriken låter som en spionroman, eller hur? Men det handlar i själva verket om hur man kan optimera sin websida så att den får bra träff-placering vid sökning på vissa nyckelord. Detta görs genom att lägga upp versioner av den aktuella websidan, där varje kopia av websidan är anpassad för en viss sökrobot, som t.ex. AltaVista. Dessa sidor är inte så roliga att titta på för en människa, så den ursprungliga "ögonvänliga" websidan måste också finnas kvar. Om du använder detta så finns dessa webside-varianter i din katalog på webservern, men bara den "ögonvänliga" sidan är åtkomlig via länkar. De andra sidorna är dolda, "cloaked", och detta görs så att dina konkurrenter inte ska kunna komma åt dem, och se hur scripten är upplagda, vilka keywords som användes, osv. När så en sökrobot hälsar på, så kollas dess "User Agent Identity" av ett script på webservern, som sedan ser till besökaren blir länkad till "rätt" version av websidan. Om denna "User Agent Identity" inte går att fastställa, så antar scriptet att det är en mänsklig besökare, och den ordinarie sidan visas. Nu är detta med "User Agent Identity" ingen säker metod; "User Agent" kan ganska lätt förfalskas. Vanligare är därför att "the cloaking script" kollar IP-adressen hos besökaren. För detta ändamål har scriptet tillgång till en databas, där alla relevanta IP-adresser som används av sökrobotar finns listade. Detta är en betydligt säkrare kontrollmetod. Ska man använda sig av cloaking? Det får var och en avgöra själv. Men sökrobotarna motarbetar detta förfarande, därför att de kan förlora kunder (och i förlängningen annonsintäkter) om surfare märker att träff-sidorna dåligt motsvarar deras sökord. Blir man avslöjad av en sökrobot så kan ens websida (eller hela websiten) bli borttagen från indexeringen. Tja, är det risk att man blir avlöjad, då? Jodå, robotarna har rutiner för detta.
|
Det är förstås så att när en sökrobot äntligen(!?) hälsar på hos din website, så söker den efter vissa saker, nämligen:
- "Keywords", dvs. sökord. De ska självklart vara på samma språk som websidan i övrigt, och de ska vara "relevanta", dvs. det som websidan faktiskt handlar om. Tyvärr har folk "misskött" dessa taggar såpass att de vanligaste sökrobotarna (t.ex. Google) inte bryr sig så mycket om dessa längre. - "Content": Kort förklaring av websidans innehåll (igen, förstås, på relevant språk). Denna förklaring presenteras tillsammans med länken i listningen över surfarens träffar. Om du utnyttjar denna meta-tagg så har du alltså möjlighet att själv skriva denna presentation. Om den saknas så sätter sökroboten ihop en egen presentation, baserad antingen på början av texten, eller på de textavsnitt som innehåller de sökord som surfaren har angett. - "Title": Denna bör helst vara identisk med websidans titel, och om websiten omfattar många sidor så bör "Title" vara med på samtliga. Den viktigaste anledningen till att "Title" bör spec:as är att om besökare som använder Microsofts Internet Explorer vill spara länken till din website, så anges denna Titel i listan. Om du inte har angett denna Meta-tagg så kommer listan bara att innehålla en intetsägande webadress, som inte ger någon ledtråd för besökaren när han/hon vill hälsa på hos din website nästa gång. Länken blir då bara "skräp", som besökaren ofta rensar bort från listan så småningom.
![]() Dessa websidor "finns" egentligen inte, utan textmassa och bilder finns lagrade i databaser. När en surfare begär en websida så fångas vissa sökbegrepp upp, och med dessa sökbegrepp aktiveras en scriptfil, som hämtar den text som är relevant för sökbegreppet, och sedan genererar en websida. Man känner igen den på att den inte heter "HTM" eller "HTML" på slutet utan har någon annan ändelse. Den vanligaste är "ASP" som står för "Active Server Page". Sökrobotarna går inte in i databaser och indexerar, eftersom en databas är såpass annorlunda till sin struktur än en text. Så denna typ av websidor blir bara delvis indexerade, dvs. den del av sidan (om det finns någon sådan del) som inte genereras av ett script utan ligger färdig, för att sedan, vid varje söktillfälle, kompletteras med script-genererad text från databasen. Text i ASCII-format och PDF-format indexeras dock.
Undrar du vad "Magellanska molnen" är för något? Sök på Internet (alltså; via "Yahoo" eller "Google" eller någon annan sökrobot), och lägg märke till vad det är för typ av websiter du hamnar på.
Det är dock viktigt att dina länkar pekar till websidor och websiter som fortfarande finns. Annars kan länkarna ha motsatt effekt på din website; den rankas lägre på robotarnas sökordlistning, p.g.av att den innehåller döda länkar. Det sker ju kontinuerliga förändringar på webben, websidor flyttas, försvinner, döps om. Det innebär att du regelbundet bör kolla att dina länkar funkar. Det finns program som kan göra detta, du behöver inte kolla alla dina länkar manuellt. Döda länkar bör du ta bort, eller söka rätt på deras nya adress, eller finna någon website liknande den ursprungliga.
Men det gäller också att tänka till. Om du föreställer dig att tänkbara kunder använder "jojobaolja" som sökord, så kan du få en bra ranking på detta ord, därför att det är ett ganska ovanligt ord, det står inte på så många websiter. Men du bör också ha "rynkmedel" och "ansiktskräm" med som potentiella sökord, därför att det är 100 gånger mer sannolikt att besökarna använder något av dessa ord.
|
Det fanns en tid när företagare slogs om att komma först i Telefonkatalogens "Gula Sidor". Om man döpte sitt företag till "A. Axelssons hyrfrackar" så fick man ju rätt bra placering i telefonkatalogens alfabetiska listning. Men det övertrumfades snart, när konkurrentfirman döpte sig till "A.A. hyrfrackar", varvid man (förstås) döpte om sin egen firma till "A.A.A. hyrfrackar". Så småningom upptäcktes att "Ömans hyrfrackar" gick i stort sett lika bra, för de hade hittat andra kanaler för sin marknadsföring. Det gäller att få andra websiter att länka till din website. Det är den allra bästa marknadsföringen, och det kan göras på många sätt:
Det finns förstås en nackdel med detta förfarande; besökaren försvinner från din website. Kommer han/hon tillbaks till din site? Tja, ett sätt att underlätta det är att skapa länkarna så att den andra websiten öppnas i ett nytt fönster. Då ligger din website kvar i sitt eget fönster.
Lokalisera alla relevanta sådana register och se till att du kommer med där. Det kan löna sig mer än du tror.
Jämför olika sökrobotar vad gäller snabbhet, popularitet och den tid det tar för en ny sida att bli indexerad. AltaVista har t.ex. i skrivande stund snabbare indexering än den populärare Google.
Det finns ett begrepp i web-världen som heter "CPC", som står för "cost per click". Man får alltså betala för varje gång en besökare hamnar på din website efter att ha klickat på ett av dina sökord. Jag ska inte gräva djupare i detta system här, men vissa sökord är mer värda än andra, och man får i allmänhet utvärdera med "trial-and-error" vilka sökord som ger mest valuta för pengarna, i form av besök som leder till att du faktiskt säljer något (om det nu är det du vill göra via din website).
Avsändaren (dvs. du) påminner på detta sätt med jämna mellanrum om sin existens, vilket är nog så viktigt. Det är lätt att bli bortglömd...
|
|
I rot-katalogen hos varje webserver kan man lägga en fil som heter "Robots.txt", och som innehåller information till sökrobotarna hur de ska hantera den information som de påträffar på de websidor som finns på webservern. Det är alltså webhotellet som ansvarar för denna fil, så den är inte åtkomlig för vanlig webmaster.
A Web site administrator can use a Robots.txt file to indicate where robots (Web crawlers) can go on a Web site and whether or not to exclude specific crawlers. Web servers use these rules to control access to sites by preventing robots from accessing certain areas. SharePoint Portal Server always looks for this file when crawling and obeys the restrictions in it. A Web site administrator can also restrict access to certain documents by using Hypertext Markup Language (HTML) META tags. These tags tell the robot whether it can include the document in the index and whether it can follow the links in the document by using the INDEX/NOINDEX and FOLLOW/NOFOLLOW attributes in the tag. For example, if you do not want the document to be crawled and you do not want links in the document to be followed, you can mark a document with following tag:
SharePoint Portal Server always obeys the HTML rules of robots exclusion when SharePoint Portal Server crawls Web sites. Note that robots exclusions are counted as rule exclusions (which are not visible in the gatherer log viewer by default) by SharePoint Portal Server. See the "Gatherer Log Information" section of this article for additional information about how to view the gatherer logs.
Robots.txt files specify restrictions for each User Agent. Change the User Agent string to identify your site when crawling the Internet. By default, the string
for SharePoint Portal Server is: |
To add your identifier, you need to modify the registry. There is no way to specify credentials in the URL that you specify for a Web site content source. If you want to crawl a password-protected site, create a site path rule. Follow steps 1 through 3 in the "Following Complex Links" section of this article to create the site path rule. Click the Options tab, click the Account tab, and then provide the user name and password. Each workspace maintains a file type inclusion list, and when content sources are indexed, only those file types are indexed. If a Web site link references an excluded file type, the link is not followed and is logged as a rule exclusion.
![]() If your network uses a proxy server to access the Internet, you must provide the proxy server information so that the SharePoint Portal Server crawler can use that information. This information is configured on the Proxy Server tab of the server's properties in the SharePoint Portal Server Administration console. This information is used only by search, and if you change the information in that location, you do not affect any settings that are configured in Microsoft Internet Explorer. |
Configuring Host HopsIMPORTANT: Limit the number of site hops to the absolute minimum number necessary. When you perform an Internet crawl, you might index millions of documents in just a few site hops. If you set the number of site hops on a Web site content source to unlimited (by clicking Custom, and then clicking to clear the "Limit site hops" and "Limit page depth" check boxes), you must include a site path rule that specifically includes that content source in the index. Otherwise, the content source is automatically excluded from the index to prevent unlimited crawling. The site path rule strategy that is recommended when you are crawling Internet sites is to create an exclusion rule for the entire HTTP URL space (http://*), and then create inclusion rules for only those sites that you want to index. Being a Considerate Crawler |
|
Last Updated: 2007-01-02
| Författare: Ove Johnsson |
|---|