Just nu i M3-nätverket
Jump to content

Privat Hemsida hos Telia!! HJÄLP!!


LoDx_The_Real_One

Recommended Posts

LoDx_The_Real_One

Hej!

 

Jag har en hemsida hos telia, på deras gratis server. Hemsidan är indexerad av google (man kan söka efter den via google) men google hittar även mina undersidor vilket jag inte vill, det kan man förhindra genom att lägga en text fil som heter robots.txt i rootmappen som hemsidan ligger på. Alltså inte MIN root mapp utan i den mappen som min hemsidemapp ligger I.

Jag kan alltså inte komma åt den root mappen, det kan endast telia.

Eftersom min sida är en subdomän till telias.

 

Har kontaktat telia men dom säger "Vi har inte den tjänsten för privata hemsidor. Använd dig gärna av vårt Webbhotell"

 

Jag blir så förbannad på dom att dom ska ta betalt för minsta grej... dom vägrade också att ge mig numret till dom som sköter de privata hemsidorna..

 

Någon som vet hur jag ska göra för att på något sätt kunna lägga denna text fil på 4 kb i rootmappen?? Någon jag kan kontakta eller liknande?? Någon som lyckats med liknande??

 

HJÄLP!!!!

 

[inlägget ändrat 2009-04-25 01:31:17 av LoDx_The_Real_One]

 

Tråden flyttad från Webbserver av moderator

 

[inlägget ändrat 2009-04-25 20:59:57 av Cluster]

Link to comment
Share on other sites

Anjuna Moon
Jag blir så förbannad på dom att dom ska ta betalt för minsta grej

Det är verkligen inte en "liten" grej att erbjuda ett fulländat webbkonto. Den webbarea man får från de flesta ISP:er, via sitt bredbandsabbonnemang, ska man bara se som en bonus. Många tycks dock förvänta sig lite för mycket av denna.

 

Du kommer få precis samma svar om du skaffar dig ett konto på något av världens otaliga reklamfinansierade gratis "webbhotell". Varför tror du att du skall få något extra utan att betala för det? Det du betalar din ISP för är ditt abbonnemang, allt annat är som sagt bara lite ubåt i ölen.

 

[inlägget ändrat 2009-04-25 07:32:11 av Anjuna Moon]

Link to comment
Share on other sites

LoDx_The_Real_One
Det är verkligen inte en "liten" grej att erbjuda ett fulländat webbkonto. Den webbarea man får från de flesta ISP:er, via sitt bredbandsabbonnemang, ska man bara se som en bonus. Många tycks dock förvänta sig lite för mycket av denna.

 

Du kommer få precis samma svar om du skaffar dig ett konto på något av världens otaliga reklamfinansierade gratis "webbhotell". Varför tror du att du skall få något extra utan att betala för det? Det du betalar din ISP för är ditt abbonnemang, allt annat är som sagt bara lite ubåt i ölen.

 

Det jag menade med minsta lilla grej var om den där textfilen på 4 kb, det var ju då dom ville att jag skulle betala för deras webbhotell istället för att använda den som alla deras kunder kan ha gratis

 

Link to comment
Share on other sites

Anjuna Moon
Det jag menade med minsta lilla grej var om den där textfilen på 4 kb, det var ju då dom ville att jag skulle betala för deras webbhotell

Jo, jag förstår vad du är ute efter, men eftersom webbspindlarna alltid letar efter denna fil i webbroten så måste du alltså "äga" en webbrot. Att äga en webbrot betyder till att börja med att du behöver äga ett domännamn (i detta fall åtminstone), vilket inte är gratis för någon. Därefter måste du även hosta denna domän, vilket iofs ibland kan vara nära till gratis men aldrig helt (såvida du som sagt inte accepterar att ligga som en subdomän till ett, av andra medel finansierat, webbhotell)

Det du efterfrågar är alltså helt omöjligt för Telia att erbjuda, eftersom en robots-fil isåfall skulle behöva ligga i deras rot och således påverka varenda en av deras kunder.

 

Det finns ju dock andra varianter du kan ta till, om du vill undvika alltför mycket indexering. Exempelvis skulle du kunna använda sk. obfuskering, vilket innebär att du konverterar dina sidors textinnehåll till html-baserade hex-koder (ex. skulle bokstaven "A" ersättas av "%41". Googla på "html+obfuscator" så tror jag du hittar en del gratisprogram för detta. Jag vågar inte säga säkert att Google inte försöker tolka detta, men det är en kvalificerad gissning att de inte gör det.

Det dessa gör är att skapa javascriptfunktioner som bygger upp webbsidans innehåll, via lååånga strängar av hexkoder, efter att sidan är inladdad.

 

Ett annat sätt är att generera sidan via Ajax, vilket innebär att sidan i sig inte innehåller nämnvärt med innehåll vid inladdning utan att innehållet hämtas när sidan körs i webbläsaren. Detta kräverförstås att du behärskar denna teknik.

 

[inlägget ändrat 2009-04-25 08:37:13 av Anjuna Moon]

Link to comment
Share on other sites

LoDx_The_Real_One
eftersom en robots-fil isåfall skulle behöva ligga i deras rot och således påverka varenda en av deras kunder.

 

Nej den robot filen påverkar endast mig, jag har skapat den så jag vet. Den blockerar endast vissa sidor i min mapp.

 

Eftersom den påverkar endast mig så borde dom ju utan problem bara kunna lägga in den i root mappen. Dom gav mig inte ens numret till dom som sköter de privata hemsidorna, jag sa att jag ville ta detta med dom men det fick jag tydligen inte.

 

Det finns ju dock andra varianter du kan ta till, om du vill undvika alltför mycket indexering. Exempelvis skulle du kunna använda sk. obfuskering, vilket innebär att du konverterar dina sidors textinnehåll till html-baserade hex-koder (ex. skulle bokstaven "A" ersättas av "%41". Googla på "html+obfuscator" så tror jag du hittar en del gratisprogram för detta. Jag vågar inte säga säkert att Google inte försöker tolka detta, men det är en kvalificerad gissning att de inte gör det.

Det dessa gör är att skapa javascriptfunktioner som bygger upp webbsidans innehåll, via lååånga strängar av hexkoder, efter att sidan är inladdad.

 

Skulle inte sidan bli väldigt tung då?? eftersom det blir mycket att ladda

[inlägget ändrat 2009-04-25 08:37:39 av LoDx_The_Real_One]

Link to comment
Share on other sites

Anjuna Moon
Eftersom den påverkar endast mig så borde dom ju utan problem bara kunna lägga in den i root mappen

Förvisso skulle det fungera, om robots-texten tar med subdomäns/undermappsnamnet, men det innebär ett logistiskt problem att erbjuda detta från en så stor leverantör som Telia, eftersom du bara kan ha en robots-fil i roten. Om de erbjöd detta till sina gratiskunder så skulle de bli tvungna att ändra i denna fil varenda gång en ny kund vill lägga till sådan information. Detta i sig innebär en personalkostnad, som de naturligtvis inte vill bjuda på (det är ju trots allt Telia ;)

 

Link to comment
Share on other sites

Anjuna Moon
Skulle inte sidan bli väldigt tung då?? eftersom det blir mycket att ladda

Nej, inte med dagens linor. Förvisso skulle sidans textinnehåll bli i runda tal tre gånger större, men en normalstor webbsidas textinnehåll är oftast långt mindre än en av de minsta gif-bilderna du visar på sidan. Så detta skulle definitivt inte ge någon som helst skillnad i nedladdning om man inte sitter med ett gammalt 128k-modem, vilket ju ingen gör idag.

Nä, testa detta tycker jag.

 

[inlägget ändrat 2009-04-25 08:45:15 av Anjuna Moon]

Link to comment
Share on other sites

LoDx_The_Real_One
om robots-texten tar med subdomäns/undermappsnamnet

 

Det gör den

 

(det är ju trots allt Telia ;)

 

kunde inte sagt det bättre själv ;)

 

Link to comment
Share on other sites

LoDx_The_Real_One

men hur funkar det exakt? textinnehållet ändras till hexkoder och google försöker då INTE att läsa dessa?

 

men hindrar det google från att länka till mina undersidor??

 

Link to comment
Share on other sites

Anjuna Moon
men hindrar det google från att länka till mina undersidor??

Bara om du gör samma sak även med din startsida, gör du inte det kommer de förstås indexera de länkar de hittar där. Så gör samma sak med alla dina sidor.

 

men hur funkar det exakt? textinnehållet ändras till hexkoder och google försöker då INTE att läsa dessa?

Inte idag iallafall, såvitt jag vet. Men det är ju ett företag som utvecklas i enorm hastighet, så snart kanske

 

Testa en av de två första länkarna om du vill se ett exempel på vad som sker. Skriv exempelvis in "< d i v >" (utan mellanslagen) och se vad som händer.

[inlägget ändrat 2009-04-25 08:52:52 av Anjuna Moon]

Link to comment
Share on other sites

LoDx_The_Real_One

men vad är det jag behöver göra om till hexkoder?? sid url:en ?? eller bara text innehållet?? (har inte alls mycket textinnehåll på sidan)

 

Link to comment
Share on other sites

Anjuna Moon
men vad är det jag behöver göra om till hexkoder?? sid url:en ?? eller bara text innehållet?

Bara textinnehållet, allt från och med första html-taggen till den sista. Som sagt, testa en av de första länkarna för att se vad dessa konverterare skapar.

 

[inlägget ändrat 2009-04-25 08:55:50 av Anjuna Moon]

Link to comment
Share on other sites

LoDx_The_Real_One

Förstår hur jag ska göra nu, vi får se vad google gör åt saken. Tack så mycket

[inlägget ändrat 2009-04-25 09:06:14 av LoDx_The_Real_One]

Link to comment
Share on other sites

Anjuna Moon
men då blir det alltså så att jag skriver

funkar det att ha ett script i ett script?

Det kommer inte bli ett script i ett script. Svårt att förklara, men som jag sade, testa länkarna. Klistra in en av dina sidors kompletta kod, kopiera sedan resultatet och lägg in detta istället på sidan så ska du se att du får samma resultat. En varning är ju då förstås att användare som stängt av javascript (varför de nu gör det vet jag inte) inte kommer kunna se sidan.

 

Lite allmänt:

Jag ska försöka ge en förklaring till varför detta fungerar.

Med dagens enormt stora mängd data på internet så är det inte logistiskt möjligt att skapa index på annat sätt än att läsa av det rena innehållet på sidor (åtminstone inte med den höga frekvens som ex. Google gör).

 

För att kunna indexera den text som dessa obfuskerings-metoder skapar, skulle spindeln först behöva läsa in javascript-funktionerna, sedan exekvera dem (eller på annat sätt tolka dem) för att få ut den slutliga/egentliga textmassan och därefter lagra index baserade på denna.

Detta skulle ta enormt mycket mer kraft och därmed skulle de inte kunna uppdatera sina sökmotorer lika ofta.

 

Men som sagt, de växer snabbt och deras datahallar och datakraft nästan lika snabbt, så imorgon kanske det ser annorlunda ut.

 

Link to comment
Share on other sites

LoDx_The_Real_One

ok ska se hur det blir med googles indexering :P har fått det att funka

 

tack så mycket

 

Link to comment
Share on other sites

Anjuna Moon
Förstår hur jag ska göra nu, vi får se vad google gör åt saken. Tack så mycke

Lycka till och återkom gärna vid senare tillfälle och meddela om det gav önskad effekt (kan vara bra för andra med samma frågeställning som söker här att veta också)

[inlägget ändrat 2009-04-25 09:10:20 av Anjuna Moon]

Link to comment
Share on other sites

Kanske knöligt och fult men om det nu var endast lite textinnehåll - skulle det inte funka att göra en bild av texten?

 

Link to comment
Share on other sites

LoDx_The_Real_One

blir nog lite svårt o få den på rätt plats och så, det är inte heller en sammanhängande text utan små meningar lite här och där :P

 

Link to comment
Share on other sites

  • 2 weeks later...
LoDx_The_Real_One

Jag löste det genom att lägga meta taggen

 

<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW, NOARCHIVE">

 

vilket hindrar sökrobotar från att söka igenom min sida

 

Link to comment
Share on other sites

StefanKurtJohansson
En varning är ju då förstås att användare som stängt av javascript (varför de nu gör det vet jag inte) inte kommer kunna se sidan.

 

Dom som använder http://noscript.net/ i Firefox webbläsare. ;)

 

Link to comment
Share on other sites

Archived

This topic is now archived and is closed to further replies.



×
×
  • Create New...