Vad är Internet, vem skapade World Wide Web och hur det globala nätverket fungerar. World Wide Web (www) Förkortning för World Wide Web

08.10.2023

Idag har det blivit vanligt att använda internet. Att gå online är ibland lättare än att resa sig från soffan för att slå på tv:n eftersom fjärrkontrollen har försvunnit någonstans igen :). Varför, många människor tittar inte ens på TV längre, eftersom Internet har allt de behöver, förutom att de inte matar dem... ännu.

Men vem kom på vad vi använder varje dag, varje timme? Du vet? Jag hade ingen aning förrän nu. Och Internet uppfann Sir Timothy John Berners-Lee. Han är den rätta uppfinnare av World Wide Web och författare till många andra stora utvecklingar inom detta område.

Timothy John Berners-Lee föddes den 8 juni 1955 i London, i en ovanlig familj. Hans föräldrar var matematikerna Conway Berners-Lee och Mary Lee Woods, som forskade i skapandet av en av de första datorerna, Manchester Mark I.

Det måste sägas att tiden i sig var gynnsam för olika typer av tekniska genombrott inom IT-teknikområdet: några år tidigare föreslog Vannevar Bush (en vetenskapsman från USA) den så kallade hypertexten. Detta är ett unikt fenomen som representerade ett alternativ till den vanliga linjära strukturen för utveckling, berättelse, etc. och hade en betydande inverkan på många områden i livet - från vetenskap till konst.

Och några år efter Tim Berners-Lees födelse kom Ted Nelson med ett förslag om att skapa ett "dokumentärt universum" där alla texter som någonsin skrivits av mänskligheten skulle länkas samman med vad vi idag skulle kalla "korsreferenser". ”. På tröskeln till Internets uppfinning skapade alla dessa och många andra händelser säkert bördig mark och föranledde motsvarande reflektioner.

Vid 12 års ålder skickade hans föräldrar pojken till Emanuel privatskola i staden Wandsworth, där han visade intresse för de exakta vetenskaperna. Efter att ha lämnat skolan gick han in på college i Oxford, där han och hans vänner fastnade i en hackerattack och för detta berövades de tillgång till skolans datorer. Denna olyckliga omständighet fick Tim att för första gången självständigt sätta ihop en dator baserad på M6800-processorn, med en vanlig TV istället för en bildskärm och en trasig miniräknare istället för ett tangentbord.

Berners-Lee tog examen från Oxford 1976 med en examen i fysik, varefter han började sin karriär på Plessey Telecommunications Ltd. Hans verksamhetsområde vid den tiden var distribuerade transaktioner. Efter ett par år flyttade han till ett annat företag - DG Nash Ltd, där han utvecklade mjukvara för skrivare. Det var här han först skapade en sorts analog till ett framtida operativsystem som kan multitasking.

Nästa arbetsplats var European Nuclear Research Laboratory, beläget i Genève (Schweiz). Här, som mjukvarukonsult, skrev Berners-Lee programmet Inquire, som använde metoden med slumpmässiga associationer. Principen för dess funktion var på många sätt en hjälp för skapandet av World Wide Web.

Detta följdes av tre år som systemarkitekt och en forskningsinsats vid CERN, där han utvecklade en rad distribuerade system för datainsamling. Här, 1989, introducerade han först ett projekt baserat på hypertext - grundaren av det moderna internetnätverket. Detta projekt blev senare känt som World Wide Web. World Wide Web).

I ett nötskal var dess kärna följande: publicering av hypertextdokument som skulle vara sammanlänkade med hyperlänkar. Detta gjorde det mycket lättare att hitta information, organisera den och lagra den. Det var ursprungligen tänkt att projektet skulle implementeras på CERN:s intranät för lokala forskningsbehov, som ett modernt alternativ till bibliotek och andra dataförråd. Samtidigt var det möjligt att ladda ner och komma åt data från vilken dator som helst som var ansluten till WWW.

Arbetet med projektet fortsatte från 1991 till 1993 i form av insamling av användarfeedback, samordning och olika förbättringar av World Wide Web. I synnerhet de första versionerna av URL-protokollen (som ett specialfall av URI), HTTP- och HTML-protokoll har redan föreslagits. Den första hypertextbaserade webbläsaren på World Wide Web och WYSIWYG-redigeraren introducerades också.

1991 lanserades den allra första webbplatsen som hade en adress. Innehållet var inledande och stödjande information om World Wide Web: hur man installerar en webbserver, hur man ansluter till Internet, hur man använder en webbläsare. Det fanns också en onlinekatalog med länkar till andra webbplatser.

Sedan 1994 har Berners-Lee innehaft 3Com Founders' Chair vid MIT Computer Science Laboratory (numera Computer Science and Artificial Intelligence Laboratory, tillsammans med Massachusetts Institute of Technology), där hon har fungerat som huvudutredare.

1994 grundade han laboratoriet på Laboratoriet, som än i dag utvecklar och implementerar standarder för Internet. Konsortiet arbetar särskilt för att säkerställa en stabil och kontinuerlig utveckling av World Wide Web - i enlighet med de senaste användarkraven och nivån på tekniska framsteg.

1999 publicerades Berners-Lees berömda bok med titeln "". Den beskriver i detalj processen för att arbeta med ett nyckelprojekt i författarens liv, diskuterar utsikterna för utvecklingen av internet och internetteknik och beskriver ett antal av de viktigaste principerna. Bland dem:

— Betydelsen av webb 2.0, användarnas direkta deltagande i skapandet och redigeringen av webbplatsinnehåll (ett slående exempel på Wikipedia och sociala nätverk).
— Nära släktskap mellan alla resurser med varandra genom korsreferenser i kombination med lika positioner för var och en av dem.
— Moraliskt ansvar för vetenskapsmän som inför vissa IT-tekniker.

Sedan 2004 har Berners-Lee varit professor vid University of Southampton, där han arbetar med projektet Semantic Web. Det är en ny version av World Wide Web, där all data är lämplig för bearbetning med hjälp av speciella program. Detta är ett slags "tillägg", vilket tyder på att varje resurs inte bara kommer att ha vanlig text "för människor", utan också speciellt kodat innehåll som är begripligt för datorn.

Hans andra bok, Crossing the Semantic Web: Unlocking the Full Potential of the World Wide Web, publicerades 2005.

Tim Berners-Lee innehar för närvarande titeln Knight Commander från drottning Elizabeth II, är en framstående medlem av British Computer Society, en utländsk medlem av US National Academy of Sciences och många andra. Hans arbete har mottagit ett flertal utmärkelser, inklusive Order of Merit, en plats på listan över "100 Greatest Minds of the Century" enligt Time Magazine (1999), Quadriga Award i kategorin Knowledge Network (2005) och M.S. Gorbatjov-priset i kategorin "Perestroika" - "Mannen som förändrade världen" (2011), etc.

Till skillnad från många av hans framgångsrika bröder, som, eller, kännetecknades Berners-Lee aldrig av en speciell önskan att tjäna pengar och få övervinster från sina projekt och uppfinningar. Hans sätt att kommunicera karakteriseras som en "snabb tankeström", åtföljd av sällsynta utvikningar och självironi. Med ett ord, det finns alla tecken på ett geni som lever i sin egen "virtuella" värld, som samtidigt har haft en kolossal inverkan på världen idag.

World Wide Web (WWW)

World Wide Web(Engelsk) World Wide Web) - ett distribuerat system som ger tillgång till sammanlänkade dokument som finns på olika datorer anslutna till Internet. Ordet webb används också för att referera till World Wide Web. webb"webb") och förkortningen WWW. World Wide Web är det största världsomspännande flerspråkiga arkivet av information i elektronisk form: tiotals miljoner sammanlänkade dokument som finns på datorer runt om i världen. Det anses vara den mest populära och intressanta tjänsten på Internet, som låter dig komma åt information oavsett var den befinner sig. För att få reda på nyheterna, lära sig något eller bara ha kul tittar folk på TV, lyssnar på radio, läser tidningar, tidskrifter och böcker. World Wide Web erbjuder också sina användare radiosändningar, videoinformation, press, böcker, men med skillnaden att allt detta kan fås utan att lämna hemmet. Det spelar ingen roll i vilken form informationen du är intresserad av presenteras (textdokument, fotografi, video eller ljudfragment) och var denna information finns geografiskt (i Ryssland, Australien eller Elfenbenskusten) - du får den i några minuter på din dator.

World Wide Web består av hundratals miljoner webbservrar. De flesta av resurserna på World Wide Web är hypertext. Hypertextdokument som publiceras på World Wide Web kallas webbsidor. Flera webbsidor som delar ett gemensamt tema, design och länkar och som vanligtvis finns på samma webbserver kallas en webbplats. För att ladda ner och visa webbsidor används speciella program - webbläsare. World Wide Web har orsakat en verklig revolution inom informationsteknologin och en boom i utvecklingen av Internet. När man talar om Internet menar de ofta World Wide Web, men det är viktigt att förstå att de inte är samma sak.

World Wide Webs historia

Tim Berners-Lee och, i mindre utsträckning, Robert Caillot anses vara uppfinnarna av World Wide Web. Tim Berners-Lee är upphovsmannen till HTTP-, URI/URL- och HTML-teknologier. 1980 arbetade han för European Council for Nuclear Research (Conseil Européen pour la Recherche Nucléaire, CERN) som mjukvarukonsult. Det var där, i Genève (Schweiz), som han skrev Inquire-programmet för sina egna behov, som använde slumpmässiga associationer för att lagra data och lade den konceptuella grunden för World Wide Web.

1989, medan han arbetade på CERN på organisationens intranät, föreslog Tim Berners-Lee det globala hypertextprojektet som nu är känt som World Wide Web. Projektet innebar publicering av hypertextdokument länkade med hyperlänkar, vilket skulle underlätta sökning och konsolidering av information för CERN-forskare. För att genomföra projektet uppfann Tim Berners-Lee (tillsammans med sina assistenter) URI:er, HTTP-protokollet och HTML-språket. Dessa är tekniker utan vilka det inte längre är möjligt att föreställa sig det moderna Internet. Mellan 1991 och 1993 förfinade Berners-Lee de tekniska specifikationerna för dessa standarder och publicerade dem. Men ändå bör det officiella födelseåret för World Wide Web anses vara 1989.

Som en del av projektet skrev Berners-Lee världens första webbserver, httpd, och världens första hypertextwebbläsare, kallad WorldWideWeb. Den här webbläsaren var också en WYSIWYG-redigerare (förkortning av What You See Is What You Get) Dess utveckling började i oktober 1990 och slutfördes i december samma år. Programmet kördes i NeXTStep-miljön och började spridas över Internet sommaren 1991.

Världens första webbplats var värd av Berners-Lee den 6 augusti 1991, på den första webbservern, tillgänglig på http://info.cern.ch/. Resursen definierade begreppet World Wide Web, innehöll instruktioner för att installera en webbserver, använda en webbläsare, etc. Den här webbplatsen var också världens första Internetkatalog, eftersom Tim Berners-Lee senare publicerade och upprätthöll en lista med länkar till andra webbplatser där.

Sedan 1994 har huvudarbetet med utvecklingen av World Wide Web tagits över av World Wide Web Consortium (W3C), som grundats och fortfarande leds av Tim Berners-Lee. Detta konsortium är en organisation som utvecklar och implementerar tekniska standarder för Internet och World Wide Web. W3C:s uppdrag: "Släpp loss hela potentialen hos World Wide Web genom att upprätta protokoll och principer för att säkerställa en långsiktig utveckling av webben." Två andra stora mål för konsortiet är att säkerställa fullständig "internationalisering av webben" och att göra webben tillgänglig för personer med funktionsnedsättning.

W3C utvecklar gemensamma principer och standarder för Internet (kallade "rekommendationer", engelska W3C-rekommendationer), som sedan implementeras av mjukvaru- och hårdvarutillverkare. På så sätt uppnås kompatibilitet mellan mjukvaruprodukter och utrustning från olika företag, vilket gör World Wide Web mer avancerat, universellt och bekvämt. Alla rekommendationer från World Wide Web-konsortiet är öppna, det vill säga de är inte skyddade av patent och kan implementeras av vem som helst utan några ekonomiska bidrag till konsortiet.

Struktur och principer för World Wide Web

World Wide Web består av miljontals webbservrar på Internet runt om i världen. En webbserver är ett program som körs på en dator som är ansluten till ett nätverk och använder HTTP-protokollet för att överföra data. I sin enklaste form tar ett sådant program emot en HTTP-förfrågan för en specifik resurs över nätverket, hittar motsvarande fil på den lokala hårddisken och skickar den över nätverket till den begärande datorn. Mer sofistikerade webbservrar kan dynamiskt generera dokument som svar på en HTTP-förfrågan med hjälp av mallar och skript.

För att se information som tas emot från webbservern används ett speciellt program på klientdatorn - webbläsare. Huvudfunktionen för en webbläsare är att visa hypertext. World Wide Web är oupplösligt kopplat till begreppen hypertext och hyperlänkar. Det mesta av informationen på Internet är hypertext.

För att underlätta skapandet, lagringen och visningen av hypertext på World Wide Web används traditionellt HTML (HyperText Markup Language). Arbetet med att skapa (märka upp) hypertextdokument kallas layout, det görs av en webbmaster eller en separat uppmärkningsspecialist - en layoutdesigner. Efter HTML-uppmärkning sparas det resulterande dokumentet i en fil, och sådana HTML-filer är huvudtypen av resurser på World Wide Web. När en HTML-fil väl har gjorts tillgänglig för en webbserver kallas den en "webbsida". En samling webbsidor utgör en webbplats.

Hypertexten på webbsidor innehåller hyperlänkar. Hyperlänkar hjälper World Wide Web-användare att enkelt navigera mellan resurser (filer), oavsett om resurserna finns på den lokala datorn eller på en fjärrserver. För att bestämma platsen för resurser på World Wide Web används Uniform Resource Locators (URLs). Till exempel ser den fullständiga webbadressen till huvudsidan av den ryska delen av Wikipedia ut så här: http://ru.wikipedia.org/wiki/Main_page. Sådana URL-lokaliserare kombinerar URI (Uniform Resource Identifier)-identifieringsteknik och DNS-domännamnssystemet (Domain Name System). Domännamnet (i det här fallet ru.wikipedia.org) som en del av URL:en anger datorn (närmare bestämt ett av dess nätverksgränssnitt) som exekverar koden för den önskade webbservern. Webbadressen till den aktuella sidan kan vanligtvis ses i webbläsarens adressfält, även om många moderna webbläsare föredrar att endast visa domännamnet för den aktuella sidan som standard.

World Wide Web-teknik

För att förbättra den visuella uppfattningen av webben har CSS-teknik blivit allmänt använd, vilket gör att du kan ställa in enhetliga designstilar för många webbsidor. En annan innovation som är värd att uppmärksamma är resursnamnsystemet URN (Uniform Resource Name).

Ett populärt koncept för utvecklingen av World Wide Web är skapandet av den semantiska webben. Den semantiska webben är ett tillägg till den befintliga World Wide Web, som är utformad för att göra information som publiceras på nätverket mer förståelig för datorer. Den semantiska webben är ett koncept av ett nätverk där varje resurs på mänskligt språk skulle förses med en beskrivning som en dator kan förstå. Den semantiska webben öppnar upp för tillgång till tydligt strukturerad information för alla applikationer, oavsett plattform och oavsett programmeringsspråk. Program kommer att kunna hitta de nödvändiga resurserna själva, bearbeta information, klassificera data, identifiera logiska samband, dra slutsatser och till och med fatta beslut baserat på dessa slutsatser. Om den semantiska webben blir allmänt antagen och implementerad på ett klokt sätt, har potentialen att utlösa en revolution på Internet. För att skapa en maskinläsbar beskrivning av en resurs på den semantiska webben används formatet RDF (Resource Description Framework), som är baserat på XML-syntax och använder URI:er för att identifiera resurser. Nytt inom detta område är RDFS (RDF Schema) och SPARQL (Protocol And RDF Query Language), ett nytt frågespråk för snabb åtkomst till RDF-data.

Grundläggande termer som används på World Wide Web

Arbeta med webbläsaren

Idag, tio år efter uppfinningen av HTTP-protokollet, som låg till grund för World Wide Web, är webbläsaren en mycket komplex mjukvara som kombinerar användarvänlighet och en mängd möjligheter.
Webbläsaren öppnar inte bara användaren för en värld av hypertextresurser på World Wide Web. Det kan även fungera med andra webbtjänster som FTP, Gopher, WAIS. Tillsammans med webbläsaren installeras vanligtvis ett program för att använda e-post- och nyhetstjänster på datorn. I huvudsak är webbläsaren huvudprogrammet för åtkomst till Internettjänster. Genom den kan du komma åt nästan vilken Internettjänst som helst, även om webbläsaren inte stöder att arbeta med den här tjänsten. För detta ändamål används speciellt programmerade webbservrar som ansluter World Wide Web med denna nätverkstjänst. Ett exempel på denna typ av webbservrar är många gratis e-postservrar med ett webbgränssnitt (se http://www.mail.ru)
Idag finns det många webbläsarprogram skapade av olika företag. De mest använda och erkända webbläsarna är Netscape Navigator och Internet Explorer. Det är dessa webbläsare som utgör den huvudsakliga konkurrensen med varandra, även om det är värt att notera att dessa program är lika på många sätt. Detta är förståeligt, eftersom de fungerar enligt samma standarder - Internetstandarder.
Att arbeta med webbläsaren börjar med att användaren i adressfältet (adressen) skriver in URL:en till resursen han vill komma åt och trycker på Enter-tangenten.

Webbläsaren skickar en begäran till den angivna internetservern. När delar av den användarspecificerade webbsidan kommer från servern, dyker den gradvis upp i det fungerande webbläsarfönstret. Processen för att ta emot sidelement från servern visas i den nedre "status"-raden i webbläsaren.

Texthyperlänkar som finns på den resulterande webbsidan är vanligtvis markerade i en annan färg än resten av dokumenttexten och är understrukna. Länkar som pekar på resurser som användaren ännu inte har sett och länkar till resurser som redan har besökts har vanligtvis olika färger. Bilder kan också fungera som hyperlänkar. Oavsett om länken är en textlänk eller en grafisk länk, kommer dess form att ändras om du håller musen över den. Samtidigt visas adressen som länken pekar till i webbläsarens statusfält.

När du klickar på en hyperlänk öppnar webbläsaren resursen som den pekar på i arbetsfönstret och den tidigare resursen laddas ur den. Webbläsaren håller en lista över visade sidor och användaren kan vid behov gå tillbaka längs kedjan av visade sidor. För att göra detta klickar du på "Tillbaka"-knappen i webbläsarmenyn - så kommer den tillbaka till sidan du tittade på innan du öppnade det aktuella dokumentet.
Varje gång du klickar på den här knappen går webbläsaren tillbaka ett dokument i listan över besökta dokument. Om du plötsligt går tillbaka för långt, använd knappen "Fortsätt" i webbläsarmenyn. Det hjälper dig att gå vidare genom listan över dokument.
"Stopp"-knappen kommer att sluta ladda dokumentet. Med knappen "Ladda om" kan du ladda om det aktuella dokumentet från servern.
Webbläsaren kan bara visa ett dokument i sitt fönster: för att visa ett annat dokument laddar den bort det föregående. Det är mycket bekvämare att arbeta i flera webbläsarfönster samtidigt. Öppna ett nytt fönster görs med hjälp av menyn: Arkiv – Nytt – Fönster (eller tangentkombinationen Ctrl+N).

Arbeta med ett dokument

Webbläsaren låter dig utföra en uppsättning standardoperationer på ett dokument. Webbsidan som laddats in i den kan skrivas ut (i Internet Explorer görs detta med "Skriv ut"-knappen eller från menyn: Arkiv - Skriv ut...), sparas på disk (meny: Arkiv - Spara som...). Du kan hitta den text du är intresserad av på den laddade sidan. För att göra detta, använd menyn: Redigera – Hitta på denna sida.... Och om du är intresserad av hur det här dokumentet ser ut i den ursprungliga hypertexten som webbläsaren bearbetade, välj från menyn: Visa - Som HTML.
När en användare, medan han surfar på Internet, hittar en sida som är särskilt intressant för honom, använder han möjligheten som finns i webbläsare för att sätta bokmärken (liknande bokmärken som markerar intressanta delar av en bok).
Detta görs via menyn: Favoriter – Lägg till i Favoriter. Efter detta visas det nya bokmärket i listan över bokmärken, som kan ses genom att klicka på knappen "Favoriter" på webbläsarpanelen eller via menyn Favoriter.
Befintliga bokmärken kan raderas, redigeras eller organiseras i mappar med hjälp av menyn: Favoriter – Organisera favoriter.

Arbetar via en proxyserver

Netscape Navigator och Microsoft Internet Explorer tillhandahåller också en mekanism för tredjepartsleverantörer att bygga in ytterligare funktionalitet. Moduler som utökar webbläsarens möjligheter kallas plugin-program.
Webbläsare körs på datorer som kör en mängd olika operativsystem. Detta ger anledning att tala om World Wide Webs oberoende från den typ av dator och operativsystem som används av användaren.

Söker information på Internet

På senare tid har World Wide Web setts som en ny kraftfull massmedia, vars publik är den mest aktiva och utbildade delen av planetens befolkning. Denna vision motsvarar det verkliga tillståndet. Under dagar av betydande händelser och omvälvningar ökar belastningen på nätverkets nyhetsnoder kraftigt; som svar på läsarnas efterfrågan dyker resurser dedikerade till incidenten som just inträffade upp omedelbart. Sålunda, under augustikrisen 1998, dök nyheterna upp på internetsidan för CNN:s tv- och radioföretag (http://www.cnn.com) mycket tidigare än de ryska medierna rapporterade om dem. Samtidigt blev RIA RosBusinessConsulting-servern (http://www.rbc.ru), som ger den senaste informationen från finansmarknaderna och de senaste nyheterna, allmänt känd. Många amerikaner såg omröstningen om att ställa USA:s president Bill Clinton på nätet snarare än på sina tv-skärmar. Krigets utveckling i Jugoslavien återspeglades också omedelbart i en mängd publikationer som speglade en mängd olika synpunkter på denna konflikt.
Många människor som är mer bekanta med Internet genom hörsägen tror att du kan hitta all information på Internet. Detta är sant i den meningen att man där kan stöta på de mest oväntade resurserna i form och innehåll. Faktum är att den moderna webben kan erbjuda sina användare mycket information av en mängd olika profiler. Här kan du bekanta dig med nyheterna, ha en intressant stund och få tillgång till en mängd referensinformation, uppslagsverk och utbildningsinformation. Det är bara nödvändigt att betona att även om Internets övergripande informationsvärde är mycket stort, är själva informationsutrymmet heterogent vad gäller kvalitet, eftersom resurser ofta skapas i hast. Om, när man förbereder en papperspublikation, dess text vanligtvis läses av flera granskare och justeringar görs i den, är detta stadium av publiceringsprocessen vanligtvis frånvarande på Internet. Så i allmänhet bör information som hämtas från Internet behandlas med lite mer försiktighet än information som finns i en tryckt publikation.
Men överflöd av information har också en negativ sida: i takt med att mängden information växer blir det svårare och svårare att hitta den information som behövs för tillfället. Därför är det viktigaste problemet som uppstår när man arbetar med nätverket att snabbt hitta den nödvändiga informationen och förstå den, för att utvärdera informationsvärdet för en viss resurs för dina ändamål.

För att lösa problemet med att hitta den nödvändiga informationen på Internet finns det en separat typ av nätverkstjänst. Vi pratar om sökservrar, eller sökmotorer.
Sökservrarna är ganska många och varierande. Det är vanligt att skilja på sökindex och kataloger.
Indexservrar De fungerar enligt följande: de läser regelbundet innehållet på de flesta webbsidor på Internet (”indexerar” dem) och placerar dem helt eller delvis i en gemensam databas. Sökmotoranvändare har möjlighet att söka i den här databasen med hjälp av nyckelord som är relaterade till ämnet som de är intresserade av. Sökresultaten består vanligtvis av utdrag av sidor som rekommenderas för användarens uppmärksamhet och deras adresser (URL), formaterade som hyperlänkar. Det är bekvämt att arbeta med sökservrar av denna typ om du har en klar uppfattning om ämnet för din sökning.
Katalogservrar I huvudsak representerar de en klassificering av länkar på flera nivåer, byggd på principen om "från allmänt till specifikt." Ibland åtföljs länkar av en kort beskrivning av resursen. Som regel kan du söka i namn på rubriker (kategorier) och beskrivningar av resurser med hjälp av nyckelord. Kataloger används när de inte vet exakt vad de letar efter. Genom att flytta från de mest allmänna kategorierna till mer specifika kan du bestämma vilken speciell Internetresurs du bör bekanta dig med. Det är lämpligt att jämföra sökkataloger med tematiska bibliotekskataloger eller klassificerare. Underhållet av sökkataloger är delvis automatiserat, men hittills sker klassificeringen av resurser huvudsakligen manuellt.
Sökkataloger är vanliga möten Och specialiserade. Sökkataloger för allmänna ändamål innehåller resurser för en mängd olika profiler. Specialiserade kataloger kombinerar endast resurser som ägnas åt ett specifikt ämne. De lyckas ofta uppnå bättre täckning av resurser inom sitt område och bygga upp mer adekvata kategorier.
Nyligen har allmänna sökkataloger och sökservrar för indexering integrerats intensivt och framgångsrikt kombinerat sina fördelar. Sökteknologier står inte heller stilla. Traditionella indexeringsservrar söker i en databas efter dokument som innehåller nyckelord från sökfrågan. Med detta tillvägagångssätt är det mycket svårt att bedöma värdet och kvaliteten på den resurs som tillhandahålls användaren. Ett alternativt tillvägagångssätt är att leta efter webbsidor som är länkade till av andra resurser om ämnet. Ju fler länkar till en sida det finns på webben, desto mer sannolikt är det att du hittar den. Denna typ av metasökning utförs av Googles sökserver ( http://www.google.com/), som dök upp ganska nyligen, men som redan har visat sig vara utmärkt.

Arbeta med sökservrar

Att arbeta med sökservrar är inte svårt. I webbläsarens adressfält skriver du dess adress, i frågeraden skriver du på önskat språk nyckelorden eller frasen som motsvarar resursen eller resurserna i nätverket som du vill hitta. Klicka sedan på knappen "Sök" och den första sidan med sökresultat laddas in i webbläsarfönstret som fungerar.

Vanligtvis producerar en sökserver sökresultat i små portioner, till exempel 10 per söksida. Därför tar de ofta upp mer än en sida. Sedan under listan med rekommenderade länkar kommer det att finnas en länk som erbjuder dig att flytta till nästa "del" av sökresultaten (se figur).

Helst placerar sökservern resursen du letar efter på den första sidan med sökresultat, och du kommer omedelbart att känna igen den önskade länken från den korta beskrivningen. Däremot måste du ofta titta igenom flera resurser innan du hittar rätt. Vanligtvis ser användaren dem i nya webbläsarfönster utan att stänga webbläsarfönstret med sökresultaten. Ibland utförs sökning och visning av hittade resurser i samma webbläsarfönster.
Framgången med att söka information beror direkt på hur kompetent du komponerade din sökfråga.
Låt oss titta på ett enkelt exempel. Låt oss säga att du vill köpa en dator, men du vet inte vilka modifieringar som finns idag och vad de har för egenskaper. För att få den information som krävs kan du använda Internet genom att fråga en sökmotor. Om vi ​​skriver in ordet "dator" i sökfältet blir sökresultatet mer än 6 miljoner (!) länkar. Bland dem finns naturligtvis sidor som uppfyller våra krav, men det går inte att hitta dem bland ett så stort antal.
Om du skriver "vilka modifieringar av datorer finns idag", kommer sökservern att erbjuda dig att se cirka tvåhundra sidor, men ingen av dem kommer strikt att motsvara begäran. Med andra ord innehåller de enskilda ord från din förfrågan, men de kanske inte pratar om datorer alls, utan säg om befintliga modifieringar av tvättmaskiner eller om antalet datorer som finns tillgängliga i ett företags lager den dagen.
I allmänhet är det inte alltid möjligt att framgångsrikt ställa en fråga till en sökserver första gången. Om frågan är kort och bara innehåller ofta använda ord kan många dokument hittas, hundratusentals och miljoner. Tvärtom, om din begäran visar sig vara för detaljerad eller mycket sällsynta ord används, kommer du att se ett meddelande som säger att inga resurser som matchar din begäran hittades i serverdatabasen.
Om du gradvis minskar eller utökar fokus för din sökning genom att öka eller minska listan med sökord, och att ersätta misslyckade söktermer med mer framgångsrika kommer att hjälpa dig att förbättra sökresultaten.
Förutom antalet ord spelar deras innehåll en viktig roll i frågan. De nyckelord som utgör en sökfråga är vanligtvis helt enkelt åtskilda med mellanslag. Det är viktigt att komma ihåg att olika sökmotorer tolkar detta olika. Vissa av dem väljer endast dokument som innehåller alla nyckelord för en sådan begäran, det vill säga de uppfattar utrymmet i begäran som ett logiskt sammanbindande "och". Vissa tolkar utrymmet som ett logiskt "eller" och söker efter dokument som innehåller minst ett av nyckelorden.
När du skapar en sökfråga låter de flesta servrar dig explicit ange logiska kopplingar som kombinerar nyckelord och ställer in några andra sökparametrar. Logiska kopplingar betecknas vanligtvis med de engelska orden "AND", "OR", "NOT". Olika sökservrar använder olika syntax när de bildar en utökad sökfråga - det så kallade frågespråket. Med hjälp av ett frågespråk kan du ange vilka ord som ska förekomma i dokumentet, vilka som inte ska finnas och vilka som är önskvärda (det vill säga att de kan existera eller inte).
Som regel använder moderna sökmotorer alla möjliga ordformer av de ord som används vid sökning. Det vill säga, oavsett i vilken form du använde ordet i frågan, tar sökningen hänsyn till alla dess former enligt reglerna för det ryska språket: till exempel, om frågan är "gå", kommer sökresultatet att hitta länkar till dokument som innehåller orden "gå", "går", "promenerade", "gick" etc.
På titelsidan för en sökserver finns vanligtvis en "Hjälp"-länk, genom att klicka på vilken användaren kan bekanta sig med sökreglerna och frågespråket som används på denna server.
En annan mycket viktig punkt är att välja en sökserver som är lämplig för dina uppgifter. Om du letar efter en specifik fil är det bättre att använda en specialiserad sökserver som inte indexerar webbsidor, utan filarkiv på Internet. Ett exempel på sådana sökservrar är FTP-sökning (http://ftpsearch.lycos.com), och för att söka efter filer i ryska arkiv är det bättre att använda den ryska analogen - http://www.filesearch.ru.
För att söka efter programvara, använd programvaruarkiv som http://www.tucows.com/, http://www.windows95.com, http://www.freeware.ru.
Om webbsidan du letar efter finns på den ryska delen av Internet kan det vara värt att använda ryska sökmotorer. De fungerar bättre med ryskspråkiga sökfrågor och är utrustade med ett gränssnitt på ryska.
Tabell 1 ger en lista över några av de mest välkända sökmotorerna för allmänna ändamål. Alla dessa servrar erbjuder för närvarande både fulltext- och kategorisökning, och kombinerar därmed fördelarna med en indexeringsserver och en katalogserver.

Http, som gör att du kan stödja en långsiktig anslutning, dataöverföring i flera strömmar, distribution av dataöverföringskanaler och deras hantering. Om det implementeras och stöds av standard WWW-programvara, kommer det att eliminera de ovan nämnda nackdelarna. Ett annat sätt är att använda navigatorer som lokalt kan köra program på tolkade språk, som Sun Microsystems Java-projekt. En annan lösning på detta problem är att använda AJAX-teknik, baserad på XML och JavaScript. Detta gör att du kan ta emot ytterligare data från servern när WWW-sidan redan har laddats från servern.

För närvarande finns det två trender i utvecklingen av World Wide Web: den semantiska webben och

Det finns också ett populärt koncept Web 2.0, som sammanfattar flera utvecklingsriktningar för World Wide Web.

Webb 2.0

Utvecklingen av WWW har nyligen genomförts avsevärt genom det aktiva införandet av nya principer och teknologier, gemensamt kallade Web 2.0 (Web 2.0). Själva termen Web 2.0 dök upp första gången 2004 och är avsedd att illustrera de kvalitativa förändringarna i WWW under det andra decenniet av dess existens. Web 2.0 är en logisk förbättring av webben. Huvudfunktionen är förbättringen och accelerationen av interaktionen mellan webbplatser och användare, vilket har lett till en snabb ökning av användaraktiviteten. Detta dök upp i:

  • deltagande i Internetgemenskaper (särskilt i forum);
  • posta kommentarer på webbplatser;
  • underhålla personliga journaler (bloggar);
  • placera länkar på WWW.

Web 2.0 introducerade aktivt datautbyte, särskilt:

  • exportera nyheter mellan webbplatser;
  • aktiv sammanställning av information från webbplatser.
  • använda ett API för att separera webbplatsdata från själva webbplatsen

Ur ökar Web 2.0 kraven på webbplatsernas enkelhet och bekvämlighet för vanliga användare och syftar till en snabb nedgång av användarkvalifikationer inom en snar framtid. Efterlevnaden av listan över standarder och konsensus (W3C) lyfts fram. Detta är särskilt:

  • standarder för webbsidors visuella design och funktionalitet;
  • standardkrav (SEO) för sökmotorer;
  • XML och öppna standarder för informationsutbyte.

Å andra sidan har Web 2.0 sjunkit:

  • krav på "ljusstyrka" och "kreativitet" i design och innehåll;
  • behov av omfattande webbplatser ([http://ru.wikipedia.org/wiki/%D0%98%D0%BD%D1%82%D0%B5%D1%80%D0%BD%D0%B5%D1 %82 -%D0%BF%D0%BE%D1%80%D1%82%D0%B0%D0%BB ]);
  • vikten av offlinereklam;
  • affärsintresse i stora projekt.

Således registrerade Web 2.0 övergången av WWW från enstaka, dyra komplexa lösningar till mycket maskinskrivna, billiga, lättanvända webbplatser med förmågan att effektivt utbyta information. De främsta anledningarna till denna övergång var:

  • kritisk brist på kvalitetsinformationsinnehåll;
  • behovet av aktivt självuttryck av användaren på WWW;
  • utveckling av teknik för att söka och sammanställa information på WWW.

Övergången till en uppsättning Web 2.0-tekniker har följande konsekvenser för det globala WWW-informationsutrymmet, såsom:

  • projektets framgång bestäms av nivån på aktiv kommunikation mellan projektanvändare och nivån på kvaliteten på informationsinnehållet;
  • webbplatser kan uppnå hög prestanda och lönsamhet utan stora investeringar på grund av framgångsrik positionering på WWW;
  • individuella WWW-användare kan uppnå betydande framgång med att implementera sina affärsplaner och kreativa planer på WWW utan att ha sina egna webbplatser;
  • konceptet med en personlig webbplats är sämre än konceptet "blogg", "författarens kolumn";
  • fundamentalt nya roller för en aktiv WWW-användare dyker upp (forummoderator, auktoritativ forumdeltagare, bloggare).

Web 2.0 exempel
Här är några exempel på webbplatser som illustrerar Web 2.0-teknik och som faktiskt har förändrat WWW-miljön. Detta är särskilt:

Utöver dessa projekt finns det andra projekt som formar den moderna globala miljön och baseras på deras användares aktivitet. Webbplatser, vars innehåll och popularitet bildas, först och främst, inte av deras ägares ansträngningar och resurser, utan av en gemenskap av användare som är intresserade av utvecklingen av webbplatsen, utgör en ny klass av tjänster som bestämmer reglerna för den globala WWW-miljön.

För 25 år sedan, den 23 augusti 1991, introducerade den brittiske vetenskapsmannen Timothy Berners-Lee officiellt världens första webbplats. Under denna tid har världen förändrats dramatiskt.

Men vad Internet är nu är inte längre detsamma som Berners-Lees ursprungliga vision. Huruvida detta är bra eller dåligt är en kontroversiell fråga. Vad tycker skaparen av WWW om detta? Vilken väg tog Berners-Lee själv?

Timothy John Berners-Lee kommer från Storbritannien. Han föddes den 8 juni 1955 i London. Hans föräldrar, Conway Berners-Lee och Mary Lee Woods, var matematiker. De var också förknippade med IT: de genomförde forskning om skapandet av en av de första datorerna, Manchester Mark I.

Dessutom var förutsättningarna för uppfinningen av WWW idén om den amerikanske vetenskapsmannen Vannevar Bush, som kom med begreppet hypertext.

I en vidare mening är hypertext ett litterärt verk, ordbok eller uppslagsverk som innehåller mönster, vars användning tillåter oss att korrelera delar av texten som inte är sammankopplade med en linjär sekvens, och betrakta dem som förkroppsligandet av semantisk enhet.

I datorterminologi är hypertext text som genereras med hjälp av märkningsspråk med förväntan att använda hyperlänkar.


Några år efter att Tim Berners-Lee föddes kom Ted Nelson med ett förslag om att skapa ett "dokumentärt universum" där alla texter som någonsin skrivits av mänskligheten skulle kopplas samman med hjälp av vad vi idag skulle kalla "korsreferenser".

Barndom och ungdom

Vid 12 års ålder gick Tim in på den privata Emanuel School i staden Wandsworth. Där började pojken visa intresse för exakta vetenskaper. Efter att ha lämnat skolan började han på college i Oxford. En gång berövades han tillgången till pedagogiska datorer för ett allvarligt brott - en hackerattack (enligt en annan version fångades han när han spelade datorspel på datorn i ett kärnfysiklaboratorium). På den tiden var datorer stora och datortid dyr.

Denna omständighet gav Tim idén att han kunde bygga en dator själv. Efter en tid fick han en hemmagjord dator baserad på M6800-processorn, med en vanlig TV istället för en bildskärm och en trasig miniräknare istället för ett tangentbord.

Karriär

Berners-Lee tog examen från Oxford 1976 med en examen i fysik, varefter han började sin karriär på Plessey Telecommunications Ltd. i Dorset. Hans verksamhetsområde vid den tiden var distribuerade transaktioner. Efter ett par år flyttade han till ett annat företag - DG Nash Ltd, där han utvecklade mjukvara för skrivare.

Nästa arbetsplats spelade en avgörande roll i Tims och hela mänsklighetens öde. European Laboratory for Nuclear Research (CERN) låg i Genève (Schweiz). Där utvecklade Berners-Lee programmet Inquire (bokstavligen översatt från engelska som "förhörsledare", "referensbok" eller "anteckningsbok"), som använde metoden med slumpmässiga associationer. Principen för dess funktion var på många sätt grunden för skapandet av World Wide Web.

Tim arbetade sedan som systemarkitekt i tre år. Och som en del av sitt forskningsarbete på CERN utvecklade han ett antal distribuerade system för datainsamling.

Från 1981 till 1984 arbetade Tim Berners-Lee för Image Computer Systems Ltd.

WWW

1984 återvände han till CERN på ett stipendium. Vid den här tiden arbetade han på FASTBUS-systemet och utvecklade sitt eget RPC-system (engelska: Remote Procedure Call). Dessutom har Inquire-programmet omarbetats.

I det nya utvecklingsstadiet bör det inte bara stödja godtyckliga hypertextlänkar, vilket underlättar sökning i databasen, utan också bli ett fleranvändar- och plattformsoberoende system.

Huvuduppgiften för det nya programmet var att publicera hypertextdokument som skulle kopplas samman med hyperlänkar. Detta gjorde det mycket lättare att hitta information, organisera den och lagra den. Det var ursprungligen tänkt att projektet skulle implementeras på CERN:s intranät för lokala forskningsbehov, som ett modernt alternativ till biblioteket och andra dataförråd. Samtidigt var det möjligt att ladda ner och komma åt data från vilken dator som helst som var ansluten till WWW.

Trots skepsis från seniora kollegor godkändes och implementerades projektet 1989, kallat "World Wide Web". Robert Cailliau gav Tim enorm hjälp i detta arbete.

Hösten 1990 fick CERN-anställda den första "webservern" och "webbläsaren", skriven av Berners-Lee i NeXTStep-miljön. Sommaren 1991 korsade WWW-projektet, som hade erövrat Europas vetenskapliga värld, havet och anslöt sig till det amerikanska Internet.

Arbetet med projektet fortsatte från 1991 till 1993: utvecklarna samlade in användarfeedback och, baserat på det, förfinade World Wide Web. I synnerhet de första versionerna av URL-protokollen (som ett specialfall av URI), HTTP- och HTML-protokoll har redan föreslagits. Den första hypertextbaserade webbläsaren på World Wide Web och WYSIWYG-redigeraren introducerades också.

En av WWW:s nyckelegenskaper har alltid varit decentraliseringen av noder. Liksom Internets förfäder (ARPANET och NSFNet) säkerställde det tillförlitlig drift, frånvaron av geografiska gränser och politiska barriärer.

Sedan webben började sin snabba utveckling 1991 har den gradvis förändrats och tappat sina huvuddrag. Rot-DNS-servrar var koncentrerade till USA, vilket gjorde nätverket mer sårbart.

Om vi ​​ser framåt, här är ett citat från Tim om vad allt detta ledde till:

Ett monopol på internettjänster bildas på ett standard sätt: för det första erbjuds människor ett bekvämt sätt att göra något på Internet gratis. Sök på Internet och på en karta, på en dator och smartphone, kommunicera i e-post, chatt och sociala nätverk, titta på videor och lägg upp dina egna, planera ärenden och semestrar, arbeta med dokument direkt från webbläsaren... Om det inte finns tillräckligt många analoger av populära tjänster, då köper de helt enkelt från andra företag, vilket hindrar de senare från att växa till ett stort innehav och konkurrera.

Vid något tillfälle hamnar allt som blivit bekant för många på servrarna hos det enda företag som vet för mycket om varje person och deras interaktioner. Google, Microsoft, Yahoo, Apple, Facebook... Medan du tror att du använder deras produkter, använder de din data, delar upp Internet mellan sig och börjar diktera allt strängare villkor. Logga in på Google för att lämna en kommentar på YouTube. Tillåt platsspårning, ge information om din profil och vänlista...


Sida på världens första webbplats

Berners-Lee skapade världens första webbplats på info.cern.ch/, sidan är nu arkiverad. Den här sidan dök upp på Internet den 6 augusti 1991. Innehållet var inledande och stödjande information. Webbplatsen beskrev vad World Wide Web är, hur man installerar en webbserver, hur man skaffar en webbläsare och så vidare. Den här webbplatsen var också världens första internetkatalog eftersom Tim Berners-Lee senare publicerade och förde en lista med länkar till andra webbplatser där.

Vidareutveckling av webben

Sedan 1994 har Berners-Lee innehaft 3Com Founders' Chair vid MIT Computer Science Laboratory (numera Computer Science and Artificial Intelligence Laboratory, tillsammans med Massachusetts Institute of Technology), där hon har fungerat som huvudutredare.

1994 grundade han MIT World Wide Web Consortium (W3C) vid Laboratory, som än i dag utvecklar och implementerar standarder för Internet. Konsortiet arbetar särskilt för att säkerställa en stabil och kontinuerlig utveckling av World Wide Web - i enlighet med de senaste användarkraven och nivån på tekniska framsteg. W3C:s mål är att frigöra hela potentialen hos World Wide Web genom att kombinera standardernas stabilitet med deras snabba utveckling.

1999 släppte Berners-Lee en bok som heter Weaving the Web: The Outcome and Future of the World Wide Web. Den beskriver i detalj processen att arbeta med ett nyckelprojekt i författarens liv. Han skrev också om utsikterna för utvecklingen av internet och internetteknik och beskriver ett antal viktiga principer:

1. Möjligheten att redigera webbinformation är inte mindre viktig än förmågan att surfa. I denna mening litade Berners-Lee mycket på WYSIWYG-konceptet.

2. Datorer kan användas för "bakgrundsprocesser" som hjälper människor att arbeta tillsammans.

3. Varje aspekt av Internet ska fungera som en webb, inte en hierarki. I denna mening är ett obehagligt undantag Domain Name System (DNS), som hanteras av ICANN-organisationen.

4. IT-specialister bär inte bara tekniskt ansvar utan också moraliskt ansvar.


2004 blev Berners-Lee professor vid University of Southampton, där han arbetade med projektet Semantic Web. Det är en ny version av World Wide Web, där all data är lämplig för bearbetning med hjälp av speciella program. Detta är ett slags "tillägg", vilket tyder på att varje resurs inte bara kommer att ha vanlig text "för människor", utan också speciellt kodat innehåll som är begripligt för datorn.

Den semantiska webben öppnar upp för tillgång till tydligt strukturerad information för alla applikationer, oavsett plattform och oavsett programmeringsspråk. Program kommer att kunna hitta de nödvändiga resurserna själva, klassificera data, identifiera logiska samband, dra slutsatser och till och med fatta beslut baserat på dessa slutsatser. Enligt Berners-Lee, om den är utbredd och korrekt implementerad, kan den semantiska webben utlösa en revolution på Internet.

Hans andra bok, Crossing the Semantic Web: Unlocking the Full Potential of the World Wide Web, publicerades 2005.

Tim Berners-Lee är för närvarande en framstående medlem av British Computer Society, en utländsk medlem av US National Academy of Sciences och många andra. Hans arbete har mottagit ett flertal utmärkelser, inklusive Order of Merit, en plats på listan över "100 Greatest Minds of the Century" enligt Time Magazine (1999), Quadriga Award i kategorin Knowledge Network (2005) och M.S. Gorbatjov-priset i kategorin "Perestroika" - "Mannen som förändrade världen" (2011) och andra.
Den 12 mars 2014 fyllde webben 25 år. Vid detta tillfälle skrev skaparen av WWW i sin blogg:

1993 lyckades jag övertyga CERN att deklarera WWW som en teknik som skulle vara tillgänglig för alla, alltid, utan några licensavgifter.

Detta beslut gjorde det möjligt för tiotusentals människor att börja bygga webben tillsammans. Idag använder cirka 40 % av världens befolkning det. Webben har redan gynnat den globala ekonomin med biljoner dollar, förändrat utbildning och medicin och hjälpt till att sprida demokrati över hela världen. Och det här är bara början.

Idag är det semester för oss. Men detta är också en anledning att fundera, diskutera och vidta åtgärder. Det är för länge sedan dags att fatta viktiga beslut om internetstyrning och utveckling, och det är viktigt att vi alla deltar i diskussionen om framtiden för World Wide Web. Hur kan vi vara säkra på att de återstående 60 % av mänskligheten snabbt kommer att få tillgång till Internet? Hur kan vi vara säkra på att webben kommer att stödja alla språk och kulturer, och inte bara de vanligaste?

Hur kan vi komma överens om öppna standarder för det kommande Internet of Things? Tillåter vi andra att paketera och begränsa vår onlinekommunikation, eller skyddar vi den öppna webbens magi och kraften att tala, upptäcka och skapa som den ger? Hur kan vi bygga ett system med kontroller och avvägningar som säkerställer att grupper som kan spionera på Internet hålls ansvariga inför allmänheten? Sådana frågor kommer till mig. Och du?


Berners-Lees inflytande på IT-branschen, och på världen som helhet, är svår att överskatta. Han försökte dock inte få övervinster från sina projekt och uppfinningar. Han blev inte nästa Gates, Zuckerberg eller Jobs. Han förblev sig själv.

World Community of Networks;
♦ vad är World Wide Web;
♦ Webbserver, webbsida, webbplats;
♦ WWW hyperstruktur;
♦ webbläsare - WWW-klientprogram; problem med att hitta information på Internet.

Internet är en global gemenskap av nätverk

Vill du titta in i USA:s presidents residens - Vita huset, eller besöka Louvren - det största konstmuseet i världen, eller ta reda på hur vädret är i Antarktis, eller få information om föreställningarna som äger rum i kväll på teatrar i Moskva? Allt detta och mycket mer kan uppnås utan att lämna bordet där en persondator är installerad, ansluten till världen nätverk Internet.

Internet förenar tusentals lokala, industri- och regionala datornätverk runt om i världen. En enskild användare som inte är abonnent på något av de listade nätverken kan också ansluta till Internet via närmaste hubb.

Alla ovanstående datornätverkstjänster ( E-post, telefonkonferenser, filarkiv etc.) fungerar också på Internet. I det här fallet kan bara problem med kommunikationsspråk uppstå. Språket för internationell kommunikation på webben är engelska. Här är ytterligare ett incitament för dig att studera flitigt engelska språket !

Vad är World Wide Web

Den mest intressanta tjänsten till Internetanvändare sedan 1993 har varit möjligheten att arbeta med informationssystemet World Wide Web (förkortat WWW). Denna fras kan översättas som "world wide web." Det var att arbeta med WWW som var meningen när du i början av detta stycke erbjöds alla möjliga informationsmirakel.

Det är mycket svårt att ge en exakt definition av vad WWW är. Detta system kan jämföras med ett enormt uppslagsverk, vars sidor är utspridda över datorservrar som är anslutna via Internet. För att få rätt information, måste användaren komma till motsvarande uppslagsverksida. Kanske med denna analogi i åtanke introducerade skaparna av WWW konceptet med en webbsida.

Webbserver, webbsida, webbplats

En webbsida är den huvudsakliga informationsenheten på WWW. Det är ett separat dokument som lagras på en webbserver. En sida har ett namn (liknande ett sidnummer i ett uppslagsverk) med vilket den kan nås.

Informationen på en webbsida kan vara väldigt olika: text, teckning, fotografi, multimedia. Webbsidor innehåller även reklam, referensinformation, vetenskapliga artiklar, de senaste nyheterna, illustrerade publikationer, konstkataloger, väderprognoser och mycket, mycket mer. För att uttrycka det enkelt: webbsidor har "allt".

Ett antal webbsidor kan relateras tematiskt och bilda en webbplats. Varje sida har en huvudsida, som kallas hem (Hemsida). Detta är en slags titelsida, från vilken du kan se dokument lagrade på servern. Vanligtvis innehåller hemsidan en innehållsförteckning - namnen på avsnitten. För att komma åt önskat avsnitt, flytta bara muspekaren till avsnittsnamnet och klicka på knappen möss.

WWW hyperstruktur

Det är dock inte alls nödvändigt att titta på webbsidor i rad, bläddra igenom dem, som i en bok. Den viktigaste egenskapen hos WWW är hypertextorganisationen av kopplingar mellan webbsidor. Dessutom fungerar dessa anslutningar inte bara mellan sidor på samma server, utan också mellan olika WWW-servrar.

Hyperlänkade nyckelord är vanligtvis markerade eller understrukna på en webbsida. Genom att klicka på ett sådant ord kommer du att följa en dold länk för att se ett annat dokument. Dessutom kan detta dokument finnas på en annan server, i ett annat land, på en annan kontinent. Oftare än inte har internetanvändaren ingen aning om var servern som han för närvarande kommunicerar med finns. Bildligt talat kan du under en session "flyga" jorden runt flera gånger.

Rollen som nyckel för kommunikation kan spelas inte bara av text, utan också av en ritning, ett fotografi eller en pekare till ett ljuddokument. I det här fallet, istället för termen "hypertext" används termen "hypermedia".

Du kan nå samma webbsida på många olika sätt. Analogin med sidorna i en bok fungerar inte längre här. I en bok har sidorna en viss ordningsföljd. Webbsidor har inte en sådan sekvens. Övergången från en sida till en annan sker genom hyperlänkar, som bildar ett nätverk som liknar en webb. Det är här namnet på systemet kommer ifrån.

Sammanfattningsvis ovan kan vi ge följande definition:

World Wide Web är ett hyperanslutet informationssystem som distribueras över hela världen och som existerar på den tekniska grunden av World Wide Web.

Browser är ett WWW-klientprogram. Problemet med att söka information på Internet

Användaren får hjälp att navigera på "webben" av speciell programvara som kallas webbläsare från engelskan "bläddra" - "inspektera, studera." Med hjälp av en webbläsare kan du hitta den information du behöver på olika sätt. Det kortaste sättet är att använda webbsidans adress. Du skriver den här adressen på ditt tangentbord, trycker på enter-tangenten och du förs direkt till platsen.

Ett annat sätt är att söka. Du kan börja flytta från din hemsida genom hyperlänkar. Samtidigt finns det en fara att gå åt fel håll, trassla in sig i "nätet" och hamna i en återvändsgränd. Men webbläsaren låter dig gå tillbaka valfritt antal steg och fortsätta söka längs en annan rutt. En sådan sökning liknar att vandra i en obekant skog (men mindre farligt).

Särskilda sökprogram är bra assistenter för att navigera på WWW. De "vet" allt eller nästan allt om WWW. Ett sådant program behöver bara ange en uppsättning nyckelord om ett ämne som intresserar dig, och det kommer att ge en lista med länkar till lämpliga webbdokument. Om listan visar sig vara för lång måste du lägga till några mer förtydligande termer.

Under Internetsessioner verkar en Internetanvändare vara nedsänkt i ett informationsutrymme med obegränsade resurser. Nyligen har termen "cyberrymden" blivit utbredd, vilket syftar på hela världens telekommunikationssystem och informationen som cirkulerar i dem.

WWW-systemet utvecklas mycket snabbt. Redan nu är alla dess resurser svåra att granska. Tjocka kataloger och kataloger publiceras som blir föråldrade snabbare än telefonböcker. Därför förbättras söksystemet på World Wide Web, samtidigt som informationsvolymen ökar.

Kort om huvudsaken

Internet är ett världsomspännande globalt datornätverk.

World Wide Web - World Wide Web: ett hyperanslutet informationssystem distribuerat över hela världen, som existerar på den tekniska grunden av det globala Internet.

En webbsida är ett separat WWW-dokument.

Webbserver är en dator på Internet som lagrar webbsidor och motsvarande programvara för att arbeta med dem.

En webbplats är en samling tematiskt relaterade sidor.

Hypermedia är ett system med hyperlänkar mellan multimediadokument.

Webbläsare är ett klientprogram för användaren att arbeta med WWW.

Sökning efter önskat dokument på WWW kan ske: genom att ange dess adress; genom att röra sig genom ett "nät" av hyperkopplingar; genom att använda sökprogram.

Cyberrymden är helheten av världens telekommunikationssystem och den information som cirkulerar i dem.

Frågor och uppgifter

1. Vad är Internet?
2. Hur översätts frasen "World Wide Web"?
3. Vad är WWW?
4. Vilken information kan erhållas från WWW?
5. Hur är kopplingen mellan webbsidor organiserad?
6. Vad är analogin mellan WWW och webben?
7. Vad är hypermedia?
8. Vad är en webbserver?
9. Med vilka metoder kan du hitta den önskade sidan på WWW?

I. Semakin, L. Zalogova, S. Rusakov, L. Shestakova, datavetenskap, 9:e klass
Inskickad av läsare från webbplatser

All datavetenskap online, lista över ämnen per ämne, samling av anteckningar om datavetenskap, läxor, frågor och svar, sammanfattningar om datavetenskap årskurs 9, lektionsplaner

Lektionens innehåll lektionsanteckningar stödja frame lektion presentation acceleration metoder interaktiv teknik Öva uppgifter och övningar självtest workshops, utbildningar, fall, uppdrag läxor diskussionsfrågor retoriska frågor från elever Illustrationer ljud, videoklipp och multimedia fotografier, bilder, grafik, tabeller, diagram, humor, anekdoter, skämt, serier, liknelser, ordspråk, korsord, citat Tillägg sammandrag artiklar knep för nyfikna spjälsängar läroböcker grundläggande och ytterligare ordbok över termer andra Förbättra läroböcker och lektionerrätta fel i läroboken uppdatera ett fragment i en lärobok, inslag av innovation i lektionen, ersätta föråldrad kunskap med nya Endast för lärare perfekta lektioner kalenderplan för året

Hej kära läsare av bloggsidan. Vi lever alla i det globala Internets tidevarv och använder termerna sajt, webb, www (World Wide Web - World Wide Web, globalt nätverk) ganska ofta och utan att särskilt gå in på vad det är.

Jag observerar samma sak från andra författare, och även vanliga samtalspartners. "Site", "Internet", "nätverk" eller förkortningen "WWW" har blivit så vanliga begrepp för oss att det inte ens faller oss in att tänka på deras väsen. Den första webbplatsen föddes dock för bara ett tjugotal år sedan. Vad är Internet?

När allt kommer omkring har det en ganska lång historia, men innan tillkomsten av det globala nätverket (WWW) misstänkte 99,9% av planetens invånare inte ens dess existens, eftersom det var partiet för specialister och entusiaster. Nu känner till och med eskimåerna till World Wide Web, på vars språk detta ord identifieras med shamanernas förmåga att hitta svar i universums lager. Så låt oss själva upptäcka vad Internet, webbplats, World Wide Web och allt annat är.

Vad är Internet och hur det skiljer sig från World Wide Web

Det mest anmärkningsvärda faktum som nu kan konstateras är det Internet har ingen ägare. I huvudsak är detta en sammanslutning av enskilda lokala nätverk (tack vare de gemensamma standarderna som en gång antagits, nämligen TCP/IP-protokollet), som underhålls i fungerande skick av nätverksleverantörer.

Man tror att på grund av den ständigt ökande medietrafiken (video och annat tungt innehåll som rör sig i ton på nätverket) kommer Internet snart att kollapsa på grund av dess för närvarande begränsade bandbredd. Det största problemet i detta avseende är att uppdatera nätverksutrustningen som utgör den globala webben till en högre hastighet, vilket främst hämmas av de extra kostnader som krävs. Men jag tror att problemet kommer att lösas när kollapsen mognar, och det finns redan separata segment av nätverket som arbetar med höga hastigheter.

Generellt sett, i ljuset av det faktum att Internet i princip inte är någons, bör det nämnas att många stater, som försöker införa censur på det globala nätverket, vill identifiera det (nämligen dess för närvarande mest populära komponent WWW) med.

Men det finns faktiskt ingen grund för denna önskan, eftersom Internet är bara ett kommunikationsmedel eller, med andra ord, ett lagringsmedium jämförbart med en telefon eller till och med vanligt papper. Försök att tillämpa sanktioner mot papper eller dess distribution runt planeten. I själva verket kan enskilda stater tillämpa vissa sanktioner endast på webbplatser (öar med information i nätverket) som blir tillgängliga för användare via World Wide Web.

De första förutsättningarna för skapandet av den globala webben och Internet genomfördes... Vilket år tror du? Överraskande nog, i de vilda dagarna 1957. Naturligtvis behövde militären (och, naturligtvis, USA, var skulle vi vara utan dem) ett sådant nätverk för kommunikation i händelse av militära operationer som involverade användning av kärnvapen. Det tog ganska lång tid att skapa nätverket (cirka 12 år), men det kan förklaras av att datorer vid den tiden var i sin linda.

Men inte desto mindre var deras makt tillräckligt för att skapa en möjlighet mellan militäravdelningarna och ledande amerikanska universitet 1971. Därmed blev e-postöverföringsprotokollet första sättet att använda internet för användarnas behov. Efter ett par till visste utländska människor redan vad Internet var. I början av 80x var de viktigaste dataöverföringsprotokollen standardiserade (mail, ), och protokollet för de så kallade Usenet-nyhetskonferenserna dök upp, som liknade post, men gjorde det möjligt att organisera något liknande forum.

Och några år senare dök idén om att skapa ett domännamnssystem (DNS - kommer att spela en avgörande roll i bildandet av WWW) upp och världens första protokoll för kommunikation via Internet i realtid - IRC (i vardagligt ryska - irka) dök upp. Det gjorde att du kunde chatta online. Science fiction som var tillgänglig och intressant för ett väldigt, väldigt litet antal invånare på planeten Jorden. Men det är bara för nu.

I korsningen mellan 80- och 90-talen ägde så betydande händelser rum i infrastrukturutvecklingens historia att de faktiskt förutbestämde dess framtida öde. I allmänhet beror en sådan spridning av det globala nätverket i medvetandet hos moderna invånare på planeten på nästan en enda person - Tim Berners-Lee:

Berners-Lee är en engelsman, född i en familj av två matematiker som ägnade sina liv åt att skapa en av världens första datorer. Det var tack vare honom som världen lärde sig vad Internet, hemsida, e-post etc. är. Till en början skapade han World Wide Web (WWW) för kärnforskningens behov vid Cern (de har samma kolliderar). Uppgiften var att på ett bekvämt sätt placera all vetenskaplig information tillgänglig för koncernen i det egna nätverket.

För att lösa detta problem kom han med allt som nu är de grundläggande delarna av WWW (vad vi anser vara internet, utan att förstå dess essens lite). Han tog som grund principen att organisera information som kallas. Vad det är? Denna princip uppfanns långt tidigare och bestod i att organisera texten på ett sådant sätt att berättelsens linjäritet ersattes av förmågan att navigera genom olika länkar (kopplingar).

Internet är hypertext, hyperlänkar, webbadresser och hårdvara

Tack vare detta kan hypertext läsas i olika sekvenser och därigenom få olika versioner av linjär text (jo, detta borde vara tydligt och uppenbart för dig som erfarna internetanvändare nu, men då var det en revolution). Rollen för hypertextnoder borde ha varit, som vi nu helt enkelt kallar länkar.

Som ett resultat kan all information som nu finns på datorer representeras som en stor hypertext, som innehåller otaliga noder (hyperlänkar). Allt utvecklat av Tim Berners-Lee överfördes från det lokala CERN-nätet till vad vi nu kallar Internet, varefter webben började bli populär i en rasande takt (de första femtio miljoner användarna av World Wide Web registrerades först fem års existens).

Men för att implementera principen om hypertext och hyperlänkar var det nödvändigt att skapa och utveckla flera saker från grunden på en gång. För det första behövde vi ett nytt dataöverföringsprotokoll, som nu är känt för er alla HTTP-protokoll(i början av alla webbadresser hittar du ett omnämnande av den eller dess säkra HTTPs-version).

För det andra utvecklades den från grunden, vars förkortning nu är känd för alla webbansvariga i världen. Så vi har fått verktyg för att överföra data och skapa webbplatser (en uppsättning webbsidor eller webbdokument). Men hur kan man hänvisa till samma dokument?

Den första gjorde det möjligt att identifiera ett dokument på en separat server (webbplats), och den andra gjorde det möjligt att blanda ett domännamn (erhållet och unikt indikerar att dokumentet tillhör en webbplats på en specifik server) eller en IP-adress (en unik digital identifierare för absolut alla enheter i ett globalt eller lokalt nätverk) till URI:n. ). Läs mer om det på länken.

Det finns bara ett steg kvar att ta för att World Wide Web äntligen ska fungera och bli efterfrågad av användarna. Vet du vilken?

Jo, naturligtvis behövde vi ett program som kunde visa på användarens dator innehållet på alla webbsidor som efterfrågas på Internet (med en URL-adress). Det blev ett sådant program. Om vi ​​pratar om idag så finns det inte så många huvudaktörer på denna marknad, och jag lyckades skriva om dem alla i en kort recension:

  1. (IE, MSIE) - det gamla gardet är fortfarande i tjänst
  2. (Mazila Firefox) - en annan veteran kommer inte att ge upp sin position utan kamp
  3. (Google Chrome) - en ambitiös nykomling som lyckades ta ledningen på kortast möjliga tid
  4. - en webbläsare som är älskad av många i RuNet, men som gradvis tappar i popularitet
  5. - en budbärare från äppelkvarnen

Timothy John Berners-Lee skrev självständigt programmet för världens första webbläsare och kallade det, utan vidare, World Wide Web. Även om detta inte var gränsen för perfektion, var det från den här webbläsaren som World Wide Web WWWs segerrika marsch över planeten började.

I allmänhet är det naturligtvis slående att alla nödvändiga verktyg för det moderna Internet (vilket betyder dess mest populära komponent) var skapad av bara en person på så kort tid. Bravo.

Lite senare dök den första grafiska webbläsaren Mosaic upp, från vilken många av de moderna webbläsarna (Mazila och Explorer) härstammar. Det var Mosaic som blev droppen som saknades till det fanns ett intresse för Internet(nämligen till World Wide Web) bland vanliga invånare på planeten Jorden. En grafisk webbläsare är en helt annan sak än en textwebbläsare. Alla älskar att titta på bilder och bara ett fåtal älskar att läsa.

Det som är anmärkningsvärt är att Berners-Lee inte fick några fruktansvärt stora summor pengar, som han till exempel till följd av fick eller, även om han förmodligen gjorde mer för det globala nätverket.

Ja, med tiden, förutom HTML-språket som utvecklats av Berners-Lee, . Tack vare detta behövdes inte längre några av operatörerna i Html, och de ersattes av mycket mer flexibla verktyg för överlappande stilmallar, vilket gjorde det möjligt att avsevärt öka attraktiviteten och designflexibiliteten för de webbplatser som skapas idag. Även om CSS-regler naturligtvis är mer komplexa att lära sig än märkningsspråk. Men skönhet kräver uppoffringar.

Hur fungerar Internet och det globala nätverket från insidan?

Men låt oss se vad är webb (www) och hur information läggs ut på Internet. Här kommer vi att stå öga mot öga med själva fenomenet som kallas webbplats (webben är ett rutnät och webbplatsen är en plats). Så, vad är en "plats på nätverket" (analogt med en plats i solen i verkligheten) och hur man faktiskt får det.

Vad är intet? Så den består av kanalbildande enheter (routrar, switchar) som är osynliga och av liten betydelse för användarna. WWW-nätverket (det vi kallar webben eller World Wide Web) består av miljontals webbservrar, som är program som körs på lätt modifierade datorer, som i sin tur måste vara anslutna (24/7) till den globala webben och använda HTTP-protokollet för datautbyte.

Webbservern (programmet) får en förfrågan (oftast från användarens webbläsare, som öppnar länken eller angav URL:en i adressfältet) om att öppna ett dokument som finns på just denna server. I det enklaste fallet är ett dokument en fysisk fil (med t.ex. html-tillägget), som ligger på serverns hårddisk.

I ett mer komplext fall (vid användning) kommer det begärda dokumentet att genereras programmatiskt i farten.

För att se den begärda sidan på webbplatsen används speciell programvara på klientsidan (användarsidan) som kallas en webbläsare, som kan rita det nedladdade fragmentet av hypertext i en lättsmält form på informationsdisplayen där samma webbläsare är installerad (PC, telefon, surfplatta, etc.). I allmänhet är allt enkelt, om du inte går in på detaljer.

Tidigare var varje enskild webbplats fysiskt värd på en separat dator. Detta berodde främst på den svaga datorkraften hos de datorer som var tillgängliga vid den tiden. Men i alla fall måste en dator med ett webbserverprogram och en webbsida som finns på den vara ansluten till internet dygnet runt. Att göra detta hemma är ganska svårt och dyrt, så de använder vanligtvis tjänster från värdföretag som är specialiserade på detta för att lagra webbplatser.

Värdtjänst På grund av WWW:s popularitet är det nu ganska efterfrågat. Tack vare den växande kraften hos moderna datorer över tid, har värdar möjlighet att vara värd för många webbplatser på en fysisk dator (virtuell värd), och värd för en webbplats på en fysisk dator har blivit en tjänst.

När du använder virtuell värd kan alla webbplatser som finns på en dator (den som kallas en server) tilldelas en IP-adress, eller var och en ha en separat. Detta ändrar inte essensen och kan bara indirekt påverka Webbplatsen som ligger där (en dålig stadsdel på en IP kan ha en dålig effekt - sökmotorer behandlar ibland alla med samma pensel).

Låt oss nu prata lite om webbplatsdomännamn och deras betydelse på World Wide Web. Varje resurs på Internet har sitt eget domännamn. Dessutom kan en situation uppstå när samma webbplats kan ha flera domännamn (resultatet är speglar eller alias), och även, till exempel, samma domännamn kan användas för många resurser.

Dessutom, för vissa seriösa resurser finns det något sådant som speglar. I det här fallet kan webbplatsfilerna finnas på olika fysiska datorer och själva resurserna kan ha olika domännamn. Men dessa är alla nyanser som bara förvirrar nybörjare.