A tudás reprezentálása a világhálón az internetes keresőrendszerek működése Tóth Erzsébet Lektorálta: Tanyiné Dr.

Download Report

Transcript A tudás reprezentálása a világhálón az internetes keresőrendszerek működése Tóth Erzsébet Lektorálta: Tanyiné Dr.

A tudás reprezentálása a
világhálón az internetes
keresőrendszerek működése
Tóth Erzsébet
Lektorálta: Tanyiné Dr. Kocsis Anikó
Debreceni Egyetem Informatikai Kar,
Könyvtárinformatikai Tanszék
2010.
1. Bevezetés
1.1. A webes keresőrendszerek definíciói
Internetes keresők alatt a programoknak egy
olyan általános csoportját értjük, amely lehetővé
teszi a weben történő dokumentumkeresést a
felhasználók számára.
Ezek a programok dokumentumokat indexelnek
és arra törekednek, hogy megtalálják a releváns
találatokat a feltett keresőkérdésre.
A search engine is an information retrieval system
designed to help find information stored on a
computer system. The search results are usually
presented in a list.
Search engines help to minimize the time required
to find information and the amount of information
which must be consulted, akin to other techniques
for managing information overload.
(Forrás: angol nyelvű Wikipédia
http://en.wikipedia.org )
Search Engine: The software that searches an
index and returns matches. Search engine is often
used synonymously with spider and index,
although these are separate components that work
with the engine.
(Forrás: Ranking web of world repositieries
http://repositories.webometrics.info/glossary.html)
1.2. A globalizáció és a keresők közötti éles
verseny
Korunk számos legjelentősebb folyamata:
- a politikai, katonai értelemben vett egyhatalmú
világ kialakulása,
- a demokratizálódás,
- az európai integráció,
- a fokozódó ázsiai gazdasági együttműködés,
- a technológia forradalma,
- a globalizáció,
- az információs és a fogyasztói társadalom
kialakulása.
Azok a világ minden részére közvetlenül, vagy
közvetve ható, globális folyamatoknak tekinthetők.
Az információs és kommunikációs technológia (IKT)
rohamos fejlődésének és konvergenciájának
köszönhetően a társadalomban egy új életforma,
újszerű működés és viselkedés alakult ki.
Új értékrendek jöttek létre.
Ezt a széles körben elterjedt új életmódot,
magatartást, információs technológiára épülő
gazdaságot információs társadalomnak hívjuk.
Az „információs társadalom” kifejezés az 1960-as
évek második felében jelent meg.
Az információs társadalom kialakulása országonként
különböző időszakban és ritmusban megy végbe.
A társadalom tágabb értelemben vett fejlettségi
szintje és a kultúra nagymértékben befolyásolja.
Fontos, hogy erre a folyamatra sokkal „könnyebben”
lehet hatni, társadalmi szinten jó irányba terelni,
mint a globalizációra.
A fogyasztói társadalom megjelenése a
globalizációhoz és az információs társadalomhoz
kapcsolódó harmadik jelentős folyamat.
A globalizáció gyorsuló és könyörtelen versennyel
jár együtt.
Úgy lehetünk versenyképesek, ha az információs
társadalom legfőbb értékét, magát az információt
részesítjük előnyben.
Egy adott szakmai kérdés megválaszolásának a
leggyakoribb kiindulási pontja lehet az internet,
amely a minket körülvevő globális társadalomnak
egyik fontos eszköze.
A világhálón történő információkereséskor egyre
nagyobb gondot jelent számunkra a minőségi,
releváns információk kiválogatása a ránk zúduló
információáradatból.
Ebben támogatnak minket a rendelkezésünkre
álló keresőszolgáltatások, bár nem minden
esetben nyújtanak tökéletes megoldást
számunkra.
Az interneten megjelenő keresőeszközök köré
külön iparág szerveződött, amelybe kisebbnagyobb méretű cégek, vállalatok nagy
pénzösszegeket fektetnek be.
Mindezt pedig saját versenyképességük,
sikerességük és hatékonyságuk javítása
érdekében teszik.
Search Engine Marketing Professionals
Organization (SEMPO) 2008-as felmérésének
lényeges megállapításai:
 13,5 billió dollárt költöttek a cégek
keresőmarketingre 2008-ban Észak-Amerikában.
Ennek legnagyobb részét a találatelhelyezés és a
keresőoptimalizálás (SEO) tette ki. Az összeg
maradéka pedig olyan szolgáltatókhoz került, akik
a kampányok szoftveres megvalósításában vettek
részt.
 Az előrejelzés szerint a keresőmarketingbe
fektetett pénzösszeg 2013-re elérheti a 26 billió
dollárt Észak-Amerikában.
 A költések jelenlegi arányai eltolódást mutatnak
a fizetett találatok javára (88 százalékban),
miközben a SEO csupán 11 százalékkal részesedik
az összegből.
Ez a tendencia megváltozik a jövőben, mivel az
internetezők jobban kedvelik a természetes
listázást, mint a fizetett találatokat.
A használók relevánsabbnak, elfogadhatóbbnak
tartják a keresésekre kapott természetes
találatokat, míg az utóbbit egyszerű reklámnak
vélik.
Az IAB (Interactive Advertising Bureau) Hungary
„Adex 2008” felmérése alapján 2008-ban a magyar
hirdetők 21,8 milliárd forintot fordítottak online
reklámozásra. Ez 6,5 milliárd forinttal több mint
2007-ben.
Az online reklámpiac így 2008-ban 42%-kal
bővült, melynek köszönhetően részesedése a
reklámtortából 10,8% volt.
(Forrás: http://www.iab.hu )
A keresőszolgáltatások, a cégek, vállalatok
érdekeltek abban, hogy minél több bevételre
tegyenek szert. Jelentős mennyiségű pénzösszeget
fektetnek be keresőmarketingbe a későbbi
megtérülés reményében.
Ebben a kiélezett versenyhelyzetben a keresők
folyamatosan törekszenek arra, hogy megújuljanak
és, hogy minél több speciális, új szolgáltatással
vonzzák a használókat maguk köré.
Ezért rendkívül fontos a versenyben részt vevő
szereplők számára, hogy az egyes keresőeszközök
minőségét hogyan értékelik a kutatók.
1.3. Információkeresési modellek
Az információkeresésre irányuló kutatás több
mint két évtizedes múltra tekint vissza.
A vizsgálódás egyik lehetséges iránya a kérdést
feltevő használók viselkedésének
tanulmányozása, azaz milyen kérdést, hogyan,
milyen társadalmi rétegből, milyen tanultsággal
rendelkezők tesznek fel.
A kutatók 1981-től folyamatosan számos modellt
alkottak meg.
A modellek kialakítását befolyásolta a kutatók
világlátása, kutatási területe és jártassága.
Ennek értelmében beszélhetünk kognitív
perspektivikus, szociális, szociális-kognitív vagy
szervezeti modellekről.
E modellek által a használók weben történő
keresése több szinten vizsgálható:
1. beleértve a társadalmi és a szervezeti szintet,
2. az információkeresés szintjét,
3. az ember és a számítógép közötti kapcsolat
szintjét,
4. a megfogalmazott keresőkérdés szintjét.
Csak jelzésszerűen hivatkozom kiváló kutatókra,
akik komoly eredményeket értek el ezen a
területen: Spink, Jansen, Saracevic, Ingwersen.
1.4. A tárgykör alapvető fogalmai és
azok kapcsolatai
 Metadat: ez alatt a weblapok
intellektuálisan vagy automatikusan
létrehozott másodlagos adatait értjük,
amelyek magát a dokumentumot jellemzik.
 Másik definíció szerint: metaadaton
mindazokat a többletinformációkat értjük,
amelyeket a weboldalak készítői a
weboldalakhoz kapcsolnak a keresőkérdés
pontosabb megválaszolása reményében.
Ezen adatok körébe tartoznak: a bibliográfiai leírás
szabványosított adatelemei, a dokumentum
tartalmát leíró kulcsszavak, tárgyszavak,
deszkriptorok és az osztályozási jelzetek.
Metaadat-rendszerek és a katalogizálás
Szükség volt a metaadatok egységes elektronikus
kezelésére, ami kiterjedt ezeknek az adatoknak
az elsődleges dokumentumokból való kinyerésére
és a dokumentumok számítógépes leírására.
Metaadat-rendszereket hoztak létre.
Pl.:
- OCLC InterCat,
- DublinCore,
- WWW Semantic Header,
- TEI (Text Encoding Initiative) fejléc stb.
E rendszereket összehasonlítva megfigyelhető,
hogy a mű azonosítására szolgáló adatelemek (a
szerző, a cím, a kiadó, a megjelenés éve, az ISBN
stb.) mindegyikben szerepelnek.
A további jellemzők (a megjelenés helye, az
objektum típusa, formája, nyelve, vagy a
rendszerkövetelmények, az elérés módja,
költsége stb.) metaadatrendszerenként változnak.
Az IFLA Katalogizálási Szekciójának keretében
külön munkacsoport alakult a különböző
metaadat-rendszerek alkalmazásának
vizsgálatára.
A Dublin Core szabványos metaadat formátum az
elektronikus dokumentumok katalogizálását és a
metaadatokból álló rekordok adatcseréjét teszi
lehetővé a hálózaton.
A Dublin Core létrehozásának oka az volt, hogy
egyszerűbb megoldást találjanak ki a szigorú
minőségi követelményeket és komplex formátumot
megkívánó könyvtári katalogizáló rendszerek
helyett.
A Dublin Core jelentős, mert napjainkban ez az
egyik legáltalánosabban elterjedt metaadatalkalmazás.
A DC formátum 15 leíró elemet tartalmaz.
Továbbá az áll a legközelebb a könyvtári
katalogizáláshoz.
A DC-t a USMARC-formátummal összehasonlítva
Gorman azt találta, hogy minden egyes DCelemnek megvan a megfelelő USMARC-mezője.
A DC fejlesztői és használói elhatározták, hogy az
IFLA FRBR-tanulmányát veszik alapul az
elektronikus publikációk nemzeti indexelési
szabályainak kialakításához.
Elterjedését elősegítette, hogy adatelemeit az
európai szabványosítási szervezet, a European
Committee for Standardization (CEN) is elfogadta.
Az elektronikus dokumentumok bibliográfiai
számbavételében Gorman szerint négy
megközelítés lehetséges:
1. a teljes, könyvtári szabályokon alapuló
katalogizálás;
2. a teljes (15 elemű) Dublin Core alkalmazása;
3. a minimális (9 elemű) Dublin Core
alkalmazása;
4. a strukturálatlan teljes szövegű kulcsszavas
keresés.
Ha az elektronikus dokumentumokat értékük
szerint rangsorolják, akkor a bibliográfiai
számbavétel mind a négy szintje alkalmazható:
1. az elektronikus dokumentumok kis része (2%a) a teljes MARC-rekordokban katalogizálható;
2. a teljes Dublin Core szerinti “katalogizálás”;
3. a minimális Dublin Core szerinti rekordok
létrehozását jelenti;
4. az elektronikus dokumentumok nagyobbik – és
kevésbé értékes – része a keresőmotorokra
hagyható.
1.4.1. A keresőszolgáltatások típusai
I. Indexelőszolgáltatások : (search engines,
Suchmaschinen, moteurs de recherche)
emberi munka nélkül, számítógépes programok
segítségével végzik a keresést a hálózaton.
Ezek a szolgáltatások két fő részből állnak:
1. a keresőrobotból (crawler, web spider, web
robot, bot)
2. és az indexelőből (indexer).
A robotok állandóan figyelemmel követik és
begyűjtik a weboldalakat a világhálóról a
keresőszolgáltatás adatbázisába.
Az indexelő elemzi a begyűjtött dokumentumokat,
amelyekből előállítja az indexkifejezéseket.
Létrehoz egy indexet, amely minden szóhoz – a
stopword-öket kivéve – hozzárendeli az őt
tartalmazó Uniform Resource Locator-ok (URL)
listáját.
A keresőszolgáltatás erre az indexre támaszkodik,
amely révén elvégzi a keresést a felhasználó
számára.
A keresőrobotot és az indexelőt integráló
egységet „keresőgépnek”, „keresőmotornak”,
„keresőműnek” (search engine),
„keresőrendszernek” (search system) nevezzük.
Tévesen a teljes keresőszolgáltatást
„keresőgépnek”, „keresőmotornak”, „robotnak”
hívjuk, ami a szolgáltató rendszernek csak az
egyik részét jelenti.
Ebbe beletartozik még a felhasználói felület és a
szolgáltatott tartalom is.
Ezek a keresőszolgáltatások általában
rendelkeznek egy egyszerű és egy összetett
keresési lehetőséggel.
Egyszerű kereséskor rendkívül nagy lehet a
visszakeresett, nem releváns dokumentumok
száma, azaz a zaj.
A zaj csökkentésére tanácsos használnunk a
részletes keresési lehetőséget (advanced search,
powered search).
Példák indexelőszolgáltatásokra:
- Google,
- Altavista,
- AlltheWeb stb. szolgáltatások.
II. Internetkatalógusok: (directories,
annuaires Internet, répertoires Internet),
a szakirodalmi források különbözően hívják az
ilyen típusú keresőket.
Megnevezéseik a következők:
-„böngészőszolgáltatás” (browsing service,
browsing Dienste),
-„tárgyszótár”, „tématár” (subject directory,
Themenverzeichniss, annuaire thématique),
- „webes katalógus” (annuaire Web, répertoire
Web).
A katalógusok hagyományos vagy egyénileg
kialakított osztályozási rendszert használnak.
Az osztályozást és a tartalmi kivonatok készítését
szerkesztőségben végzik. Humán erővel gyűjtik és
rendezik fa-struktúrába a kiválasztott
weboldalakat a generikustól a specifikus témákig
haladva.
Ezekben a katalógusokban osztályok alapján
böngészhetünk, de lehetőségünk van arra is,
hogy a keresőkérdés megadásával találjuk meg a
kívánt osztályt.
Általában rendelkeznek a saját lelőhelyükön belül
használható kulcsszavas keresési lehetőséggel is.
Adatbázisaik sokkal kisebbek, mint az
indexelőszolgáltatásokéi.
Azonban a keresés bennük lényegesen kisebb
zajjal jár az intellektuális feldolgozásnak és az
osztályozásnak köszönhetően.
A szakterületre specializálódott keresők nagy
része internetkatalógusnak számít.
Többnyire általánosabb szintű információk
felkutatására alkalmasak a népszerű és a
tudományos témák esetében.
Pl.: Yahoo.
Az internetkatalógusok két alcsoportja:
a. Akadémiai vagy szakmai gyűjtemények:
a kialakított osztályok egyes szakértői szerkesztik
azokat a kutatás támogatása érdekében.
A hagyományos osztályozási rendszerek
használata elsősorban ezekre a gyűjteményekre
jellemző.
A hivatkozások gondosan megválasztottak ,
többnyire annotáltak. Ezek a gyűjtemények
megkímélnek minket a nagytömegű hirdetésektől,
reklámoktól.
Példák: Internet Public Library (IPL2), BUBL
Information Service.
b. Kereskedelmi portálok:
a nagyközönség igényeit igyekeznek kielégíteni.
Ebből adódóan a szórakozás, sport,
kereskedelem, utazás, stb. témakörök túlsúlya
jellemzi őket, valamint az igen intenzív reklám
tevékenység.
Pl.: Looksmart.
Számos internetkatalógussal mint kiegészítő
szolgáltatással találkozunk az
indexelőszolgáltatások oldalain.
III. Metakeresők: (meta search engines, MetaSuchmaschinen, métamoteurs, métachercheurs)
segítségükkel több indexelőszolgáltatásban
kereshetünk párhuzamosan anélkül, hogy az
egyes szolgáltatásokkal külön foglalkoznunk
kellene.
A rendszer mindegyik keresőszolgáltatás
adatbázisában végrehajtja a keresést,
megjelenítve a találatoknál, hogy melyik
szolgáltatás adatbázisában találta meg a
rekordot.
Előnyük, hogy rövid idő alatt valószínűsíthetően
több releváns találathoz jutunk.
Növeli a találati esélyünket az ismeretlen,
homályos témák esetében. Átfogóbb képet
nyújthat a weben egy adott témában fellelhető
információkról.
A metakeresők hátránya viszont, hogy azoknál
általában egyszerű keresési módszereket
alkalmazhatunk és többnyire nincs mód a mező
szerinti szűkítésre.
A metakeresőket nehezebben csapják be őket
azok az oldalak, amelyek mindenféle trükkös
megoldásokkal a javukra befolyásolják a keresők
találatrangsorolását. Az ilyen oldalak igazi,
használható tartalommal nem rendelkeznek.
Ezeket az oldalakat “spam”-eknek hívjuk.
A metakeresők azért képesek a “spam” oldalak
kiszűrésére, mert azok általában egy-egy
keresőre szakosodnak és egyszerre több keresőt
már nem tudnak becsapni.
A metakeresők két típusa:
1. Az átfogó keresés eredményeit külön
megjelenítő rendszerek, amelyek a különböző
keresők által létrehozott találati halmazokat nem
dolgozzák egybe.
2. Az eredményeket válogatottan és együttesen
megjelenítő rendszerek, amelyek mindig a saját
oldalukon jelenítik meg a találatokat összefésülve.
Gyakrabban fordulnak elő, mint az előző típus.
Többnyire kiszűrik a duplumokat, de az egyes
keresők által generált találati listákat egy
bizonyos rekordszámnál egyszerűen elvágják.
Példák: Mamma, Metacrawler, Dogpile stb.
A metakeresőkkel szemben támasztott
követelmények:
 Párhuzamos keresés végrehajtása;
 Találat-összefésülés;
 Duplum rekordok kezelése, azaz ugyanazt a
weboldalt a rendszernek fel kell ismernie, és
jelölnie kell az egyes forrásokat, amelyből
származik;
 ÉS- meg VAGY logikai műveletek biztosítása
keresésnél;
 Információveszteség nélküli működés (ha pl. az
egyik weboldal tartalmi kivonatokat tartalmaz, azt
át kell tudni vennie a metakeresőnek);
 Forrásrendszer elfedés (=hiding) a lekérdezett
keresők tulajdonságai nem játszhatnak semmiféle
szerepet a metarendszer szintjén, a
felhasználónak semmit sem kell tudnia ezekről a
specifikumokról;
 Teljesség (a keresésnek addig kell tartania,
ameddig a lekérdezett szolgáltatásokból találatok
nyerhetők).
IV. Intelligens keresőprogramok (intelligent
agents)
- A felhasználó számítógépére telepíthető
keresőprogramok.
- Nagy részük működésébe intelligens
ügynökszoftver technológiát integrál, ezáltal
újabb keresési funkciókat nyújt a
felhasználóknak.
Pl.: a találatok automatikus finomítását,
a keresőszavak tényleges kiemelését,
a találatok elmentését és újra történő
felhasználását,
a megszakadt hivatkozások ellenőrzését, stb.
Működésükre jellemző, hogy:
 a felhasználói elvárásokhoz történő folyamatos
alkalmazkodás.
 Ezek a keresőprogramok figyelemmel követik a
felhasználó kereső profilját, érdeklődési körét és
annak megfelelő minőségi információt
szolgáltatnak a hálózatról.
 Hasonlítanak a metakeresőkhöz, mert
ugyanazt a keresőkérdést párhuzamosan több
keresőszolgáltatáshoz juttatják el és a találatokat
összefésülve jelenítik meg.
 Dokumentumtípustól és formátumtól
függetlenül képesek keresni.
 Az ügynökszoftverek nem hoznak létre nagy
indexeket, hanem autonóm módon keresik a kért
információt.
 Kereső algoritmusaikat a felhasználótól kapott
információ és visszajelzés alapján módosítják
meg.
 A felhasználó csupán a kitűzött célt határozza
meg számukra, de a megvalósítás mikéntjével és
hogyanjával kapcsolatos döntéseket rábízza az
ügynökszoftverekre.
Fő tulajdonságaik:
• Autonómia:
a felhasználó nevében tevékenykednek és
döntéseket hoznak a környezetükből kapott
információk alapján.
• Rugalmasság:
figyelemmel követik külső környezetüket és
megvizsgálják a hasonló körülmények között
végrehajtott korábbi tevékenységek (heurisztikák)
sikerességét.
Tevékenységüket olyan irányban képesek
megváltoztatni, hogy azzal növeljék a cél sikeres
elérésének valószínűségét.
• Tanulás:
ismerik a felhasználó személyes érdeklődési
körét, ezért egy bizonyos idő után képesek egyre
növekvő pontossággal előrejelezni, hogy az adott
dokumentum számításba jöhet-e az adott
felhasználónál, avagy sem.
• Mobilitás és távoli végrehajtás:
ezek a programok a szerverek között vándorolnak
egy heterogén hálózati környezetben.
Több népszerű keresőprogram jelent meg eddig a
szoftverpiacon, amely kipróbálásra ingyenesen
letölthető a hálózatról, teljes verziójukért azonban
már fizetni kell, pl. Copernic szoftver.
Ez a technológia a kutatás és egyben az új
alkalmazásfejlesztés egyre növekvő területe.
Egyre nagyobb szerepet kap a kifinomultabb
keresések lebonyolításában a weben, például a
láthatalan web információinak a felkutatásában.
1.4.2. A keresők szűkítési lehetőségei
Minden keresőrendszer nyitó oldalán van egy
kereső ablak, ahol a beírt szavakon felül az egyén
bejelölhet bizonyos szűkítéseket:
 Boole-algebrai kifejezések (AND, OR, NOT);
 azoknak a szavaknak a megadása, amelyeknek
benne kell lenniük, vagy amelyeknek nem szabad
benne lenniük a keresett dokumentumban +, jelekkel jelöljük;
 csonkolás (* maximum 5 karaktert helyettesít);
 pontos kifejezésre történő keresés „….” ;
 helyzeti operátorok (NEAR, BETWEEN);
 szűkítés: dátum, nyelv, terület, fájltípus szerint.
A nagy találathalmazok csökkentésére használjuk
a keresőknél felkínált szűkítési lehetőségeket!
Mivel az egyes keresőrendszerek által alkalmazott
keresési szintaxis eltérő, mindig meg kell vizsgálni
a felajánlott keresési lehetőségeket!
2. A tárgykör kapcsolódó
területei
1. Szemantikus web:
feladata a jelentés megtalálása a webes
tartalmakban.
A szemantikus web kialakítására irányuló
törekvések során jelentek meg az ontológiák.
Gruber megfogalmazása szerint az „ontológia
megegyezésen alapuló fogalmi rendszer formális,
egyértelmű leírása”.
Ebben a meghatározásban a „megegyezésen
alapuló” kitétel lényeges, mert azt a szemléletet
tükrözi, hogy az ontológiák szemantikai
szabályrendszerek, melyek a dolgok rendezésére
használhatók.
Az ontológiák lehetővé teszik számunkra, hogy
tisztázzuk az alapvető fogalmakat és a közöttük
lévő relációkat.
Elősegítik számunkra, hogy az erre vonatkozó
tudásunkat formálisan és gépi következtetésre
alkalmasan fogalmazzuk meg.
A webes ontológiák kialakulásához
vezető út
2000-ben közreadtak egy „tématérképnek”
(topic map) nevezett hierarchikus fogalmi
struktúrát kezelő szabványt.
A weben jelenleg elérhető vizualizált fogalmi
struktúrák többsége ezen, vagy ehhez hasonló
fejlesztéseken alapszik.
A W3C konzorcium irányítása alatt egy másik
irányban kezdődött el a fejlesztés.
Ennek egyik fontos eredménye, hogy 2000-ben
a web metaadatainak leírására egy szabványt
hoztak létre, az XML-en alapuló webforrás
leíró nyelvet (Resource Description Framework=
RDF).
A weben található hierarchikus fogalmi struktúrák
formális leírására is ezt a nyelvet használták fel.
2002-ben a W3C konzorcium kezdeményezésére
hozzákezdtek az ontológiák szabványának
tekinthető webontológia-nyelv (Ontology Web
Language) kidolgozásához.
Az OWL 2-re vonatkozó szabványajánlást 2009-ben
adta közre a W3C konzorcium.
Forrás: OWL 2 Web Ontology Language Document
Review.
http://www.w3.org/TR/2009/PR-owl2-overview20090922/
Jelenleg elérhető és már létező általános
ontológiák,
pl. - Dublin Core,
- Magyar Egységes Ontológia.
Szakterületi ontológiák:
Pl.: - Galen orvostudományi területen
http://www.opengalen.org/ ,
- Gold leíró nyelvészeti területen
http://linguistics-ontology.org/ .
A „Museo24” projektben kifejlesztett ontológiának
érdekes felhasználási területe a virtuális múzeum,
amely gondolatvilágában közel áll a könyvtárakéhoz.
Forrás: http://www.museo24.fi
Jelenleg egyfajta közeledés figyelhető meg
hazánkban a könyvtári és az informatikai szakmai
közösségek között az ontológiák terén, amit a W3C
konzorcium magyar irodája szakmai előadások
szervezésével támogat.
Forrás:
http://www.w3c.hu/rendezvenyek/2009/ontologia/
2. Láthatatlan/mély web („invisible web”,
„hidden web”, „deep web”)
Mindazon dokumentumok körét értjük alatta,
amelyek számos okból kifolyólag nem érhetők el a
keresőszolgáltatások számára.
A láthatatlan web csoportjába sorolhatók:
- a dinamikus weblapok (azaz a kereshető
adatbázisokból kapott oldalak),
- azok az oldalak, amelyek csak regisztráció után
érhetők el,
- a nem szöveges dokumentumok,
- a keresőmotorok által kizárt oldalak.
Fontos hangsúlyoznunk, hogy a web csak egy
szolgáltatás az interneten, tehát az nem azonos
vele.
Egy olyan hipertext struktúrára épül, amelyben
szabadon böngészhetünk a szöveges formában
megjelenített információk közötti kapcsolatok
alapján.
Ha egy weblapra nem mutat egyetlen link sem,
akkor nem kerül bele a kereső adatbázisába.
Azokat a weboldalakat, amelyeket a keresők
keresőmotorjai megtalálnak „felszíni webnek”
(surface web) vagy „statikus webnek” nevezzük.
Ennek nagysága a teljes web méretének a 0,18%ára becsülhető.
Ezzel szemben a láthatatlan web
információmennyisége 550-szer nagyobb, mint a
felszínié és növekedése, gyarapodása is sokkal
gyorsabb ütemű.
Sokféle törekvéssel igyekeztek a rejtett webet
„láthatóvá tenni”
pl. bizonyos metakeresőkkel,
intelligens keresőprogramokkal (ágensek),
témakatalógusok kialakításával,
egyéb speciális keresőkkel stb.
3. A szövegbányászat és az
adatbányászat területe
A rejtett tudás kinyerésére törekszik a weben
található, nagy mennyiségű strukturálatlan vagy
félig strukturált HTML és egyéb formátumú
dokumentumokból.
Fiatal kutatási területnek számít még a web
mining, amely kiterjed az adatbányászatra, az
internet technológiákra, valamint a szemantikus
webre.
4. Speciális keresőszolgáltatások
A weben találkozunk például képek, videóanyagok
visszakeresésére alkalmas keresőkkel, amelyek
nagy népszerűségnek örvendenek a használók
körében.
Megjelenésük jelzi, hogy a használók rendkívül
nagy mértékben igénylik a nem szöveges
dokumentumok eredményes felkutatását.
Ezen az új kutatási területen a megfelelő
információkereső nyelvek létrehozása és azok
további fejlesztése elengedhetetlenül fontos
feladat.
A képkeresőkre irányuló vizsgálatok gyakran nem
veszik figyelembe a felhasználói oldalt:
pl. a szövegek és a képek utáni kutatás
különbségeit, a képjellemzőket a keresésnél,
és a képkereső kérdések sajátosságait.
Ezek lényeges kérdések, különösen a webes
keresők szempontjából.
Greisdorf és O'Connor 2002-es tanulmányukban
megfogalmazták, hogy a találatként megjelenő
képek relevanciája olyan fogalmi és tartalmi
jellemzőktől is függ, amelyek nincsenek is rajta a
képeken.
Ilyen minősítők
pl.: - művészettörténeti információ,
- hely,
- tárgy,
- esemény,
- ember, absztrakt fogalom stb.
Továbbá, hogy az érzelmeket kifejező szavak fontos
keresőkérdések a képeknél.
A keresésre fordított átlagos idő és a keresőkérdés
is hosszabb a képek esetében, mint általában a
webes kereséseknél.
Ebből adódóan a multimédia-információ megtalálása
nagyobb szellemi erőfeszítést követel tőlünk.
Jansen 2003-as kutatása ugyanezt erősítette meg,
aki az AltaVista-val társult multimédia-gyűjtemények
használatát vizsgálta.
Kutatásának eredményei:
A képekre történő kereséseknél átlagosan négy
szót írtak be a felhasználók.
28%-ban még Boole-operátorokat is alkalmaztak,
hosszabb ideig keresgéltek, mint más
dokumentumtípusoknál.
A képek indexelésére a legtöbb rendszer egyszerű
megoldásokat használ, amelyek a következők:
1. a fájlnevek leindexelése és kereshetővé tétele,
2. a környező szöveges információt gyűjtik egy
adatbázisba,
3. a weboldalak fejlécébe és a multimédiafájlokba
ágyazott metaadatok alapján történik az
indexelés.
Léteznek már osztályozási rendszerek képekre és
képekre vonatkozó keresőkérdésekre.
Célszerű lenne a webes képkeresések jellemzőihez
igazított osztályozási rendszereket használni,
melyeket pl. a keresőkérdések kézi vagy
automatikus metaadatolásához, címkézéséhez lehet
felhasználni.
A kutatások eredményei szerint öt új jellemzőt kell
bevezetni a képkereséseknél:
- gyűjtemény (pl. „stock photography”),
- pornográfia (pl. „gay”),
- prezentálás (pl. „clipart”),
- URL (pl. „www.bhphoto.com”)
- költség (pl. „free”).
A költség fontos szempont a használók számára
kereséskor.
A web hipertext jellegéből adódóan URL címek is
nagy számban fordulnak elő a keresőkérdésekben.
Az emberek gyakran szűkítik a keresést a kép
lelőhelyére, azaz a gyűjteményre.
Az emberek és az emberekkel kapcsolatos dolgok
meghatározóak a kérdések között, míg az olyan
tulajdonságok, mint pl. a szín, alig számítanak,
pedig az ilyen képjellemzőkhöz a keresők külön
szűkítési lehetőséget biztosítanak.
Nem nagyon vizsgálták még meg, hogy ezek az
osztályozási rendszerek mennyire lennének
használhatók a weben lévő képek indexelése és
visszakeresése során.
5. Blogok keresése
Egy másik, szerkezeti sajátosságaiból adódóan
elkülönülő dokumentumcsoportot is meg kell
említenünk a weben, a blogokat és a
mikroblogokat.
Számuk rohamosan növekszik, mert divatos
véleménnyilvánítási forma a használók körében.
Komoly kihívást jelent napjainkban a blogok
hatékony visszakeresésének megoldása, amely a
hagyományos információvisszakereső rendszerek
módszereitől eltérő mechanizmusokat követel meg.
Ez abból is adódik, hogy a blogoknál rendkívül nagy
szerepe van az aktualitásnak és a kapcsolódó
linkeknek, azonban sokszor nehéz meghatároznunk
a témájukat.
Megjegyzem, hogy az időtényező fokozottabb
kiaknázása a keresésekben új vonásnak számít, pl.
a blogok és a hírek esetében.
A blogoknak is megvannak a speciális keresőik;
közülük a legjobb a Technorati
(http://technorati.com ).
6. Innováció és tudásmenedzsment
Óriási fejlődési lehetőségeket rejt magában ez a
terület, amit a Google is kiaknáz saját üzleti
modelljében.
2006-ban egy jelentős változás tanúi lehettünk,
amikor az interaktív, programozható web háttérbe
szorította a statikus webet.
A korábbi passzív internetezők önszerveződő
közösségek aktív tagjaivá váltak, ami főként a web
2.0 térhódításának volt köszönhető.
A web tehát rendkívül nyitott közösségi színtérré
alakult át az innováció, a kibontakozás, valamint az
értékteremtés számára.
Don Tapscott webelemző szerint az új web
kollektív tudásbázisként jelenik meg, amiben
emberek millióinak közös tudása gyűlik össze
önszerveződő formában.
A Google és más üzleti cégek fokozatosan teret
engednek a tömeges együttműködés kultúrájának.
Olyan formában, hogy nyíltan hozzáférhetővé teszik
alkalmazásaik programozófelületét (az API-t)
platformjaikon.
Mindezt azért teszik, hogy saját hasznukra
fordíthassák az ott megjelenő tömegek ötleteit,
tudását és energiáját.
Az API-k megnyitása után a fejlesztők (akik közül
néhányan korábban „hekkerek” voltak…) gyors
tempóban kezdték el gyártani az új
alkalmazásokat.
A Google tehát sikeresen maga köré gyűjtötte a
fejlesztők hatalmas, önszerveződő hálózatát,
amelyet önkényes eszközökkel meg sem próbál
szabályozni, hisz az csak akadályozná a kreatív
ötletek megvalósulását, azaz az innovációt.
6.1. A tudásmenedzsment lehetséges példái
a Google-nél:
 Innováció, kutatás fenntartása:
A Google lelke egy új fejlesztés, és ez a fő téma a
cég csaknem minden vezetőségi összejövetelén.
A cég vezetői számára az a fő kihívás, hogy
fenntartsák az innovatív fejlődést a Google
méretbeli növekedésével.
Az innováció tehet arról, hogy a cég lekörözött
másokat, és jelenleg is az első vonalban van.
Az alapítók tisztában vannak vele, hogy valakik
valahol mindig megpróbálnak olyan megoldásokat
találni, melyek jobban, gyorsabban csinálják a
dolgokat.
Az innovativitás fenntartása egy nagy tempóban
növekedő vállalatnál olyan komplex kihívás, ami
komoly problémákat okozott már más, ígéretes
vállalkozások számára.
 A fejlesztések tesztelése felhasználókkal:
A Google munkatársai mindent megtesznek annak
érdekében is, hogy a felhasználók még
véglegesítésük előtt kipróbálhassák a termékeket.
Így aztán a fejlesztések folyamatosak, az értékes
reakciók pedig lehetővé teszik, hogy
megszabaduljanak a hibáktól.
 Nyitás más tudományterületek felé:
A Google egyéb területeken is tevékenykedik,
ilyenek a molekuláris biológia és genetika.
A gének milliói, a hatalmas mennyiségű adat végül
is illik a Google keresőhöz, a komoly adatbázishoz, a
számolókapacitáshoz.
A Google immár letöltötte az emberi genomtérképet, és vezető biológusokkal, genetikusokkal
karöltve dolgozik olyan tudományos, gyógyászati
területeken, ahol fontos áttörésekre lehet számítani
a közeljövőben.
Talán már nincs messze az idő, amikor az emberek
rákereshetnek a Google-lel saját génjeikre.
 Követi az egyetemi struktúrát
működésében:
A Google céget úgy működtetik mint egy
egyetemet.
Rengeteg projekten dolgoznak párhuzamosan
kis, három főből álló csoportok.
A munkatársaktól elvárják, hogy idejük 20%-át
olyan problémákra fordítsák, amelyek a
legjobban izgatják őket.
„Az idő 20%-a„ az egyetemi világból jön, ahol a
professzorok egy napot kapnak egy héten,
melyet saját érdeklődésük kielégítésére
fordíthatnak.
A cégnél hiányoznak a szokásos jogász
középvezetők, a társaságok hagyományos
felépítését itt nem találjuk meg.
 Könyvek digitalizálása:
A Google könyvek millióit kívánja digitalizálni
számos könyvtár bevonásával.
Célja, hogy minél több könyv legyen elérhető
online, hogy kereshetőek legyenek. Továbbá
célkitűzése, hogy ledőljenek a könyvtárak fizikai
korlátai.
Ez egy ambiciózus vállalkozás, globális, társadalmi,
oktatási eredményei lehetnek.
„The Library Project's aim is simple:
make it easier for people to find relevant books –
specifically, books they wouldn't find any other way
such as those that are out of print – while carefully
respecting authors' and publishers' copyrights.
Our ultimate goal is to work with publishers and
libraries to create a comprehensive, searchable,
virtual card catalog of all books in all languages that
helps users discover new books and publishers
discover new readers”
Forrás:
http://www.google.com/googlebooks/library.html
A Google 2009 novemberében ideiglenes
egyezségre jutott az Egyesült Államokban a szerzői
jogtulajdonosok képviselőivel, akik kifogásolták,
hogy a keresőcég könyvek millióit digitalizálta.
Az Authors Guild és az Association of American
Publishers sokáig alkudozott a Google céggel egy
New-York-i bíróság előtt, amíg nem sikerült kialkudni
a részesedésüket az eredeti jogsértésből származó
jövedelemből.
Forrás:
http://books.google.com/googlebooks/agreement/
Jelenleg a Google 125 millió dollárt fizet a per
lezárásáért és létrehoz egy Book Rights Registry
nevű nyilvántartást, amelyet az online szolgáltatott
kiadványok szerzőinek és kiadóinak honorálásánál
alkalmaz majd.
Az egyezség pontos részletei is nyilvánosságra
kerülhetnek, de sokkal valószínűbb, hogy olyan
üzleti titok marad, amely a jövőben nagymértékben
megváltoztatja az információellátás jellegét.
Ezzel az egyezménnyel a Google-nak megengedték,
hogy digitalizálja azokat a könyveket is, amelyeket
az Egyesült Államokban véd a copyright.
A Google tervei szerint az egyetemek
hozzáférhetnének a szolgáltatásaihoz térítés
ellenében pl. ezekhez a ma még csak kereshető, de
nem letölthető könyvekhez.
Az ebből származó bevételeket megosztja majd a
jogtulajdonosokkal és a szerzőkkel.
Ha ez az üzleti modell jól működik, akkor
lehetséges, hogy a még forgalomban levő művek
közül is sokat hozzáférhetővé tesznek majd így a
szerzőik.
Még nem lehet tudni, hogy milyen licencdíjak
lesznek, és hogy a felsőoktatási könyvtárak korlátos
költségvetéséből érdemes lesz-e ezeket kifizetni,
többségében olyan könyvekért, amelyek iránt
minimális a kereslet, hiszen nem véletlenül
nincsenek már forgalomban.
 Google Scholar szolgáltatás:
A Google tudományos keresője, amely különféle
témájú és formájú tudományos publikációk között
keres.
2004. november 18-án indult, mára szinte minden
online elérhető referált folyóiratban keres, kivéve a
legnagyobb tudományos kiadó, az Elsevier által
kiadottakat.
2006. február 20-ától a magyar könyvtárakban is
keres a MOKKA-n keresztül.
A szolgáltatás keresőalgoritmusa hasonló a
hagyományos Google keresőéhez, de nem a
hiperlinkeket használja fel egy-egy publikáció
fontosságának meghatározásához, hanem azt,
hogy más cikkek milyen gyakran hivatkoznak rá.
A keresések a publikációk teljes szövegében
történnek.
Szűkíthetők szerző, év vagy megjelenési hely
alapján.
A találatoknál a kereső megjeleníti a cím és az
esetleges online elérhetőség mellett azt is, hogy
milyen más tudományos munkák hivatkoznak rá, és
milyen könyvtárakban található meg. Utóbbihoz a
WorldCat adatbázist, és egy saját, Library Links
nevű szolgáltatást használ.
A tudóstársadalom részéről már több bírálat érte a
Google Scholart, mert a neten eddig a tudományos
szakirodalomnak csak kisebb része jelent meg, így
a kereső a hagyományos szakirodalmat
értelemszerűen nem figyeli.
Forrás: http://scholar.google.com
3. A keresők működése
A világháló heterogén szintaktikájú és szemantikájú,
nem ellenőrzött tartalmú dokumentumok halmaza.
Az internetes keresés alapvetően eltér egy lassan
változó, kontrollált dokumentumgyűjteményben való
kereséstől.
A keresőknek meg kell találniuk a releváns webes
tartalmaknak azt a halmazát, amelyek jól
hasznosíthatók a felhasználók számára. Nem pedig egy
hagyományos dokumentumgyűjteményből kell
kiválogatniuk a keresőkérdésre pontosan illeszkedő
dokumentumokat.
Kereséskor a legjobb találatoknak egyéb jellemzőik is
vannak (frissítési gyakoriság, minőség, hivatkozások
száma, népszerűség stb.), amit a keresőknek szintén
figyelembe kell venniük és nem elegendő csupán a
keresésnek pontosan megfelelő dokumentumokat
szolgáltatniuk.
Egy-egy keresésre különböző válaszokat adhatunk,
ezért nagyon lényeges, hogy mely találatokat
jelenítjük meg elsőként a felhasználóknak.
3.1. Keresőszolgáltatások előretörése az
Interneten
1994-ben jelentek meg az első internetes keresők.
A keresőknek nagy része kutatási programként
indult. A kezdeti időszakban néhány kezdeményezés
kudarcba fulladt, mert a vállalt feladat meghaladta a
korlátozott emberi és technikai erőforrásokat.
A fennmaradt keresőszolgáltatásokat főként vállalati
tőkéből, reklámokból, tőkebefektetésekből, illetve
kutatási kezdeményezésekből finanszírozták.
1996-ra már a különböző folyóiratok, üzleti és
napilapok is komoly figyelmet szenteltek a
keresőknek.
Megnövekedett a keresésre specializálódó
szoftvertermékek száma,
pl. webes katalógusok, metakeresők, szakterületi
szolgáltatások, kereső ágensek és “push”
szolgáltatások jelentek meg.
3.2. Egy kereső alkotóelemei és azok
feladatai
A keresők első feladata az oldalak meglátogatása és
begyűjtése, amit speciális szoftverek, ún.
keresőrobotok (crawlers, web robots, bots, web
spiders) segítségével valósítanak meg. Ezek a
programok folyamatosan és bizonyos időközönként
átfésülik a webet.
Egy keresőrobot választhat egy népszerű, de
megbízható oldalt kiindulópontjául, illetve dolgozhat
egy korábbi, meglévő adatbázis alapján is.
A robotnak le kell töltenie az általa meglátogatott
oldalt, és át kell adnia azt az indexelőnek. Ezután az
oldalon lévő linkeket nyomon követve ugyanígy kell
eljárnia a hivatkozott oldalakkal is.
Számos esetben bizonyos időkülönbség jelentkezik
a begyűjtés és az indexelés, valamint az eredmény
keresőbe történő beépülése között.
Ezért az oldalak begyűjtését és indexelését két,
párhuzamosan zajló feladatnak kell tekintenünk.
A keresőrobotok tehát nem végeznek semmilyen
elemzést a meglátogatott dokumentumon, hanem
csak nyomon követik a hivatkozásokat és letöltik a
felfedezett oldalakat.
Látszólag a robotok nagyon hasonló módon
működnek, azonban jelentős különbségek
figyelhetők meg a viselkedésükben.
Egy robot számára fontos szempont, hogy mely
hivatkozásokat kövesse nyomon, és mely oldalakat
keresse fel, valamint lényeges kérdés, hogy milyen
gyakran végezze el az oldalak begyűjtését.
Egy keresőrendszer általában több robotot
alkalmaz a weblapok begyűjtésére. Emiatt a
hálózati forgalom megnövekszik.
A robotok igyekeznek nem folyamatosan leterhelni
egy szervert különböző kérésekkel, hanem időben
elosztva küldik neki a kéréseket.
A robotok az oldalak begyűjtése közben egy
prioritási sort használnak, amelyben a még meg
nem látogatott oldalak címei szerepelnek
fontossági sorrendben.
A sor elejéről kiveszik a címeket és a hozzájuk
tartozó oldalakat, letöltik és kigyűjtik belőlük a
hivatkozásokat.
A felderített linkekről a robotok eldöntik, hogy
melyiket kell követniük, ezeket beteszik a
prioritási sorba, a többit pedig elhagyják.
A begyűjtés addig tart, amíg a helyi erőforrások,
mint például a tárolókapacitás, el nem fogynak.
A webszervereknek módjukban áll a robotok
számára megtiltani egyes oldalak begyűjtését, az
oldalon lévő hivatkozások követését és az oldal
archiválását. Ezt a Robot Kizárási Szabványban
(Robot Exclusion Standard) megszabott módon
tehetik meg.
Ha egy weblapra nem hivatkozik egy másik oldal,
akkor a keresőrobot nem fogja megtalálni azt.
Ezért az új honlapokat tanácsos manuálisan
regisztrálnunk az egyes keresőknél, amelyek így
indexelni tudják azokat.
A keresőrobotok által begyűjtött oldalak az
adattárba kerülnek (repository).
Az adattár elsődleges feladata az oldalak
egyenkénti tömörítése és szekvenciális tárolása.
Ezenkívül a rendszer nyilvántartja egy állományban
a dokumentumok pontos elhelyezkedését.
Az adattár további feladata a meglévő, begyűjtött
dokumentumok frissítése is.
Ha pl. módosul egy oldal, akkor annak az új
metaadatait el kell helyezni az adatbázisban, a
régit pedig törölni kell.
A keresők másik lényeges összetevője az indexelő
(indexer).
Fő feladata az adatbázisban lévő meglátogatott
oldalak elemzése és az indexelendő kifejezések
belőlük történő kigyűjtése.
Az indexelő tulajdonképpen az adattárra
támaszkodik.
A feldolgozás elején két problémával találkozik az
indexelő:
1. A weboldalak elemzése összetett feladat. Ezt nem
csupán a dokumentumok heterogén kialakítása
okozza, hanem az egy-egy adott formátum esetén
előforduló hibák is, pl. szintaktikai hibák a HTML
dokumentumokban.
2. Az indexelőnek szét kell tudnia választani a fontos
és a kevésbé fontos kifejezéseket egy
dokumentumban.
Erre egy lehetséges megoldás, hogy figyelembe
vesszük a szavak gyakoriságát és eldobjuk a
legkisebb, valamint a legnagyobb gyakoriságú
szavakat.
Az előbbieket azért, mert nem lehetnek fontosak,
hogyha csak néhány alkalommal fordulnak elő, az
utóbbiakról nagy valószínűséggel állítható, hogy
felesleges szavak a dokumentumban.
Feltételezzük, hogy a töltelék- és egyéb szavak
eloszlása eltérő egy dokumentumban.
A gyakorlatban elterjedt egy másik megközelítés
is. Ebben nyelvenként létrehoznak egy ún. tiltott
szó (stopwords) listát, amely magába foglalja a
tartalmi szempontból feleslegesnek tekintett
szavakat.
Az ilyen lista meggátolja a névelők, a
kötőszavak és más, szinte minden
dokumentumban előforduló szavak indexelését.
Tehát ez a módszer rendkívül gyors, egyszerű és
könnyen használható.
A megmaradt releváns kifejezéseket bizonyos
jellemzőivel együtt gyűjti ki a dokumentumból az
indexelő.
Fontos jellemzőnek minősül a szó előfordulásának
helye, mint pl. az oldal címe, a metaelemek, az
oldalon belüli pozíció.
Ezenkívül az indexelő létrehoz egy indexet, amely
minden releváns kifejezéshez hozzákapcsolja az őt
tartalmazó URL-ek listáját.
A kigyűjtött indexelendő kifejezéseket és jellemzőiket
a tényleges keresés és sorrendezés során veszik
alapul a keresők.
3.3. A találatok sorrendezése, rangsorolása
A keresőknek jelentős alkotóeleme a Rangsoroló
modul, amely egy adott keresésre automatikusan
sorrendezi a találatokat fontosság szerint.
Az indexelt adatmennyiség megnövekedésével vált
egyre fontosabb feladattá a találatok pontos
sorrendezése.
Mivel a felhasználók csak az első 10-20 találatot
képesek áttekinteni egy adott keresőkérdésre, ezért
rendkívüli fontossággal bír, hogy a kereső milyen
találatokat jelenít meg a találati lista elején.
A találatrangsorolás fő elvei a következők:
I. a keresőkifejezés helyének vizsgálata a
dokumentumban:
A keresők nagyon gyakran előnyben részesítik azokat
az oldalakat, amelyeknek a címében is megtalálható a
keresendő kifejezés.
A találatok sorrendezésénél azt is figyelembe vehetik,
hogy a dokumentum mely részében jelenik meg
először a keresőkifejezés.
Itt alapelv, hogy a weblap szempontjából releváns
kifejezések nagy valószínűséggel fordulnak elő már a
bevezetésben is, vagy legalábbis a dokumentum
elején.
Egyes keresők az oldal fontosságának
meghatározásához szemügyre veszik a fontméretet is,
következtetésekre jutnak a szavak közti távolságokból
is, valamint elemzik a HTML-metaelemeket.
A metaadatok segítségével közölhetjük honlapunk
tartalmának összefoglalóját, valamint az oldalunkra
vonatkozó kulcsszavakat. Ezeket a háttérinformációkat is hasznosíthatják a keresők a
rangsorolás, valamint a keresés közben is.
II. a keresőkifejezések előfordulási
gyakorisága:
Itt azzal a feltételezéssel élhetünk, ha egy
dokumentumban egy bizonyos kifejezés gyakran
fordul elő, akkor fontos a téma szempontjából.
Ebben az esetben természetesen kivételt képeznek a
tiltott szavak listáján lévő kifejezések.
Lényeges, hogy ne csak az egyes szavak előfordulási
gyakoriságát kövessük nyomon, hanem az adott
szóösszetételekét is.
A keresők sokszor tanulmányozzák felhasználóik
reakcióit is. Ha a felhasználók többsége nem az első
találatra kattint a szolgáltatott találatlistában, akkor
nagy a valószínűsége annak, hogy rossz a találatok
rangsorolása és nem az első helyen szereplő oldal a
legrelevánsabb.
Ezek a felsorolt sorrendezési szempontok sajnos
lehetővé teszik, hogy könnyedén befolyásoljuk a
találatok rangsorolását.
Megfigyelhető az a tendencia, hogy a könnyedén
manipulálható rangsorolási szempontok egyre
inkább háttérbe kerülnek és csökken a súlyuk a
végső sorrend kialakításában.
Helyettük pedig olyan kritériumokra helyeződik a
hangsúly, amelyeket nehezebb befolyásolni.
Itt megemlíthetők pl. olyan módszerek, amelyek
az oldalak közti linkstruktúrát veszik figyelembe
(ld. PageRank algoritmus).
A találatok rangsorolásánál kényes etikai kérdésként
merülhet fel, hogy a kereső jó pénzért nem árul-e
kulcsszavakat a cégek számára.
A megvásárolt kulcsszóért cserébe az adott cég
webhelye az első 10 találat között szerepelhet. Ez nem
jellemző a nagyobb keresőkre, azonban a felhasználói
kulcsszavakhoz kapcsolódó reklámok eladása széles
körben elterjedt gyakorlat.
Ezekben az esetekben a szoftverfejlesztők úgy
változtatják meg a keresők relevancia rangsorolási
algoritmusát, hogy az eladott kulcsszó a felhasználót
rögtön vezesse arra a webhelyre, amely korábban
megvásárolta azt.
Egyes keresők a linkhez tartozó szöveget nem a linket
tartalmazó, hanem a link által hivatkozott oldalhoz
tartozónak veszik. Az ilyen típusú linket horgonynak
hívjuk, amit bizonyos keresők a találatok
rangsorolásakor használnak fel.
A Google együttkezeli a linkek szövegét azokkal a
weboldalakkal, amelyekre ténylegesen hivatkoznak.
Ennek a módszernek számos előnye van: a linkek sok
esetben pontosabb leírást nyújtanak a hivatkozott
oldalakról, mint maguk az oldalak.
A linkek szövegének hatékony felhasználása
technikailag nehezen oldható meg, mert az nagy
mennyiségű adat feldolgozását igényli.
Az Internet megjelenése előtt az egyik legismertebb
és sokat használt információ-visszakeresési technika
a Vektortér Modell volt, ami azonban közvetlenül
nem használható internetes kereséskor.
Ennek oka egyrészt a világháló mérete és annak
állandóan változó tartalma.
Másrészt pedig az a mindennapos gyakorlat, hogy a
keresőket használók többsége nem definiálja
pontosan a keresőkérdést, ez pedig sokszor rossz
találatokat eredményez a Vektortér Modell
esetében.
A Google nem a Vektortér Modellt alkalmazza,
hanem az ún. Boole modellt és egy lexikális keresőt
épít. A Google döntése ellenére számos próbálkozás
irányul arra, hogy a Vektortér Modellt webes
környezetben is használható változattá fejlesszék.
Sokan vélekednek úgy, hogy a Google
népszerűségét annak köszönheti, hogy a találatokat
minőségileg jobban rangsorolja, mint a többi
kereső.
3.4. A Google PageRank algoritmusa
A PageRank (PR) egy valós szám, ami egy adott
oldal fontosságát tükrözi.
A Google kereső a PageRank algoritmust
alkalmazza az általa indexelt oldalak fontosságának
meghatározásához, amit figyelembe vesz a
rangsorolás során.
A Google más egyéb szempontokat is felhasznál a
sorrend kialakításakor, amelyek közül csak egy a
PageRank érték, azonban ez az egyik legfontosabb.
Az algoritmus alapgondolata, hogy amikor egy oldal
hivatkozik egy másik weblapra, akkor a
forrásweboldal tulajdonképpen ajánlja a hivatkozott
weblapot.
Tehát az oldal létrehozója azért tüntette fel a linket
az oldalán, mert a másik lapot valamilyen
szempontból fontosnak tekintette.
Azt is figyelembe kell vennünk, hogy a hivatkozó
oldal mennyire fontos, mert egy fontos oldalnak
többet ér a hivatkozása. Eredményül egy rekurzív
algoritmust kapunk, ami azt fejezi ki, hogy egy
oldal fontos, ha mérvadó oldalak hivatkoznak rá.
Ez a modell természetesen vitatható, hiszen
lehetséges, hogy csak rossz példáként hozunk fel
egyes weboldalakat és nem arra szeretnénk velük
célozni, hogy azok értékes oldalak.
A gyakorlat azonban az eredeti alapötlet
sikerességét igazolja, hiszen kevésbé
meghatározóak ez utóbbi linkek az Interneten.
Az alapalgoritmust 1998-ban közölték először. Nagy
valószínűséggel feltételezhetjük, hogy a Google
most már egy másik változatát használja az itt
tárgyaltaknak, amiről azonban nem tájékoztatják a
nyilvánosságot.
Ez a rekurzív egyenlet a weboldal fontosságára egy
megközelítőleges becslést nyújt.
Érdekesség, hogy a szerzők egyik cikkükben
pontatlanul adták meg az egyenlet első tagját és az
így terjedt el a szakmában széles körben.
 PR  t1 
PR  tn  
 ... 
PR  A  1  d   d  

C  tn  
 C  t1 
Az egyenlet az A oldal PageRank értékét határozza
meg.
Az egyenletben t1...tn jelöli azokat az oldalakat,
amelyek A oldalra mutatnak.
PR(ti) fejezi ki az i. ilyen oldal PageRank értékét,
azaz annak a fontosságát.
A d paramétert egy skálázó faktornak tekintjük,
aminek értéke 0 és 1 közé eshet. A d értékét a
szerzők 0,85-nek határozták meg.
C-vel jelöljük az egy oldalon lévő összes kimenő
hivatkozás darabszámát.
Pl. ha C(ti) értékét 24-nek vesszük, az azt jelenti, hogy
az i. oldal összesen 24 darab kimenő hivatkozást
tartalmaz, amelyek közül egy biztosan az A oldalra
hivatkozik.
Az eredeti algoritmus nem számol azzal az esettel, hogy
mi történik akkor, hogyha egy oldalról több link is
hivatkozik egy másik oldalra.
Az egyenlet tehát a következőt jelenti:
az A oldal az első olyan oldaltól, amely hivatkozik rá,
PR(t1)/C(t1)-nyi szavazatot kap, azaz a t1-es oldal
egyenletesen elosztja a saját fontosságát a kimenő
hivatkozásai között.
Ha t1 oldalon egyetlen kimenő link található, akkor A
megkapja a teljes PR(t1) értéket, ha három, akkor csak
t1 fontosságának a harmadát stb.
Ugyanezt az elvet követjük az összes többi olyan oldal
esetén, ahonnan találunk hivatkozást A-ra.
Ezután ezeket a fontosságokat összeadjuk és
megkapjuk A oldal fontosságát.
Ebből tehát az következik számunkra, hogy kedvezőbb
PR értéket kapunk, ha egy alacsonyabb PR értékű lap
mutat ránk, mintha egy magasabb, amennyiben az
alacsonyabb fontosságú lapon nem sok kimenő link
található.
Egy dolgot azonban biztosan kijelenthetünk, ha
oldalunkra több oldal hivatkozik, nem számít, hogy
milyen rangos oldalak, valamilyen mértékben nőni fog a
fontosságunk.
A d faktornak köszönhetően egy bizonyos oldal nem a
teljes fontosságát osztja szét a kimenő linkjei között,
hanem annak csak a 85%-át. Ahhoz, hogy megértsük
ezt az összefüggést, szükségünk van egyrészt a javított
PageRank egyenletre és a PageRank algoritmus egy
újabb jelentésének bemutatására.
A javított PageRank egyenlet a következőképpen
adható meg, ahol N az összes indexelt weblap számát
jelenti.
PR  tn  
1  d   PR  t1 
 ... 
PR  A 
 d  

C  tn  
N
 C  t1 
A PageRank algoritmus egy olyan modellnek is
tekinthető, amely a „véletlen szörfölő” viselkedését
tükrözi.
Egy ilyen felhasználó véletlenszerűen elindul egy
weboldalról és a hivatkozásokra véletlenszerűen
kattintva folyamatosan előrehalad.
Nem is figyeli meg, hogy hova kattint, hanem
egyenletes eloszlás szerint választ a meglévő
hivatkozások közül. Ezzel magyarázható az, hogy a
PageRank algoritmus a kimenő linkek számával elosztja
egy bizonyos oldal fontosságát.
Mindez addig tart, amíg szörfölőnk meg nem unja a
kattintgatást és egy másik véletlenszerűen kiválasztott
weboldalon nem indul el.
Ez az egyenlet egy valószínűségi eloszlást határoz meg,
ahol egy-egy weboldal PageRank értéke egy
valószínűségnek (0 és 1 közötti valós szám) felel meg.
Ebben a modellben az összes weboldal PageRank
értékeinek összege maximum 1 lehet.
Ez a megállapítás csak abban az esetben igaz, ha a
felhasználónk egy adott oldalon mindig talál legalább
egy hivatkozást, amelyen továbbhaladhat.
Ha webszájtunk olyan oldalt tartalmaz, amelyre ugyan
mutat link, de belőle nem indul kimenő hivatkozás,
akkor a szájt nem veszi fel a maximális PageRank
értéket. Lógó (dangling) oldalnak hívjuk az ilyen
oldalakat.
A Google figyelmen kívül hagyja a lógó oldalakat, mert
azok ellentmondanak a PageRank algoritmus által
használt „véletlen szörfölő” modellnek.
A megmaradt linkstruktúrában kiszámolja a pontos PR
értékeket. Ezután fokozatosan visszahelyezi a lógó
oldalakat és kiszámolja azok fontosságát is a már
kiszámított PR értékek alapján.
A Google nem csupán a linkstruktúrát elemzi, hanem
egyéb tényezőket is figyelembe vesz az oldalak
rangsorolásakor.
Pl. sokszor negatívan értékeli azt, ha bizonyos,
megjelölt oldalakra mutató hivatkozásokat tüntetünk fel
az oldalunkon.
Nyomon követi azt is, hogy az oldalra történő
hivatkozások ugyanabból a domainből, földrajzi
területről származnak-e.
Tehát a rangsorolás szempontjából többet ér az, ha
valaki „független” hivatkozik ránk, mint ha egy
„ismerős” szavaz nekünk bizalmat.
A PageRank algoritmus manipulálása
Az sokkal nehezebb feladat, mint a szöveges
dokumentumok sorrendjének befolyásolása.
Ennek oka, hogy a web nagyobb részét kell
módosítanunk, valamint hivatkozások sűrű
szövevényével kell ellátnunk.
A Google által alkalmazott rangsorolási módszer
ismert a nagy nyilvánosság számára, ezért a
világban számos cég specializálódott különféle
manipulatív megoldások használatára, amelyekkel a
saját forgalmukat tudják indokolatlanul befolyásolni.
A cégeknek ezt a törekvését finomabb változatban
“kereső optimalizálásnak” hívjuk, erősebb változatban
pedig “hivatkozás spam-nek”.
A PageRank támadásának egyik közkedvelt módszere
a linkfarmok létrehozása.
Ilyenkor nagyszámú és sok szerverre kiterjedő,
részben értékes oldalak másolatát, részben
számítógéppel előállított oldalakat tartalmazó
oldalcsoportot állítanak elő.
Itt az oldalak mindegyike a céloldalra hivatkozik,
ezáltal magas fontosságot tulajdonítanak annak.
3.5. Problémák az internetes kereséssel és a
megoldási kísérletek
A kereséssel kapcsolatos problémák öt fő csoportba
sorolhatók:
1. Az Internet hatalmas mérete, ami nemcsak a
keresést, hanem az oldalak begyűjtését is
nagymértékben befolyásolja.
A weblapok meglátogatása és feltérképezése
időigényes feladatot jelent még a legjobb keresők
számára is.
2. Az utolsó begyűjtés óta eltelt idő alatt az Internet
tartalma és szerkezete gyorsan megváltozik, ami
további nehézségeket eredményez.
3. A keresőrendszerek számára általában
elérhetetlenek azok az Interneten meglévő
tartalmak, amelyek a mély web körébe sorolhatók.
4. A keresőrobotok nem gyűjtik be a dinamikus
weblapokra mutató hivatkozásokat.
5. Az internetes keresők nem a felkutatható
dokumentumok és a keresőkérdés jelentésével
foglalkoznak, hanem csupán a szöveges alakkal.
6. A keresést indítók többsége, egyes források szerint
háromnegyede valamilyen okból nem jut el a
számára szükséges információig. Az online
keresések szegmensében nő a nem angol nyelvű
keresések jelentősége és száma, mert a web
használóinak több mint 60%-a nem az angol nyelvet
használja kereséskor.
Egy 2007-es amerikai felmérés néhány lényeges
megállapítása a következő:
– 72.3 percent of Americans experience “search engine
fatigue” (either “always,” “usually,” or “sometimes”) when
researching a topic on the Internet.
– 65.4 percent of Americans say they’ve spent two or more
hours in a single sitting searching for specific information on
search engines.
– More than three out of four (75.1 percent) of those who
experience search engine fatigue report getting up and
physically leaving their computer without the information
they were seeking – either “always,” “usually” or
“sometimes.”
Forrás: Report: 7 Out Of 10 Americans Experience ‘Search
Engine Fatigue’ http://searchengineland.com/
A keresési problémák megoldásai:
1. Az óriási adattömeg visszakeresését oldják meg a
metakeresők, amelyek párhuzamosan más
keresőkkel kerestetnek.
Így azok az Internet nagyobb részét képesek
átfésülni. Növelik a találati esélyünket az ismeretlen
témák esetében, valamint átfogóbb képet nyújtanak
számunkra a weben fellelhető információkról egy
adott témában.
2. A gyorsan változó tartalom kezelésére használható
az oldalak begyűjtésének fókuszált módja (focused
crawling).
A módszer lényege, hogy nem követünk minden
hivatkozást, hanem valamilyen szempontrendszer
szerint egy bizonyos területhez kapcsolódó oldalakra
szűkítjük a keresési teret, pl. nevezetes hírportálok
meglátogatására.
A fókuszált begyűjtést végző robotokkal
kialakíthatunk egy-egy adott szakterületre
specializálódott keresőt is, pl. orvosi tartalmak
indexelésére alkalmas szolgáltatást.
3. A mély web kezelését úgy támogathatjuk, ha a
keresők számára is elérhető metainformációkat
közlünk az adatbázisok tartalmáról, valamint
különböző csatoló programokat hozunk létre a nem
szöveges állományokhoz (PDF, Excel, JPG stb.).
4. A keresőrobotok nem követik a dinamikus
weblapokra mutató hivatkozásokat, ezáltal azok sok
információhoz nem férnek hozzá. Ennek oka, hogy a
dinamikus linkek gyakran hoznak létre hatalmas
vagy esetleg végtelen keresési tereket. Ezeket
keresőcsapdának (spider trap) hívjuk, amelyeket a
keresőrobotok megpróbálnak elkerülni.
Gyakran előfordul, hogy bizonyos szerverek megkísérlik
álcázni magukat és egy keresőrobotnak eltérő tartalmat
nyújtanak, mint pl. egy böngészőnek.
Napjainkban számos technika terjedt el a dinamikus
oldalak indexelésének támogatására, amelyeknek
lényege, hogy elhitetjük a keresőrobotokkal, hogy
statikus hivatkozást követnek.
5. Az internetes keresők nem a fellelhető
dokumentumok és a keresőkérdés jelentésével
foglalkoznak, hanem csak a szöveges alakkal. A
nyelvi problémákat az okozza, hogy a mai
eszközökkel történő információ-visszakeresés
túlságosan a letárolt szöveges információ tényleges
alakjára épül.
Ennek egyik következménye, hogy a nem szöveges
dokumentumok által tárolt információk nem
kereshetők vissza automatikusan.
További hiányosságként kiemelhetjük azt is, hogy a
keresőrendszerek nem ismerik a fogalmak jelentését és
a fogalmak közötti kapcsolatokat, ezért nem képesek
különféle következtetések levonására. Ezt a problémát
a szemantikus keresők orvosolják hatékonyan.
Az internetes keresőknek létezik egy másik fajtája, a
webes katalógusok, amelyek emberek által
összegyűjtött oldalakat tesznek visszakereshetővé.
Ezek a katalógusok eredményesen oldják meg a
jelentés, azaz a szemantika megragadását, ami az
oldalak begyűjtését és indexelését végző emberek
feladata.
Ezenkívül meg kell említenünk a kérdésátalakító
keresőket is, amelyek szintén a jelentés
megragadására törekednek.
Feladatuk, hogy megpróbálják jobban értelmezni a
feltett keresőkérdést és azt úgy átalakítani, hogy az új
keresőkérdés már jobb találatokat eredményezzen.
Egy ilyen átalakításhoz a keresőknek rendelkezniük
kell bizonyos háttértudással, amely valamilyen
matematikai formalizmussal írható le.
A szemantikus web irányzat hatékonyan oldja meg a
jelentéssel kapcsolatos problémakört, amelynek fő
célja, hogy jelentést vigyen a webre.
Ezt úgy teszi lehetővé, hogy a webes tartalmakhoz
szabványos formában metainformációt rendel és
biztosítja számunkra, hogy ezen metainformációk
alapján következtetéseket vonjunk le.
Jelenleg a metainformációk ugyanolyan heterogén
formában fordulnak elő, mint maguk a webes
dokumentumok. Ezért a szemantikus webnek
elsődlegesen a metainformációk és a
következtetéshez szükséges háttértudás egységes és
feldolgozható alakban történő leírására kell
törekednie.
6. Számos nemzetközi tudományos fórum támogatja a
nem angol nyelvű keresések során felmerülő
nehézségek elemzését, valamint az új módszertani
megoldások és eszközök fejlesztését.
Pl. SIGIR 2007 Workshop on Non-English Queries,
2nd International ACM Workshop: Improving NonEnglish Web Searching (iNEWS08).
Ilyen vonatkozású további fontos események,
programok sorát részletezi a következő forrás:
http://ewh.ieee.org/soc/sps/stc/News/NL0805/NL08
05-MULTILANG.htm.
4. Keresőmarketing
Hazánkban a keresőmarketing kifejezés leginkább
az online hirdetések célzott elhelyezését jelenti a
keresőgépek találati oldalain, figyelemfelkeltő
helyeken.
Keresőmarketing minden olyan tervezett
tevékenység, ahol különböző keresőket eszközként
használva látogatókat toborzunk weboldalunkra.
Másik meghatározása szerint:
Azokat a módszereket, technikákat, melyek révén
növelhető a keresőoldalak felől bejövő forgalom,
összefoglalva keresőmarketingnek (search engine
marketing = SEM) nevezzük.
A SEM egyik leghatékonyabb és legolcsóbb,
tulajdonképpen ingyenes fajtája a
keresőoptimalizálás (Search Engine Optimization SEO).
A keresőoptimalizálás, illetve keresőmarketing az a
tevékenység, melynek célja, hogy egy weboldalt a
webes keresők megtaláljanak, és a találati listában
minél előrébb mutassanak.
A keresőoptimalizálás egyik szakmai ága az ún.
kiemelt keresők optimalizálása. Ezek között a
Google-optimalizálás az egyik legmeghatározóbb
irányzat, mert a Google piacvezető szerepéből
adódóan a felhasználók jelentős számban
használják és üzleti érték, hogy hol található a
weboldalunk a Google-ban.
Ezt az értéket azzal éri el a weboldal tulajdonosa, ha
igényes weboldalát rendszeresen karbantartja, és
odafigyel arra, hogy az ún. keresőtalálatok
nagyszámú kulcsszókészletre legyenek optimalizálva.
A keresőmarketing tevékenység alapvetően négy
részből áll:
1. A saját oldalunk optimalizálása keresőkre.
2. Weboldalunk regisztrációja keresőkbe,
katalógusokba és linkgyűjteményekbe.
3. Fizetett találatok – reklámkampányok a
keresőkben.
4. További linkstratégiák a partner weboldalakkal.
Miért fontos az, hogy az Interneten látható, illetve
megtalálható legyen a vállalat vagy a márka
weboldala?
Azért, mert ha rossz helyen tennék, akkor senki nem
tudna róluk, vagy csak azok, akik pont arra járnak
(zsákutca effektus).
Ezért a weboldalunkat regisztrálni kell nagyobb
keresőkbe, katalógusokba és linkgyűjteményekbe,
vagy összelinkelni nagyobb weboldalakkal, hogy a
termékünk, szolgáltatásunk iránt érdeklődők, azaz az
ő látogatóik egy része megjelenjen majd a mi
oldalunkon is.
4.1. Az internetes láthatóság előnyei:
• a weboldal-látogatottság növekedése,
• a költségek csökkentése,
• a befektetések megtérülése.
A weboldal-látogatottság növelése
Egy, a keresőeszközökre optimalizált website
folyamatos és ingyenes látogatókat biztosít.
Internet böngészés közben az emberek sok
terméket és szolgáltatást keresnek. Ezt szavak vagy
szócsoportok felhasználásával teszik, megpróbálva
körülírni a keresett fogalmat. Ha pedig a websiteunk nem található meg ezekre a szavakra, akkor a
potenciális vásárló is elmegy a versenytárshoz.
Persze lehet szó olyan látogatókról, akik nem
vásárolnak, hanem csak a témában érdekeltek.
Szükségünk van rájuk azonban akkor is, ha a
website-unkon nem értékesítünk, csupán a
vállalatunk népszerűségét szeretnénk növelni.
A költségek csökkentése:
Nagy cégek esetében jelentősen csökkentheti a
promóciós költségeket az a weboldal, amely
keresőeszközökre van optimalizálva.
Ha pl. a website-látogatottság növelése a cél, akkor
nem egy rövid, kampányszerű növekedést várunk
el, mivel jelenleg az a probléma, hogy a websiteunkat kevesen látogatják.
A látogatottságnövelés alatt pedig folyamatos és
állandó forgalomnövekedést várunk el, nem pedig
néhány hetes emelkedést, amit a kampányok
általában eredményeznek.
Ha a reklámkampány célja a márkaismeretség
növelése (branding), akkor egyértelmű, hogy csak
a keresőeszközökből érkezett forgalom nem
elegendő, hanem szükség van nagyobb
reklámmegjelenésre ahhoz, hogy a márkánkat
többen ismerjék meg.
Vannak olyan esetek, amikor nincs pénz
reklámkampányra és a weboldal-tulajdonos csak a
keresőkből érkező forgalomra van ráutalva.
A befektetések megtérülése:
Keveset lehet hallani és olvasni arról, hogy mi
történik az online reklámra való rákattintás után.
A keresőmarketing pl. olyan lehetőségeket nyújt
számunkra, ahol a reklámra kiadott pénz
mozgása teljesen transzparenssé válik
(médiaelméletben a jelentése: átlátszó).
Egy keresőben úgy is hirdethetünk, hogy csak az
általunk megadott kulcsszavakra jelenjen meg a
reklámunk, a fizetés pedig az ezekre a szavakra
megjelent találati oldalakból és a hirdetésünkre
való rákattintásból adódik össze.
A Google keresőben úgy is lehet hirdetni, hogy
csak a kattintásért fizessünk, illetve azt is
meghatározhatjuk, hogy mekkora összeget fogunk
elkölteni. Tehát licit típusú hirdetési helyeket kínál
az ügyfeleinek.
A Google.com-ban pl. a találatoknál, a jobb
oldalon látni lehet kis szövegdobozokat,
amelyeknek a rangsorolása licittől függ. Ezek az
ún. AdWords hirdetési találatok.
Ha valaki többet fizet a legfelső hirdetőnél, és a
hirdetésére sokan kattintanak , akkor elfoglalja a
vezető helyét.
A Google Adwords a Google hirdetési
szolgáltatása, melyet regisztráció és díjfizetés
ellenében vehet igénybe a felhasználó. A
rendszert bárki használhatja, ha betartja a
szabályait.
4.2. Az online reklám és a keresőmarketing
A keresőmarketing leginkább a direkt
reklámeszközök közé sorolható, amely egyben
interaktív és márkázási jellemzőkkel rendelkezik.
A következőkben megismerkedünk a
keresőmarketing reklámlehetőségeivel, a
kampánytervezési, az optimalizálási és az
utóértékelési folyamatokkal.
A keresőmarketing reklámlehetőségei
A keresők üzemeltetői gyorsan rájöttek arra, hogy
a napi sok százezer felhasználói rákeresés
reklámértékkel bír.
Az értéket csak növelte a páratlan célzási
lehetőség, ami miatt nem kellett sokat várni az
első hirdetőkre sem.
Különböző keresőeszközök (keresők, katalógusok,
linkgyűjtemények) különböző reklámeszközöket
kezdtek kínálni, különböző árazással.
Az ügyfelek jobb kiszolgálása érdekében színre
léptek az ügynökségek és a speciális
tanácsadócégek, melyek segítségével könnyebben
át lehetett látni a keresőmarketinges piacot.
Reklámformátumok és árstruktúrák:
Ha reklámformátumokról van szó, akkor a
keresőeszközök általában 5 lehetőséget
kínálnak.
 Bannerek és boxok:
reklámcsíkok, melyek figyelemfelkeltő helyen
jelennek meg, amikor a felhasználó begépeli az
adott kulcsszót vagy szócsoportot.
Bár minden más típusú website-on az átlagos
piaci kattintási érték 0,5% körül mozog, addig a
keresőkben ez az érték sokkal magasabb. Néha
eléri az 5%-ot vagy akár a 10%-ot is.
 Szponzorált link:
katalógusok és linkgyűjtemények egyik
leghatásosabb reklámformátuma exkluzív vagy
kiemelt dobozokban található. Nagyobb értékkel bír,
mint az előbb említett hirdetési csík.
A sikerének titka az, hogy a felhasználó sokszor a
tartalom részeként tekint a szponzorált linkre, és
hitelesebbnek veszi azt, mint egy egyszerű
reklámot.
A hirdetési csíkok egyértelműen reklámra utalnak,
míg a szponzorált link inkább PR jelleggel bír. A
szponzorált link árazása általában fix alapú (link/hét
v. hónap).
 Szponzorált szó:
katalógusok és linkgyűjtemények rendelkeznek
saját, belső keresőkkel.
Az átlagos kattintási arányok pedig sokszor 10%
felettiek. Hazai keresőeszközök költséghatékony
áron kínálnak ilyen lehetőségeket.
A szponzorált szó árazása általában fix alapú (per
szó és per év).
 Nulladik fizetett találat:
kulcsszavas reklámlehetőség, mely szerényen
kiemelt 0-dik találatot jelent, általában más
színnel, melynek a keresőiparban a legnagyobb
hatása van.
A Google-ban ez a reklámtípus jelenleg havi
5.000 dollárért (kb. 1 millió forint) rendelhető
meg, de az értéke ennél sokkal nagyobb.
Egy átlagfelhasználó számára a legelső találatok
számítanak, így a 0-dik találat is.
Árazásuk lehet:
- megjelenés alapú (CPM),
- fix alapú (/hét, /hónap),
- hibrid alapú (a megjelenés és a rákattintás után
kell fizetni),
- csak rákattintás alapú (CT), mint a Google-nál.
 Rejtett találatok:
Azok a keresők tartoznak ide, amelyek fizetett első
találatot (esetleg másodikat v. harmadikat) kínálnak
gyengén vagy megkülönböztetés nélkül.
Ezek is óriási értékkel bírnak.
Árazásuk lehet:
- megjelenés alapú (CPM),
- hibrid alapú (CPM+CT),
- csak rákattintás alapú (CT).
A kampánytervezés folyamata
A céloknak sokkal pontosabb meghatározása azért
szükséges, hogy a kampányban használt
kreatívokat, reklámhelyeket és a büdzsét időben
változtatni tudjuk, mindezt a marketingcélok sikeres
elérése érdekében.
A kampánycélokat számszerűen érdemes
meghatározni, hogy a kampány utáni eredményeket
össze tudjuk hasonlítani valamivel.
A leggyakoribb és mérhető kampánycélok:
 X százalékos kattintási arány a hirdetésre/kereső,
 X számú kattintás az összesen használt
keresőkben, katalógusokban, vagy
linkgyűjteményekben,
 tévéreklám támogatása (a tévéreklám
kulcsszavainak a használata a keresőkben),
 adatbázis-építés vagy -tervezés, ahol már a
konverziós arányokat is meghatározhatjuk (pl. a
keresőkből érkező látogatók 50%-a kell, hogy
vásároljon v. kérdőívet töltsön ki).
A célcsoport
A célcsoport nem demográfiai adatok alapján (pl.
18 és 39 év közötti, városi lakók),
hanem website-látogatóink szokásaiból,
viselkedéséből eredő ismérvek alapján kiválasztott
közönség lesz.
Mit értünk website látogatóink szokásai alatt?
A naplófájlokat elemző szoftver többek közt a
látogatók által leginkább használt útvonalakat és
azokat a kulcsszavakat mutatja, amelyeken
keresztül a felhasználó hozzánk érkezett
valamelyik keresőeszközből.
A látogatók által leginkább használt útvonalakat
azért szükséges elemezni és a tervezésnél
figyelembe venni, mert ezekből az adatokból
megtudhatjuk, hogy a keresőeszközből érkező
látogató továbbment -e a weboldalon belül vagy
azonnal távozott a megérkezés után.
Ha azonnal távozott, akkor nem kapta meg azokat
az információkat, amelyeket a keresőben találatként
megígértünk neki.
Ezek után, ha a kulcsszavas reklámozásban ezeket
a szavakat elkezdjük használni, akkor több mint
valószínű, hogy hasonló eredményeket várhatunk a
kampány után, azaz a látogatók többsége nem lesz
kíváncsi a weboldal-tartalmunkra.
Ha a keresőkből érkezők több oldalt töltenek le, sőt
X termékünk oldala az egyik legpreferáltabb, és a
termékkel kapcsolatos kulcsszavak is megtalálhatók
a naplófájlokat elemző szoftverben, akkor szinte
biztos a siker, ha ezeket a szavakat használjuk
hirdetésként a keresőkben.
Időzítés
A cél az, hogy az összes érdeklődőt elérjük,
napszaktól és hónaptól függetlenül.
Kisebb büdzsével rendelkező cégek mindenképpen
a fontosabb ajándékozási ünnepek előtt és alatt
jelenjenek meg, mert ezekben az időszakokban
kivételesen megugrik a keresők használata.
Regionalitás
Akiknek a szolgáltatásai vagy a termékei nem csak
magyarországi célcsoportnak szólnak (szállodák,
szoftverek stb. esetén), érdemes használni külföldi
keresőket és katalógusokat (about.com).
Több országban egy időben futó kampányokat
nemzetközi ügynökségi hálózatok készítenek. A
kinti ügynökség segíthet abban, hogy a kampány
magyar része a nemzetközi keresőkben és
katalógusokban is fusson.
Ha erre nincs mód, vagy ha kisebb cégről van szó,
akkor nincs más hátra, mint mindent egyedül
megcsinálni.
Büdzsé
A hazai reklámárak a keresőeszközökben
nagyságrendekkel alatta maradnak a többi online
reklámeszközénél.
A linkgyűjteményekben és a katalógusokban éves
szinten már 50.000 forinttól hirdethetünk.
Az összes magyar keresőeszköz használatának
egyéves költsége 1-1,5 millió forintot tesz ki.
A külföldi keresőkben reklámozni drágábban lehet.
Targetálási előnyök és hátrányok
Ezeket az előnyöket leginkább az árazási típuson
keresztül követhetjük.
 Megjelenés alapú árazás (CPM: Cost per
Impression):
linkgyűjteményekben és katalógusokban különösen
hasznos az ún. „többszintű targetálás”, ahol a
megrendelő több alkategóriát is megrendelhet.
Pl. a Startlap bizonyos aloldalain hirdetünk
különféle célcsoportoknak.
 Hibrid alapú árazás:
a megjelenés plusz a kattintás alapú árazás,
mindenképpen kulcsszófüggő.
Ha a keresőkben megjelenik a hirdetésünk, ami
után akkor is fizetnünk kell, ha a felhasználó nem
kattintott rá a reklámunkra (megjelenési ár). Ha
pedig rá is kattint, akkor a megjelenési ár mellett a
kattintási árat is fizetnie kell.
Ilyenkor nem kell sajnálni az olyan felhasználók
után kifizetett összegeket, akik nem kattintottak rá
a hirdetésünkre, de az megjelent előttük, mert
nekik is át tudtuk adni márkánk értékeit.
 Kattintás alapú árazás- CPC (Click per Click)
A keresők fő reklámbevételei ebből származnak. A
célzás itt attól függ, hogy mennyire ismerjük a
website-unk célközönségét, és mennyit vagyunk
hajlandók költeni.
Nagyobb költés, pontos kulcsszavakkal első
pozíciókat hoz, és természetesen értékes
látogatókat.
Optimalizálás és utóértékelés
Míg a tévécsatornának a reklámfilmeket hetekkel a
sugárzás előtt le kell adni és az esetleges
változtatásokat szintén hetekkel előbb kell közölni,
addig az online reklám ennél sokkal rugalmasabb.
Az előkészített hirdetéseket nemhogy az utolsó
pillanatban leadhatjuk, hanem a kampány első
napjaiban akár meg is változtathatjuk azokat.
Ilyen jellegű kampányoptimalizálás nagyobb
eredményeket és a reklámbefektetés gyorsabb
megtérülését hozhatná.
A kulcsszavas reklámkampány elindítása után
lehetőségünk van a következő paraméterek
megváltoztatására:
• kreatív (grafika, üzenet);
• felhívás a cselekvésre és az üzenet ajánlatrésze;
• reklámhely a weboldalon belül;
• landing (fogadó) weboldal és linkje;
• reklámmennyiség, gyakoriság és
kampányhossz;
• médiacélok, reklámozási célok.
Utóértékelés
Az adott keresőeszköz üzemeltetői minden
reklámhelyre, amely a weboldalukon található, meg
tudják mondani az adott kulcsszó rákeresési
gyakoriságát és az átlagos kattintási arányt.
Már ezekből az adatokból kiszámítható a
megrendelő weboldalának jövőbeni látogatottsága.
Reklámletöltés:
azaz ad szerver által szolgáltatott adatok,
minden online reklámkampányban segítenek
átlátni és pontosan irányítani a megrendelt
reklámletöltéseket.
Akár ügynökség, akár direkt megrendelő
irányítása alatt álló ad szerver azonnali
beavatkozásokat is lehetővé tesz.
Optimalizálhatjuk a reklámok megjelenési
számát, a kreatívok típusát, megjelenési
helyeket stb., ami a kulcsszavas reklámozásnál
igen fontos.
Kampányelemző:
minden nagyobb kereső a kulcsszavas kampányok
működtetésére, utóértékelésére és elszámolására
egy jelszavas webfelületet biztosít minden hirdető
számára.
Ilyen kampányirányítással és utóértékeléssel
biztosítva van a kulcsszavas reklámba befektetett
pénz megtérülése.
Naplófájl-elemzés:
A naplófájl-adatok a website-on történt minden
akcióról beszámolnak. Az adatok pl. elárulnak olyan
információkat, mint: honnan érkeznek a
látogatóink. Megmutatja, hogy melyik keresőből,
milyen kulcsszavak begépelésével érkeztek a
látogatóink. Ezeket az adatokat azért érdemes
figyelembe venni, mert valószínű, hogy a
webhelyünk tartalmából származnak. A naplófájl
adatok (kulcsszavak) útmutatóként szolgálnak a
website fejlesztése során.
Ezekkel az eszközökkel (ad szerver, kampányelemző
és naplófájl) kiszámolhatjuk a befektetett pénz
pontos megtérülését.
ETARGET (www.etarget.hu )
Az ETARGET rendszer szponzorált linkek
szolgáltatója a magyar, szlovák, cseh, román, szerb,
bulgáriai, horvát és lengyel piacon.
Lehetővé teszi ügyfelei számára, hogy a magyar
kereső portálokon, az első pozíciók között
jelenítsenek meg weboldalukra mutató linkeket.
Az ETARGET ügyfelei kiválaszthatják azokat a
kulcsszavakat, amelyekre keresve linkjeik
megjelennek. A legszélesebb körű PPC (Pay Per
Click – Kattintás alapú) szolgáltató rendszer.
Google AdSense program www.google.hu/ads
Az AdSense a Google hirdetéskiszolgáló programja.
A szolgáltatás lényege, hogy a weboldaltulajdonosok regisztráció után engedélyezhetik
weboldalukon szöveg, kép és videó formátumú
hirdetések megjelenítését, amely Cost Per Click
(CPC) vagy Cost Per Thousand (CPT) rendszerben
bevételhez juttathatja őket, a Google anyacégen
keresztül.
A rendszer fontos tulajdonsága, hogy az oldalon
megjelenő hirdetések összefüggésben állnak az
oldal szöveges tartalmával, így a hirdető cégek
nagyobb hatékonyságot érhetnek el célzott
reklámjaikkal.
A hirdetések a Google adminisztrációs felületének
segítségével testre szabhatóak, úgy lehet őket a
weboldalba illeszteni, hogy az teljes egészében
illeszkedjen a lap megjelenésébe: beállítható az
egyes bannerek mérete és a színvilága is.
5. A keresők értékelése
A keresők mérésére irányuló szabvány
létrehozása
Kezdetben a W3C konzorcium Web Characterization
Activity nevű munkacsoportja a mérési
módszereknek egy sorát definiálta, azonban ezek
közül egyik sem kapcsolódott a keresőeszközökhöz.
1999 végére a WCA munkacsoport megszüntette a
tevékenységét, ami nem bizonyult sikeresnek ezen
a területen.
Az eddig megjelent értékelésekben a kutatók az
internetes keresők minőségét számos mérték
alapján vizsgálták. Ezeknek a megbízható
mutatóknak a megtalálása rendkívül nehéz feladat,
számos vita folyik erről a kutatók körében.
A mértékek általános szabványának hiánya nagy
problémát jelent az értékelésekben.
E hiányosság miatt a keresőszolgáltatások
értékelésével foglalkozó kutatás jelenleg nem
egységes a használt módszerek tekintetében.
Oppenheim és Froehlich ezért egy olyan szabvány
kidolgozását javasolták, amely az alábbi mértékeket
tartalmazná:
1. pontosság, azaz a visszakeresett
dokumentumok összességén belül a releváns
dokumentumok aránya;
2. teljesség, a megtalált releváns
dokumentumoknak az összes (akár talált, akár
nem) releváns dokumentumhoz viszonyított
arányát jelenti;
3. relatív teljesség, azaz az adott kereső által
visszakeresett releváns dokumentumok száma
osztva az összes vizsgált keresők valamelyike által
megtalált releváns dokumentumok számával;
4. válaszidő, vagyis az, hogy mekkora az átlagos
időeltérés a keresőkérdés feltétele és a válasz
megadása között ;
5. tesztelési idő, azaz a tesztelésre fordított teljes
időtartam hossza;
6. egy adott időtartamon belül a találatok
megbízhatóságának mérése, melynek során a
találatokat megvizsgáljuk, hogy az adott
keresőkérdésre mindig ugyanazokat kapjuk-e;
7. zsákutcás, halott hivatkozások aránya;
8. ismétlődő találatok aránya;
9. találatok minősítése felhasználókkal;
10. grafikus felhasználói felület értékelése
(használata mennyire felhasználóbarát?);
11. a súgó és a keresőprogram mennyire hasznos a
kezdő és a tapasztalt felhasználók számára;
12. találatmegjelenítés, azaz az output
megjelenítési módja;
13. reklámok jelenléte;
14. a gyűjtemény vélhető érdeklődést lefedő volta
(angolul: coverage), vagyis, hogy milyen
mértékben tartalmaz a rendszer releváns
dokumentumokat. Ezt a mutatót az adott kereső
adatbázisában lévő összes releváns
dokumentum és az összes vizsgált kereső
adatbázisában található releváns
dokumentumok hányadosa adja;
15. elvárt keresési hossz, azaz átlagosan hány nem
releváns dokumentumot kell áttekintenie a
felhasználónak ahhoz, hogy bizonyos számú
releváns dokumentumot megtaláljon;
16. találatleírások terjedelme és olvashatósága.
Egyéb értékelési szempontok:
17. Testreszabhatóság: a keresőszolgáltatás
testreszabható-e?
18. Vizuális egyértelműség: a keresőkérdés és a
találatmegjelenítés világos, érthető és
következetes-e?
19. Navigáció: egyértelmű-e a navigációs eszközök
használata? Könnyen tudunk-e a
találatmegjelenítéstől a forrásdokumentumig
eljutni és fordítva?
20. A keresőszolgáltatás felkínál-e valamilyen
webes katalógust, amiben böngészhetünk.
Ez a lista természetesen bővülhet további új
mérési jellemzőkkel. Statisztikai szempontból
érdekes lenne megvizsgálni, hogy létezik-e
valamilyen összefüggés a felsorolt mutatók között.
A rendelkezésünkre álló szakirodalom rávilágított
arra, hogy mindenki maga választja ki a
vizsgálatához szükséges mutatókat és nincs
közmegegyezés arról, hogy milyen mértékek
használata lenne elengedhetetlenül fontos egy
mérés elvégzéséhez.
5.1. A cranfieldi vizsgálatok során
kidolgozott mértékek
Cranfieldben számos vizsgálatot végeztek az
1960-as években, melyek során 33 osztályozási
rendszer hatékonyságát hasonlították össze.
Mértékeket dolgoztak ki különböző szempontok
megválaszolására, mint pl.: az információkereső
nyelv kiválasztja-e a releváns tételeket vagy sem?
Visszamaradnak-e releváns tételek vagy sem?
A létrehozott mutatórendszer ezeknek a
szempontoknak a kölcsönös összehasonlításán
alapult.
Miután egy keresőkérdés alapján elvégeztek egy
irodalomkutatást, az osztályozási rendszer tételei
négy csoportba voltak sorolhatók:
a: releváns és visszakeresett dokumentumok;
b: releváns és nem visszakeresett dokumentumok;
c: nem releváns és visszakeresett dokumentumok;
d: nem releváns és nem visszakeresett
dokumentumok.
Ahol a+b+c+d megfelelt az N-nek, azaz a teljes
gyűjteménynek. A releváns dokumentumokat a+b
jelentette, a visszakeresett dokumentumokat a+c,
az összes irreleváns dokumentumot pedig c+d.
Ennek alapján a következő mértékeket definiálták:
1. teljesség: R (recall) = a/a+b
2. pontosság: P (precision) = a/a+c
3. fölösleg: F (fallout) = c/c+d
A teljesség mutató kifejezi, hogy a releváns
dokumentumok hányada került elő.
A pontosság megmutatja, hogy a visszakeresett
dokumentumok hányad része releváns.
A fölösleg mutatót a visszakeresett irreleváns
dokumentumok és az összes irreleváns
dokumentum hányadosa határozza meg.
A keresőszolgáltatások általában arra törekszenek,
hogy a teljesség legyen nagy, ezért a pontosságról
eleve nincsen szó.
A pontosság és a teljesség között fennálló
összefüggésről elmondható, hogy a pontosság a
teljesség hátrányára érvényesül, és mivel e két
fogalom fordított arányban áll egymással, ezért az
ideális keresési állapot lényegében sosem érhető el.
Minél teljesebb egy keresés, annál pontatlanabb,
mert a teljesség növelésével csökken a pontosság
és viszont: a pontosság növelése a teljesség
csökkenését vonja maga után.
5.2. A relevancia értelmezései a
szakirodalomban
„Mennyiségileg a relevancia adott keresőkérdés
vonatkozásában a visszakeresett tételek azon
hányada, amely objektív értelemben megfelel a
feltett kérdésnek” ([Ungváry-Vajda2002] 153. p.).
Egy másik meghatározás szerint
„a relevancia azt fejezi ki, hogy mekkora a
közelség a felhasználói kérdés és a talált
dokumentumok tartalma között (azaz azok a
dokumentumok, melyek a kérdésnek megfelelnek,
relevánsak)” ([Ungváry-Vajda2002] 155. p.).
A relevanciát úgy is definiálhatjuk, hogy az
hasonlósági kapcsolat a tárolt információ
reprezentációja (indextétel) és a kérdés
reprezentációja (keresőprofil) között ([HorváthSütheő2003] 175. p.).
Különbséget kell tennünk az ún. technikai és
tartalmi relevancia között.
Az előbbi a rendszer által relevánsnak ítélt
találatok relevanciáját jelenti (a Boole-algebrán
alapuló illesztéses kereséskor a visszakeresett
tételek technikai relevanciája minden esetben
100%), az utóbbi a felhasználó döntését
ugyanarról a tételről ([Horváth-Sütheő2003] 156157. p.).
A relevanciában sok szubjektív vonás található pl.
különböző használók eltérő álláspontot
képviselhetnek adott dokumentumnak egy kérdésre
vonatkozó relevanciáját vagy irrelevanciáját illetően
([Ungváry2001] 197. p.).
Mortimer Taube 1965-ben kiállt a szubjektív
relevanciafogalom használata mellett, és tiltakozott
mindenfajta „matematizált” relevancia bevezetése
ellen. Ez utóbbin alapuló képleteket pszeudomatematikai konstrukcióknak tekintette, melyekkel
az információkereső rendszerek hatékonyságát
számszerűen értékelték .
Van Rijsbergen szerint elvileg van olyan
relevanciafogalom, amelyet objektívnek tarthatunk,
s amelyet „logikai relevanciának” nevezhetünk
([Ungváry2001] 198. p.).
A relevancia fontos szerepet játszik a felhasználók
különböző információs igényeinek
megválaszolásában, azaz a számítógépes
tájékoztatásban.
A felhasználók az általuk keresett információt,
kutatási-fejlesztési témát természetes nyelven
fogalmazzák meg, amit keresőkérdésnek nevezünk.
A referensz interjú során a felhasználónak és a
tájékoztató könyvtárosnak át kell alakítania a
keresőkérdést keresőprofillá.
A természetes nyelvű keresőkérdésnek az adatbázis
információkereső nyelvére „lefordított” változatát
keresőprofilnak hívjuk.
Tehát a keresés megkezdése előtt a megfelelő
keresőprofil, más néven keresési stratégia
kialakítása a cél, amely releváns rekordokat
eredményez a keresésünkre.
A keresőprofil létrehozásához ismernünk kell az
adatbázis tárgyszavait, szakrendjét, a Boole-algebra
szabályainak használatát, valamint a számítógépes
keresőprogramot.
Ezek együttese határozza meg a keresőprofil
szerkezetét.
Ebben a kontextusban a relevanciát úgy lehet
meghatározni, hogy az a keresési stratégiában
megfogalmazott kritériumoknak eleget tevő
releváns rekordok halmaza.
„A hibás vagy hiányos stratégiával kikeresett
rekordok a nem releváns rekordok” ([Roboz98] 39.
p.).
Tanácsos a keresési stratégiát az általa
visszakeresett rekordokkal együtt azonnal
ellenőriznünk, s ha kell, a stratégiát nyomban
módosítanunk.
A keresőprofil módosítása olyan kihívás, ahol a
„keresés művészete”, a tájékoztató szakember
fantáziája és gyakorlata leginkább érvényesülhet.
5.3. Az internetes keresők elemzésével
kapcsolatos problémák
A keresők elemzésére irányuló kísérletek nem
egységes módszerekkel valósultak meg, ezért a
legtöbb kutatási beszámoló tájékoztató jellegűnek
tekinthető.
Eddig főként indexelőszolgáltatásokon végeztek
ilyen jellegű méréseket, de elvileg bármilyen típusú
kereső értékelhető.
Leighton és Srivastava szerint sok összehasonlító
értékelés ellentmondásos következtetésekre jutott
arra vonatkozóan, hogy melyik szolgáltatás nyújtja a
legrelevánsabb találatokat.
Ezenkívül több tanulmány kisebb tesztelési
kísérletek eredményeire épült, és nem számolt be
az általa használt módszertanról. Mivel ezek a
tanulmányok kevés tesztelési eredménnyel
rendelkeznek, ezért nem alkalmasak a mélyebb
szintű statisztikai elemzések végzésére.
A népszerű folyóiratokban közölt tanulmányok
gyakran nem ismertetik azt sem, hogy hány
keresést futtattak le mérés közben, és konkrétan
milyen keresőkérdéseket alkalmaztak.
A megjelent értékelések főként rendszerjellemzőket
vizsgáltak és azok összehasonlításait közölték több
keresőszolgáltatásra vonatkozóan.
Su megállapítja, hogy hiányzik a szisztematikus
megközelítés ezekből a tanulmányokból. Rámutat
arra, hogy a kutatóknak nincs egységes kialakult
véleménye arról, hogy mit mérjenek, és hogyan
mérjenek egy szolgáltatást. Megjegyzi, hogy a
legtöbb tanulmányból a felhasználók mint aktív
közreműködők kimaradnak.
Általában az első 10 vagy 20 lekérdezett találat
relevanciáját mérik. A relevancia ítéleteket többnyire
a kutatók hozzák meg, nem pedig a felhasználók.
A mérési eredmények rendszerint jelzik, hogy a
legjobbnak minősített második vagy harmadik kereső
között a teljesítménybeli különbség minimális.
Az értékelés során alkalmazott keresési folyamat
sokféleképpen befolyásolható pl. választható egy olyan
tárgykör, amelyről köztudott, hogy az egyik kereső
színvonalasabb szolgáltatást nyújt róla, mint a másik.
Fontos, hogy az értékelők ne legyenek elfogultak egyik
keresővel szemben sem, és megőrizzék
pártatlanságukat objektív módszerek alkalmazásával.
Ennek a szemléletnek tükröződnie kell a
keresőkérdések megválasztásában is.
A keresők minőségi információszolgáltatásában
problémát jelent a reklámok jelenléte, ami főként a
hirdetők érdekeit szolgálja, és távol esik a felhasználók
tényleges elvárásaitól.
Értékelésüket nagymértékben nehezíti az a tény, hogy a
keresők képesek befolyásolni a keresési találatokat
rendkívül burkolt formában.
Amennyiben nem feltűnő ez a befolyásolás, akkor azt
maga a piac is képes tolerálni. A reklámozásból
származó bevételek többnyire ösztönzik a keresőket a
gyengébb minőségű találatok szolgáltatására.
Az értékeléseknél külön gondot jelent a keresők állandó
változása, mivel azok gyakran fejlesztik a keresési
mechanizmusaikat és a felhasználói felületüket.
Ehhez párosul még az a tény, hogy a világháló egy
dinamikusan változó közeg. Ennek eredményeként a
megjelenő értékelések rendkívül rövid életűek, és csak
a pillanatnyi helyzetképet tükrözik a
keresőszolgáltatásokról.
Mindezek ellenére igenis van értelme elemezni a
használatban lévő keresőket, de szabványos értékelési
módszereket erre a feladatra nem alkalmazhatunk.
Általában megfigyelhető az a jelenség, hogy az
elemzések egyéni értékelési módszerekről számolnak
be, és többnyire elkerülik a szabványos értékelési
módszerek használatát is.
Az információkeresés területén végzett kutatások
rámutatnak arra, hogy rendkívül nehéz megfelelő
mértékeket találni az értékelésekhez.
Leggyakrabban a pontosságot és a teljességet
használják mutatókként, amelyek érzékenyek arra, hogy
a relevanciát hogyan definiáljuk és mérjük.
A teljesség mérése megköveteli, hogy az értékelők a
megtalált releváns találatok teljes halmazához
hozzáférhessenek, vagy a releváns találatokat képviselő
mintához. Ennek a követelménynek a kielégítése külön
problémát jelent az internetes keresők értékelésénél.
Sokan érveltek amellett, hogy nem lehet mérni a
teljességet, mert nehéz meghatározni a (visszakeresett
és a nem visszakeresett) releváns találatok összességét
egy bizonyos keresésre a weben.
Az eddig megjelent tanulmányok minimális mértékben,
vagy egyáltalán nem kísérelték meg a különböző
keresők teljességének a mérését.
A pontosság mérése főként emberi relevancia
ítéletektől függ, ezért rendkívül szubjektív. Azonban
annak mérése egyértelmű, hiszen a keresési találatok
megvizsgálása után azokat a releváns, illetve a nem
releváns dokumentumok halmazába soroljuk.
Spink és Greisdorf szerint jobb eredményeket
nyerhetünk, ha a bináris mérés helyett a relevancia
többféle szintjét definiáljuk. Ezeket a relevancia
szinteket már korábban is felhasználták az internetes
keresők pontosságának a mérésére.
Gordon és Pathak hangsúlyozta, hogy a relevancia
ítéleteket csak az eredeti információs igényekkel
rendelkező egyének hozhatják meg. Mások a
relevancia ítéletek meghozatalát szakértőkre, illetve
szakértői csoportokra bízzák.
A keresők visszakeresési teljesítményének mérésekor
egyéb mértékeket is használtak
pl. elemezték a keresők gyűjteményének lefedettségét
a weben, a felhasználói megelégedettséget, a
felhasználók keresési viselkedését és a találatok
megjelenítését.
Az eddig megjelent értékelésekben használt
módszerek négy fő csoportba sorolhatók:
1. Cranfieldi tanulmányok készítése egy szűk,
behatárolt témáról, ahol a kutató ismeri egyenként
a találatokat, és a releváns találatok kis halmazát
vizsgálja meg.
2. A relatív teljességet elemző cranfieldi tanulmányok.
Ebben az esetben a különböző
keresőszolgáltatásokkal nyert releváns találatokat
összeadják, amelyek a releváns találatok halmazát
képviselik. A kutatók ezután az adott kereső
esetében elemzik, hogy az mennyire képes a
releváns találatok halmazát visszakeresni.
3. Statisztikai módszerrel mintát vesznek a webről,
amelyben felmérik a releváns weboldalak számát.
Ezen a mintán vizsgálják a teljességet, és egy
cranfieldi tanulmányt készítenek róla.
4. A teljességet figyelmen kívül hagyó tanulmányok.
Ezek a kísérletek megpróbálják a teljességet más
mértékekkel helyettesíteni, mint pl.: gyűjtemény
lefedettség, indexelés, felhasználói felület, keresési
technikák, találatok megjelenítése, stb.
Értékelési problémák származhatnak a következetlen
relevancia ítéletekből, az automatizált technikák nem
megfelelő használatából, és abból, hogy a téma
másképpen szerepel a kezdeti kérdésfeltevésben, mint
a keresőhöz ténylegesen elküldött keresőkérdésben.
Az értékelésekben használt mutatók mérési
sajátosságai további problémákat okozhatnak. Ezért
megállapíthatjuk, hogy azok a mértékek, amelyek egy
adott esetben jól működnek nem biztos, hogy egy
másik helyzetben megfelelőek lesznek
5.4. Az internetes keresők értékeléséhez
javasolt módszertan
1. Az értékelés általános célkitűzéseinek
meghatározása: mit szeretnénk tesztelni, kiknek
és milyen céllal.
2. Az értékelésnél számításba jöhető
követelmények és az ezekhez kapcsolódó
mértékek áttekintése: végignézzük a kiválasztott
követelmények és a hozzájuk kapcsolódó mérési
jellemzők listáját. Közben felmérjük, hogy mely
követelmények, illetve azoknak milyen együttes
kombinációja elégíti ki a kutatási
elképzeléseinket.
3. Az internetes keresők elemzése: információt
gyűjtünk az értekélésben résztvevő eszközökről.
4. A kísérlet meghatározása: megtervezzük a
kísérletet, amely figyelembe veszi a korábban
definiált célkitűzéseinket és az adott
környezetet.
5. Az eredmények elemzése: a kísérlet
eredményeinek kifejtése a célok és az elvárások
tükrében.
A következő részben részletezzük az értékelés
egyes fázisait.
I. Az értékelés általános célkitűzéseinek
meghatározása:
Robertson szerint egy kísérletnél általában
ötféle célkitűzés jöhet számításba:
1. a különböző rendszerek összehasonlítása;
2. a rendszerek lehetséges fejlesztési irányainak
keresése;
3. a rendszer tervezésével kapcsolatos
elképzelések tesztelése;
4. a rendszer működésének ellenőrzése az előírt
szabványok és követelmények szerint;
5. általános alapelvek keresése és tesztelése.
Sokféle kérdést feltehetünk magunknak, amelyek
megválaszolása segít a kísérlet céljainak a
meghatározásában. Ezek pedig a következők
lehetnek:
A teszttel a legjobb teljesítményű internetes
keresőket szeretnénk-e meghatározni vagy egy
adott keresőt akarunk-e közelebbről megvizsgálni?
Több keresőszolgáltatást szeretnénk-e megvizsgálni
abból a célból, hogy tanulmányozzuk a lehetséges
fejlesztési irányaikat?
Össze szeretnénk-e hasonlítani a manuális és az
automatikus indexelés lehetőségeit egymással?,
stb.
A fenti kérdésekre adott válaszok egyben
befolyásolják azt is, hogy milyen szempontokra
helyeződjön a hangsúly mérés közben, és hogyan
alkalmazzuk azokat.
II. Az értékelésnél számításba jöhető
követelmények és az ezekhez kapcsolódó
mértékek áttekintése:
A teljesség igénye nélkül itt csak a legnépszerűbb
és a legfontosabb értékelési követelményeket
vesszük számba.
A relevancia minősül a legrégebbi mérőeszköznek.
Gyakran használták azt az információ-visszakereső
rendszerek értékelésében.
A relevancián kívül más egyéb mérési
követelményeket is figyelembe vettek a keresők
értékelésekor, a használatot és a felhasználói
megelégedettséget.
A relevanciával és a használattal kapcsolatban egy
sor mérési jellemzőt vezettek be a tesztelésekbe.
Ezek pedig a következők:
Pontosság: az információ-visszakeresés egyik
legnépszerűbb és leghagyományosabb mértéke.
Az internetes keresők pontosságának mérése
három irányból közelíthető meg:
1. Meghatározzuk egy adott keresésnél a releváns
találatok számát.
2. Felmérjük a különböző lefuttatott keresések
összes releváns találatának a számát.
3. A találatok relevanciáját rangsoroljuk egy
algoritmus segítségével.
A relevancia ítéletek bonyolultsága és
kétértelműsége miatt ne tulajdonítsunk nagy
fontosságot annak, hogy melyik lehetőséget
válasszuk.
Teljesség: a relevancia mérésének ez a második
legfontosabb mértéke.
Ezenkívül egyéb szempontok is igénybe vehetők a
keresők értékelésénél.
Pl. a gyűjtemény vélhető érdeklődést lefedő volta,
zaj, hozzáférhetőség, stb.
Zaj
Ez a mérték a használathoz kapcsolódik. A
zsákutcás, halott, és az ismétlődő hivatkozásokat
ellenőrizzük le együttesen, vagy külön-külön a
kutató elképzeléseitől függően.
Ez a jellemző tájékoztat minket arról, hogy a
felhasználó mennyi zajra számíthat a
keresőszolgáltatás használatakor, pl. milyen
lépéseket tettek a kereső adatbázisának frissítése
érdekében, és az ismétlődő weblapok kiszűrése
céljából.
Hozzáférhetőség
Ez a mérték szintén a használathoz kapcsolódik.
Itt tulajdonképpen azt ellenőrízzük, hogy milyen
gyakran nem érhető el a keresőszolgáltatás, és
hányszor küld hibaüzenetet számunkra a keresés
megadása után.
III. Az internetes keresők elemzése:
Egy hatékony értékelés megtervezésében rendkívül
fontos, hogy minél több információt gyűjtsünk
össze az elemzésben résztvevő eszközökről.
Javasolt információkat gyűjteni az alábbi
szempontokról:
 A szolgáltatás leírása:
röviden összefoglaljuk a keresőszolgáltatást, és
kiemeljük annak előnyös tulajdonságait. Érdemes
kitérnünk arra is, hogy ki a szolgáltatója, és mióta
működik a szolgáltatás, stb.
 Az adatbázis leírásának részleteznie kell a
következőket:
1. Az adatbázis mérete: az internetes keresők
szolgáltatói sok esetben a használatra vonatkozó
adatokat tüntetik fel a weboldalak számaként.
2. Az index adatbázis építése manuális vagy
automatikus indexeléssel történik-e?
3. Az indexelés milyen speciális forrásokra terjed ki
az Interneten (weblapok, Usenet üzenetek,
stb.)?
4. Az indexelési stratégia: Automatikus
indexelésnél a robot program milyen mélységig
jut el az adott web-site vizsgálatában?
5. Az aktualizálás gyakorisága: Milyen gyakran
frissítik az adatbázist?
6. Az indexelés a weblap mely elemeire terjed ki,
pl. a teljes szövegére vagy csak néhány sorára?
 Adatbevitel:
röviden részletezzük, hogy a felhasználó milyen
keresési képernyőket használhat az adott
keresőszolgáltatásnál.
 Keresési technikák:
felsoroljuk a felhasználó által igénybe vehető
keresési lehetőségeket, beleértve a Boolean
operátorokat, a helyzeti (távolsági/közelségi)
operátorokat, a csonkolást, a felhasználói
preferencia szerinti keresést, a mezők szerinti
keresést és szűkítést.
Fontos megvizsgálni azt, hogy a szolgáltatás
felkínál-e valamilyen téma szerinti web-site listát,
amiben szabadon böngészhetünk. Soroljuk fel azt
is, hogy milyen alapértelmezett operátorokat
használhatunk egy kulcsszavas keresésnél.
 Találatmegjelenítés:
összegyűjtjük, hogy a keresési találatokról a
felhasználók milyen leírást kapnak, pl. a találati
rekord tartalmazhatja: az URL-t, a weblap címét
vagy néhány sorát, a létrehozás dátumát, stb.
Részleteznünk kell, hogy a találatokról szóló
összefoglalások hogyan jönnek létre.
 Kiegészítő szolgáltatások:
számbavesszük az internetes keresőkhöz
kapcsolódó egyéb hasznos szolgáltatásokat
pl. e-mail, “chat” funkció, stb.
IV. A kísérlet meghatározása:
Egy kísérlet megtervezése az alábbi elemekre épül:
 A keresőkérdések kiválasztása:
Javasolt olvasói referenszkérdéseket alkalmazni
keresőkérdésként, és olyan keresőkifejezéseket
alkotni, amelyek tesztelik az internetes keresők
jellegzetességeit és jól tükrözik a keresés
bonyolultságának különböző szintjeit (pl.: egy vagy
több szavas keresőkifejezések használata, ÉS-,
VAGY- műveletek kipróbálása).
Igyekezzünk felhasználókat is bevonni az
értékelésekbe, akik összeállítják a
keresőkifejezéseket és egyben kiértékelik a
keresésre kapott találatokat. Tanácsos minél több
keresőkérdést használni, és azokat egymáshoz
közel egyidőben lefuttatni.
 A relevanciával kapcsolatos döntések:
A találatok elemzésébe tanácsos bevonni a kezdő
és a tapasztalt felhasználókat is, akik az első n
számú rekordot tanulmányozzák számunkra az
általunk megadott instrukciók alapján. Egyenlőre
még nem született közmegegyezés az n szám
pontos értékéről.
Ha a felhasználók bevonása az elemzésbe nem
lehetséges, akkor a rendelkezésre álló háttér
információink alapján értékelhetjük a találatokat.
 A vizsgálat tárgya:
Értékeléseket csupán az eredeti weblapok alapján
végezhetünk, mivel az internetes keresők találatai
nem minden esetben megbízhatóak. A tesztelés
pontos idejét és a keresett témát mindig
rögzítenünk kell az értékelés dokumentációjában.
V. Az eredmények elemzése:
A tesztelés eredményeit a meghatározott célok
szerint elemezzük. A különböző lefuttatott
keresések eredményeit átlagoljuk, ami alapján már
összehasonlításokat végezhetünk.
További következtetéseket vonhatunk le az
eredményekből a megfelelő statisztikai módszerek
segítségével.
De ügyeljünk arra, hogy minél több keresőkérdést
alkalmazzunk mérés közben, mert a tesztelési
eredmények csak így elemezhetők kielégítően.
Felhasznált irodalom
1. Damjanovich N.: Online marketing – alapoktól
felsőfokig. 2. rész: Keresőmarketing. Budapest,
2003, Bagolyvár.
2. Horváth T. – Sütheő P.: A tartalmi feltárás. In:
Könyvtárosok kézikönyve. 2. köt. Feltárás és
visszakeresés. Szerk. Horváth T., Papp I.
Budapest, 2001, Osiris. 35-186. p.
3. Roboz, P.: Számítógépes tájékoztatás. Online és
CD-ROM adatbázisok keresése. Budapest, 1998,
OSZK.
4. Szeredi P. [et al.]: A szemantikus világháló. In: A
szemantikus világháló elmélete és gyakorlata.
Szerz. Szeredi P. [et al.] Budapest, 2005,
Typotex. 17-59. p.
5. Ungváry R.: Az információkeresés értékelése.
In: Osztályozás és információkeresés.
Kommentált szöveggyűjtemény. 2. köt. Az
információkeresés és elmélete. Szerk. Ungváry
R., Orbán É. Budapest, 2001, OSZK. 195-202. p.
6. Ungváry R. – Vajda E.: Könyvtári
információkeresés. 2. jav. kiad. Budapest, 2002,
Typotex.