Bau effizienter und effektiver Metasuchmaschinen
Download
Report
Transcript Bau effizienter und effektiver Metasuchmaschinen
Bau effizienter und effektiver
Metasuchmaschinen
von Daniel Weichert
FU-Berlin
WS 03/04
Definition
„Eine Meta-Suchmaschine ist eine
Suchmaschine, deren wesentliches Merkmal
darin besteht, dass sie eine Suchanfrage an
mehrere andere Suchmaschinen weiterleitet,
die Ergebnisse sammelt und aufbereitet…“
(www.net-lexikon.de)
Global Interface
Search Engine
Daniel Weichert
Search Engine
FU-Berlin
Search Engine
2
Übersicht (1)
Vorteile von Metasuchmaschinen
Generelle Probleme durch unterschiedliche
Suchmaschinen
Architektur und Aufbau von MSMs
Funktionsweise einzelner MSMKomponenten
Weitere Herausforderungen
Daniel Weichert
FU-Berlin
3
Vorteile von Metasuchmaschinen
Erreichung höherer Internet-Abdeckung
Vorteile der Skalierbarkeit durch Nutzung
kleinerer (Spezial-)Suchmaschinen
Einfachere Benutzung bei „verstreuten
Daten“
Effizienteres Aussortieren nicht relevanter
Dokumente
Daniel Weichert
FU-Berlin
4
Übersicht (2)
Vorteile von Metasuchmaschinen
Generelle Probleme durch
unterschiedliche Suchmaschinen
Architektur und Aufbau von MSMs
Funktionsweise einzelner MSMKomponenten
Weitere Herausforderungen
Daniel Weichert
FU-Berlin
5
Generelle Probleme durch
unterschiedliche Suchmaschinen
Indexierungsmethode
Dokument-Term-Gewichtung
Anfrage-Term-Gewichtung
Vergleichs-Funktion
Dokument-Datenbank
Dokument-Version
Unvergleichbarkeit untereinander und
proprietäres Unwissen
Daniel Weichert
FU-Berlin
6
Übersicht (3)
Vorteile von Metasuchmaschinen
Generelle Probleme durch unterschiedliche
Suchmaschinen
Architektur und Aufbau von MSMs
Funktionsweise einzelner MSMKomponenten
Weitere Herausforderungen
Daniel Weichert
FU-Berlin
7
Aufbau einer Metasuchmaschine
„Architektur“ (1) User
1
User Interface
2
Database Selector
Search Engine
Daniel Weichert
Search Engine
FU-Berlin
8
Aufbau einer Metasuchmaschine
„Database Selector“
Auswahl nur sinnvoller Suchmaschinen
bei großer Suchmaschinenzahl
bei geringer Anzahl auszugebender Ergebnisse
Ressourceneinsparung
bei Anfrage-Weiterleitung in MSM-Umgebung
bei Anfrage-Auswertung in KomponentenSuchmaschine
durch weniger Netz-Verkehr
bei Rückgabe-Auswertung in MSM-Umgebung
Daniel Weichert
FU-Berlin
9
Aufbau einer Metasuchmaschine
„Architektur“ (2) User
1
User Interface
2
Database Selector
3
3
Document Selector
Search Engine
Daniel Weichert
Search Engine
FU-Berlin
10
Aufbau einer Metasuchmaschine
„Document Selector“
Auswahl zurückzugebender Dokumente
Direkte Beeinflussung der Rückgabe-Anzahl
Vergleich gegen einen „Ähnlichkeits-Grenzwert“
Maximale Anzahl sinnvoller Dokumente
Minimale Anzahl unnützer Dokumente
Durchführung für jede ausgewählte
Suchmaschine
Daniel Weichert
FU-Berlin
11
Aufbau einer Metasuchmaschine
„Architektur“ (3) User
1
User Interface
2
Database Selector
3
3
Document Selector
4
Query Dispatcher
5
5
Search Engine
Daniel Weichert
Search Engine
FU-Berlin
12
Aufbau einer Metasuchmaschine
„Query Dispatcher “
Verbindungsaufbau zu KomponentenSuchmaschinen
HTTP-Anfrage-Methode (GET/POST)
Suchanfrage-Format
Verändern der Suchanfrage
(Relative) Gewichtung der Anfrage-Terme
Anzahl der zurückzugebenden Dokumente
Daniel Weichert
FU-Berlin
13
Aufbau einer Metasuchmaschine
„Architektur“ (4) User
1
8
User Interface
2
Database Selector
3
7
3
Document Selector
Result Merger
4
Query Dispatcher
6
5
5
Search Engine
Daniel Weichert
Search Engine
FU-Berlin
14
Aufbau einer Metasuchmaschine
„Result Merger “
Verschmelzung der Rückgabe-Ergebnisse in
sinnvoller Weise
EINE Liste mit Ergebnissen
Beachtung der Dokument-Rückgabezahl der
MSM
Bewertung (ranking) auf Basis einer globalen
Vergleichsfunktion (gegeben durch MSM)
Daniel Weichert
FU-Berlin
15
Aufbau einer Metasuchmaschine
„Architektur“ (5) User
1
8
User Interface
2
Database Selector
3
7
3
Document Selector
Result Merger
4
Query Dispatcher
6
5
5
Search Engine
Daniel Weichert
Search Engine
FU-Berlin
16
Übersicht (4)
Vorteile von Metasuchmaschinen
Generelle Probleme durch unterschiedliche
Suchmaschinen
Architektur und Aufbau von MSMs
Funktionsweise einzelner MSMKomponenten
Weitere Herausforderungen
Daniel Weichert
FU-Berlin
17
Einzelne MSM-Komponenten
„Übersicht“ (1)
Suchmaschinen-Auswahl (database
selection)
Dokument-Auswahl (document selection)
Ergebnis-Verschmelzung (result merging)
Daniel Weichert
FU-Berlin
18
Einzelne MSM-Komponenten
„Database Selection“ (1)
Auswahl nur nützlicher Datenbanken mit Hilfe
von
einfachen Repräsentanten
statistischen Repräsentanten
lern-basierten Methoden
Daniel Weichert
FU-Berlin
19
Database Selection
„Einfache Repräsentanten“ (1)
Text-Beschreibung des Datenbank-Inhalts
Oftmals manuell erstellt
Vergleich Anfrage – Beschreibung
Verschiedene Techniken
Beschreibung des DB-Inhalts
Fachgebiets-Angabe plus Anfrage
Restrukturierung der Anfrage
Automatisch erstellte Repräsentanten (Bsp.:
Termvektoren als Repräsentanten)
Daniel Weichert
FU-Berlin
20
Database Selection
„Einfache Repräsentanten“ (2)
Beispiele:
NetSerf
ALIWEB
topic:
DOCUMENT
Perl
/public/perl/perl.html
Information on the Perl
Programming
Language. Includes a
local Hypertext Perl
Manual, and the latest
FAQ in Hypertext.
Keywords:
perl, perl-faq, language
Author-Handle: [email protected]
country
synset: [nation,
nationality, land,
country,
a_people]
synset: [state, nation,
country, land,
common-wealth,
res_publica,
body_politic]
synset: [country, state,
land, nation]
info-type: facts
Template-Type:
Title:
URI:
Description:
Daniel Weichert
FU-Berlin
21
Database Selection
„Einfache Repräsentanten“ (3)
Vorteile
Einfache Handhabung
Ressourcenschonend
Einsetzbar bei hoch spezialisierten Datenbanken
Nachteile
Datenbank-Beschreibung unzureichend
Eventuell Eingriff des Nutzers nötig bei DBAuswahl
Nicht gut einsetzbar bei umfassenden DB
Daniel Weichert
FU-Berlin
22
Einzelne MSM-Komponenten
„Database Selection“ (2)
Auswahl nur nützlicher Datenbanken mit Hilfe
von
einfachen Repräsentanten
statistischen Repräsentanten
lern-basierten Methoden
Daniel Weichert
FU-Berlin
23
Database Selection
„Statistische Repräsentanten“ (1)
Nutzung detaillierter Informationen einer KSM
Vorteil
über Dokument-Frequenz jedes Terms
über Durchschnitts-Gewicht eines Terms über alle
Dokumente …
Hohe Genauigkeit in Bestimmung der
Ähnlichkeiten von Dokumenten zu einer Anfrage
in einer KSM
Nachteil
Skalierbarkeit nicht immer optimal
Daniel Weichert
FU-Berlin
24
Database Selection
„Statistische Repräsentanten“ (2)
Methoden
Relative KSM-Bewertung
Absolute KSM-Bewertung
Relativer KSM-Ranking-Wert
Unabhängiger Ranking-Wert
Schätzung der Anzahl nützlicher Dokumente
Schätzung der globalen Ähnlichkeit des der
Anfrage am ähnlichsten Dokumentes
Daniel Weichert
FU-Berlin
25
Statistische Repräsentanten
„Ähnlichstes Dokument“ (1)
Definition:
Eine Menge von M Datenbanken ist optimal
gewichtet [D1, D2, …, DM], wenn es ein k gibt,
sodass D1, D2, …, Dk die m ähnlichsten
Dokumente beinhalten und jede Di (1<= i <= k)
mindestens eines der m Dokumente enthält.
Bedingung: msim(q, D1) > msim(q, D2) > …
msim(q, Di) = Globaler Vergleichswert des der
Anfrage ähnlichsten Dokumentes
Auswahl der ersten k KSMs
Daniel Weichert
FU-Berlin
26
Statistische Repräsentanten
„Ähnlichstes Dokument“ (2)
Bestimmung von msim(q, D):
Zwei Repräsentanten
Global: Globales inverses Dokument-Frequenz-Gewicht
gidfi für jeden Term ti
Lokal: Wertepaar (mnwi, anwi) mit
mnwi = Maximales normalisiertes Gewicht von ti
anwi = Durchschnittliches normalisiertes Gewicht von ti
Normalisiertes Gewicht = di / |d|
di = Gewicht von Term ti in Dokument d
|d| = Länge von Dokument d
Daniel Weichert
FU-Berlin
27
Statistische Repräsentanten
„Ähnlichstes Dokument“ (3)
Anfrage-Vektor q = (q1, q2, …, qk)
msim(q, D) =
Links: Anfrage-ähnlichstes Dokument hat
Maximumgewicht des i-ten Anfrage-Terms
/ |q|: Normalisierung von msim
Sortierung der KSMs nach msim(q, D)
Daniel Weichert
FU-Berlin
28
Statistische Repräsentanten
„Ähnlichstes Dokument“ (4)
Einfache Anpassung bei Wortzusammenhängen
Maximales normalisiertes Gewicht dominiert
üblicherweise um 2 oder mehr Ordnungen
wegen Einberechnungen der Null-Werte im
durchschnittlichen Gewicht
Einschränkung der Formel für msim(q, D) auf
msim(q, D) = max1<=i<=k {qi * ami} mit
ami = gidfi * mnwi [Angepasstes
normalisiertes Gewicht]
Daniel Weichert
FU-Berlin
29
Einzelne MSM-Komponenten
„Database Selection“ (3)
Auswahl nur nützlicher Datenbanken mit Hilfe
von
einfachen Repräsentanten
statistischen Repräsentanten
lern-basierten Methoden
Daniel Weichert
FU-Berlin
30
Database Selection
„Lern-basierte Methoden“
Nutzenbestimmung einer Datenbank durch
Erfahrungswerte
Verschiedene Techniken
Statisches Lernen
Dynamisches Lernen
MRDD (modeling relevant document distribution)
Ranking-Wert-Bestimmung u.a. durch „Maus-Klicks“
Kombination aus statischem und dynamischem
Lernen
Daniel Weichert
FU-Berlin
31
Statisches Lernen
„MRDD“ (1)
Bilden einer Menge von Trainings-Anfragen
Weiterleitung der T-Anfragen an alle KSM
Bilden eines Verteilungs-Vektors aus
relevanten Dokumenten pro T-Anfrage und
KSM
Identifikation der relevanten Dokumente aus
Rückgabeliste
Aufbau: Pro VV-Dimension Anzahl zu holender
Dokumente für nächstes relevantes Dokument
Daniel Weichert
FU-Berlin
32
Statisches Lernen
„MRDD“ (2)
Vergleich Benutzer-Anfrage/TrainingsAnfragen
Bestimmung der k ähnlichsten T-Anfragen
Pro KSM Errechnung eines DurchschnittsVerteilungs-Vektors der k T-Anfragen
Nutzung dieser Durchschnittsvektoren zur
KSM-Auswahl mit Blick auf PrecisionMaximierung
Daniel Weichert
FU-Berlin
33
Statisches Lernen
„MRDD“ (3)
Beispiel (Aufbau eines Verteilungsvektors):
Für T-Anfrage wurden 100 Dokumente in KSM
gefunden
(d1, d2, …, d100) [in dieser Reihenfolge]
Relevante Dokumente: d1, d6, d20, d88
Verteilungsvektor: {1, 6, 20, 88}
Daniel Weichert
FU-Berlin
34
Statisches Lernen
„MRDD“ (4)
Beispiel-Fortsetzung (KSM-Auswahl):
Durchschnitts-Vektoren:
D1: {1, 4, 6, 7, 10, 12, 17}
D2: {3, 5, 7, 9, 15, 20}
D3: {2, 3, 6, 9, 11, 16}
Anzahl auszugebender Dokumente:
m=3
Dokumentzahl pro KSM:
m1 = 1; m3 = 3
=>
Precision = 0,75
KSM-Auswahl:
D1, D3
Daniel Weichert
FU-Berlin
35
Suchmaschinen-Auswahl
„Zusammenfassung“
Einfache Repräsentanten
Statistische Repräsentanten
„Ähnlichstes Dokument“
Lern-basierte Methoden
MRDD
Daniel Weichert
FU-Berlin
36
Einzelne MSM-Komponenten
„Übersicht“ (2)
Suchmaschinen-Auswahl (database
selection)
Dokument-Auswahl (document selection)
Ergebnis-Verschmelzung (result merging)
Daniel Weichert
FU-Berlin
37
Einzelne MSM-Komponenten
„Document Selection“
Einschränkung der Ergebnis-DokumentenAnzahl
Entscheidung durch Benutzer
(Datenbank-)Gewichtete Auswahl
Lern-basierte Methoden
Garantierte Rückgabe (guaranteed retrieval)
Daniel Weichert
FU-Berlin
38
Document Selection
„Benutzer-Entscheidung“
Benutzer-Entscheidung über Maximalanzahl
der Rückgabe-Dokumente pro KSM
Vorteil
Einfachst-Implementierung
Nachteile
Nur bei kleiner KSM-Zahl und großem Wissen
über selbige günstig
Uneffektiv, wenn Dokument-Anzahl pauschal
angegeben (pro KSM
Dokumente)
Daniel Weichert
FU-Berlin
39
Document Selection
„Gewichtete Auswahl“
Mehr Dokumente von gewichtigeren (nach
‚database selection‘) KSM
Basierend auf ‚ranking score‘ oder ‚db rank‘
Vorteile
Einfache Implementierung
Vernünftige Grundlage
Nachteil
Möglicherweise zu wenig nützliche Dokumente
Daniel Weichert
FU-Berlin
40
Document Selection
„Lern-basierte Methoden“
Rückblick auf Retrieval-Erfahrungen
MRDD (modeling relevant document distribution)
QC (query clustering)
Daniel Weichert
FU-Berlin
41
Document Selection
„Lern-basiertes Query Clustering“ (1)
Trainingsphase mit „Übungs-Anfragen“
Clustering dieser Anfragen innerhalb jeder
KSM
Anfragen
Rückgabe-Dokumente
T-Anfrage 1
Dokument A, Dokument C, Dokument D
T-Anfrage 2
Dokument B, Dokument C, Dokument D
T-Anfrage 3
Dokument E, Dokument F, Dokument G
T-Anfrage 4
Dokument E, Dokument H, Dokument I
T-Anfrage 5
Dokument E, Dokument F, Dokument I
Daniel Weichert
FU-Berlin
Cluster
T-Anfrage 1
T-Anfrage 2
T-Anfrage 3
T-Anfrage 5
T-Anfrage 4
T-Anfrage 5
42
Document Selection
„Lern-basiertes Query Clustering“ (2)
Bilden des Durchschnittsvektors (centroid)
der Anfrage-Vektoren pro Cluster
Gewichtung der Cluster auf Basis
der Durchschnitts-Anzahl der relevanten
Dokumente
aus den besten T ausgegebenen Dokumenten
Clustergewicht ~ ‚Precision‘ der Anfragen
innerhalb des Clusters
Daniel Weichert
FU-Berlin
43
Document Selection
„Lern-basiertes Query Clustering“ (3)
Wahl des Clusters pro KSM nach Ähnlichkeit
mit Benutzer-Anfrage m.H. des ‚centroid‘
Nutzung aller ausgewählten ClusterGewichtungen zur Dokument-Auswahl
Dokumentanzahl aus KSM Di =
m = Gesamtzahl zurückzugebender Dokumente
wi = Gewicht des Anfrage-Clusters von Di
N = Anzahl der KSMs
Daniel Weichert
FU-Berlin
44
Document Selection
„Lern-basiertes Query Clustering“ (4)
Vorteile
Gute Ergebnisse bei großer Ähnlichkeit von
Trainings- und Benutzer-Anfragen
Nachteile
Schlechte Anpassungsfähigkeit des Verfahrens
Schwierige Auswahl der Trainings-Anfragen
Großer Zeitaufwand beim Filtern der relevanten
Dokumente bei hoher Zahl von TrainingsAnfragen
Daniel Weichert
FU-Berlin
45
Document Selection
„Garantierte Rückgabe“
Mitbetrachtung der globalen Vergleichsfunktionen
Umgehung von KSM-Unterschiedlichkeits-Problemen
Effektivitäts-Steigerung bei Filterung nützlicher und
unnützer Dokumente
Ziel: Rückgabe aller nützlichen bei Minimierung von
nutzlosen Dokumenten
Methoden
Anfrage-Modifikation
Berechnung des kleinsten lokalen Grenzwertes
Daniel Weichert
FU-Berlin
46
Garantierte Rückgabe
„Anfrage-Modifikation“
Veränderung der Anfrage vor Weiterleitung
an KSM
Ziel: Rückgabe der KSM-Dokumente in
Reihenfolge der globalen Ähnlichkeiten
Nachteile
Nicht jede Kombination von lokalen und globalen
Vergleichs-Funktionen möglich
Wissen über Vergleichs-Funktion und TermGewichtungs-Formel nötig
Daniel Weichert
FU-Berlin
47
Garantierte Rückgabe
„Kleinster lokaler Grenzwert“
Finden eines Ähnlichkeits-Grenzwertes pro
KSM, bei dem
alle relevanten Dokumente ausgegeben werden
keine unnützen Dokumente zurückgegeben
werden
Nachteile
Lösungsfindung für jedes Globale-LokaleVergleichsfunktions-Paar einzeln
Lösung existiert nicht immer
Daniel Weichert
FU-Berlin
48
Dokument-Auswahl
„Zusammenfassung“
Benutzer-Entscheidung
Gewichtete Auswahl
Lern-basierte Methoden
Query Clustering
Garantierte Rückgabe
Daniel Weichert
FU-Berlin
49
Einzelne MSM-Komponenten
„Übersicht“ (3)
Suchmaschinen-Auswahl (database
selection)
Dokumenten-Auswahl (document selection)
Ergebnis-Verschmelzung (result merging)
Daniel Weichert
FU-Berlin
50
Einzelne MSM-Komponenten
„Result Merging“ (1)
Verschmelzung der Such-Ergebnisse in
eine Liste
mit Bewertungen nach globaler Ähnlichkeit
Schwierigkeiten
KSM-Ranking mit eigener Vergleichsfunktion
Ähnlichkeitswert nicht unbedingt öffentlich
Mehrfache Rückgabe von Dokumenten
Daniel Weichert
FU-Berlin
51
Einzelne MSM-Komponenten
„Result Merging“ (2)
Lokale Ähnlichkeits-Anpassung
Nutzung zusätzlicher Informationen (KSMBewertung o.ä.)
Umwandlung von Dokument-Rang in
Vergleichswert
Globale Ähnlichkeits-Schätzung
Berechnung oder
Schätzung globaler Vergleichswerte von
Dokumenten
Daniel Weichert
FU-Berlin
52
Result Merging
„Local Similarity Adjustment“ (1)
Überlappungs-Möglichkeiten
Keine Überlappungen -> KSMs paarweise
disjunkt
Überlappungen, aber KSMs nicht identisch
KSMs sind identisch
Daniel Weichert
‚Data Fusion‘ – Nutzung verschiedener RankingMethoden für höhere Rückgabe-Effektivität
Ergebnis-Findung durch Anwendung einfacher
Funktionen (max, Summe, …)
Tritt nicht in MSMs auf
FU-Berlin
53
Result Merging
„Local Similarity Adjustment“ (2)
Einfach bei gegebenen lokalen
Vergleichswerten
Normalisierung der Vergleichswerte (0 < s <= 1)
Bsp.:
sd = Lokaler Vergleichswert von Dokument d
wD = Ranking-Wert von KSM D
Daniel Weichert
FU-Berlin
54
Result Merging
„Local Similarity Adjustment“ (3)
Nutzung des Dokument-Ranges ohne lokalen
Vergleichswert
Direkte Nutzung des Dokument-Ranges
Umwandlung von Dokument-Rängen in
Vergleichswerte
Daniel Weichert
FU-Berlin
55
Result Merging
„Local Similarity Adjustment“ (4)
Direkte Nutzung des Dokument-Ranges
Reihum nächst bestes Dokument der nächst besten KSM
in Liste einfügen
„Zufällige“ Auswahl (MRDD KSM-Auswahl)
Umwandlung von Dokument-Rängen
r = Lokaler Dokument-Rang
ri = Ranking-Wert von KSM Di
rmin = Niedrigster KSM-Ranking-Wert
m = Anzahl aller auszugebender Dokumente
Daniel Weichert
FU-Berlin
56
Result Merging
„Local Similarity Adjustment“ (5)
Problem: Vorhandensein eines Dokumentes
in mehreren KSMs
Lösungen
Nicht unbedingt sinnvoll bei MSM
Durchführung von LSA-Verfahren
danach Ergebnis-Behandlung wie in Pro-Fusion
KSM sieht Dokument nicht als sinnvoll an
Dokument eventuell in KSM nicht vorhanden
Forschungsgebiet
Daniel Weichert
FU-Berlin
57
Result Merging
„Global Similarity Estimation“
Berechnung oder Schätzung von globalen
Vergleichswerten
Dokument-Download (document fetching)
Nutzen von „gefundenem Wissen“
Daniel Weichert
Herausfinden von Indizierungs-Methode und VergleichsFunktion möglich
Wissen über Vergleichbarkeit von Vergleichsfunktionen,
Anpassungs-Möglichkeiten von Vergleichsfunktionen,
Bewertung von lokalen Vergleichsfunktionen in Hinblick
auf die globalen
FU-Berlin
58
Global Similarity Estimation
„Document Fetching“ (1)
Dokument wird normalerweise nicht
„mitgeliefert“
URL
höchstens eine Zusammenfassung
Download der KSM-Dokumente
Errechnung sämtlicher globaler VergleichsFunktionsparameter möglich (Kosinus-Funktion)
Globale Dokument-Frequenz ist Summe aller
lokalen Dokument-Frequenzen (bei wenig
Überlappung)
Daniel Weichert
FU-Berlin
59
Global Similarity Estimation
„Document Fetching“ (2)
Vorteile
Herausfiltern von nicht erreichbaren URLs
Ranking auf Basis aktueller Dokumente
Markierung der Suchwörter möglich
Nachteile
Zeit- und Ressourcenaufwendig
Daniel Weichert
Viele Dokumente (aber paralleles Downloaden)
Große Dokumente (aber nur Download des
Dokumentanfangs)
FU-Berlin
60
Ergebnis-Verschmelzung
„Zusammenfassung“
Lokale Vergleichswert-Anpassung
Globale Vergleichswert-Schätzung
Daniel Weichert
FU-Berlin
61
Übersicht
Vorteile von Metasuchmaschinen
Generelle Probleme durch unterschiedliche
Suchmaschinen
Architektur und Aufbau von MSMs
Funktionsweise einzelner MSMKomponenten
Weitere Herausforderungen
Daniel Weichert
FU-Berlin
62
Weitere Herausforderungen (1)
Integration lokaler Systeme mit
verschiedenen Indexierungsmethoden
Integration lokaler Systeme mit
verschiedenen Anfrage-Mustern
Informationsfindung zu KomponentenSuchmaschinen
Effektivere Ergebnis-Verschmelzung
Zusammenarbeit von MSM und
Komponenten-Suchmaschinen
Daniel Weichert
FU-Berlin
63
Weitere Herausforderungen (2)
Neue Indexierungs- und
Gewichtungsmethoden
Verbesserung der Effektivität der Metasuche
Verteilung der MSM-Komponenten
Standard-Fälle für Tests von „database
selection“, „document selection“ und „result
merging“
Daniel Weichert
FU-Berlin
64
Zusammenfassung
Aufbau einer Metasuchmaschine
MSM-Bauteil-Funktionen
Database Selector
Document Selector
Result Merger
Daniel Weichert
FU-Berlin
65
Quellenangaben
Weiyi Meng, Clement Yu, King-Lup Liu
“Building efficient and effective metasearch
engines” (ACM Computing Surveys, Volume
34 Issue 1. March 2002)
www.net-lexikon.de
Daniel Weichert
FU-Berlin
66