Some(what) Grand Challenges for Information Retrieval 資訊檢索的挑

Download Report

Transcript Some(what) Grand Challenges for Information Retrieval 資訊檢索的挑

圖書資訊學
授課教師:卜小蝶教授
報告日期:2008.11.15
097153103 鄭美珍
097153104 邱亦秀
Some(what) Grand Challenges
for Information Retrieval
資訊檢索的挑戰
Nicholas J. Belkin
School of Communication,
Information and Library Studies
Rutgers University
大綱


文章來源
文章內容
1.
2.
3.
專題 Session
挑戰 Challenge
結論 Conclusion
(http://www.scils.rutgers.edu/~belkin/belkin.html)
文章來源
 2008年3月31日,於英國Glasgow
舉
辦的ECIR中keynote speech。
 ECIR: The annual European Conference
on Information Retrieval (ECIR) is the
major European forum for the presentation
of new research results in the broad field
of Information Retrieval.
1. 專題 Session

Information Retrieval 主流研究轉向!?



Karen Spärck Jones (1988年ACM SIGIR
Gerard Salton獎)
IR的進步,在於解決使用者問題
Tefko Saracevic (1997年ACM SIGIR Gerard
Salton獎)
IR是廣義的,不能只重視演算法、電腦及運
算;必須把使用者行為納入考量。
Ingwersen and Järvelin (2005) ,The Turn
使用者整合研究:任務、目的、資訊行為
ACM SIGIR Award

Gerard Salton Award
自1983年起,每三年評選一次,選出在IR研究中
具有重大、持續貢獻者:


1988年Karen Spärck Jones (1935-2007)
1997年Tefko Saracevic

Best Paper Award
Best Student Paper Award

Best Poster Award

(http://www.sigir.org/awards/awards.html)
2. 挑戰 Challenge
2.1 使用者的目的、任務、動機
2.2 一般資訊行為的支援
2.3 情境
2.4 效果
2.5 個人化
2.6 IR的整合
2.7 IR的評估範式
2.8 互動性IR的正式/非正式模組
2.1 挑戰:
使用者的目的、任務、動機
人們的目的、任務和動機,大大的影響
他們對使用效益的評斷
1.
2.
3.
有能力可以區分三者
在模糊線索中推論三者的方法
使用者行為研究,以及IR科技發展的整合
2.2 挑戰:一般資訊行為的支援
只為特定檢索(specified search)考
慮IR模組和技術
不夠!!
2.3 挑戰:情境

2006年IIiX會議(Information Interaction
in Context)專題討論會名稱:「What is
not context?」
everything is context !!
1.
2.
3.
找到方法去確認情境
情境如何影響資訊行為
可比較不同情境的評估方法
2.4 挑戰:效果


IR研究主流:IR系統的效率與有效性
變項:使用者的情緒
Kuhlthau, C. C. (1991). Inside the search process:
information seeking from the user’s perspective.
Journal of the American Society for Information
Science, 42, 361-371.
愉快的IR過程
使用者覺得有效
同等重要
2.4 挑戰:效果
1.
2.
3.
4.
5.
6.
體會到效果的重要性
了解資訊互動過程中會發生什麼情緒
找出確認情緒的方法
了解情緒的原因
加強IR科技
提升知識互動經驗
2.5 挑戰:個人化
1.
2.
3.
4.
想想個人化會發生什麼狀況
確認每個狀況的面向可以確實掌握
不同面向間的交互作用
一個考慮到所有結果並導入真實個人化經
驗的裝置
2.6 挑戰: IR的整合

IR研究的最終任務:使用者完全不用經由
不同的IR系統查得資料
meta-search?
2.7 挑戰: IR的評估範式

TREC - Text REtrieval Conference
支援資訊檢索領域的基礎研究,並提供大
型文字檢索方式的評估辦法

並不適合用來評估互動IR系統,這類系統
需要有非常嚴謹的限制,所以很難達到。

CLEF - Cross-Language Evaluation Forum

INEX - INitiative for the Evaluation of XML
Retrieval
2.7 挑戰: IR的評估範式

由網頁搜尋引擎(Web search engines)來
搜集並分析大量的互動查詢資料


我們可以看到研究分析中的質性差異
整合查詢行為及意圖的抽樣調查log分析

有問題!一般研究社群是否願意提供這些
資料?根據AOL的經驗
2.8 挑戰:
互動性IR的正式/非正式模組
目前在IR相關研討會(包括ECIR和SIGIR)
的論文,都是有關:
新的、或正式的IR模組(語言模組)
 改進的模組(流暢化)
 專業技術模組的成果
 技術的效益評估

2.8 挑戰:
互動性IR的正式/非正式模組
這些模組沒有為使用者設定
空間、沒有互動
1.
2.
Karen Spärck Jones
3.
資訊物件的呈現;
靜態查詢;
matching和排序的技術。
唯一的例外是Norbert Fuhr(2008)發表的論文
Fuhr, N. (2008) A probability ranking principle for
interactive information retrieval. Information
Retrieval, v.11: 251-265.
3. 結論 Conclusion
發展IR模組,須有使用者參與
 有各領域研究人員參與
 可能必須放棄已定型的IR模組

參考資料






Nicholas J. Belkin’s Home Page
http://www.scils.rutgers.edu/~belkin/belkin.html
ACM SIGIR (Special Interest Group on Information
Retrieval)
http://www.sigir.org/
TREC - Text REtrieval Conference
http://trec.nist.gov/
CLEF – Cross-Language Evaluation Forum
http://www.clef-campaign.org/
INEX - INitiative for the Evaluation of XML Retrieval
http://inex.is.informatik.uni-duisburg.de/
Prof. Dr.-Ing. Norbert Fuhr
http://www.is.informatik.uni-duisburg.de/staff/fuhr.html
報告完畢
謝謝~