Some(what) Grand Challenges for Information Retrieval 資訊檢索的挑
Download
Report
Transcript Some(what) Grand Challenges for Information Retrieval 資訊檢索的挑
圖書資訊學
授課教師:卜小蝶教授
報告日期:2008.11.15
097153103 鄭美珍
097153104 邱亦秀
Some(what) Grand Challenges
for Information Retrieval
資訊檢索的挑戰
Nicholas J. Belkin
School of Communication,
Information and Library Studies
Rutgers University
大綱
文章來源
文章內容
1.
2.
3.
專題 Session
挑戰 Challenge
結論 Conclusion
(http://www.scils.rutgers.edu/~belkin/belkin.html)
文章來源
2008年3月31日,於英國Glasgow
舉
辦的ECIR中keynote speech。
ECIR: The annual European Conference
on Information Retrieval (ECIR) is the
major European forum for the presentation
of new research results in the broad field
of Information Retrieval.
1. 專題 Session
Information Retrieval 主流研究轉向!?
Karen Spärck Jones (1988年ACM SIGIR
Gerard Salton獎)
IR的進步,在於解決使用者問題
Tefko Saracevic (1997年ACM SIGIR Gerard
Salton獎)
IR是廣義的,不能只重視演算法、電腦及運
算;必須把使用者行為納入考量。
Ingwersen and Järvelin (2005) ,The Turn
使用者整合研究:任務、目的、資訊行為
ACM SIGIR Award
Gerard Salton Award
自1983年起,每三年評選一次,選出在IR研究中
具有重大、持續貢獻者:
1988年Karen Spärck Jones (1935-2007)
1997年Tefko Saracevic
Best Paper Award
Best Student Paper Award
Best Poster Award
(http://www.sigir.org/awards/awards.html)
2. 挑戰 Challenge
2.1 使用者的目的、任務、動機
2.2 一般資訊行為的支援
2.3 情境
2.4 效果
2.5 個人化
2.6 IR的整合
2.7 IR的評估範式
2.8 互動性IR的正式/非正式模組
2.1 挑戰:
使用者的目的、任務、動機
人們的目的、任務和動機,大大的影響
他們對使用效益的評斷
1.
2.
3.
有能力可以區分三者
在模糊線索中推論三者的方法
使用者行為研究,以及IR科技發展的整合
2.2 挑戰:一般資訊行為的支援
只為特定檢索(specified search)考
慮IR模組和技術
不夠!!
2.3 挑戰:情境
2006年IIiX會議(Information Interaction
in Context)專題討論會名稱:「What is
not context?」
everything is context !!
1.
2.
3.
找到方法去確認情境
情境如何影響資訊行為
可比較不同情境的評估方法
2.4 挑戰:效果
IR研究主流:IR系統的效率與有效性
變項:使用者的情緒
Kuhlthau, C. C. (1991). Inside the search process:
information seeking from the user’s perspective.
Journal of the American Society for Information
Science, 42, 361-371.
愉快的IR過程
使用者覺得有效
同等重要
2.4 挑戰:效果
1.
2.
3.
4.
5.
6.
體會到效果的重要性
了解資訊互動過程中會發生什麼情緒
找出確認情緒的方法
了解情緒的原因
加強IR科技
提升知識互動經驗
2.5 挑戰:個人化
1.
2.
3.
4.
想想個人化會發生什麼狀況
確認每個狀況的面向可以確實掌握
不同面向間的交互作用
一個考慮到所有結果並導入真實個人化經
驗的裝置
2.6 挑戰: IR的整合
IR研究的最終任務:使用者完全不用經由
不同的IR系統查得資料
meta-search?
2.7 挑戰: IR的評估範式
TREC - Text REtrieval Conference
支援資訊檢索領域的基礎研究,並提供大
型文字檢索方式的評估辦法
並不適合用來評估互動IR系統,這類系統
需要有非常嚴謹的限制,所以很難達到。
CLEF - Cross-Language Evaluation Forum
INEX - INitiative for the Evaluation of XML
Retrieval
2.7 挑戰: IR的評估範式
由網頁搜尋引擎(Web search engines)來
搜集並分析大量的互動查詢資料
我們可以看到研究分析中的質性差異
整合查詢行為及意圖的抽樣調查log分析
有問題!一般研究社群是否願意提供這些
資料?根據AOL的經驗
2.8 挑戰:
互動性IR的正式/非正式模組
目前在IR相關研討會(包括ECIR和SIGIR)
的論文,都是有關:
新的、或正式的IR模組(語言模組)
改進的模組(流暢化)
專業技術模組的成果
技術的效益評估
2.8 挑戰:
互動性IR的正式/非正式模組
這些模組沒有為使用者設定
空間、沒有互動
1.
2.
Karen Spärck Jones
3.
資訊物件的呈現;
靜態查詢;
matching和排序的技術。
唯一的例外是Norbert Fuhr(2008)發表的論文
Fuhr, N. (2008) A probability ranking principle for
interactive information retrieval. Information
Retrieval, v.11: 251-265.
3. 結論 Conclusion
發展IR模組,須有使用者參與
有各領域研究人員參與
可能必須放棄已定型的IR模組
參考資料
Nicholas J. Belkin’s Home Page
http://www.scils.rutgers.edu/~belkin/belkin.html
ACM SIGIR (Special Interest Group on Information
Retrieval)
http://www.sigir.org/
TREC - Text REtrieval Conference
http://trec.nist.gov/
CLEF – Cross-Language Evaluation Forum
http://www.clef-campaign.org/
INEX - INitiative for the Evaluation of XML Retrieval
http://inex.is.informatik.uni-duisburg.de/
Prof. Dr.-Ing. Norbert Fuhr
http://www.is.informatik.uni-duisburg.de/staff/fuhr.html
報告完畢
謝謝~