Jak znaleźć?

Któż z nas nie korzysta z internetowych wyszukiwarek? Dysponują one olbrzymimi możliwościami, jednak daleko im jeszcze do rozumienia naszych intencji. Dla przykładu wpisując słowo "Linux" otrzymamy około 100 mln pozycji. Nie sposób przejrzeć ich wszystkich, więc jeżeli poszukiwana przez nas strona znajduje się dalej, to praktycznie nie mamy szans na jej odnalezienie.

Któż z nas nie korzysta z internetowych wyszukiwarek? Dysponują one olbrzymimi możliwościami, jednak daleko im jeszcze do rozumienia naszych intencji. Dla przykładu wpisując słowo "Linux" otrzymamy około 100 mln pozycji. Nie sposób przejrzeć ich wszystkich, więc jeżeli poszukiwana przez nas strona znajduje się dalej, to praktycznie nie mamy szans na jej odnalezienie.

Jednym z pomysłów na udoskonalenie wyszukiwarek jest personalizacja. Jeżeli wyszukiwarka będzie wiedzieć, że użytkownik jest zoologiem i wpisze słowo "mysz", to wyszukiwarka wyświetli strony o zwierzętach na początku. Jeżeli użytkownik jest informatykiem, to jako pierwsze pojawią się strony zawierające informacje o "komputerowym gryzoniu".

Computerworld podaje, że na uniwersytecie Colorado opracowywany jest Query Tracker. pośredniczący w wyszukiwaniu. Przekazuje zapytania użytkownika do wyszukiwarki raz dziennie. W wynikach podaje strony nowe oraz zmodyfikowane od ostatniej wizyty. Query Tracker automatycznie generuje codzienne zapytania, zdaniem naukowców są one bardziej efektywne od oryginalnych, gdyż program uczy się preferencji użytkownika.

Reklama

Z kolei na uniwersytecie Dalhousie w Halifax opracowywany jest mechanizm indeksacji treści stron www. Pozwoli obejść grzechy główne wyszukiwarek: zniekształcanie publikowanych wyników, w zamian za opłaty firm oraz ocenianie wielu nieistotnych informacji jako ważne. Przykładowo

przedsiębiorstwo finansowe stosując indeksowanie otrzyma wyniki zoptymalizowane pod kątem specjalistycznych informacji z dziedziny finansów, zamiast przeznaczonych dla przeciętnego użytkownika stron komercyjnych.

Obecnie wyszukiwarki badają tylko słowa kluczowe w oderwaniu od kontekstu. Najpierw wybierają dokumenty. w których znajdują żądane słowo, następnie aby stworzyć ranking sprawdzają ile stron zawiera linki do poszczególnych dokumentów. Gdyby możliwe było analizowanie grup stron zamiast pojedynczych stron uzyskiwano by lepsze rezultaty. Jednak do takiego przeszukiwania potrzebne są komputery o zdecydowanie większej mocy obliczeniowej, szacunkowo takie będą w powszechnym wykorzystaniu za 4-5 lat.

Na dzień dzisiejszy pozostaje nam trzymać kciuki za pomysły naukowców oraz wiara w nieograniczoność umysłu ludzkiego.

INTERIA/Computerworld

INTERIA.PL
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy