Biblioteka 2.0 on Facebook
Biblioteka 2.0 Strona Główna

Biblioteka 2.0
Forum społeczności czytelników i bibliotekarzy cyfrowych

FAQFAQ  SzukajSzukaj  UżytkownicyUżytkownicy  GrupyGrupy  StatystykiStatystyki
RejestracjaRejestracja  ZalogujZaloguj  AlbumAlbum  DownloadDownload

Poprzedni temat «» Następny temat
Wyszukiwarki tekstowe 2.0 i 3.0
Autor Wiadomość
Krzaki 

Wiek: 32
Dołączył: 01 Lip 2008
Posty: 76
Poziom: 7
HP: 0/130
 0%
MP: 62/62
 100%
EXP: 11/16
 68%
Wysłany: 2008-11-14, 00:30   Wyszukiwarki tekstowe 2.0 i 3.0

webhosting.pl napisał/a:
DeepDyve zanurkuje w Głęboką Sieć

W kwietniu bieżącego roku Google zapowiedziało, że zindeksuje tzw. Głęboką Sieć (ang. Deep Web, Hidden Web), czyli te zasoby Internetu, które normalnie nie są dostępne dla wyszukiwarek. Prace nad tym trwają. Tymczasem w tej dziedzinie firmie z Mountain View wyrósł niespodziewanie poważny konkurent. Wyszukiwarka DeepDyve, która powstała m.in. dzięki technologiom opracowanym na potrzeby Human Genome Project, to darmowe narzędzie do przeszukiwania baz danych, periodyków naukowych, nieustrukturyzowanej informacji i tych wszystkich źródeł danych, do których Googlebot wciąż nie potrafi zajrzeć.

Nowa wyszukiwarka wcześniej znana była jako Infovell. Teraz skupia całą swoją moc na naukach biologicznych, bazach patentów i danych z Wikipedii – do tej pory zindeksowała już pół miliarda poświęconych temu stron. Jednak to nie koniec – już wkrótce zajmie się indeksowaniem treści związanych z naukami fizycznymi, szczególnie w obszarach IT, ekologii i energetyki. Do końca roku indeks DeepDyve ma urosnąć do miliarda stron.

William Park, dyrektor generalny DeepDyve, powiedział, że według badań firmy analitycznej IDC ponad 42 miliony klientów spędza 25 godzin miesięcznie w Sieci na wyszukiwaniu informacji biznesowych i osobistych – a rezultaty, jakie uzyskują, oraz narzędzia, z których muszą korzystać, przynoszą im tylko frustrację. Park stwierdził zatem: „DeepDyve udostępnia wymagającym klientom jakościową informację, którą znaleźć można tylko w Ukrytej Sieci, wraz z funkcjonalnościami pozwalającymi na łatwe znalezienie, przefiltrowanie i zorganizowanie wyników”.

Celem DeepDyve jest doprowadzenie tej technologii do takiego stanu, by po wpisaniu kilku słów albo wklejeniu całego nawet artykułu z danej dziedziny do paska wyszukiwania użytkownicy byli w stanie znaleźć wszystkie powiązane artykuły w Głębokiej Sieci. W tym celu wykorzystywany jest algorytm o nazwie KeyPhrases, indeksujący fragmenty tekstu składające się nawet z 20 słów. Początkowo technologia ta została stworzona dla rozpoznawania długich łańcuchów DNA, dlatego nie ma niczego wspólnego z zagadnieniami semantycznymi. Park powiedział: „Jedyne, co tu zachodzi, to dopasowywanie wzorców, KeyPhrases jest bowiem całkowicie niezależny od języka”.



Dzięki tej technologii wyszukiwanie może bazować na dużej liczbie znaków – może ich być nawet 25 000. Dla porównania: Google Scholar pozwala na kwerendy składające się maksymalnie z 32 słów. – „Jeśli szukasz sekwencji dla niebieskich oczu, może być ona bardzo długa, dlatego zapytanie nie może być krótkie” – wyjaśnił Park. Algorytm będzie skanował całe łańcuchy tekstu pod kątem znajomych segmentów, szeregował je pod kątem zadanych kryteriów, a finalnie lokalizował najbardziej odpowiedni artykuł spośród tych, w których daną treść znaleziono. – „To czysta statystyka, podobnie jak to jest w genomice” – podsumował Park.

Nowa wyszukiwarka oczywiście nie zastąpi Google'a, ale dla ludzi na poważnie zajmujących się nauką, techniką czy kulturą może być prawdziwym wybawieniem – wiedza, którą można znaleźć w Sieci, wciąż jest jedynie niewielkim ułamkiem tego, co zostało np. wydane w periodykach naukowych.

źródło: TechWorld.com


deepdyve.com napisał/a:
Who DeepDyves? Using DeepDyve, anyone can dyve in and find high-quality information from trusted sources, as well as links to publishers' sites for purchasing expert information. People search DeepDyve for all kinds of reasons. (...)

Librarians
DeepDyve is a mainstay for librarians, who can now direct library users to better information that meets a wide range of inquiry.

(...)
 
     
Krzaki 

Wiek: 32
Dołączył: 01 Lip 2008
Posty: 76
Poziom: 7
HP: 0/130
 0%
MP: 62/62
 100%
EXP: 11/16
 68%
Wysłany: 2009-05-19, 01:10   

Wojciech Wowra na webhosting.pl napisał/a:
Akademickie projekty indeksują ukryte zasoby Sieci

Latem 2008 roku wyszukiwarka Google zindeksowała swój bilionowy adres www. Ten przełomowy moment miał jednak dla inżynierów z Mountain View nutę goryczy. Ich produkt nadal uwzględnia tylko ułamek danych znajdujących się w Internecie.

Informacje finansowe, katalogi e-sklepów, rozkłady lotów, dane medyczne i wszystkie inne zasoby przechowywane w bazach danych są w wielu wypadkach niewidoczne nawet dla zaawansowanych wyszukiwarek. Nie mają one bowiem dostępu do tak zwanej Głębokiej Sieci – czyli tych wszystkich danych, które są tak przygotowywane, by być dostępnymi tylko dla użytkowników danych serwisów.

Amerykańscy naukowcy pracują nad rozwiązaniami, które mają zrewolucjonizować proces tropienia danych w Internecie. Chodzi nie tylko o podwyższenie jakości dostarczanych linków, ale przekształcenie zasad, na jakich firmy promują się w Sieci i przekazują informacje potencjalnym klientom.

Anand Rajaraman – współzałożyciel firmy Kosmix, startupu zajmującego się zagadnieniami Głębokiej Sieci – uważa, że „Internet, który możemy przeszukiwać przy pomocy zwykłych robotów indeksujących to tylko wierzchołek góry lodowej”. Dlatego Kosmix pracuje nad oprogramowaniem, które pozwoli na analizowanie zawartości publicznych baz danych.

„Naszym celem nie jest znalezienie igły w stogu siana, lecz raczej wspieranie użytkowników w eksploracji tego stogu” – stwierdził Rajaraman. Danych jest jednak bardzo dużo, przeglądanie wszystkiego nie ma sensu. Dlatego tak ważne są technologie semantyczne oraz mechanizmy umożliwiające rozpoznanie poziomu dostępu oferowanego przez poszczególne bazy.

Doskonale rozumie to Google, które pracuje nad własnym rozwiązaniem w tym zakresie. Na czele grupy zadaniowej stoi Alon Halevy, były wykładowca informatyki Uniwersytetu Stanu Waszyngton. Celem jest stworzenie nowej generacji robota indeksującego, który będzie sprawdzał zawartość każdej bazy danych, wysyłając słowa kluczowe powiązane z jej ogólną tematyką.

Podobny projekt realizuje profesor Juliana Freire z Uniwersytetu Stanu Utah. Inicjatywa DeepPeep również bazuje na „zgadywaniu” zawartości baz danych. Trudno mówić w tym wypadku o pełnym rozpoznaniu treści. Profesor Freire twierdzi jednak, że jej mechanizm może zindeksować 90% dowolnego zbioru informacji.

Zapraszamy do zapoznania się z jedną z najskuteczniejszych wyszukiwarek do przeszukiwania Głębokiej Sieci, o której pisaliśmy w listopadzie ubiegłego roku w tekście DeepDyve zanurkuje w Głęboką Sieć.

Źródło: NYTimes.com




wnet blog napisał/a:
Wolfram Alpha – wyszukiwarka wiedzy

Od 16 maja możemy korzystać z nowego narzędzia wyszukiwania informacji – Wolfram Alpha.
Pisze się o tym serwisie jako o wyszukiwarce semantycznej – w istocie można zadawać pytania używając prostych zwrotów (oczywiście w języku angielskim), ale nie jest to wyszukiwarka internetowa w potocznym znaczeniu tego słowa.

Trochę teorii
Wolfram Alpha to dzieło angielskiego naukowca, Stephena Wolframa, znanego dotąd głównie z programu Mathematica, służącego do obliczeń symbolicznych i numerycznych.
Czym jest Wolfram Alpha?
Najprościej wytłumaczyć to porównując działanie WA z typową wyszukiwarką, na przykład Google.
Google – przynajmniej w podstawowym trybie - podaje wyniki wyszukiwania w postaci linków do znalezionych stron, odpowiadających treści zapytania.
Wolfram Alpha korzysta z „podłączonych” baz wiedzy i podaje wyniki w specyficznej formie, najczęściej w postaci wykresu czy zestawienia.
Jest to więc raczej serwis wyszukujący informacje i przygotowujący na tej podstawie odpowiedź na nasze pytanie. Wykorzystuje przy tym rozwijane od 1988 roku algorytmy programu Mathematica.

Przechodzimy do praktyki - czyli zobaczymy co serwis potrafi
Wolfram Alpha
dostępna jest pod adresem http://www.wolframalpha.com/



Oprócz normalnego okna do wpisywania zapytań, na stronie głównej są dostępne przykłady tematów, jak również – ostatnio udzielonych odpowiedzi.
Jest również link (Watch Overview Video) do filmu, pokazującego na przykładach możliwości serwisu.

Pytać możemy o różne rzeczy i w różny sposób. Oto kilka przykładów.

(...)
 
     
Krzaki 

Wiek: 32
Dołączył: 01 Lip 2008
Posty: 76
Poziom: 7
HP: 0/130
 0%
MP: 62/62
 100%
EXP: 11/16
 68%
Wysłany: 2009-06-10, 18:29   

Poniżej fragment anglojęzycznej (bo w polskiej sieci brak info) autoprezentacji springo.com która stanowi skrzyżowanie wyszukiwarki tekstowej z specjalistycznym katalogiem wyszukiwarek i serwisów informacyjnych. Wyszukiwarka jest dostępna także z poziomu przeglądarki po zainstalowaniu. Na razie nieźle to wygląda w odniesieniu do anglo-amerykańskiej sieci, ale projekt działa chyba od niedawna i może w przyszłości obejmować będzie też polską sieć ?

http://www.springo.com/aboutus.aspx napisał/a:
About Us

The Company

Springo Incorporated is a subsidiary of Netex (Net Express) Ltd. (TASE: NTX). Netex was established in 1999 and became a publicly listed company in May 2006.
Springo’s mission is to provide Internet services that empower people to quickly locate and get to the websites that
are most relevant for their needs.


The Springo Concept

The vast number of websites on the Internet makes it hard to get to the best site for a specific purpose. Most users choose between two strategies for dealing with the overwhelming array of sites: Either they stick with familiar sites,
or they try to narrow down an unmanageable number of search engine results. Both approaches may cause the user
to miss the websites that are most relevant—the sites that provide the precise information or services that they need.

Springo is a shortcutting tool that empowers users to rapidly and easily navigate to the best websites for each specific purpose.

* Springo singles out the most widely consulted websites—those sites that provide the information that most users need.
* Springo organizes the Internet according to categories and allows users to quickly navigate between categories, or focus or expand a search along the category tree.
* Springo directs users to specialized and expert sites, knowledge centers, and vertical sites that are most relevant to their search, since in many areas, no one site is likely to provide all the information that a user needs.
* Most Internet users can quickly and almost intuitively identify the websites that are most likely to provide the information that they need. The clear, user-friendly Springo visual interface enables users to assess a number of sites at a glance, without going through a time-consuming and irritating click-load-and-return process for each site.
* Springo ranks websites based on their actual popularity among users. Since user behavior is our only consideration, commercial factors and website optimization techniques do not impact our site rankings

(...)

 
     
Wyświetl posty z ostatnich:   
Odpowiedz do tematu
Nie możesz pisać nowych tematów
Nie możesz odpowiadać w tematach
Nie możesz zmieniać swoich postów
Nie możesz usuwać swoich postów
Nie możesz głosować w ankietach
Nie możesz załączać plików na tym forum
Możesz ściągać załączniki na tym forum
Dodaj temat do Ulubionych
Wersja do druku

Skocz do:  

Powered by phpBB modified by Przemo © 2003 phpBB Group
Biblioteka 2.0 : Forum społeczności czytelników i bibliotekarzy cyfrowych [Dokument elektroniczny] - Tryb dostępu http://forum.biblioteka20.pl
Korzystanie z portalu oznacza akceptację naszej polityki prywatności.
Strona wygenerowana w 0.08 sekundy. Zapytań do SQL: 9