Keresőmotor - Search engine

A keresés eredményét a kifejezés „holdfogyatkozás” egy web-alapú képkereső motor

A kereső egy olyan szoftverrendszer , amelyet webes keresések végrehajtására terveztek . Szisztematikusan keresik a világhálón a szöveges webes keresési lekérdezésben meghatározott információkat . A keresési eredményeket általában találati sorban jelenítik meg, amelyeket gyakran keresőmotor találati oldalainak (SERP) is neveznek . Az információ lehet weboldalakra , képekre, videókra, infografikákra , cikkekre, kutatási dokumentumokra és más típusú fájlokat. Egyes keresőmotorok adatbázisokban vagy könyvtárakban elérhető adatokat is bányásznak . Ellentétben internetes könyvtárak , amelyek fenntartása csak emberi szerkesztők, a keresőmotorok is fenntartja a valós idejű információ futtatásával algoritmus egy web crawler . Az internetes tartalmakat, amelyekre nem lehet rákeresni egy webes keresőmotorral, általában mély webnek nevezik .

Történelem

Idővonal ( teljes lista )
Év Motor Jelenlegi állapot
1993 W3 Katalógus Aktív
Aliweb Aktív
JumpStation Inaktív
WWW Féreg Inaktív
1994 WebCrawler Aktív
Go.com Inaktív, átirányít a Disney -re
Lycos Aktív
Infoseek Inaktív, átirányít a Disney -re
1995 Jehu! Keresés Aktív, kezdetben a Yahoo! keresési funkciója ! Könyvtár
Daum Aktív
Magellán Inaktív
Izgat Aktív
SAPO Aktív
MetaCrawler Aktív
AltaVista Inaktív, a Yahoo! 2003 -ban, 2013 óta átirányítja a Yahoo!
1996 RankDex Inaktív, 2000 -ben beépítették a Baidu -ba
Kutyarakás Aktív, aggregátor
Inktomi Inaktív, a Yahoo!
HotBot Aktív
Kérdezd meg Jeeves -t Aktív (átnevezett ask.com)
1997 AOL NetFind Aktív ( 1999 óta új branded AOL Search )
Északi fény Inaktív
Yandex Aktív
1998 Google Aktív
Ixquick Aktív, mint Startpage.com
MSN keresés Aktív, mint a Bing
empák Inaktív (egyesítve a NATE -vel)
1999 AlltheWeb Inaktív (URL átirányítva a Yahoo -ra!)
GenieKnows Aktív, átnevezett Yellowee (átirányítás a justlocalbusiness.com címre)
Naver Aktív
Teoma Aktív (© APN, LLC)
2000 Baidu Aktív
Exalead Inaktív
Gigablast Aktív
2001 Karto Inaktív
2003 Info.com Aktív
2004 A9.com Inaktív
Csomós Aktív (mint Yippy)
Mojeek Aktív
Sogou Aktív
2005 SearchMe Inaktív
KidzSearch Aktív, Google Keresés
2006 Is-is Inaktív, egyesítve Sogou -val
Quaero Inaktív
Search.com Aktív
ChaCha Inaktív
Ask.com Aktív
Élő keresés Aktív, mint a Bing, az MSN Search márkaneve
2007 wikiseek Inaktív
Sproose Inaktív
Wikia keresés Inaktív
Blackle.com Aktív, Google Keresés
2008 Powerset Inaktív (átirányít a Bingre)
Picollator Inaktív
Viewzi Inaktív
Boogami Inaktív
LeapFish Inaktív
Forestle Inaktív (átirányít az Ecosia -ra)
DuckDuckGo Aktív
2009 Bing Aktív, új branded Live Search
Yebol Inaktív
Robusztus Inaktív a finanszírozás hiánya miatt
Cserkész (Goby) Aktív
NATE Aktív
Ecosia Aktív
Startpage.com Az Ixquick aktív motorja
2010 Blekko Inaktív, eladta az IBM -nek
Cuil Inaktív
Yandex (angol) Aktív
Parsijoo Aktív
2011 YaCy Aktív, P2P
2012 Volunia Inaktív
2013 Qwant Aktív
2014 Egerin Aktív, kurd / sorani
Svájci tehenek Aktív
Searx Aktív
2015 Yooz Aktív
Cliqz Inaktív
2016 Rekesztőháló Aktív, Google Keresés

Az 1990-es évek előtt

Vannevar Bush 1945-ben írta le Vannevar Bush egy cikkét az Atlanti-óceáni havilapban " As We Think Think " címmel , amelyben a közzétett információk helyének megállapítására szolgáló rendszert akarták kiküszöbölni az egyre növekvő nehézségekkel, hogy a tudományos munka egyre növekvő központosított mutatóiban megtalálják az információkat. kutatási könyvtárakat képzelt el a hozzájuk kapcsolódó megjegyzésekkel, nem úgy, mint a modern hiperhivatkozások . A link -elemzés végül a keresőmotorok kulcsfontosságú összetevőjévé válik, olyan algoritmusok révén, mint a Hyper Search és a PageRank .

1990 -es évek: Keresőmotorok születése

Az első internetes keresőmotorok már a Web megjelenését megelőzően, 1990 decemberében megjelentek: a WHOIS felhasználói keresés 1982-ből származik, a Knowbot Information Service többhálózatos felhasználói keresését pedig 1989-ben vezették be. Az első jól dokumentált keresőmotor, amely tartalomfájlokat keresett, nevezetesen az FTP fájlokat, az Archie volt , amely 1990. szeptember 10 -én debütált.

1993 szeptembere előtt a világhálót teljes egészében kézzel indexelték. Volt egy Tim Berners-Lee által szerkesztett és a CERN webszerveren tárolt webszerverek listája . A listáról 1992 -ben maradt egy pillanatkép, de mivel egyre több webszerver csatlakozott az internethez, a központi lista már nem tudta követni a lépést. Az NCSA oldalán új szervereket jelentettek be "Újdonságok" címmel

Az első eszköz, amelyet a tartalom keresésére használtak (szemben a felhasználókkal) az Interneten, az Archie volt . A név jelentése „archív” nélkül „v”., Ez hozta létre Alan Emtage számítástechnika hallgató McGill University in Montreal, Quebec , Kanada. A program letöltötte a nyilvános, névtelen FTP ( File Transfer Protocol ) webhelyeken található összes fájl könyvtárlistáját , kereshető adatbázist létrehozva a fájlnevekről; az Archie keresőmotor azonban nem indexelte ezen webhelyek tartalmát, mivel az adatmennyiség olyan korlátozott volt, hogy manuálisan is könnyen kereshető volt.

Emelkedik a Gopher (teremtett 1991-ben Mark McCahill a University of Minnesota ) vezetett két új keresési programokkal, Veronica és Jughead . Archie -hoz hasonlóan a Gopher -indexrendszerekben tárolt fájlnevekben és címekben is kerestek. Veronica ( V ery E ASY R odent- O riented N et kiterjedő I ndex hogy C omputerized A rchives) biztosított keresési kulcsszó a legtöbb Gopher menücímhez a teljes Gopher listák. Jughead ( J onzy féle U niversal G Opher H ierarchy E xcavation A ND D kijelzõn) eszköze volt megszerzéséhez menü információ specifikus Gopher szerverek. Míg a keresőmotor neve " Archie Search Engine " nem hivatkozott az Archie képregénysorozatra , a " Veronica " és a " Jughead " a sorozat szereplői, így utalva elődjükre.

1993 nyarán nem létezett keresőmotor a weben, bár számos speciális katalógust vezettek kézzel. Oscar Nierstrasz a Genfi Egyetemen a Perl forgatókönyveinek sorozatát írta, amelyek időszakosan tükrözték ezeket az oldalakat, és átírták szabványos formátumba. Ez képezte az alapját a W3Catalognak , a web első primitív keresőmotorjának, amely 1993. szeptember 2 -án jelent meg.

1993 júniusában, Matthew Gray, majd MIT termelt, ami valószínűleg az első web robot , a Perl alapú World Wide Web Wanderer , és használják azt, hogy létrehoz egy indexet az úgynevezett „Wandex”. A cél az volt, hogy Wanderer méretének mérésére a World Wide Web, ami meg is történt, amíg 1995 végén A web második kereső Aliweb megjelent 1993 novemberében Aliweb nem használja a web robot , hanem attól függött, hogy értesítést honlapján rendszergazdák , hogy egy adott formátumú indexfájl minden webhelyén léteznek.

A JumpStation ( Jonathon Fletcher 1993 decemberében hozta létre) webrobotot használt weboldalak keresésére és indexének felépítésére, és egy webes űrlapot használt lekérdezési programjának felületeként. Ez volt tehát az első WWW erőforrás-felfedező eszköz, amely egyesítette a webes keresőmotor három alapvető jellemzőjét (feltérképezés, indexelés és keresés) az alábbiakban leírtak szerint. Mivel azon a platformon, amelyen fut, korlátozott erőforrások állnak rendelkezésre, az indexelése és így a keresés is csak a bejáró által talált weboldalakon található címekre és címekre korlátozódott.

Az egyik első "teljes szöveges" bejáró-alapú keresőmotor a WebCrawler volt , amely 1994-ben jelent meg. Elődeivel ellentétben lehetővé tette a felhasználók számára, hogy bármilyen szóra keressenek bármely weboldalon, ami azóta minden nagy keresőmotor szabványává vált. Ez volt a keresőmotor is, amelyet a nyilvánosság széles körben ismert. Szintén 1994 -ben indult útjára a Lycos (amely a Carnegie Mellon Egyetemen kezdődött ), és jelentős kereskedelmi tevékenységgé vált.

Az első népszerű kereső a weben a Yahoo! Keresés . A Yahoo első terméke ! Által alapított Jerry Yang és David Filo 1994 januárjában volt Webkönyvtár nevű Yahoo! Könyvtár . 1995 -ben hozzáadtak egy keresési funkciót, amely lehetővé teszi a felhasználók számára a Yahoo! Könyvtár! Ez lett az egyik legnépszerűbb módja annak, hogy az emberek megtalálják az érdeklődő weboldalakat, de keresési funkciója a webcímtárában működött, nem pedig a weboldalak teljes szöveges másolatai között.

Nem sokkal később számos keresőmotor jelent meg, és versengtek a népszerűségért. Ezek közé tartozott a Magellan , az Excite , az Infoseek , az Inktomi , a Northern Light és az AltaVista . Az információkeresők a kulcsszóalapú keresés helyett böngészhetnek is a könyvtárban.

1996-ban Robin Li kifejlesztette a RankDex webhely-pontozási algoritmust a keresőmotorok találati oldalának rangsorolásához, és amerikai szabadalmat kapott a technológia számára. Ez volt az első keresőmotor, amely hiperhivatkozásokat használt az általuk indexelt weboldalak minőségének mérésére, megelőzve azt a nagyon hasonló algoritmus szabadalmat, amelyet a Google két évvel később, 1998 -ban nyújtott be. Larry Page hivatkozott Li munkásságára néhány amerikai szabadalmában a PageRank számára. Li később a Rankdex technológiáját használta a Baidu keresőmotorhoz, amelyet Robin Li alapított Kínában és 2000 -ben indított útnak.

1996 -ban a Netscape egyetlen keresőmotornak akart exkluzív ajánlatot adni, mint a Netscape webböngészőjének kiemelt keresőmotorja. Annyi volt az érdeklődés, hogy ehelyett a Netscape öt nagy keresőmotorral kötött üzletet: évi 5 millió dollárért minden keresőmotor rotációban lesz a Netscape keresőmotor oldalán. Az öt motor a Yahoo !, a Magellan, a Lycos, az Infoseek és az Excite volt.

A Google 1998 -ban fogadta el a keresőkifejezések értékesítésének ötletét, egy goto.com nevű keresőmotor -cégtől . Ez a lépés jelentős hatást gyakorolt ​​az SE üzletágra, amely a küzdőkből az internet egyik legjövedelmezőbb üzletévé vált.

A keresőmotorokat az 1990 -es évek végén bekövetkezett befektetési őrület egyik legfényesebb csillagaként is ismerték. Több vállalat is látványosan lépett be a piacra, rekordnyereséget kaptak a kezdeti nyilvános ajánlattételük során . Néhányan leállították nyilvános keresőmotorjukat, és csak vállalati kiadásokat forgalmaznak, mint például a Northern Light. Sok keresőmotor-céget elkapott a dot-com buborék , amely a spekuláció által vezérelt piaci fellendülés, amely 1990-ben tetőzött és 2000-ben ért véget.

2000-es évek-jelen: Post-com buborék

2000 körül a Google keresője előtérbe került. A vállalat számos keresésnél jobb eredményeket ért el a PageRank nevű algoritmussal , amint azt az Anatomy of a Search Engine című dokumentum is elmagyarázta, amelyet Sergey Brin és Larry Page , a Google későbbi alapítói írtak . Ez az iteratív algoritmus rangsorolja a weboldalakat a más webhelyek és az oda linkelő oldalak száma és PageRank alapján, abból a feltételezésből kiindulva, hogy a jó vagy kívánatos oldalak többhöz vannak linkelve, mint mások. Larry Page szabadalmaztatása a PageRank -ra Robin Li korábbi RankDex szabadalmát idézi . A Google minimalista felületet is fenntartott keresőmotorjához. Ezzel szemben sok versenytársa beágyazott egy keresőmotort egy internetes portálra . Valójában a Google kereső olyan népszerűvé vált, hogy olyan hamis motorok jelentek meg, mint a Mystery Seeker .

2000 -re a Yahoo! keresőszolgáltatásokat nyújtott az Inktomi keresőmotorja alapján. Jehu! 2002 -ben megvásárolta az Inktomit, 2003 -ban pedig az Overture -t (amelynek tulajdonában volt az AlltheWeb és az AltaVista). Yahoo! 2004 -ig váltott a Google keresőmotorjára, amikor saját keresőmotort indított a felvásárlások kombinált technológiái alapján.

A Microsoft 1998 őszén indította el először az MSN Search szolgáltatást az Inktomi keresési eredményeinek felhasználásával. 1999 elején a webhely elkezdte megjeleníteni a Looksmart listáit , az Inktomi eredményeivel keverve. 1999 -ben rövid ideig az MSN Search az AltaVista eredményeit használta fel. 2004 -ben a Microsoft megkezdte az átmenetet a saját keresési technológiájára, amelyet saját webrobotja ( msnbot ) működtet.

2009. június 1 -jén elindult a Microsoft Bing nevű keresőmotorja . 2009. július 29 -én a Yahoo! és a Microsoft megkötött egy üzletet, amelyben a Yahoo! A keresést a Microsoft Bing technológia hajtaná.

2019 -től az aktív keresőrobotok közé tartoznak a Google , a Petal , a Sogou , a Baidu , a Bing , a Gigablast , a Mojeek , a DuckDuckGo és a Yandex .

Megközelítés

A keresőmotor a következő folyamatokat tartja fenn közel valós időben:

  1. Internetes feltérképezés
  2. Indexelés
  3. Keresés

A webes keresőmotorok a webhelyről webhelyre történő feltérképezés útján szerezik be az információkat . A "pók" ellenőrzi a szabványos robots.txt fájlnevet , amely a címzettje. A robots.txt fájl a keresési pókok irányelveit tartalmazza, és megmondja, hogy mely oldalakat kell feltérképezni, és melyeket nem. Miután ellenőrizte a robots.txt fájlt, és vagy megtalálta, vagy sem, a pók bizonyos információkat visszaküldi az indexeléshez , sok tényezőtől függően, például a címek, az oldal tartalma, a JavaScript , a lépcsőzetes stíluslapok (CSS), a fejlécek vagy a metaadatai HTML metacímkék . Bizonyos számú feltérképezett oldal, indexelt adatmennyiség vagy a webhelyen töltött idő után a pók abbahagyja a feltérképezést, és továbblép. "[N] o az internetes feltérképező robot valójában feltérképezheti a teljes elérhető internetet. A végtelen webhelyek, pókcsapdák, spamek és a valódi web egyéb szükségletei miatt a feltérképező robotok helyette feltérképezési irányelveket alkalmaznak annak meghatározására, hogy mikor kell figyelembe venni egy webhely feltérképezését Néhány webhelyet kimerítően, míg másokat csak részben térképeznek fel. "

Az indexelés azt jelenti, hogy a weboldalakon található szavakat és más meghatározható tokeneket társítják a domain neveikhez és a HTML -alapú mezőkhöz. Az egyesületeket nyilvános adatbázisban hozzák létre, elérhetővé téve a webes keresési lekérdezéseket. A felhasználó lekérdezése lehet egyetlen szó, több szó vagy mondat. Az index segít a lehető leggyorsabban megtalálni a lekérdezéssel kapcsolatos információkat. Az indexelési és gyorsítótárazási technikák egy része üzleti titok, míg a webes feltérképezés egyszerű folyamat az összes webhely rendszeres felkeresésére.

A pók látogatásai között az oldal gyorsítótárazott változata (a megjelenítéséhez szükséges tartalom egy része vagy egésze) gyorsan eljut a kérdezőhöz. Ha egy látogatás késedelmes, a keresőmotor csak webes proxyként működhet . Ebben az esetben az oldal eltérhet az indexelt keresési kifejezésektől. A gyorsítótárazott oldal annak a verziónak a megjelenését tartalmazza, amelynek a szavait korábban indexelték, így az oldal gyorsítótárazott változata hasznos lehet a webhely számára, amikor a tényleges oldal elveszett, de ez a probléma a linkrot enyhe formájának is tekinthető .

A szabványos webrobot magas szintű architektúrája

Általában, amikor egy felhasználó lekérdezést ír be a keresőmotorba, néhány kulcsszó szerepel . Az index már tartalmazza a kulcsszavakat tartalmazó webhelyek nevét, és ezeket azonnal megkapja az indexből. A valódi feldolgozási terhelés a keresési eredmények listáját alkotó weboldalak létrehozásában rejlik: A teljes lista minden oldalát súlyozni kell az indexekben szereplő információk szerint. Ezután a felső keresési eredmény elemet igényel a kereséssel, rekonstrukció, és jelölő a töredék bemutató keretében a kulcsszavak kiegyenlített. Ezek csak részei az egyes keresési eredmények weboldalának feldolgozásának, a további oldalak pedig (a tetejénél) többet igényelnek az utólagos feldolgozásból.

Az egyszerű kulcsszókeresésen túl a keresőmotorok saját GUI- vagy parancsvezérelt operátorokat és keresési paramétereket kínálnak a keresési eredmények finomításához. Ezek biztosítják a szükséges vezérlőket azoknak a felhasználóknak, akik részt vesznek a visszacsatolási ciklusban, amelyet a felhasználók szűréssel és súlyozással hoznak létre, miközben finomítják a keresési eredményeket, tekintettel az első keresési eredmények kezdőlapjára. Például 2007 -től a Google.com keresőmotor lehetővé tette a szűrést dátum szerint: kattintson a "Keresési eszközök megjelenítése" elemre a kezdeti keresési eredményoldal bal szélső oszlopában, majd válassza ki a kívánt dátumtartományt. Lehetőség van dátum szerinti súlyozásra is , mivel minden oldalon van módosítási idő. A legtöbb keresőmotor támogatja a logikai operátorok AND, OR és NOT használatát, hogy segítsen a végfelhasználóknak finomítani a keresési lekérdezést . A logikai operátorok szó szerinti keresésekre szolgálnak, amelyek lehetővé teszik a felhasználó számára a keresés feltételeinek finomítását és kiterjesztését. A motor pontosan a megadott szavakat vagy kifejezéseket keresi. Egyes keresőmotorok a proximity search nevű speciális funkciót kínálják , amely lehetővé teszi a felhasználók számára a kulcsszavak közötti távolság meghatározását. Van koncepcióalapú keresés is, ahol a kutatás magában foglalja a keresett szavakat vagy kifejezéseket tartalmazó oldalak statisztikai elemzését.

Hasznosságát a kereső függ relevanciáját az eredmény meg nem adja vissza. Bár több millió weboldal tartalmazhat egy adott szót vagy kifejezést, egyes oldalak relevánsabbak, népszerűbbek vagy mérvadóbbak lehetnek, mint mások. A legtöbb keresőmotor módszerrel rangsorolja az eredményeket, hogy először a "legjobb" eredményeket biztosítsa. Az, hogy a keresőmotor hogyan dönti el, hogy mely oldalak felelnek meg a legjobban, és hogy milyen sorrendben kell megjeleníteni az eredményeket, motoronként nagyon eltérő. A módszerek az idő múlásával az internethasználat és az új technikák fejlődésével is változnak. A keresőmotorok két fő típusa fejlődött ki: az egyik az előre meghatározott és hierarchikusan rendezett kulcsszavak rendszere, amelyet az emberek széles körben programoztak. A másik egy olyan rendszer, amely " fordított indexet " generál az általa talált szövegek elemzésével. Ez az első forma sokkal nagyobb mértékben támaszkodik a számítógépre, hogy elvégezze a munka nagy részét.

A legtöbb internetes keresőmotor kereskedelmi vállalkozás, amelyet hirdetési bevételek támogatnak, és így néhányuk lehetővé teszi a hirdetők számára , hogy díjazás ellenében a hirdetési listájukon a rangsorban magasabb rangsorolást érjenek el. Azok a keresőmotorok, amelyek nem fogadnak el pénzt keresési eredményeikért, pénzt keresnek azzal, hogy a kereséssel kapcsolatos hirdetéseket a normál keresőmotor találatai mellett futtatják . A keresőmotorok pénzt keresnek minden alkalommal, amikor valaki rákattint ezekre a hirdetésekre.

Helyi keresés

A helyi keresés az a folyamat, amely optimalizálja a helyi vállalkozások erőfeszítéseit. A változásokra összpontosítanak, hogy minden keresés következetes legyen. Ez azért fontos, mert sokan a kereséseik alapján határozzák meg, hogy hova terveznek menni és mit vásárolni.

Piaci részesedés

2021 augusztusától a Google messze a világ leggyakrabban használt keresőmotorja, piaci részesedése 92,03%, a világ többi leggyakrabban használt keresője pedig a Bing , a Yahoo! , Baidu , Yandex és DuckDuckGo .

Oroszország és Kelet -Ázsia

Oroszországban a Yandex piaci részesedése 61,9%, szemben a Google 28,3%-ával. Kínában a Baidu a legnépszerűbb keresőmotor. Dél -Korea saját fejlesztésű keresési portálját, a Naver -t az országban végzett online keresések 70% -ában használják. Jehu! Japán és a Yahoo! Tajvan a legnépszerűbb internetes keresési lehetőség Japánban, illetve Tajvanon. Kína azon kevés országok egyike, ahol a Google nem szerepel az első három internetes keresőmotor között a piaci részesedés tekintetében. A Google korábban a legnépszerűbb keresőmotor volt Kínában, de a cenzúrával kapcsolatos nézeteltérés és a kibertámadás után visszalépett.

Európa

A legtöbb ország piacát az Európai Unióban a Google uralja, kivéve Csehországot , ahol Seznam erős versenytárs.

A kereső Qwant székhelye Párizs , Franciaország , ahol ez vonzza a legtöbb 50 millió havi regisztrált felhasználók.

Keresőmotor torzítás

Habár a keresőmotorok úgy vannak programozva, hogy rangsorolják a webhelyeket népszerűségük és relevanciájuk valamilyen kombinációja alapján, az empirikus tanulmányok különböző politikai, gazdasági és társadalmi elfogultságokat jeleznek az általuk nyújtott információban és a technológiával kapcsolatos alapfeltevésekben. Ezek az elfogultságok közvetlen következményei lehetnek a gazdasági és kereskedelmi folyamatoknak (pl. Azok a vállalatok, amelyek keresőmotorral hirdetnek, népszerűbbek lehetnek organikus keresési eredményei között) és a politikai folyamatok (pl. A keresési eredmények eltávolítása a helyi törvények betartása érdekében) ). Például a Google nem fog felszínre hozni bizonyos neonáci weboldalakat Franciaországban és Németországban, ahol a holokauszt tagadása jogellenes.

Az elfogultságok társadalmi folyamatok következményei is lehetnek, mivel a keresőmotor-algoritmusokat gyakran úgy tervezik, hogy kizárják a nem normatív nézőpontokat a "népszerűbb" eredmények javára. A nagy keresőmotorok indexelő algoritmusai az USA-n belüli webhelyek lefedettsége felé fordulnak, nem pedig az Egyesült Államokban kívüli országokból származó webhelyek felé.

A Google Bombing egy példa arra, hogy politikai, társadalmi vagy kereskedelmi okokból manipulálni próbálják a keresési eredményeket.

Több tudós tanulmányozta a keresőmotorok által kiváltott kulturális változásokat, valamint bizonyos ellentmondásos témák képviseletét eredményeikben, mint például az írországi terrorizmus , az éghajlatváltozás tagadása és az összeesküvés -elméletek .

Személyre szabott eredmények és szűrőbuborékok

Sok keresőmotor, mint például a Google és a Bing, személyre szabott találatokat biztosít a felhasználó tevékenységi előzményei alapján. Ez ahhoz vezet, hogy miszerint már úgynevezett szűrő buborék . A kifejezés olyan jelenséget ír le, amelyben a webhelyek algoritmusok segítségével szelektíven kitalálják, hogy a felhasználó milyen információkat szeretne látni, a felhasználóra vonatkozó információk alapján (például hely, múltbeli kattintási viselkedés és keresési előzmények). Ennek eredményeképpen a webhelyek általában csak olyan információkat jelenítenek meg, amelyek megegyeznek a felhasználó korábbi nézőpontjával. Ez a felhasználót értelmi elszigeteltség állapotába hozza, ellentétes információk nélkül. Kiváló példák a Google személyre szabott keresési eredményei és a Facebook személyre szabott hírei. A kifejezést kitaláló Eli Pariser szerint a felhasználók kevésbé vannak kitéve az ellentmondó nézeteknek, és intellektuálisan elszigetelődnek saját információs buborékukban. Pariser elmondott egy példát, amelyben az egyik felhasználó a "BP" kifejezésre keresett a Google -on, és befektetési híreket kapott a British Petroleumról, míg egy másik kereső információt kapott a Deepwater Horizon olajszennyezésről, és hogy a két keresési eredményoldal "feltűnően különböző". Pariser szerint a buborékhatásnak negatív következményei lehetnek a polgári beszédre. Mióta ezt a problémát azonosították, versengő keresőmotorok jelentek meg, amelyek úgy próbálják elkerülni ezt a problémát, hogy nem követik vagy "buborékolják" a felhasználókat, mint például a DuckDuckGo . Más tudósok nem osztják Pariser nézetét, és a tézisét alátámasztó bizonyítékokat nem találják meggyőzőnek.

Vallási keresőmotorok

Az internet és az elektronikus média globális növekedése az arab és muszlim világban az elmúlt évtizedben arra ösztönözte az iszlám híveket a Közel-Keleten és az ázsiai szubkontinensen , hogy saját keresőmotorjaikat, saját szűrt keresési portáljaikat próbálják ki, amelyek lehetővé teszik a felhasználók számára, hogy végezzen biztonságos keresést . Ezek a szokásosnál biztonságosabb keresési szűrők, ezek az iszlám internetes portálok , amelyek az "iszlám törvényének" értelmezése alapján " halal " vagy " haram " kategóriába sorolják a webhelyeket . ImHalal online lett 2011 szeptemberében Halalgoogling online lett 2013 júliusában Ezek felhasználása Haram szűrőket a gyűjteményeket a Google és a Bing (és mások).

Míg a beruházások hiánya és a technológiai lassú ütem a muszlim világban akadályozta az előrehaladást és meghiúsította az iszlám keresőmotor sikerét, amely fő fogyasztóként az iszlám híveket célozta meg , az olyan projektek, mint a Muxlim , egy muzulmán életmód webhely, dollármilliókat kaptak olyan befektetőktől, mint Rite Internet Ventures, és ez is akadozott. Más vallásorientált keresőmotorok a Jewogle, a Google zsidó változata és a SeekFind.org, amely keresztény. A SeekFind kiszűri azokat a webhelyeket, amelyek megtámadják vagy lerontják hitüket.

Keresőmotor beküldése

A webes keresőmotorok beküldése olyan folyamat, amelyben a webmester közvetlenül egy keresőmotornak küld be egy webhelyet. Míg a keresőmotorok beküldését néha a webhely népszerűsítésének egyik módjaként mutatják be, általában erre nincs szükség, mivel a nagy keresőmotorok olyan internetes robotokat használnak, amelyek végül segítség nélkül megtalálják a legtöbb webhelyet az interneten. Egyszerre csak egy weboldalt küldhetnek be, vagy egy webhelytérkép segítségével elküldhetik a teljes webhelyet , de általában csak egy webhely kezdőlapját kell benyújtani, mivel a keresőmotorok képesek feltérképezni egy jól megtervezett webhelyet. Két további oka van annak, hogy egy webhelyet vagy weboldalt keresőmotorhoz küldjön: egy teljesen új webhely hozzáadása anélkül, hogy megvárná, amíg a keresőmotor felfedezi azt, és a webhely rekordjainak frissítése a lényeges újratervezés után.

Néhány keresőmotor -beküldő szoftver nemcsak weboldalakat küld el több keresőmotornak, hanem saját oldalaikról is hozzáad linkeket a webhelyekhez. Ez hasznosnak tűnhet a webhely rangsorának növelésében, mivel a külső linkek az egyik legfontosabb tényezők, amelyek meghatározzák a webhely rangsorolását. John Mueller, a Google munkatársa azonban kijelentette, hogy ez "rendkívül sok természetellenes linkhez vezethet a webhelyén", és negatív hatással van a webhely rangsorolására.

Lásd még

Hivatkozások

További irodalom

Külső linkek