Steven Levy i Wired har lige oprettet en artikel, \ "Hvordan Googles algoritme Regler nettet \", med nogle sjove detaljer om, hvordan Google bruger konstant eksperimenteren, logs af søgninger og klik, og mange små fif til fortsat at forbedre deres søgeresultater.
Værd at læse. Nogle uddrag som en teaser: [Google Fellow Amit] Singhal noterer sig, at ingeniørerne i Bygning 43 udnytter ... de hundreder af millioner, der søger på Google. De data, folk skabe, når de søger - hvilke resultater de klikker på, hvilke ord de erstatter i forespørgslen, når de er utilfredse, hvordan deres forespørgsler match med deres fysiske placering - viser sig at være en uvurderlig ressource i at opdage nye signaler og forbedre betydningen af resultaterne.
\ "På de fleste Google-søgninger, du faktisk i flere kontrol-eller eksperimenterende grupper samtidigt, \" siger søgekvalitet ingeniør Patrick Riley. Så han korrigerer sig selv. \ "Væsentlige, \" siger han, \ "alle de forespørgsler er involveret i nogle test. \" Med andre ord, næsten hver gang du søger på Google, er du en lab rotte.
Denne fleksibilitet - muligheden for at tilføje signaler, tweak den bagvedliggende kode, og straks teste resultaterne - hvorfor Googlere siger, at de kan modstå enhver konkurrence fra Bing eller Twitter eller Facebook. Ja, i de sidste seks måneder har Google [fundet og] gjort mere end 200 improvements.Even så, rejser dette spørgsmålet om, hvor det sted, faldende afkast er med flere data og flere brugere. Mens nystartede mangler Googles heft, Yahoo og Bing er store nok til, at - hvis de løbende eksperiment, tweak, og lære af deres data så meget som Google gør - søgning kvalitetsforskelle sandsynligvis ville være i en umærkeligt lille bid af lange hale forespørgsler.
Abonner på:
Kommentarer til indlægget (Atom)
Ingen kommentarer:
Send en kommentar
Bemærk! Kun medlemmer af denne blog kan sende kommentarer.