torsdag den 18. november 2010

Google Car og Stanford Connection

Det var ikke så længe siden jeg tænkte på om der ville være en anden DARPA Grand Challenge. Jeg undrede mig, fordi de udfordringer, jeg havde fulgt, og så var så inspirerende. Husk i 2006 Grand Challenge, når Stanford holdet passerede målstregen først? Mand, jeg næsten hoppede op og ned med holdet ... Og hvis det DARPA Udfordringer var ikke fortsatte, ville forskerholdet gå frem med deres arbejde eller ville det være kommercialiseret?

Så for ganske nylig, vi hørte Google arbejder på et hemmeligt projekt, Google Car. En selvstændig køretøj at køre rundt i SF området. Wow! TechCrunch, Robert Scoble, NY Times og ReadWriteWeb har historien. Åh, og Google selvfølgelig.

Så Udfordringer ved arbejdet med den DARPA Grand er fortsat af Google. Og hvem er ansvarlig for dette projekt? Højre, lederen for det vindende hold i 2006, Dr. Sebastian Thrun. I 2006 var han ledende forsker ved Stanford AI lab. Så nu har vi Google algoritme og Google Car kommer fra Stanford (- for ikke at nævne mere ...)! Hvad bliver det næste?

onsdag den 17. november 2010

Foroeg din produktivitet med Google Analytics API

(Krydspostes fra Google Analytics Blog)

Tilbage i Episode 10 af Web Analytics TV, (32:00), Lisa C fra Melbourne spurgte, hvordan man trække en Trendvisning rapport fra Google Analytics til toppen organisk søgning destinationssider. Det var sådan et stort spørgsmål, som vi skrev 2 artikler og udgivet prøve kode, der beskriver, hvordan du kan automatisere hente disse data fra Google Analytics Dataeksport API. Men først lad os se på resultaterne.

Her er en graf at plotte trafik til de 100 bedste destinationssider for organisk søgning for alle juni for www.googlestore.com.

Lad os Analyser:
Dette er den typiske trend graf kan du finde på tværs af Google Analytics web interface. I sig selv, er alt hvad du kan fortælle, at der skete noget i løbet af spike. hvad du ikke kan finde ud af er, hvilken side rent faktisk steget i trafikken, til at gøre det ville kræve meget mere at grave.

Lad os nu prøve igen:
Her er et stablet område graf for hver af de top 100 destinationssider for organisk søgning.

Lad os Analyser:
Awesome ret! Så indlysende, hvorfor dette er køligere. Men lad mig forklare.

Lisa's graf, ovenfor, præsenterer forenklet betydeligt indsigter. Mærke til, hvor meget mere vi kan få fra denne graf. Vi kan se det grønne side er, hvad der forårsagede den store stigning. Vi også se, at de blå og orange sider havde interessante ændringer i trafikmønstre ændringer, vi kunne ikke finde frem fra grafen til venstre. At være i stand til at nedbryde de samlede grafen er virkelig en guldmine for analyse.

Typiske handlinger, som du, eller Lisa (!), Kan tage fra disse data er at få den økologiske søgeord for at sende trafik til den blå side. Dernæst kan fastslås, søgeord sende trafik til det grønne og orange side, og se om vi kan øge trafikken til andre sider.

Eksportere data fra web interface:
Nogen kan trække disse data fra Google Analytics web interface. Du skal blot oprette en brugerdefineret rapport med destinationssider og indgange. Bor derefter ind i hver enkelt destinationsside, og eksportere data til en csv-fil. Endelig kan du gå igennem alle csv filer og samle dem i en enkelt fil til analyse. Lad os illustrere:

Going gennem hver rapport er individuelt en masse manuelt arbejde, men vi kan automatisere alt dette ved hjælp af Data Export API, nedsættelse timers arbejde til et par minutter!

Brug af Dataeksport API til Automatisere:
I første del af vores serie, viser vi, hvordan man bruger Dataeksport API til at automatisere den nøjagtige opgave ovenfor. En bruger angiver 1 forespørgsel til at bestemme Topdestinationssider. FO hver landing side, er en særskilt forespørgsel bruges til at få data over tid.

Det er fantastisk, og vi byggede den til at arbejde med enhver forespørgsel med et enkelt dimension. Men bemærk, at antallet af søgninger stiger med antallet dimensioner. I virkeligheden er dette program kræver n + 1 forespørgsler, så hvis du ønsker data til 1.000 dimensioner, vil det tage 1.001 forespørgsler.

Det er skidt, fordi der er en daglig kvote på 10.000 forespørgsler til Data Export API. Så hvis du kørte programmet 10 gange, med 1.000 dimensioner, ville det kræve 10.010 søgninger helt ved hjælp af din kvote. Av!

Optimering Dataeksport API Anmodninger:
At reducere antallet af forespørgsler kræver, anden del af denne serie beskriver en alternativ tilgang til hentning af samme data, men minimerer antallet af nødvendige søgninger. I den anden tilgang, bruger vi Dataeksport API filter udtryk til at returnere data for flere dimensioner i hver anmodning.

Denne fremgangsmåde dramatisk reducerer mængden af krævede kvote. I bedste tilfælde er der kun 2 søgninger påkrævet.

Brug af denne anden fremgangsmåde, kan analytikere nu køre denne rapport til deres hjerter indhold. De kan gøre dette for forskellige tidshorisonter og forskellige dimensioner, hvis man sammenligner økologiske vs betalt trafik, tendenser søgeord søgemaskine, selv sammenligne trafik efter geografi.

Som vi nævnte, vi skrev to artikler, der beskriver begge fremgangsmåder og frigivet prøven kode for ansøgningen. Lad os vide det fantastiske indsigt finder du ved at bruge dette værktøj.

Have det sjovt!

Af Nick Mihailovski, Analytics API Team

mandag den 8. november 2010

Pr. George's raad hylderne afstemning om rejser til ikke-organiserede arbejdstagere

Pr. George's råd hylderne afstemning om rejser til ikke-organiserede arbejdere.
Post, 13 Oct 2010 (Spivak).
Vrede medlemmer af Prince George's County Council forsinket en 2 procent betaler rejse til ikke-organiserede amt arbejdere på tirsdag, beskylder County Executive Jack B. Johnson for at tilbageholde oplysninger om amtets finansielle situation.
[Full historie]