Realtime Twitter Search via Google – howto

Ce-i lipsește twitter-ului este un motor de căutare realtime și care să folosească relevanța, așa cum face google.

Așa că mai bine folosim google pentru a căuta pe twitter. Următorul script ,probabil, va încărca foarte mult google în timp și chiar sunt curios ce va face google…probabil va cumpăra twitter.

Ce aveți nevoie:

  1. Firefox o versiune decentă. Merge și Flock. Nu funționează pe IE, Safari sau alte browsere.
  2. Greasemonkey addon pe care-l găsiți aici
  3. Instalați scriptul Twitter Search Results on Google pe care-l găsiți pe userscripts.org la adresa asta(dați click pe butonul Install din dreapta paginii)
  4. împrăștiați vestea pe twitter

Căutare plăcută.

via openpresswire.com

Update: uitasem, merge ok pentru limba engleză…oricum nu româna, deci hl=en


Cum vede Microsoft viitorul în 2019

<a href="http://video.msn.com/?mkt=en-GB&#038;playlist=videoByUuids:uuids:a517b260-bb6b-48b9-87ac-8e2743a28ec5&#038;showPlaylist=true&#038;from=shared" title="Future Vision Montage" target="_new">Video: Future Vision Montage</a>


Embedr Online Video Playlist

La capitolul bine de știut, embedr.com permite crearea de playlist-uri și share de materiale de pe youtube, vimeo, Daily Motion, Blip.tv, College Humour (lista completă).

Exemplu: Life After People, listă făcută din 9 filmulețe youtube, fiecare de câte 10 minute.


via lifehacker.com

Cine folosește twitter?

Cine folosește facebook, digg, linkeding, myspace, slashdot, reddit, etc puteți afla aici


Washington Times gândește opensource

Ieri washingtontimes.com a decis să împărtășească câteva din sursele folosite de ei pentru ziarul online.

Sursele sunt module ale platformei django, o platformă de dezvoltare a aplicațiilor web
dezoltată în python pe principiul MVC, tot mai larg adoptată de programatori, mai ales după ce Google s-a decis să sprijine comunitatea Django prin folosirea acestei platforme în dezoltarea aplicațiilor proprii (Google Sites ar fi un exemplu) și suportul platformei de către Google App Engine.

Ce conține repozitoriul:

  • django-projectmgr, așa cum zice și numele este o aplicație de management conflicte, buguri, task-uri, todo, etc
  • django-supertagging folosește api-ul de la Open Calais pentru a genera tag-urile cele mai relevante conținutului
  • django-massmedia. Modulul ăsta l-am testat personal și este aur curat. Permite management de media content (imagini, muzică, video) în toate formatele existente. Are auto slugging, poate fi integrat cu supertaggingul de mai sus. Se pot uploada bulk conținut arhivat și prelucrarea lor în masă.
  • django-clickpass permite autentificarea openid, permițând conturile de Google, Yahoo!, Facebook, Hotmail, etc.

Ca o notă, toate aceste aplicații necesită ultima versiune de django (1.0.2). Nu funcționează cu 0.96.



9am.ro reloaded

Mihai Seceleanu a făcut publice numărul de vizite pe 9am.ro/comunitate, tag spamul responsabil pentru indexarea a peste 40% din numărul total de pagini pe care le afișează 9am.ro.

Google Analytics arată că doar 1.75% din numărul total de vizite vin pe search spam. Personal sunt puțin surprins de acest procent. M-aș fi așteptat să fie ceva mai mare.

Nu sunt specialist în SEO spam, nu sunt specialist in spam deloc, de aceea nu-mi dau seama dacă acest procent măsoară o anumită eficiență a spamului.

Pentru mail spam știu că această eficiență se plasează undeva în plaja de 5%-10% pentru mass-mail untargeted și de aceea, extrapolând, m-am așteptat ca și SEO spamul de pe 9am.ro/comunitate să fie măcar 5%.

Să lămurim însă un lucru. În ceea ce mă privește, nu am zis că traficul 9am.ro este generat exclusiv de spam sau că spamul reprezintă principala sursă de trafic. Am zis că 9am.ro/comunitate este SEO spam. 1,75% demonstrează mai degrabă o eficiență redusă în a genera trafic prin astfel de măsuri.

De ce consider că 9am.ro/comunitate este SEO spam?
Unul din trucurile de a obține o vizibilitate sporită în căutările google este prin duplicarea conținutului (mirror pages).
Toate profilele pe 9am.ro/comunitate sunt practic asemănătoare, cuvintele indexabile sunt în cea mai mare măsură aceleași. Cine este curios și va naviga cu lynx (robotzeii google văd exact ca lynxul) va observa că nu poate diferenția 2 pagini de profil de pe 9m.ro/comunitate. Diferă doar câteva cuvinte (sexul, vârsta, username-ul) din cele câteva sute.

De aceea nu înțeleg de ce pentru un trafic în plus de maxim 2%, permiți indexarea a 600.000 de pagini irelevante și duplicate, expunându-te riscului de a fi sancționat de google, când se poate onorabil interzice indexarea în robots.txt așa cum explică bobby voicu pe capslock.ro.

Iar dacă, tehnic, SEO spamul de pe 9am.ro/comunitate este discutabil, din punct de vedere moral și etic, pentru un site de știri, lucrurile sunt clare, și devin din ce în ce mai clare cu cât românii devin și ei mai cultivați când vine vorba de internet și etica sa.


AllTop.com un topic aggregator util

AllTop.com a fost lansat recent si are doar cateva sute de topicuri. Zilnic sunt adaugate alte topicuri in functie de cerintele utilizatorilor.

Agregatorul cauta in cele cateva zeci de mii de instante rss alese cu atentie subiectele cele mai relevante pentru un anumit topic astfel calitatea informatiei este superioara celei pe care o poti gasi cautand pe google.

Este foarte util pentru a fi la zi cu subiectele de interes personal.

Daca esti interesat sa zicem de Web Analytics poti accesa http://web-analytics.alltop.com/ si vei gasi cele mai relevante articole recente scrise pe bloguri sau pe site-urile de specialitate.


snipt.org un super twit

In sfarsitsnipt.org un serviciu de code snippets share.


Se coace blogway.ro

Un serviciu gen haipa.ro sau zice.ro doar ca este pe bani, plata facandu-se cu cartele prepaid, razuibile, pe care le cumperi de prin magazinele Diverta.
Iei cartele, introduci codul pe blogway.ro si iti alegi un domeniu .ro si un template din cele cateva zeci si ai blogul activ in cateva ore.
Preturile, din cate am auzit, undeva la 200 RON/an ceea ce nu este mult tinand cont ca ti se ofera si domeniu in banii astia.
Ah si domeniul este cu plata anuala trecut pe numele blogway dar transferabil la cerere.

Site-ul este in stagiu de alpha release, probabil o sa mai treaca o luna pana este functional.
Interesanta abordarea celor de la hostway.ro.

Link blogway.ro


Clouding-ul romanesc o idee de dragul unei idei

Idee mareata cloud computing-ul asta, suficient de atragatoare pentru companii cu resurse tehnologice apreciabile, din afara, care incearca sa o puna in aplicare cu scopul de a genera trafic si/sau a-si fideliza clientii prin oferirea unor servicii conexe.

Am subliniat resurse apreciabile, pentru ca baza cloud computingului sta intr-o capacitate mare de stocare, putere mare de procesare a datelor stocate, banda internet upload+download mare si mai ales principii de replicare a informatiei si a proceselor care manipuleaza informatia.

O singura companie a reusit sa aplice toate ”principiile” cloud computing, si anume Google cu Google Apps, un serviciu care permite folosirea atat a mediului de stocare google cat si a puterii de procesare.

O sa ma refer insa la anumite servicii care pot fi catalogate cloud computing: serviciile de stocare. In afara exista SkyDrive detinut de Microsoft care ofera 20GB, oosah.com care ofera 1TB, sau zoho.com care nu are limita dar nu permite decat upload de documente (exista un serviciu la zoho numit CloudSQL care permite stocarea de informatii in baze de date).
SkyDrive are milioane de utilizatori, iar alocare de spatiu per utilizator este in medie de 1TB (acei 20 GB se transforma intr-un TB datorita raidului, replicarii dar si mentinerea per utilizator a unei marje de siguranta plus disponibilitate de spatiu pentru utilizatori noi sau cei care vor sa aiba, contracost, un spatiu mai mare).
Deci vorbim de milioane de TB capacitate de stocare si de aici deriva necesitatea unei tehnologii de a scrie informatia rapid, de a o cauta, citi si oferi utilizatorului rapid, toate astea realizabile prin replicarea proceselor: exista un server puternic a carui singur rol este de a decide ce controller de pe ce server scrie informatia, ce controller de pe ce server o citeste.
Pentru optimizare, milioane de robotzei verifica pe baza statisticilor daca o informatie anume este mai bine sa fie mutata pe un server mai apropiat topologic de zona unde informatia este accesata mai des si multe alte scheme de optimizare.

Serviciile romanesti ”de profil” nu tin cont de aceste principii, pur si simplu sunt trantite cateva servere si zeci de discuri dure, scrierea si citirea facandu-se groso modo. Nu mai zic ca banda disponibila este insuficienta chiar si metropolitan vorbind.
Scriu pe zoho cu 300-400KB, iar pe filebox.ro cu maxim 100KB (asta daca am noroc). Zoho este extern, cel mai apropiat nod topologic este in Olanda.
Filebox.ro este topologic pe metropolitan. La citire diferenta este si mai mare.
Daca mai multi utilizatori citesc aceeasi resursa (sa zicem un film de 10MB) in acelasi timp, la toti filmul va merge prost.
Intr-un cloud computing o resursa nu este deservita de acelasi proces.
Dezamagire si la trilulilu.ro unde merge prost serviciul, fiind foarte dese momentele de congestie chiar pe metropolitan.

Acum ca o scuza totusi pentru calitatea proasta, cloud computingul se obtine prin investitii mari. Iar site-uri ca fisierulmeu.ro, uploads.ro, urkaok.ro etc nu au asemenea posibilitati financiare si nici nu o sa aibe vreodata.
In fapt din cloud computing nu se scot bani direct, ci este un serviciu complementar altor servicii. De exemplu zoho nu scoate un sfant din toate acele servicii free, mai ales ca nu au nici reclame, ci mizeaza pe clientii enterprise.
Toate aceste servicii romanesti au aparut ca ciupercile dupa ploaie, mizand pe un pulseu in trafic cat timp inca nu sunt congestionate.
Dar asa cum au aparut asa vor si dispare.
Nu am sperante nici pentru trilulilu.ro pe termen lung, desigur termen lung in online inseamna undeva la 5 ani. Este de ajuns youtube.com sa-si deschida data center si in Romania si adio trilulilu.