marți, 13 ianuarie 2009

Produs nou - gama Interfete Web

Gama: Interfete Web - Search Engines Three Pack + Bonus



Daca veti comanda in urmatoarele 24 de ore, veti primi ca bonus Ajax Track! Doar aici, pt super oferta!

Produsul se adreseaza doritorilor de motoare de cautare in pagini web, bazate pe javascript si Ajax, eventual si cu sintax highlightning. Se pot folosi fara prescriptie, daca se citesc in prealabil instructiunile.

Produs nou!

Produs nou - Analizate comunitate web Youtube


Sa explic pe scurt. Se tot vorbea, la Interfete Web, ca ar fi utile niste scripturi care sa permita analiza unei comunitati web. Sa se porneasca de la un utilizator al respectivei comunitati si sa se identifice automat prietenii sai, fanii sai, etc.

Asa ca ne-am pus pe treaba. Din laboratoarele de cercetare Interface2Web, dupa o lunga perioada de munca asidua a iesit o aplicatie de analiza a comunitatii web Youtube.
Nu este un script si este personalizata pentru Youtube, dar fiti ingaduitori, caci este doar inceputul. :-D

Mai spun doar atat: Java powered, foloseste DOM si SAX pentru interpretarea fisierelor XML.
Mai multe puteti afla si voi de aici- site-ul nostru - de unde se poate downloada si aplicatia.

luni, 12 ianuarie 2009

SEO & blogs

Se pare ca e o idee foarte buna sa folosim etichetele HTML pentru paragrafe "p" si sub-titluri aka headers "h2-h6". Mai ales atunci cand este vorba de niste articole lungi. Nu numai ca permiti o citire mai usoara a articolului, dar multi sunt de parere ca motoarele de cautare acorda atentie speciala continutului acestor etichete. In slang: theme signals.
Asadar, este indicata refolosirea titlului articolului in sub-titluri.

sâmbătă, 10 ianuarie 2009

Utilizarea fisierului robots.txt

Fiecare domeniu are in radacina sa fisierul robots.txt . El este folosit pentru a permite sau interzice motorului de cautare sa indexeze anumite pagini de pe acel domeniu.

Acest fisier este compus din inregistrari de tipul Field : value. El trebuie sa fie creat obligatoriu in mod UNIX (nu poate fi facut cu un simplu editor in mod text).


Tipurile de inregistrari sunt:

User-agent - numele robotului

Disallow - exclude de la cautare fisiere sau directoare

Fiecare User-agent are cel putin o linie Disallow.


Aceste inregistrari pot lua diverse valori astfel:

User-agent: googlebot - specifica numele robotului

User-agent: * -specifica toti robotii

Disallow: test.html -interzice accesul spiderilor la fisierul test.html

Disallow: /test/ -interzice accesul la directorul test din radacina domeniului

Disallow: /a -interzice accesul in toate paginile sau directoarele care incep cu litera a.

Disallow: / -interzice accesul in toate paginile sau directoarele


Exemplu fisier robots.txt:


User-agent: Googlebot

Disallow: /w

Disallow: /downloads/

Disallow: /comments/

User-agent: *

Disallow: /


In exemplul precedent este interzisa indexarea de catre google a paginilor sau directoarelor care incep cu litera "w" si a celor din directoarele "downloads" si "comments" aflate in radacina domeniului. De asemenea este interzis si cautarea oricarui alt motor de cautare decat Google in paginile site-ului.

Folosirea acestui fisier are si un dezavantaj prin faptul ca el este public oricine avand acces al el.

vineri, 9 ianuarie 2009

Web 3.0

Web 3.0 ... sau mai pe scurt, 4C + P + VS
De unde pana unde?
4C = Content, Comert, Comunitate, Context
P = Personalizare
VS = Cautare verticala

Privind dintr-un alt punct de vedere, web 1.0 este read-web, cu interactiuni destul de mici, chiar inexistente cu utilizatorul, web 2.0 read-write, accentul punandu-se pe colaborare, comunicare si socializare, iar web 3.0 se anunta a fi executable web, sau web-ul inteligent.

Nimeni nu stie ce forma exacta va lua web 3.0.Dar cel mai probabil va fi asociat cu termeni ca 3D, lumi virtuale, masini inteligente, interfete web evoluate, RDF, OWL.