Όλες οι μηχανές αναζήτησης ακολουθούν 3 βήματα για να διαχειριστούν, αξιολογήσουν και επιστρέψουν στο χρήστη τα αποτελέσματα αναζήτησης. Ο περισσότερος κόσμος δεν γνωρίζει ποιά είναι αυτή η διαδικασία που αποτελείται από αυτά τα τρία βήματα, πώς δουλεύουν οι μηχανές αναζήτησης. Πώς δηλαδή η Google, η Bing και οι άλλες μηχανές βρίσκουν τι υπάρχει στο διαδίκτυο, τι είναι σχετικό με τι, πώς κατηγοριοποιείται και πώς παίρνουν σειρά στα αποτελέσματα της κάθε ερώτησης του χρήστη.
Ας δούμε λοιπόν πώς δουλεύουν οι μηχανές αναζήτησης:
Το Web Crawling είναι η διαδικασία κατά την οποία οι μηχανές αναζήτησης ψάχνουν το διαδίκτυο για ιστοσελίδες, αντιγράφουν το περιεχόμενό τους και ελέγχουν τις μυριάδες σελίδες συνεχώς για να δουν αν άλλαξαν. Αν βρουν διαφορές, μεταξύ της παλιάς αντεγραμένης σελίδας στο αρχείο τους σε σχέση με την κανονική σελίδα, την ξαναντιγράφουν και την ξαναβάζουν στο αρχείο.
Τα “μηχανάκια”, τα scripts, ο κώδικας που χρησιμοποιούν για να κάνουν αυτήν την δουλειά ονομάζονται συνήθως robots, crawlers και spiders (ρομπότς, ερπετά, αράχνες), μηχανές δηλαδή που μπαίνουν στην σελίδα μας και τσεκάρουν τα πάντα.
Διαβάστε ακόμα: Τι είναι το sitemap; Βοηθάει στο SEO;
Όταν ένα τέτοιο μηχανάκι (robot, spider κτλ) βρίσκεται στη σελίδα μας, αφού την ανιχνεύσει όλη στέλνει ένα αντίγραφο στη μηχανή αναζήτησης σε κάποιο data center. Τα data centers είναι τεράστιες μονάδες υπολογιστών που έχουν απλά τη δουλειά να αποθηκεύουν αυτά τα αντίγραφα.
Τέτοια data centers υπάρχουν πολλά σε όλο τον πλανήτη και όλα μαζί συγκροτούν μια μεγάλη “αποθήκη” ιστοσελίδων. Αυτή η αποθήκη ονομάζεται Index και όλο αυτό οργανώντεται και κατηγοριοποιείται για να παρέχει τα διάφορα αποτελέσματα αναζήτησης.
Το Indexing είναι η διαδικασία κατά την οποία γίνεται αυτή η οργάνωση αυτών των μαζικών δεδομένων των ιστοσελίδων ώστε να μπορούν γρήγορα και εύκολα να αναζητήσει κανείς σχετικά αποτελέσματα στο πεδίο αναζήτησης.
Διαβάστε ακόμα: Τέσσερις παράγοντες που επηρεάζουν το SEO
Έχουμε φτάσει λοιπόν στο σημείο όπου οι σελίδες είτε είναι καινούριες είτε ανανεώνονται με νέο περιεχόμενο, έχουν αποθηκευτεί, κατηγοριοποιηθεί και είναι έτοιμες για αναζήτηση. Πώς όμως αποφασίζεται ποιό αποτέλεσμα θα φανεί πρώτο, πώς ορίζεται η σειρά των αποτελεσμάτων; Αυτό το πρόβλημα λύνει ο αλγόριθμος.
Ο αλγόριθμος είναι μια πολύπλοκη και μακροσκελής εξίσωση που υπολογίζει την “αξία” κάθε ιστοσελίδας σε σχέση με ένα ερώτημα αναζήτησης. Όσες θεωρεί πιο “άξιες”, π.χ. Αυτές που έχουν καλύτερο περιεχόμενο τις τοποθετεί πιο ψηλά.
Αυτήν την εξίσωση δεν την γνωρίζουμε γιατί οι μηχανές αναζήτησης την κρύβουν σαν επτασφράγιστο μυστικό όμως σύμβουλοι για SEO (Search Engine Optimization) έχουν επεξεργαστεί όλη την διαδικασία και τον αλγόριθμο, έχουν πειραματιστεί και δουλέψει στο τι δουλεύει και τι όχι και μπορούν να βελτιώσουν τη θέση των ιστοσελίδων στις μηχανές αναζήτησης.
Σημαντικό να επισημάνουμε ότι ο αλγόριθμος αυτός αλλάζει από τις διάφορες μηχανές σχετικά συχνά οπότε χρειάζεται συστηματική επίβλεψη από επαγγελματίες ώστε να έχουμε το καλύτερο αποτέλεσμα στο Ranking της κάθε μηχανής.
Σχετικά με Spyros Mygdanis
Co-founder της EtherLogic και Web-Mobile Developer. Δημιουργεί και επιμελείται το περιεχόμενο του blog της EtherLogic και προγραμματίζει τη δημοσίευση άρθρων για θέματα που αφορούν το Internet Marketing. Στόχος του να κάνει γνωστές τις δυνατότητες της διαδικτυακής διαφήμισης ώστε να βοηθήσει τους ανθρώπους στη δημιουργία και προώθηση της ιστορίας, της ιδέας τους ή της εταιρίας τους online!