Σύμφωνα με νέα έρευνα της Distil Networks, η πλειοψηφία της κίνησης στο διαδίκτυο (traffic) δημιουργείται από μη ανθρώπινες οντότητες, καθώς τα στοιχεία δείχνουν ότι η επισκεψιμότηταπου δημιουργήθηκε φέτος από bots αντιπροσωπεύει το 59 τοις εκατό του συνολικού traffic των ιστοσελίδων.
Συγκριτικά, κατά τη διάρκεια του περασμένου έτους, τα bοts αντιπροσώπευαν το 45 τοις εκατό του συνόλου της κίνησης σε δικτυακούς ιστότοπους πελατών της Distil Networks.
Ο διευθύνων σύμβουλος της Distil Networks, Rami Essaid, ανέφερε ότι η πλειοψηφία του traffic δημιουργείται από “καλά bοts”, όπως αυτά που χρησιμοποιούνται από τις μηχανές αναζήτησης και τους ιστότοπους κοινωνικής δικτύωσης. Τα συγκεκριμένα bοts συμμορφώνονται με τα αρχεία “robot.txt” – που χρησιμοποιούν οι διαχειριστές των ιστοσελίδων για να δώσουν οδηγίες στα ιντερνετικά ρομπότ – και έχουν αξία για τις ιστοσελίδες που επισκέπτονται.
Ο Essaid απέδωσε την αύξηση της κυκλοφορίας των bots σε επιθετικότερο indexing από το Bing, καθώς και σε νέες μηχανές αναζήτησης που έκαναν την εμφάνισή τους στο διαδίκτυο.
Τα “καλά bοts” αντιπροσωπεύουν το 36 τοις εκατό του συνολικού traffic του τρέχοντος έτους, σε σύγκριση με το 21 τοις εκατό του περσινού έτους. Από την άλλη τα “κακά bots” είναι υπεύθυνα για το 23 τοις εκατό του συνολικού traffic του τρέχοντος έτους, λίγο πιο κάτω από το 24 τοις εκατό του περασμένου έτους. Να σημειώσουμε ότι η μείωση αυτή δεν αντικατοπτρίζει την μείωση του όγκου των κακόβουλων bοts, αλλά οφείλεται στην δραματική αύξηση των “καλών bots”. H ανθρώπινη κίνηση αντιπροσώπευε μόλις το 41 τοις εκατό του συνολικού traffic των ιστοσελίδων.
Η εταιρεία ορίζει ως “κακά bοts” εκείνα που δεν σέβονται τα αρχεία “robots.txt” και δεν παρέχουν αξία στους ιστότοπους που επισκέπτονται. Τα κακά bοts χωρίζονται σε τρεις κατηγορίες. Η μεγαλύτερη από αυτές είναι τα ανεπιθύμητα bοts που εξορύσσουν δεδομένα από ιστοσελίδες – εξειδικευμένα bots που χρησιμοποιούνται πχ από ανταγωνιστές επιχειρήσεων για μαζική άντληση πληροφοριών τιμολόγησης. Επίσης υπάρχουν και τα κακόβουλα bοts που σαρώνουν ιστοσελίδες, αναζητώντας τρωτά σημεία σε αυτές. Η μικρότερη κατηγορία, η οποία αντιπροσωπεύει μόλις το 10 τοις εκατό των κακόβουλων bοts, είναι αυτά που συμμετέχουν σε απάτες τύπου click fraud, επιχειρούν προσπάθειες σύνδεσης μέσω brute force ή προσπαθoύν να καταχωρήσουν μηνύματα spam σε ιστοσελίδες.
Πηγή: SecNews.gr
Ένα διαδικτυακό ρομπότ (internet bot) είναι ένα πρόγραμμα που εκτελεί αυτοματοποιημένες εργασίες μέσω του διαδικτύου. Ονομάζεται επίσης και web bot, web robot, WWW robot ή απλά bot.
Στις περισσότερες περιπτώσεις τα bots εκτελούν σχετικά απλές λειτουργίες που θα πρέπει να επαναληφθούν εκατοντάδες ή χιλιάδες φορές. Μία κλασσική εφαρμογή των bots είναι οι αράχνες του διαδικτύου (web spiders), οι οποίες περιφέρονται από ιστοσελίδα σε ιστοσελίδα και χρησιμοποιούνται για την ανάλυσή της σε ρυθμό πολλαπλάσιο απ’ ότι θα μπορούσε ένας άνθρωπος. Οι μηχανές αναζήτησης (Google, Yahoo κοκ) χρησιμοποιούν τέτοιες αράχνες για την ανάλυση και ταξινόμηση των ιστοσελίδων σύμφωνα με διάφορες λέξεις-κλειδιά, ούτως ώστε στην συνέχεια να μπορούν να παρουσιάσουν στον χρήστη τα αποτελέσματα της αναζήτησης σε πολύ μικρό χρονικό διάστημα. Τέλος, οι διάφοροι web servers μπορούν να δημιουργήσουν ένα απλό αρχείο κειμένου με το όνομα “robots.txt”, το οποίο θα περιέχει κανόνες που θα πρέπει να τηρήσουν τα bots που επισκέπτονται την σελίδα. Παρόλα αυτά όμως, μπορεί κάποιο bot να αγνοήσει αυτούς τους κανόνες.
Μία άλλη χρήση των bots είναι σε εφαρμογές όπου απαιτείται υψηλή ταχύτητα απόκρισης, υψηλότερη από αυτή που έχει ο άνθρωπος (πχ bots που συμμετέχουν σε δημοπρασίες – auction-site bots) ή σε εφαρμογές όπου απαιτείται η προσομοίωση της ανθρώπινης συμπεριφοράς (πχ bots που συμμετέχουν σε συζητήσεις – chat bots). Παραδείγματα της δεύτερης κατηγορίας είναι η ALICE, ο JabberWacky και η Spleak.
Πηγή: wikipedia