Wikipedia è stata il salvatore di ogni studente quando si trattava di finire i progetti scolastici o universitari. Il più grande sito web di crowdsourcing del mondo contiene informazioni su qualsiasi argomento tu possa immaginare.
Come già sai, Wikipedia è un'enciclopedia online con informazioni verificabili. L'idea che chiunque abbia una connessione Internet possa apportare modifiche alle informazioni liberamente era banale. Non avrebbe mai funzionato, ma in qualche modo il sito serve ancora al suo scopo.
Wikipedia è stata lanciata 19 anni fa, nel 2001. Nei suoi primi giorni, i contributori hanno svolto attività come eliminare gli atti vandalici nel sito Web poiché le informazioni erano disponibili per tutti e chiunque avrebbe potuto apportare modifiche. Era possibile nei primi giorni poiché il numero di contributori era inferiore e questo si traduceva in modifiche minori che avrebbero potuto essere gestite manualmente. Ma entro il 2007, il sito ha iniziato a guadagnare una quantità folle di traffico e ha riscontrato circa 180 modifiche al minuto. è sfuggito di mano il controllo manuale di questo importo.
Entrano i Bot
Bot, abbreviazione di "software robot", è uno strumento automatizzato sviluppato da collaboratori per svolgere compiti specifici. Attualmente, ci sono un totale di 1601 bot che lavorano per Wikipedia con diverse responsabilità.
Il dottor Jeff Nickerson, professore allo Stevens Institute of Technology di Hoboken, N.J., che ha studiato i bot di Wikipedia, ha dichiarato a Digital Trends che il motivo principale per cui sono stati creati i bot era la protezione contro il vandalismo.
Ha detto che ci sono molte volte in cui qualcuno va su una pagina di Wikipedia e la diffama. Con la quantità di traffico sul sito web, diventa davvero fastidioso e difficile per chi gestisce quelle pagine apportare continuamente modifiche alle pagine.
"Quindi un tipo logico di protezione [era] avere un bot in grado di rilevare questi attacchi.", ha dichiarato Nickerson.
Il Dr. Nickerson, insieme ad altri ricercatori dello Stevens Institute of Technology, ha effettuato la prima analisi approfondita di tutti i 1601 bot che lavorano per il sito web. Questo studio è stato pubblicato negli Atti dell'ACM su Human-Computer Interactions Journal. Secondo lo studio, Il 10% di tutte le attività sul sito web sono svolte da bot.
Lo studio condotto dai ricercatori ha suddiviso i bot in 9 categorie in base ai ruoli e alle responsabilità loro assegnate. Le categorie sono spiegate di seguito:
- Generatore - Responsabile della generazione di pagine di reindirizzamento e pagine basate su altre fonti.
- Fissatore - Responsabile della correzione di link, contenuti, file e parametri in template / category / infobox
- Connettore - Responsabile del collegamento di Wikipedia con altri Wiki e siti.
- Tagger - Responsabile del tagging dello stato dell'articolo, della valutazione dell'articolo, dei progetti Wiki, dello stato multimediale.
- Impiegato - Responsabile dell'aggiornamento delle statistiche, della documentazione dei dati dell'utente, dell'aggiornamento delle pagine di manutenzione e della fornitura di avvisi sugli articoli.
- Archiver - Responsabile dell'archiviazione dei contenuti e della pulizia della sandbox.
- Protector - Responsabile dell'identificazione di violazioni, spam e atti vandalici.
- Consulente - Responsabile della fornitura di suggerimenti per progetti wiki e utenti. Saluta anche i nuovi utenti.
- Notificatore - Responsabile dell'invio di notifiche agli utenti.
La Wikipedia che conosciamo e di cui ci fidiamo per tutti i nostri progetti scolastici / universitari non sarà la stessa senza l'aiuto di questi ragazzini che lavorano instancabilmente per rendere la piattaforma più raffinata e affidabile. In questo periodo ed età, i bot hanno una reputazione negativa sul mercato. Ma questi robot mostrano che ogni moneta ha due facce. I bot di Wikipedia sono il sistema immunitario che protegge il sito e ci fanno sperare che la tecnologia possa davvero aiutarci. Dopo tutto, abbiamo creato la tecnologia, la tecnologia non ha creato noi.