Toen ik zojuist inlogde, zag ik de melding wie er online zijn, namelijk: "Totaal: 35 (leden: 2, bezoekers: 31, robots: 2)". Wat moeten die robots op ons forum?
Robots zoeken het hele internet af, bij voorbeeld om berichten na te vlooien voor zoekmachines. Zo is over een paar dagen op google terug te vinden dat ene Truuss zich zorgen maakt over robots op een forum!
Dit zijn webcrawlers/spiders, zie bijv. Wikipedia voor meer uitleg: https://nl.wikipedia.org/wiki/Spider . Zoals Bert Boon ook al zei, zorgt dit ervoor dat bijdragen op dit forum zijn terug te vinden in de zoekmachines. Geen hackers dus, maar gewoon om ervoor te zorgen dat publiekelijke informatie goed gevonden kan worden.
Is meneer Jelle een nieuwe beheerder ? Geen trouw bezoeker zo te zien. Over Robots gesproken, ik ben gek op Robots. Als ik op het forum kom geeft dat toch het gevoel dat je er niet alleen op aan het struinen bent.
Jelle is gewoon een schuilnaam voor Frits. Ingewijden weten ook wel dat Tobias alleen maar een schuilnaam is
Ik zeg niet dat Frits en ik dezelfde persoon zijn, en ik zeg ook niet dat wij niet dezelfde persoon zijn. Maar ik zeg wel dat wij erg op elkaar lijken, we zijn allebei zo
En lijk je dan erg op Fritz of op Fits? Dit is langzamerhand ingewikkelder dan de meest recente A. F. Th. ...........
Je zou ervan verschieten denk ik, volgens mij is er best wat persoonlijke data terug te vinden op een forum als dit. Je hebt in elk geval een hoop e-mail adressen, naam, geslacht, woonplaats, geboortedatum, ... , verder zou je kunnen veronderstellen dat paswoorden gebruikt voor het aanmelden op het forum ook gebruikt worden voor andere sites die mogelijk gevoeliger informatie bevatten, ten slotte kan je door de posts en aliassen te linken heel wat interesses koppelen aan mailadressen en dus personen, deze data kan je weer verkopen voor gerichte reclame doeleinden. Robots kunnen in elk geval slechte bedoelingen hebben, in 2019 was bijna 20% van het internet verkeer afkomstig van "malicious bots". Deze robots worden gebruikt voor taken varierend van het verzamelen van persoonlijke informatie tot "brute force logins" en ddos aanvallen. Omdat tegenwoordig de grotere bedrijven meer investeren in data security worden kleinere op het eerste zicht oninteressante sites vaker een doelwit voor hackers. Nu denk ik dat het hier wel zal meevallen (9bots is niet gigantisch veel) maar af en toe verifiëren met een dns lookup en je serverlogs nakijken is zeker aan te raden. Slechte bots kan je toevoegen aan je robots.txt bestand om ze te blacklisten.