Über Twitter bzw. über den Tweet des WordPress-Kollegen Frank Bültge bin ich auf eine sehr interessante und unterstützenswerte Initiative mit dem Namen humans.txt gestoßen.
So ziemlich alle Webmaster laden eine Textdatei mit dem Namen robots.txt hoch, in der Sie gewünschte Verhaltensweisen für die Suchroboter eintragen. Aber so ein “Gegenstück” für Menschen fehlt.
Diese Initiative ist nicht mit FOAF zu verwechseln. Bei FOAF (Friend of a Friend) ging es darum die Freundschaftsverhältnisse in maschinenlesbarer Form darzustellen. Bei humans.txt wird eine Textdatei für Menschen erstellt in der man einfach die Leute auflistet, die bei dem Projekt mitmachen und es werden noch ein paar Infos über die Seite selber notiert.
Wie setzt man das ganze um?
Zuerst erstellt man eine humans.txt und bearbeitet diese mit einem Texteditor. Und nein, weder Word noch Writer von OpenOffice sind Texteditoren. 🙂 Als Orientierung kann euch die humans.txt der Initiative oder humans.txt von perun.net dienen.
Die Datei wird dann in den Hauptordner hochgeladen und im Kopf (<head></head>
) des HTML-Dokuments wird folgendes eingetragen:
<link type="text/plain" rel="author" href="https://www.perun.net/humans.txt" />
Die URL perun.net tauschst du logischerweise durch deine aus. In den allermeisten WordPress-Themes wird der Kopf des HTML-Dokuments in der header.php untergebracht.
Anschließend kannst du die Adresse deiner humans.txt bei der Initiative eintragen.
Reine Textdateien und der Zeichensatz
Da ich in der Datei verschiedene Sonderzeichen hatte: deutsche Umlaute und das “ć”. Bot es sich an, die Datei als utf-8
abzuspeichern. Allerdings ergab sich ein kleines Problem.
Auf meinem Server wurde für die Textdateien (.txt) im HTTP-Header kein Zeichensatz übergeben. Daher wurde die Datei, je nach Browser, entweder als eine utf-8
– oder als eine iso-8859-1
-Datei behandelt. Das Ergebnis waren kaputte Sonderzeichen. Wenn man Zugriff auf die .htaccess-Datei hat kann man das Problem leicht beheben. Einfach folgendes eintragen:
AddCharset utf-8 .txt
Somit werden alle .txt-Dateien auf dem Server im Browser als utf-8
ausgeliefert. Hier muss man natürlich aufpassen, dass man die Textdateien auch als utf-8
und nicht als ansi
abspeichert. Und bei utf-8 sollte man, wenn zur Auswahl angeboten wird, immer als utf-8
without BOM abspeichern. Warum dieses BOM nicht gut ist, habe ich vor mehr als vier Jahren beschrieben.
Update: nun gibt es schon den ersten WordPress-Plugin, mit dem man komfortabel aus Backend heraus die humans.txt-Datei verwalten und einbinden kann. via
Wir arbeiten seit 20 Jahren mit WordPress und bieten diverse Dienstleistungen rund um das System an. Kontaktiere uns für weitere Informationen oder für ein Angebot.
Ehrlich gesagt bin ich kein Fan der humans.txt. Ich persönlich sehe darin einfach keinen Mehrwert, denn die Informationen, die man dort findet, sollte jeder Besucher doch wohl auch wahlweise auf der Über/Kontakt/Impressum Seite finden.
Irgendwie finde ich auch den Gedanken komisch, dass wir Menschen eine Aktion starten, damit wir etwas äquivalentes zu einer Steuerungsdatei für Maschinen haben. Das klingt nach einer verkehrten Welt 😉
Dazu kommt, dass der normale Webseitenbesucher überhaupt keine Ahnung hat, dass es so etwas überhaupt gibt und falls doch findet er es nervig, die URL per Hand aufrufen zu müssen. Wenn man die Datei nun verlinkt, könnte der Besucher sich im schlimmsten Falle fragen, wieso es denn auf ein mal so einen krassen (visuellen) Stilbruch gab. Die Informationen kann man schließlich wunderbar auch anders unterbringen.
Der Hinweis, dass man den Zeichensatz mit Hilfe der .htaccess ändern kann, ist super hilfreich, danke dafür! Ich hatte schon oft das Problem, dass auf ein mal meine Sonderzeichen falsch dargestellt wurden und hatte da keine Lösung, außer das Dokument noch mal anders zu speichern.
@Frank,
hast du dir schon mal unser Impressum angeschaut? Vier DIN-A4-Seiten und dort ist nur das was rechtlich notwendig ist. Eine humans.txt bietet dir da aber Möglichkeit an einer zentralen Stelle alle Beteiligten zu benennen (inkl. z. B. Gastautoren) und etwas über die Website zu erzählen.
Sei nicht so ungeduldig. Das ganze steckt noch in Kinderschuhen und es gibt bereits ein WordPress-Plugin, welches die Pflege erleichtert. Wenn sich die Initiative weiter ausbreitet wird es die ersten Bookmarklets und Browser-Addons geben.
Und was spricht dagegen, dass dies zuerst als Addon und später zu einem festen Bestandteil eines Browsers wird, wo bei Bedarf in z. B. der Sidebar des Browsers ein zusätzliches Feld erscheint oder ein Icon in der Taskleiste seine Farbe ändert so bald eine Website über eine humans.txt verfügt?
Die ganze Initiative steckt noch ganz am Anfang und du erwartest das schon alles fertig ist. WordPress unter Version 1.0 wollte auch kaum einer nutzen und vor 2.0 hat es auch kaum einer ernst genommen und jetzt wollen alle dabei. Twitter fanden bis vor ca. 2-3 Jahren auch alle doof und total unnötig.
Ich weiß es nicht wie gut sich humans.txt ausbreiten wird. Es kann ein Rohkrepierer werden, es ist aber gut möglich das sich daraus mittelfristig ein Standard entwickelt.
Was für ein Schwachsinn. Anders kann man es wohl wirklich nicht ausdrücken. Sorry.
@Bubka,
warum ist das deiner Meinung nach Schwachsinn?
Hi,
ich muss gestehen, dass ich irgendwie den Mehrwert nicht sehe?! Frank hat die “Gegenargumente” schon geliefert. Irgendwie .. ja, ich weiß nicht. Wozu brauch ich das denn?
[…] Die für die Suchmaschinen gedachten robots.txt-Dateinen kennen vermutlich viele von euch. Darin werden wichtige Informationen über eine Website festgehalten und von den Bots der Suchmaschinen gelesen. So etwas in der Art gibt es jetzt auch für Menschen. Die Initiative human.txt will mit einer gleichnamigen Textdatei dafür sorgen, dass die kreativen Köpfe hinter einer Website und alle wichtigen Infos zu einem Projekt in Listenform abrufbar sind. Wie man das umsetzen kann, hat Vladimir Simovic beschrieben. […]
Für notgeile Entwickler die sich über den Quellcode einer Seite zu deren Autoren durchhangeln ist so abwegig, dem kann ich noch nichtmal einen kultigen Nerd-Faktor abgewinnen. Das ist Pseudo-kreativ und vollkommen überflüssig. Wer es nicht schafft die Autoren im Impressum sichtbar für “normale Menschen” abzubilden hat ganz andere Probleme… 🙄
Sehe leider darin auch irgendwie noch keinen richtigen Sinn. Muss mich aber mal mit dem Thema etwas mehr beschäfigten. Was für einen Mehrwert hat denn das ganze und was bringt mir das überhaupt?
So, ich habe noch mal in Ruhe darüber nachgedacht.
Der große Vorteil einer humans.txt liegt darin, dass sich die Informationen im Idealfall für jede Webseite an der gleichen Stelle befinden: example.com/humans.txt.
Dadurch werden die Informationen natürlich besser abrufbar, was aus Usabilitysicht ein Fortschritt ist! Außerdem werden die Informationen aufgrund der standartiesierten Form lesbar für Plugins, Bookmarklets und andere Maschinen.
Allerdings sehe ich einige Probleme an der robots.txt, obwohl die Idee dahinter gar nicht so übel ist.
Die Informationen sind bereits auf der Webseite
Normalerweise sollten die Informationen über den Anbieter und die Autoren eh irgendwo auf der Webseite stehen. Die humans.txt versucht hier nur einen Standard rein zu bringen, wo diese zu finden sind.
Das liegt daran, dass ihr nicht zwischen Anbieterkennzeichnung, Haftungsausschluss und Datenschutzhinweisen unterscheidet, sondern alles unter den Punkt “Impressum” zusammen fasst. Sieht man sich mal das Impressum von spiegel.de an, so findet man dort beinahe ausschließlich Namen der inhaltlichen Verantwortlichen und nur am Ende einen Link zur Datenschutzseite, bei wikipedia.de ist zwar beides auf einer Seite, aber auch als “Impressum und Datenschutz” verlinkt.
Aber muss es ein Textdokument sein?
Ich persönlich mag es nicht dem Besucher Informationen in einer Textdatei bereit zu stellen. Die Datei hat weder visuell, noch linkmäßig eine Verknüpfung mit der eigentlichen Seite und der Besucher kommt nur mit dem “Zurück” Button wieder zur eigentliche Webseite. Ich leite den Besucher also in eine Internetsackgasse, was ich persönlich sehr unschön finde.
Die Alternative wäre eine eigene Unterseite mit den entsprechenden Informationen zu erstellen, um allerdings die Vorteile der Textdatei zu erhalten, müssten man sich auf ein bestimmtes URL Format einigen. Das ist allerdings ziemlich schwer, da jeder ein eigens Format bevorzugt, es fängt alleine bei der Dateiendung (.html, .htm, .php, .php5, .jsp…) an und endet bei allen möglichen dynamischen Strukturen bei den unterschiedlichen CM Systemen, außerdem wäre es schwieriger die Informationen maschinell auszulesen.
Eher für Datenschutzfanatiker: Bessere Maschinenlesbarkeit führt zu Profilbildungen
Nicht dass es jetzt unmöglich wäre (so schwer ist es eigentlich nicht), aber mit einer Standarddatei wird es für Maschinen (Bots, Crawler etc.) ein gutes Stück einfacher das Web danach zu durchsuchen, wer auf welcher Webseite mitwirkt und es lassen sich Profile erstellen.
[…] erzählt euch ein bisschen was über die humans.txt (meine findet ihr übrigens […]
[…] humans.txt – Es gibt nich nur Infos für Roboter, nein hinter einer Website steht doch oft auch ein einfacher Mensch. […]
[…] einen letzten Schritt weiter… Vor ein paar Tagen las ich dann von Perun von eine human.txt und Robert Basic warf die technische Lösung XFN in den Sozialen-Daten-Raum. Wenn es eine Zukunft […]
Ich verstehe nicht ganz, warum hier die Idee gleich als “unnötig” gesehen wird.
Beispielsweise semantisches Web, RDF und Co. (http://de.wikipedia.org/wiki/Semantic_Web oder auch zb. http://de.wikipedia.org/wiki/FOAF) haben ja auch ähnliche Wurzeln. Wenn sich aus sowas ein Standard ergibt, welches maschinell und durch Browser-Integration ausgelesen werden kann – warum nicht? Oder eine Namens-basierte Suchmaschine, wo ich gezielt diese Informations-Dateien abfragen kann, all jener, die diese Datei zur Verfügung stellen.
Ich sehen das nicht als Ersatz für ein Impressum oder so an, sondern als ergänzende, semantische Information bei einer Webseite – und auch solange ok, solange es nicht verpflichtend ist…. (Stichwort Datenschutz)
Edit/Nachtrag: und das es eine txt-Datei ist, macht schon Sinn – es ist eines der ältesten und solidsten Dateiformate und auf quasi allen Systemen kompatibel – robots.txt haben sich auch bewährt.
PS: http://www.humanssearch.com/ 🙂
[…] ich Anfang Februar das erste Mal über die humans.txt geschrieben habe, war die Reaktion der meisten Kommentatoren […]
[…] Infos dazu könnt ihr euch auf dem Blog perun.net durchlesen oder schaut einfach mal auf die offizielle Webseite: […]