SEO-Wiki — SEO-Fach­be­grif­fe ver­ständ­lich erklärt!

Die Grafik zeigt eine Website, die nicht indexiert wird

Eine “Robots.txt”-Datei ist eine Text­da­tei, die von Web­sei­ten­be­trei­bern auf ihrem Ser­ver plat­ziert wird, um Such­ma­schi­nen-Craw­lern Anwei­sun­gen zu geben, wel­che Tei­le der Web­sei­te gecrawlt wer­den dür­fen und wel­che nicht. Die “Robots.txt”-Datei infor­miert Such­ma­schi­nen-Craw­ler dar­über, wel­che Berei­che der Web­sei­te öffent­lich zugäng­lich sind und wel­che Berei­che von der Suche aus­ge­schlos­sen wer­den sollen.

Die “Robots.txt”-Datei wird von Such­ma­schi­nen-Craw­lern bei jedem Besuch der Web­sei­te gele­sen und ana­ly­siert, um zu bestim­men, wel­che Inhal­te von der Suche aus­ge­schlos­sen wer­den sol­len. Wenn eine “Robots.txt”-Datei nicht vor­han­den ist, kön­nen Such­ma­schi­nen-Craw­ler alle öffent­lich zugäng­li­chen Sei­ten der Web­sei­te crawlen.

Die “Robots.txt”-Datei ist ein wich­ti­ger Bestand­teil der SEO-Stra­te­gie, da sie Such­ma­schi­nen-Craw­lern hilft, Web­sei­ten effek­ti­ver und effi­zi­en­ter zu craw­len, indem sie irrele­van­te oder uner­wünsch­te Inhal­te ausschließt.

In die­sem Bei­spiel sagt die “Robots.txt”-Datei Such­ma­schi­nen-Craw­lern, wel­che Tei­le der Web­sei­te von der Suche aus­ge­schlos­sen wer­den sol­len. Der ers­te Teil der “Robots.txt”-Datei ent­hält eini­ge grund­le­gen­de Direk­ti­ven, die für alle Such­ma­schi­nen-Craw­ler gel­ten sol­len, ein­schließ­lich der Auf­for­de­rung, bestimm­te Ver­zeich­nis­se und Datei­en zu blockieren.

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /xmlrpc.php
Disallow: /wp-json/
Disallow: /wp-content/themes/
Disallow: /wp-content/plugins/
Disallow: /readme.html
Disallow: /trackback/
Disallow: /comment-page-
Disallow: /wp-login.php
Disallow: /wp-signup.php
Disallow: /cgi-bin/
Disallow: /wp-trackback.php
Disallow: /category/
Disallow: /author/
Disallow: /tag/
Disallow: /page/
Disallow: /?s=

User-agent: Googlebot
Disallow:

User-agent: Bingbot
Disallow:

Sitemap: https://www.example.com/sitemap.xml

Die nächs­ten bei­den Abschnit­te der “Robots.txt”-Datei sind benut­zer­de­fi­nier­te Direk­ti­ven, die spe­zi­ell für Goo­gle­bot und Bing­bot gel­ten. In die­sem Bei­spiel sind bei­de Such­ma­schi­nen-Craw­ler auf­ge­for­dert, alle Berei­che der Web­sei­te zu durchsuchen.

Am Ende der “Robots.txt”-Datei wird die URL der XML-Site­map der Web­sei­te ange­ge­ben, um den Such­ma­schi­nen-Craw­lern zu hel­fen, die Inhal­te der Web­sei­te bes­ser zu ver­ste­hen und zu indexieren.

Eine “Robots.txt”-Datei ent­hält Anwei­sun­gen für Such­ma­schi­nen-Craw­ler in Form von Regeln und Direk­ti­ven. Jede Regel beginnt mit dem User-agent, gefolgt von einem oder meh­re­ren Dis­al­low- oder Allow-Direktiven.

Der User-agent iden­ti­fi­ziert den Such­ma­schi­nen-Craw­ler, für den die Regel gilt. Es gibt eine Viel­zahl von User-Agents, dar­un­ter Goo­gle­bot, Bing­bot und Yahoo! Slurp.

Die Dis­al­low-Direk­ti­ve gibt an, wel­che Sei­ten oder Berei­che der Web­sei­te von der Suche aus­ge­schlos­sen wer­den sol­len. Der Allow-Direk­ti­ve gibt an, wel­che Sei­ten oder Berei­che der Web­sei­te gecrawlt wer­den dürfen.

Bei­spiels­wei­se kann die Regel “User-agent: Goo­gle­bot Dis­al­low: /private/” Goo­gle­bot dar­an hin­dern, alle Sei­ten im Ver­zeich­nis /private/ zu crawlen.

Es ist wich­tig zu beach­ten, dass “Robots.txt”-Regeln von Such­ma­schi­nen-Craw­lern als Emp­feh­lun­gen und nicht als ver­bind­li­che Anwei­sun­gen inter­pre­tiert wer­den. Eini­ge Craw­ler, wie bei­spiels­wei­se Spam-Bots, igno­rie­ren die “Robots.txt”-Datei vollständig.

Im nächs­ten Punkt des Rat­ge­ber­ar­ti­kels wer­den wir uns damit beschäf­ti­gen, war­um eine “Robots.txt”-Datei für SEO wich­tig ist.

Eine “Robots.txt”-Datei ist ein wich­ti­ger Fak­tor für die SEO-Stra­te­gie, da sie Such­ma­schi­nen-Craw­lern hilft, Web­sei­ten effek­ti­ver und effi­zi­en­ter zu craw­len, indem irrele­van­te oder uner­wünsch­te Inhal­te aus­ge­schlos­sen wer­den. Hier sind eini­ge Grün­de, war­um eine “Robots.txt”-Datei für SEO wich­tig ist: 
  • Kon­trol­le über das Craw­ling: Durch die Ver­wen­dung einer “Robots.txt”-Datei kön­nen Web­sei­ten­be­trei­ber die Kon­trol­le dar­über behal­ten, wel­che Sei­ten und Berei­che ihrer Web­sei­te von Such­ma­schi­nen gecrawlt wer­den sol­len und wel­che nicht. Dies kann dazu bei­tra­gen, dass rele­van­te Inhal­te prio­ri­siert wer­den und uner­wünsch­te Inhal­te von der Suche aus­ge­schlos­sen werden.
  • Ver­mei­dung von Dupli­ca­te Con­tent: Eine “Robots.txt”-Datei kann dazu bei­tra­gen, Dupli­ca­te Con­tent auf einer Web­sei­te zu ver­mei­den. Durch das Blo­ckie­ren von Sei­ten oder Berei­chen, die iden­ti­sche Inhal­te ent­hal­ten, kann die “Robots.txt”-Datei dazu bei­tra­gen, dass nur eine Ver­si­on der Sei­te in Such­ma­schi­nen­er­geb­nis­sen ange­zeigt wird, was dazu bei­trägt, dass die Web­sei­te nicht von Such­ma­schi­nen abge­straft wird.
  • Schutz von sen­si­blen Daten: Eine “Robots.txt”-Datei kann dazu bei­tra­gen, ver­trau­li­che oder per­sön­li­che Daten von der Suche aus­zu­schlie­ßen. Wenn eine Sei­te per­sön­li­che Infor­ma­tio­nen ent­hält, die nicht von der Suche erfasst wer­den soll­ten, kön­nen Web­sei­ten­be­trei­ber mit­hil­fe der “Robots.txt”-Datei ver­hin­dern, dass die­se Daten in den Such­ergeb­nis­sen ange­zeigt werden.
  • Ver­bes­se­rung der Crawl-Geschwin­dig­keit: Eine “Robots.txt”-Datei kann dazu bei­tra­gen, die Crawl-Geschwin­dig­keit von Such­ma­schi­nen-Craw­lern zu ver­bes­sern, da irrele­van­te oder uner­wünsch­te Inhal­te von der Suche aus­ge­schlos­sen wer­den. Durch die Redu­zie­rung der Anzahl von Sei­ten, die von Such­ma­schi­nen gecrawlt wer­den, kön­nen Web­sei­ten­be­trei­ber die Crawl-Geschwin­dig­keit für wich­ti­ge Inhal­te verbessern.
  • Ver­mei­dung von SEO-Pro­ble­men: Eine “Robots.txt”-Datei kann dazu bei­tra­gen, Pro­ble­me mit der SEO-Per­for­mance zu ver­mei­den, indem sie Such­ma­schi­nen-Craw­lern Anwei­sun­gen gibt, wie sie die Web­sei­te craw­len sol­len. Ohne eine “Robots.txt”-Datei kön­nen Such­ma­schi­nen-Craw­ler eine Web­sei­te falsch oder inef­fek­tiv craw­len, was zu SEO-Pro­ble­men füh­ren kann.

Die Erstel­lung einer “Robots.txt”-Datei ist rela­tiv ein­fach und erfor­dert kei­ne spe­zi­el­len Fähig­kei­ten oder Kennt­nis­se. Hier ist eine Schritt-für-Schritt-Anlei­tung zur Erstel­lung einer “Robots.txt”-Datei:

  1. 1.
    Öff­nen Sie einen Text­edi­tor wie Note­pad oder Sub­li­me Text.
  2. 2.
    Geben Sie fol­gen­den Code am Anfang der Datei ein: User-agent: * Dies bedeu­tet, dass die fol­gen­den Anwei­sun­gen für alle Such­ma­schi­nen-Craw­ler gelten.
  3. 3.
    Fügen Sie anschlie­ßend Direk­ti­ven hin­zu, um Berei­che oder Sei­ten von der Suche aus­zu­schlie­ßen. Eine Direk­ti­ve kann wie folgt aus­se­hen: Dis­al­low: /example/ Dies bedeu­tet, dass der Bereich “exam­p­le” von Such­ma­schi­nen-Craw­lern aus­ge­schlos­sen wird.
  4. 4.
    Wie­der­ho­len Sie Schritt 3 für jeden Bereich oder jede Sei­te, die von der Suche aus­ge­schlos­sen wer­den soll.
  5. 5.
    Spei­chern Sie die Datei unter dem Namen “robots.txt” auf Ihrem Server.

Es ist wich­tig zu beach­ten, dass die “Robots.txt”-Datei in der Wur­zel­ver­zeich­nis des Web­ser­vers plat­ziert wer­den soll­te. Wenn Sie bei­spiels­wei­se möch­ten, dass die “Robots.txt”-Datei für die Web­sei­te “www.example.com” gilt, soll­te sie unter “www.example.com/robots.txt” abge­legt werden.

  • Ver­mei­den Sie es, Berei­che oder Sei­ten aus­zu­schlie­ßen, die für SEO rele­vant sind.
  • Ver­mei­den Sie es, zu vie­le Berei­che oder Sei­ten von der Suche aus­zu­schlie­ßen, da dies zu einem schlech­te­ren Ran­king in Such­ma­schi­nen füh­ren kann.
  • Ver­wen­den Sie nur Dis­al­low-Direk­ti­ven, um Sei­ten oder Berei­che von der Suche aus­zu­schlie­ßen, und ver­wen­den Sie kei­ne Allow-Direktiven.
  • Ver­mei­den Sie es, die “Robots.txt”-Datei zu blo­ckie­ren, da dies dazu füh­ren kann, dass Such­ma­schi­nen-Craw­ler die gesam­te Web­sei­te nicht craw­len können.
Das Lesen einer “Robots.txt”-Datei ist rela­tiv ein­fach und erfor­dert kei­ne spe­zi­el­len Kennt­nis­se oder Fähig­kei­ten. Hier ist eine Anlei­tung, wie man eine “Robots.txt”-Datei liest: 
  1. 1.
    Öff­nen Sie einen Web­brow­ser und navi­gie­ren Sie zu der URL der Web­sei­te, deren “Robots.txt”-Datei Sie lesen möch­ten. Zum Bei­spiel, www.example.com/robots.txt.
  2. 2.
    Lesen Sie die ein­zel­nen Regeln und Direk­ti­ven in der “Robots.txt”-Datei. Jede Regel beginnt nor­ma­ler­wei­se mit dem User-agent, gefolgt von einem oder meh­re­ren Dis­al­low- oder Allow-Direktiven.
  3. 3.
    Ver­ste­hen Sie die Bedeu­tung jeder Direk­ti­ve. Die Dis­al­low-Direk­ti­ve gibt an, wel­che Sei­ten oder Berei­che von der Suche aus­ge­schlos­sen wer­den sol­len. Der Allow-Direk­ti­ve gibt an, wel­che Sei­ten oder Berei­che der Web­sei­te gecrawlt wer­den dürfen.
  4. 4.
    Ver­ste­hen Sie, für wel­chen Such­ma­schi­nen-Craw­ler die Regel gilt. Der User-agent iden­ti­fi­ziert den Such­ma­schi­nen-Craw­ler, für den die Regel gilt. Es gibt eine Viel­zahl von User-Agents, dar­un­ter Goo­gle­bot, Bing­bot und Yahoo! Slurp.
  5. 5.
    Ver­ste­hen Sie, wel­che Sei­ten oder Berei­che von der Suche aus­ge­schlos­sen wer­den. Die “Robots.txt”-Datei gibt an, wel­che Tei­le der Web­sei­te für Such­ma­schi­nen-Craw­ler nicht zugäng­lich sind.

Es ist wich­tig zu beach­ten, dass “Robots.txt”-Regeln von Such­ma­schi­nen-Craw­lern als Emp­feh­lun­gen und nicht als ver­bind­li­che Anwei­sun­gen inter­pre­tiert wer­den. Eini­ge Craw­ler, wie bei­spiels­wei­se Spam-Bots, igno­rie­ren die “Robots.txt”-Datei vollständig.

Es gibt ver­schie­de­ne Tools und Tech­ni­ken, mit denen Sie prü­fen kön­nen, ob Ihre “Robots.txt”-Datei kor­rekt erstellt wur­de. Zum Bei­spiel kön­nen Sie die Goog­le Search Con­so­le ver­wen­den, um Ihre “Robots.txt”-Datei auf Feh­ler zu prü­fen und zu überwachen.

  • User-agent: Dies gibt an, für wel­chen Such­ma­schi­nen-Craw­ler die Regel gilt.
  • Dis­al­low: Dies gibt an, wel­che Sei­ten oder Berei­che von der Suche aus­ge­schlos­sen wer­den sollen.
  • Allow: Dies gibt an, wel­che Sei­ten oder Berei­che der Web­sei­te gecrawlt wer­den dürfen.
Obwohl “Robots.txt”-Dateien ein­fach zu erstel­len und zu lesen sind, kön­nen eini­ge häu­fi­ge Pro­ble­me auf­tre­ten, die sich auf die SEO-Per­for­mance einer Web­sei­te aus­wir­ken kön­nen. Hier sind eini­ge häu­fi­ge Pro­ble­me bei “Robots.txt”-Dateien und wie man sie ver­mei­den kann: 
  • Blo­ckie­ren von wich­ti­gen Inhal­ten: Eine “Robots.txt”-Datei kann dazu füh­ren, dass wich­ti­ge Inhal­te von Such­ma­schi­nen-Craw­lern aus­ge­schlos­sen wer­den. Dies kann zu einem schlech­te­ren Ran­king in Such­ma­schi­nen­er­geb­nis­sen füh­ren. Um dies zu ver­mei­den, soll­ten Web­sei­ten­be­trei­ber sicher­stel­len, dass nur irrele­van­te oder uner­wünsch­te Inhal­te von der Suche aus­ge­schlos­sen werden.
  • Fal­sche Anwei­sun­gen: Eine “Robots.txt”-Datei kann auf­grund von fal­schen Anwei­sun­gen dazu füh­ren, dass Such­ma­schi­nen-Craw­ler die Web­sei­te falsch oder inef­fek­tiv craw­len. Um dies zu ver­mei­den, soll­ten Web­sei­ten­be­trei­ber sicher­stel­len, dass die Regeln und Direk­ti­ven in der “Robots.txt”-Datei kor­rekt und genau sind.
  • Unvoll­stän­di­ge “Robots.txt”-Dateien: Eine unvoll­stän­di­ge “Robots.txt”-Datei kann dazu füh­ren, dass Such­ma­schi­nen-Craw­ler alle Sei­ten der Web­sei­te craw­len, was zu einer inef­fi­zi­en­ten und unnö­ti­gen Belas­tung des Web­ser­vers füh­ren kann. Um dies zu ver­mei­den, soll­ten Web­sei­ten­be­trei­ber sicher­stel­len, dass ihre “Robots.txt”-Datei voll­stän­dig ist und alle not­wen­di­gen Direk­ti­ven enthält.
  • Blo­ckie­rung von Java­Script oder CSS-Datei­en: Eine “Robots.txt”-Datei soll­te nie­mals Java­Script- oder CSS-Datei­en blo­ckie­ren, da dies dazu füh­ren kann, dass die Web­sei­te nicht ord­nungs­ge­mäß dar­ge­stellt wird. Web­sei­ten­be­trei­ber soll­ten sicher­stel­len, dass ihre “Robots.txt”-Datei die­se wich­ti­gen Datei­en nicht blockiert.
  • Ver­wen­dung von fal­schen oder ver­al­te­ten Direk­ti­ven: Eine “Robots.txt”-Datei soll­te immer aktu­ell sein und die neu­es­ten Direk­ti­ven ver­wen­den. Ver­al­te­te oder fal­sche Direk­ti­ven kön­nen dazu füh­ren, dass Such­ma­schi­nen-Craw­ler die Web­sei­te falsch oder inef­fek­tiv crawlen.
Um sicher­zu­stel­len, dass die “Robots.txt”-Datei effek­tiv ist und die SEO-Per­for­mance der Web­sei­te opti­miert, gibt es eini­ge bewähr­te Tipps und bewähr­te Ver­fah­ren, die Web­sei­ten­be­trei­ber beach­ten soll­ten. Hier sind eini­ge Tipps zur Opti­mie­rung von “Robots.txt”-Dateien für SEO: 
  • Ver­wen­den Sie benut­zer­de­fi­nier­te User-Agents: Durch die Ver­wen­dung benut­zer­de­fi­nier­ter User-Agents kön­nen Web­sei­ten­be­trei­ber die Kon­trol­le dar­über behal­ten, wel­che Such­ma­schi­nen-Craw­ler Zugriff auf ihre Web­sei­te haben. Benut­zer­de­fi­nier­te User-Agents kön­nen auch dazu bei­tra­gen, die Sicher­heit der Web­sei­te zu ver­bes­sern, indem sie den Zugriff von uner­wünsch­ten Craw­lern einschränken.
  • Ver­mei­den Sie unnö­ti­ge Regeln: Eine “Robots.txt”-Datei soll­te nur Sei­ten oder Berei­che von der Suche aus­ge­schlos­sen, die tat­säch­lich von der Suche aus­ge­schlos­sen wer­den sol­len. Web­sei­ten­be­trei­ber soll­ten sicher­stel­len, dass kei­ne wich­ti­gen oder rele­van­ten Sei­ten von der Suche aus­ge­schlos­sen werden.
  • Ver­mei­den Sie die Blo­ckie­rung von CSS- und Java­Script-Datei­en: CSS- und Java­Script-Datei­en sind wich­ti­ge Bestand­tei­le einer Web­sei­te, die dazu bei­tra­gen, dass die Web­sei­te ord­nungs­ge­mäß dar­ge­stellt wird. Durch die Blo­ckie­rung von CSS- und Java­Script-Datei­en kön­nen Such­ma­schi­nen-Craw­ler die Web­sei­te mög­li­cher­wei­se nicht ord­nungs­ge­mäß craw­len, was zu einem schlech­te­ren Ran­king in Such­ma­schi­nen­er­geb­nis­sen füh­ren kann.
  • Ver­mei­den Sie die Ver­wen­dung von wild­cards: Wild­cards kön­nen dazu füh­ren, dass Such­ma­schi­nen-Craw­ler Berei­che der Web­sei­te aus­schlie­ßen, die tat­säch­lich von der Suche erfasst wer­den sol­len. Ver­wen­den Sie statt­des­sen spe­zi­fi­sche URLs oder Ord­ner­pfa­de, um sicher­zu­stel­len, dass die “Robots.txt”-Datei nur die Sei­ten oder Berei­che von der Suche aus­schließt, die tat­säch­lich aus­ge­schlos­sen wer­den sollen.
  • Stel­len Sie sicher, dass die “Robots.txt”-Datei kor­rekt for­ma­tiert ist: Eine kor­rekt for­ma­tier­te “Robots.txt”-Datei ist wich­tig, um sicher­zu­stel­len, dass sie von Such­ma­schi­nen-Craw­lern kor­rekt gele­sen und inter­pre­tiert wer­den kann. Web­sei­ten­be­trei­ber soll­ten sicher­stel­len, dass ihre “Robots.txt”-Datei kor­rekt for­ma­tiert ist und alle not­wen­di­gen Regeln und Direk­ti­ven enthält.
Durch die Beach­tung die­ser bewähr­ten Tipps und Ver­fah­ren kön­nen Web­sei­ten­be­trei­ber sicher­stel­len, dass ihre “Robots.txt”-Datei effek­tiv ist und die SEO-Per­for­mance ihrer Web­sei­te opti­miert wird. 

Eine “Robots.txt”-Datei ist ein wich­ti­ges Instru­ment für Web­sei­ten­be­trei­ber, um Such­ma­schi­nen-Craw­lern zu sagen, wel­che Berei­che ihrer Web­sei­te gecrawlt wer­den dür­fen und wel­che nicht. Durch die kor­rek­te Ver­wen­dung einer “Robots.txt”-Datei kön­nen Web­sei­ten­be­trei­ber die SEO-Per­for­mance ihrer Web­sei­te opti­mie­ren und ver­hin­dern, dass uner­wünsch­te oder unan­ge­mes­se­ne Inhal­te von der Suche aus­ge­schlos­sen werden.

Es ist wich­tig, dass Web­sei­ten­be­trei­ber die best prac­ti­ces bei der Erstel­lung und Opti­mie­rung von “Robots.txt”-Dateien beach­ten, um sicher­zu­stel­len, dass ihre “Robots.txt”-Datei kor­rekt und effek­tiv ist. Web­sei­ten­be­trei­ber soll­ten auch sicher­stel­len, dass ihre “Robots.txt”-Datei regel­mä­ßig über­prüft und aktua­li­siert wird, um sicher­zu­stel­len, dass sie kor­rekt und aktu­ell ist.

Letzt­end­lich soll­te die “Robots.txt”-Datei Teil einer umfas­sen­den SEO-Stra­te­gie sein, die auf der Opti­mie­rung von Inhal­ten, Key­words und ande­ren Ran­king-Fak­to­ren basiert. Eine kor­rekt erstell­te “Robots.txt”-Datei kann dazu bei­tra­gen, dass Such­ma­schi­nen-Craw­ler die Web­sei­te effek­tiv und effi­zi­ent craw­len, Dupli­ca­te Con­tent ver­mie­den wird und per­sön­li­che oder ver­trau­li­che Daten geschützt werden.

Ins­ge­samt ist die “Robots.txt”-Datei ein wich­ti­ger Bestand­teil jeder erfolg­rei­chen SEO-Stra­te­gie. Durch die Ver­wen­dung bewähr­ter Tipps und Ver­fah­ren kön­nen Web­sei­ten­be­trei­ber sicher­stel­len, dass ihre “Robots.txt”-Datei effek­tiv ist und ihre SEO-Per­for­mance opti­miert wird.

  1. 1.
    “Robots.txt-Datei” (Goog­le-Sup­port): https://support.google.com/webmasters/answer/6062596?hl=de
  2. 2.
    “Robots.txt-Datei: Der ulti­ma­ti­ve Leit­fa­den für Such­ma­schi­nen” (Hub­S­pot): https://blog.hubspot.de/marketing/robots-txt-ultimate-guide
  3. 3.
    “Was ist die Robots.txt-Datei?” (SEM­rush): https://de.semrush.com/blog/was-ist-die-robots-txt-datei/
  4. 4.
    “Robots.txt-Datei: Eine voll­stän­di­ge Anlei­tung für Anfän­ger” (Ahrefs): https://ahrefs.com/blog/robots-txt/
  5. 5.
    “Robots.txt-Datei und SEO: Ein voll­stän­di­ger Leit­fa­den für Anfän­ger” (Neil Patel): https://neilpatel.com/de/blog/robots-txt/
Die­se Res­sour­cen bie­ten zusätz­li­che Infor­ma­tio­nen, Tipps und Anlei­tun­gen für die Erstel­lung und Opti­mie­rung von “Robots.txt”-Dateien für SEO. 

Ein­satz von künst­li­cher Intelligenz

Die­ser Bei­trag wur­de mit­hil­fe künst­li­cher Intel­li­genz erstellt und von unse­rern Fach­ex­per­ten sorg­fäl­tig über­prüft, um sicher­zu­stel­len, dass die Infor­ma­tio­nen kor­rekt, ver­ständ­lich und nütz­lich sind.