SEO-Wiki — SEO-Fach­be­grif­fe ver­ständ­lich erklärt!

Ein User Agent ist eine Soft­ware, die auf dem Com­pu­ter eines Nut­zers läuft und eine Ver­bin­dung zu einem ande­ren Com­pu­ter, meist einem Web­ser­ver, her­stellt. Der User Agent sen­det Anfra­gen an den Ser­ver und erhält dar­auf­hin Ant­wor­ten, die er dann auf dem Bild­schirm dar­stellt. Doch was genau ver­birgt sich hin­ter der Bezeich­nung User Agent? 
Ein User Agent ist eine Soft­ware oder ein Pro­gramm, das eine Anfra­ge an einen Web­ser­ver sen­det und dar­auf­hin die Ant­wort des Ser­vers ent­ge­gen­nimmt. User Agents kön­nen dabei unter­schied­li­che For­men anneh­men, etwa ein Web­brow­ser, ein Such­ma­schi­nen-Craw­ler oder ein Web-Scra­per. Sie spie­len eine wich­ti­ge Rol­le bei der Kom­mu­ni­ka­ti­on zwi­schen Nut­zern und Web­ser­vern, da sie die Anfra­gen der Nut­zer kor­rekt an den Ser­ver wei­ter­lei­ten und die Ergeb­nis­se der Anfra­ge kor­rekt darstellen. 

Die meis­ten Men­schen nut­zen Web­brow­ser wie Chro­me, Fire­fox oder Safa­ri, um im Inter­net zu sur­fen. Web­brow­ser sind aus die­sem Grund auch die bekann­tes­ten User Agents. Sie stel­len Web­sei­ten auf dem Bild­schirm dar und ermög­li­chen es Nut­zern, mit ihnen zu inter­agie­ren. Dabei gibt es Unter­schie­de bei der Dar­stel­lung von Web­sei­ten, je nach Brow­ser. Des­halb ist es wich­tig, dass Web­de­si­gner ihre Sei­ten so gestal­ten, dass sie in ver­schie­de­nen Brow­sern funk­tio­nie­ren. Das nennt man Browserkompatibilität.

Ein Bei­spiel für die Bedeu­tung von Brow­ser­kom­pa­ti­bi­li­tät ist die Ver­wen­dung von CSS-Datei­en. CSS-Datei­en wer­den ver­wen­det, um das Aus­se­hen von Web­sei­ten zu gestal­ten. Aller­dings kann es sein, dass bestimm­te CSS-Regeln in einem Brow­ser anders dar­ge­stellt wer­den als in einem ande­ren Brow­ser. Web­de­si­gner müs­sen daher sicher­stel­len, dass ihre CSS-Datei­en für alle gän­gi­gen Brow­ser opti­miert sind, um sicher­zu­stel­len, dass ihre Web­sei­ten für alle Nut­zer opti­mal dar­ge­stellt werden.

Such­ma­schi­nen nut­zen Craw­ler, um das Inter­net zu durch­su­chen und Web­sei­ten zu inde­xie­ren. Ein Craw­ler ist ein Com­pu­ter­pro­gramm, das auto­ma­tisch das Inter­net nach neu­en oder geän­der­ten Web­sei­ten durch­sucht. Dabei iden­ti­fi­ziert der Craw­ler sich als User Agent des jewei­li­gen Such­ma­schi­nen­be­trei­bers. Auf die­se Wei­se kön­nen Such­ma­schi­nen ihre Daten­ban­ken pfle­gen und Nut­zern rele­van­te Inhal­te liefern.

Es gibt ver­schie­de­ne Arten von Craw­lern, dar­un­ter auch sol­che, die spe­zi­ell für die mobi­le Suche opti­miert sind. Die­se Craw­ler durch­su­chen das Inter­net nach mobi­len Web­sei­ten und inde­xie­ren sie in den mobi­len Such­ergeb­nis­sen. Das ist beson­ders wich­tig, da immer mehr Men­schen das Inter­net über ihre Smart­phones nut­zen und daher auch ver­mehrt nach mobi­len Web­sei­ten suchen.

Web-Scra­per sind Pro­gram­me, die auto­ma­tisch Web­sei­ten durch­su­chen und Daten extra­hie­ren. Sie kön­nen bei­spiels­wei­se ver­wen­det wer­den, um Prei­se von Pro­duk­ten auf ver­schie­de­nen Web­sei­ten zu ver­glei­chen oder um Infor­ma­tio­nen über Unter­neh­men zu sam­meln. Aller­dings gibt es auch Web-Scra­per, die für uner­wünsch­te Zwe­cke ein­ge­setzt wer­den, wie bei­spiels­wei­se das Sam­meln von E‑Mail-Adres­sen für Spam-Nachrichten.

Um den Miss­brauch von Web-Scra­per zu ver­hin­dern, set­zen vie­le Web­sei­ten ver­schie­de­ne Tech­no­lo­gien ein, wie bei­spiels­wei­se CAPTCHAs oder IP-Blo­ckie­run­gen. CAPTCHAs sind Her­aus­for­de­run­gen, die Nut­zer lösen müs­sen, um zu bewei­sen, dass sie Men­schen und kei­ne auto­ma­ti­sier­ten Pro­gram­me sind. IP-Blo­ckie­run­gen ver­hin­dern den Zugriff auf eine Web­sei­te von bestimm­ten IP-Adres­sen aus, die als ver­däch­tig ein­ge­stuft wurden.

Beim Sen­den von Anfra­gen an Web­ser­ver iden­ti­fi­zie­ren sich User Agents mit einem soge­nann­ten User Agent String. Die­ser String ent­hält Infor­ma­tio­nen über den User Agent, wie bei­spiels­wei­se den Namen des Brow­sers, die Ver­si­on des Brow­sers oder das Betriebs­sys­tem, auf dem der Brow­ser läuft.

Die Iden­ti­fi­zie­rung von User Agents ist für Web­ent­wick­ler von gro­ßer Bedeu­tung, da sie sicher­stel­len müs­sen, dass ihre Web­sei­ten auf ver­schie­de­nen Brow­sern und Gerä­ten ein­wand­frei funk­tio­nie­ren. Der User Agent String hilft ihnen dabei, die Kom­pa­ti­bi­li­tät ihrer Web­sei­ten zu tes­ten und sicher­zu­stel­len, dass ihre Inhal­te für alle Nut­zer zugäng­lich sind.

Wenn Nut­zer eine Web­sei­te besu­chen, sen­det der Web­brow­ser eine Anfra­ge an den zuge­hö­ri­gen Web­ser­ver. Der Web­ser­ver prüft dann, ob er den ange­for­der­ten Inhalt bereit­stel­len kann. Wenn ja, sen­det er eine Ant­wort zurück an den Brow­ser. Der Brow­ser stellt dar­auf­hin die Web­sei­te auf dem Bild­schirm des Nut­zers dar.

Es gibt ver­schie­de­ne Arten von Anfra­gen, die ein Brow­ser an einen Web­ser­ver sen­den kann. Zum Bei­spiel kann ein Brow­ser eine GET-Anfra­ge sen­den, um eine bestimm­te Web­sei­te abzu­ru­fen. Eine POST-Anfra­ge wird ver­wen­det, um Daten an den Web­ser­ver zu sen­den, wie bei­spiels­wei­se ein aus­ge­füll­tes For­mu­lar. Die Art der Anfra­ge hängt von der Akti­on ab, die der Nut­zer aus­füh­ren möchte.

Nach­dem der Brow­ser die Ant­wort des Web­ser­vers erhal­ten hat, beginnt er mit dem Ren­de­ring der Web­sei­te. Dabei wer­den die HTML‑, CSS- und Java­Script-Datei­en ver­ar­bei­tet und die Web­sei­te wird auf dem Bild­schirm des Nut­zers dargestellt.

Das Ren­de­ring einer Web­sei­te kann je nach Brow­ser und Gerät unter­schied­lich aus­se­hen. Es ist wich­tig, dass Web­ent­wick­ler sicher­stel­len, dass ihre Web­sei­ten auf ver­schie­de­nen Gerä­ten und Brow­sern ein­wand­frei funk­tio­nie­ren und ord­nungs­ge­mäß ger­en­dert wer­den. Dazu müs­sen sie sicher­stel­len, dass ihre Web­sei­ten den gän­gi­gen Web­stan­dards ent­spre­chen und dass sie respon­si­ve Designs ver­wen­den, die sich auto­ma­tisch an ver­schie­de­ne Bild­schirm­grö­ßen anpassen.

Da Such­ma­schi­nen-Craw­ler auch User Agents sind, ist es wich­tig, dass Web­sei­ten für Craw­ler opti­miert sind. So spielt bei­spiels­wei­se die Lade­zeit einer Sei­te eine wich­ti­ge Rol­le für die Plat­zie­rung in den Suchergebnissen.

Such­ma­schi­nen­op­ti­mie­rung (SEO) ist ein wich­ti­ger Aspekt der Web­ent­wick­lung. Es geht dar­um, sicher­zu­stel­len, dass Web­sei­ten so gestal­tet sind, dass sie von Such­ma­schi­nen gefun­den und inde­xiert wer­den kön­nen. Dies umfasst vie­le ver­schie­de­ne Aspek­te, wie z.B. die Ver­wen­dung von rele­van­ten Key­words, die Opti­mie­rung von Bil­dern und Vide­os, die Ver­wen­dung von Meta-Tags und vie­les mehr.

Wenn Web­sei­ten für Such­ma­schi­nen opti­miert sind, kön­nen sie höher in den Such­ergeb­nis­sen erschei­nen, was zu mehr Traf­fic und poten­zi­ell mehr Geschäft füh­ren kann.

User Agents wie Screen­rea­der oder Sprach­steue­run­gen ermög­li­chen Per­so­nen mit Seh- oder Hör­be­hin­de­run­gen den Zugang zu Web­in­hal­ten. Web­de­si­gner müs­sen daher auch berück­sich­ti­gen, wie ihre Sei­ten für die­se User Agents opti­miert wer­den können.

Zugäng­lich­keit und Bar­rie­re­frei­heit sind wich­ti­ge Aspek­te der Web­ent­wick­lung. Es geht dar­um, sicher­zu­stel­len, dass Web­sei­ten für alle Benut­zer zugäng­lich sind, unab­hän­gig von ihren Fähig­kei­ten oder Ein­schrän­kun­gen. Dies kann erreicht wer­den, indem man sicher­stellt, dass Web­sei­ten kla­re und gut struk­tu­rier­te Inhal­te haben, die ein­fach zu navi­gie­ren sind und die Ver­wen­dung von Far­ben und Kon­tras­ten optimieren.

Wenn Web­sei­ten für alle Benut­zer zugäng­lich sind, kön­nen sie ein brei­te­res Publi­kum anspre­chen und dazu bei­tra­gen, dass das Inter­net für alle zugäng­li­cher wird.

Ein User Agent String ist eine Zei­chen­fol­ge, die ver­schie­de­ne Infor­ma­tio­nen über den User Agent ent­hält. Der User Agent ist eine Soft­ware, die auf einem Com­pu­ter oder einem ande­ren Gerät aus­ge­führt wird und eine Anfra­ge an einen Ser­ver sen­det. Der Ser­ver ver­wen­det den User Agent String, um Infor­ma­tio­nen über den Cli­ent zu sam­meln, der die Anfra­ge gesen­det hat.

Ein User Agent String besteht aus ver­schie­de­nen Tei­len, die den Brow­ser oder das Pro­gramm beschrei­ben. Es gibt kei­ne ein­heit­li­che Defi­ni­ti­on für den Auf­bau eines User Agent Strings, aber es gibt eini­ge Stan­dards, die von vie­len Brow­sern und Pro­gram­men ver­wen­det wer­den. Der String beginnt nor­ma­ler­wei­se mit dem Namen des Brow­sers oder des Pro­gramms, gefolgt von der Ver­si­on des Brow­sers oder des Pro­gramms und Anga­ben zum Betriebs­sys­tem oder der Plattform.

Der User Agent String ist wich­tig für Web­ent­wick­ler und Web­site-Betrei­ber, da er ihnen Infor­ma­tio­nen über den Cli­ent gibt, der ihre Web­site besucht. Mit die­sen Infor­ma­tio­nen kön­nen sie ihre Web­site an den Cli­ent anpas­sen und sicher­stel­len, dass sie auf ver­schie­de­nen Gerä­ten und in ver­schie­de­nen Brow­sern kor­rekt ange­zeigt wird.

  • Mozilla/5.0 (Win­dows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.182 Safari/537.36
  • Mozilla/5.0 (iPho­ne; CPU iPho­ne OS 14_4 like Mac OS X) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/14.0.3 Mobile/15E148 Safari/604.1
  • Googlebot/2.1 (+http://www.googlebot.com/bot.html)

Der ers­te User Agent String ist von Goog­le Chro­me, der auf einem Win­dows 10-Com­pu­ter aus­ge­führt wird. Die Zei­chen­fol­ge ent­hält Infor­ma­tio­nen über das Betriebs­sys­tem (Win­dows NT 10.0), die Platt­form (Win64) und die ver­wen­de­te Ver­si­on von Chro­me (88.0.4324.182).

Der zwei­te User Agent String ist von Safa­ri, der auf einem iPho­ne mit iOS 14.4 aus­ge­führt wird. Die Zei­chen­fol­ge ent­hält Infor­ma­tio­nen über das Betriebs­sys­tem (iOS 14_4), die Platt­form (Mobi­le) und die ver­wen­de­te Ver­si­on von Safa­ri (14.0.3).

Der drit­te User Agent String ist von Goo­gle­bot, einem Web­craw­ler von Goog­le. Die Zei­chen­fol­ge ent­hält Infor­ma­tio­nen über die Ver­si­on von Goo­gle­bot (2.1) und die URL der Web­site, die gecrawlt wird (http://www.googlebot.com/bot.html).

User Agent Spoo­fing bezeich­net das Vor­täu­schen eines ande­ren User Agents durch eine Soft­ware oder einen Nut­zer. Mög­li­che Grün­de dafür kön­nen sein, dass Web­sei­ten Inhal­te nur für bestimm­te User Agents zugäng­lich machen, bei­spiels­wei­se um die Aus­lie­fe­rung von Wer­bung zu beeinflussen.

Ein wei­te­rer Grund für das Spoo­fing von User Agents kann sein, dass Nut­zer durch das Ändern ihres User Agents bestimm­te Ein­schrän­kun­gen umge­hen möch­ten. Bei­spiels­wei­se könn­te ein Nut­zer ver­su­chen, auf eine Web­sei­te zuzu­grei­fen, die nor­ma­ler­wei­se nur für bestimm­te Brow­ser oder Betriebs­sys­te­me zugäng­lich ist.

Jedoch birgt das Spoo­fing von User Agents auch Risi­ken und Sicher­heits­be­den­ken. So kön­nen Web­sites Mal­wa­re ver­brei­ten oder Sicher­heits­lü­cken aus­nut­zen, wenn sie nicht kon­se­quent über­prü­fen, ob die Anfra­gen von legi­ti­men User Agents stam­men. Dadurch kann es zu uner­wünsch­ten Fol­gen kom­men, wie bei­spiels­wei­se dem Dieb­stahl von per­sön­li­chen Daten oder dem Zugriff auf ver­trau­li­che Informationen.

User Agent Spoo­fing kann auf ver­schie­de­ne Arten durch­ge­führt wer­den. Eine Mög­lich­keit ist das manu­el­le Ändern des User Agents in den Ein­stel­lun­gen des Brow­sers. Alter­na­tiv kön­nen auch spe­zi­el­le Tools oder Brow­ser-Erwei­te­run­gen genutzt wer­den, um den User Agent zu ändern.

Es gibt jedoch auch auto­ma­ti­sier­te Metho­den des User Agent Spoo­fings, bei­spiels­wei­se durch die Ver­wen­dung von Bots oder Skrip­ten. Die­se kön­nen auto­ma­tisch den User Agent ändern, um bei­spiels­wei­se geziel­te Angrif­fe auf bestimm­te Web­sei­ten durchzuführen.

Um sich vor User Agent Spoo­fing zu schüt­zen, ist es wich­tig, dass Web­sei­ten­be­trei­ber ihre Sei­ten so kon­fi­gu­rie­ren, dass sie nur Anfra­gen von legi­ti­men User Agents akzep­tie­ren. Dazu kön­nen bei­spiels­wei­se White­lists oder Black­lists genutzt wer­den, um bestimm­te User Agents zu blo­ckie­ren oder zuzulassen.

Auf Nut­zer­sei­te kann man sich vor User Agent Spoo­fing schüt­zen, indem man nur ver­trau­ens­wür­di­ge Web­sei­ten besucht und kei­ne ver­däch­ti­gen Anfra­gen zulässt. Zudem ist es emp­feh­lens­wert, regel­mä­ßig Sicher­heits­up­dates durch­zu­füh­ren und eine aktu­el­le Anti­vi­ren­soft­ware zu nutzen.

User Agents spie­len eine wich­ti­ge Rol­le bei der Kom­mu­ni­ka­ti­on zwi­schen Nut­zern und Web­ser­vern. Sie ermög­li­chen es Nut­zern, Web­sei­ten auf ihrem Com­pu­ter dar­zu­stel­len und Web­ser­vern, Anfra­gen von Nut­zern kor­rekt zu beant­wor­ten. User Agent Strings geben Aus­kunft dar­über, wel­cher User Agent eine Anfra­ge stellt und wel­che Funk­tio­nen er unter­stützt. Aller­dings birgt User Agent Spoo­fing auch Risi­ken. Es ist wich­tig, dass Web­de­si­gner bei der Gestal­tung von Web­sei­ten dar­auf ach­ten, dass sie in ver­schie­de­nen Brow­sern kor­rekt dar­ge­stellt wer­den und bar­rie­re­frei sind.

Ein wei­te­rer wich­ti­ger Aspekt bei der Gestal­tung von Web­sei­ten ist die Such­ma­schi­nen­op­ti­mie­rung. Um von Such­ma­schi­nen wie Goog­le gefun­den zu wer­den, müs­sen Web­sei­ten bestimm­te Kri­te­ri­en erfül­len. Dazu gehört unter ande­rem eine hohe Lade­ge­schwin­dig­keit und eine kla­re Struk­tur. Auch die Ver­wen­dung von rele­van­ten Key­words spielt eine wich­ti­ge Rolle.

Zusätz­lich soll­ten Web­sei­ten auch für mobi­le Gerä­te opti­miert sein. Immer mehr Nut­zer grei­fen auf Web­sei­ten über Smart­phones oder Tablets zu. Eine respon­si­ve Gestal­tung der Web­sei­te sorgt dafür, dass die Sei­te auf ver­schie­de­nen Bild­schirm­grö­ßen opti­mal dar­ge­stellt wird.

Ein wei­te­rer wich­ti­ger Fak­tor ist die Sicher­heit von Web­sei­ten. Durch die Ver­wen­dung von HTTPS wird eine ver­schlüs­sel­te Ver­bin­dung zwi­schen Nut­zer und Web­ser­ver her­ge­stellt. Dadurch sind Daten wie Pass­wör­ter oder Kre­dit­kar­ten­in­for­ma­tio­nen vor unbe­fug­tem Zugriff geschützt. Auch regel­mä­ßi­ge Updates und Sicher­heits­checks sind wich­tig, um Schwach­stel­len auf der Web­sei­te zu iden­ti­fi­zie­ren und zu beheben.

Zusam­men­fas­send lässt sich sagen, dass die Gestal­tung von Web­sei­ten vie­le Aspek­te umfasst. Neben der kor­rek­ten Dar­stel­lung in ver­schie­de­nen Brow­sern und der Bar­rie­re­frei­heit spie­len auch Such­ma­schi­nen­op­ti­mie­rung, mobi­le Opti­mie­rung und Sicher­heit eine wich­ti­ge Rol­le. Web­de­si­gner soll­ten sich mit allen die­sen Aspek­ten aus­ein­an­der­set­zen, um eine erfolg­rei­che Web­sei­te zu gestalten.

  1. 1.
    User Agent” — Mozil­la Deve­lo­per Net­work (MDN) Die­se Sei­te gibt einen umfas­sen­den Über­blick über das The­ma User Agents und geht auf ver­schie­de­ne Aspek­te wie die Iden­ti­fi­zie­rung und die Kom­mu­ni­ka­ti­on mit Web­ser­vern ein. (Quel­le: MDN Web Docs)
  2. 2.
    “User Agent String” — Micro­soft Deve­lo­per Net­work Die­ser Arti­kel erläu­tert den Auf­bau und die Bedeu­tung von User Agent Strings und gibt Bei­spie­le für ver­schie­de­ne User Agent Strings. (Quel­le: Micro­soft Docs)
  3. 3.
    “Brow­ser com­pa­ti­bi­li­ty” — Mozil­la Deve­lo­per Net­work (MDN) Hier fin­den Sie Infor­ma­tio­nen zur Brow­ser­kom­pa­ti­bi­li­tät und zur Bedeu­tung von Web­stan­dards. (Quel­le: MDN Web Docs)
  4. 4.
    “Google’s Search Engi­ne Opti­miza­ti­on (SEO) Star­ter Gui­de” In die­ser Res­sour­ce fin­den Sie Infor­ma­tio­nen zur Such­ma­schi­nen­op­ti­mie­rung und wie Sie Ihre Web­sei­te für Such­ma­schi­nen-Craw­ler opti­mie­ren kön­nen. (Quel­le: Goog­le Search Cen­tral)
  5. 5.
    “Web Con­tent Acces­si­bi­li­ty Gui­de­lines (WCAG) 2.1” Die­se Richt­li­ni­en von der Web Acces­si­bi­li­ty Initia­ti­ve (WAI) des World Wide Web Con­sor­ti­ums (W3C) hel­fen, Web­in­hal­te für Men­schen mit Behin­de­run­gen zugäng­li­cher zu machen. (Quel­le: W3C)
  6. 6.
    “HTTP request methods” — Mozil­la Deve­lo­per Net­work (MDN) Die­ser Arti­kel beschreibt die ver­schie­de­nen Arten von Anfra­gen (GET, POST etc.), die ein Brow­ser an einen Web­ser­ver sen­den kann. (Quel­le: MDN Web Docs)

Ein­satz von künst­li­cher Intelligenz

Die­ser Bei­trag wur­de mit­hil­fe künst­li­cher Intel­li­genz erstellt und von unse­ren Fach­ex­per­ten sorg­fäl­tig über­prüft, um sicher­zu­stel­len, dass die Infor­ma­tio­nen kor­rekt, ver­ständ­lich und nütz­lich sind.