Categories: Unternehmen

Praxis Thin-Clients: Die Infrastruktur muss passen

Während des Rollouts von Anwendungen testen Unternehmen zumeist die Performance neuer Systeme, indem sie Pilot-Programme einrichten oder das Netzwerk in einer Testumgebung betreiben, die reale Anwendungsbelastungen simuliert. Dieser Ansatz bietet normalerweise einen guten Ausblick darauf, auf welche Art die Unternehmensanwendungen das System belasten werden – bei Thin-Clients ist die Sache jedoch ganz anders.

Das liegt daran, dass konventionelle Test-Tools bisher keine Möglichkeit hatten, die tatsächliche Erfahrung des Thin-Client-Anwenders zu überwachen. Tools zur Serverüberwachung – wie Citrix Resource Manager oder NTP Software System Sentinel – werden üblicherweise auf dem Server installiert und bieten einen guten Überblick darüber, wie gut die Server-Farm die Anwendungen laufen lässt. Solche Tools geben jedoch normalerweise nur wenige Hinweise darauf, welche Performance auch auf den im ganzen Land verteilten Bildschirmen der Anwender ankommt, und Performance-Probleme werden zumeist erst dann erkannt, wenn die Anwender beim Help-Desk anrufen, um sich zu beschweren.

Ein kritisches Problem: Thin-Client-Lösungen mögen sich zwar mit Leichtigkeit skalieren lassen, wenn nur einige Dutzend Anwender hinzugefügt werden, ist die verfügbare Bandbreite jedoch ausgenutzt oder läuft der Anwendungsserver mit voller Kapazität, kann ihnen auch schnell die Luft ausgehen.

Der Bedarf zur Abschätzung der Anwendungsperformance beim Endanwender hat häufig zu einer noch strengeren Evaluierungsperiode vor dem Rollout von Thin-Client-Systemen in die Produktion geführt. So bot Sun Microsystems seinem Integrationspartner Frontline Systems beispielsweise an, während der Designphase des für 600 Arbeitsplätze ausgelegten Thin-Client-Systems für NSW TAB (das staatliche Wettbüro des australischen Bundesstaats New South Wales) seine zwei Millionen Dollar teure Versuchseinrichtung iForce Ready Centre zu nutzen. TAB setzt die Thin-Clients von Sun Ray als Support-Terminals im Call-Center ein. Unterstützt werden sie von E402R-Servern von Sun Enterprise, die bei der Verarbeitung von 22 Millionen Anrufen jährlich behilflich sind.

Das Testen eines Thin-Client-Systems unter realen Bedingungen kann zwar dazu beitragen, die richtige Anzahl der benötigten Server herauszufinden, es ist jedoch ein von Natur aus trügerisches Maß für die Performance in der realen Welt: Im echten Einsatz wird die Performance von Dingen wie der Netzwerk-Latenz, variierenden Belastungen und dem Kampf zwischen anderen Anwendungen und administrativen Prozessen (etwa Backups) um Server-Ressourcen beeinflusst. Selbst rudimentäre Multimedia-Anwendungen – Flash-Animationen oder Video in niedriger Bandbreite – können sich für Thin-Client-Software, die mit Höchstlast arbeiten muss, um einen Bildschirminhalt über eine häufig sehr langsame Verbindung zu übertragen, zu einem großen Problem auswachsen.

Dies führt zu Schwankungen in der Performance verschiedener Thin-Client-Technologien. So ergab eine kürzlich von PC Magazine Labs und von Jason Nieh von der Columbia University durchgeführte Analyse, dass es beträchtliche Effizienzunterschiede zwischen RDP (Remote Data Protocol, eingesetzt in Microsoft Terminal Services), dem RFB-Protokoll der Thin-Client-Software Virtual Network Computing (VNC) von AT&T und der von Citrix MetaFrame verwendeten ICA (Independent Computing Architecture) gab. VNC lief unter Linux, RDP und ICA liefen unter Windows 2000.

Citrix ergänzt eine dreischichtige Anwendung um eine vierte Schicht. Häufig liefert man eine Anwendung aus, und die Anwender sorgen sich dann, wenn sie beginnen, Performance-Abfälle zu erkennen.
–Jonathan Rende, Marketing VP, Mercury

Während des Transfers einer 63sekündigen Videodatei, die 13,74 MB groß war, übertrug RDP unter Windows NT 117,93 MByte an Daten (der Unterschied ist größtenteils auf Steuerungsinformationen zurückzuführen). Im Gegensatz dazu wurden in einer ICA-Umgebung 42,48 MByte an Daten und 0,86 MByte über RFB übertragen (VNC lieferte allerdings ein unbrauchbares Video, so dass diese Zahl nicht korrekt ist). Unter Windows 2000 übertrug RDP 30,38 MByte an Daten an den Thin-Client, während ICA nur 21,83 MByte und RFB nur 1,19 MByte bewegte (wobei letzteres wiederum nicht korrekt funktionierte). Der Server basierte in diesen Tests auf einem Pentium III mit 550 MHz, während auf dem Thin-Client ein Pentium II Prozessor mit 300 MHz lief.

Solche Studien zeigen die großen Schwankungen auf, die bei der Verarbeitung von Datenströmen durch die unterschiedlichen Thin-Client-Protokolle existieren. Allerdings wird nicht klar, worin diese Unterschiede bestehen, denn die internen Arbeitsweisen der Protokolle sind nur schlecht dokumentiert. Feinheiten im Design von Thin-Clients bestätigen jedoch, dass nicht alle Thin-Client-Umgebungen gleich geschaffen sind. Es kann sich daher als schmerzhaft ungenau erweisen, wenn man sich bei der Bereitstellung von Serverausrüstung auf einfache Faustregeln verlässt. Auch konventionelle Benchmarks können daran wenig ändern, denn sie messen die Geschwindigkeit, mit der der Server die Anwendungen ausführt. Da die Protokolle jedoch Datenpakete fallen lassen, um auch langsame Verbindungen aufrecht zu erhalten, sind diese Benchmarks nicht in der Lage, die Nutzbarkeit zu messen.

Nachdem sie dieses Problem erkannt hatten, veröffentlichten Nieh und einige Kollegen im vergangenen Februar ihre Arbeit, in deren Rahmen sie das von ihnen so genannte „Slow-Motion-Benchmarking“ entwickelt haben – das ihnen zufolge eine sehr viel genauere Methode für die Evaluierung von Thin-Client-Einsätzen ermöglicht. Beim Slow-Motion-Benchmarking werden die Netzwerkverbindungen zwischen dem Thin-Client und dem Server aufgezeichnet, während gleichzeitig ein konventioneller Benchmark durchgeführt wird. In den gesamten Benchmark-Verlauf werden Verzögerungen eingebaut, die bewirken, dass für Erneuerungen des Bildschirminhalts auf der Client-Seite ausreichend Zeit bleibt. Auf diese Weise lässt sich der vollständige Output der Thin-Client-Technologie untersuchen.

Zur Beurteilung dieses Ansatzes testete das Team RDP, RFB, ICA und die Thin-Client-Technologie Sun Ray von Sun beim Ausführen der in der Test-Suite i-Bench von Ziff-Davis enthaltenen Web- und Multimedia-Anwendungen. Diese wurden über verschiedene simulierte Link-Geschwindigkeiten getestet, generiert mit Hilfe von The Cloud von Shunra Software. Zur Überwachung des Datenflusses zwischen Client und Server verwendeten die Tester den Netzwerk-Traffic-Monitor Etherpeek 4 von WildPackets.

Unter LAN-Geschwindigkeit lieferten alle Protokolle eine starke Performance. Als die Bandbreite jedoch schrittweise verringert wurde, hoben die Ergebnisse die Unterschiede hervor, die es bei der Verarbeitung der Daten zwischen den verschiedenen Protokollen gab. Sun Ray war zum Beispiel beim Erneuern von Bildschirminhalten langsamer, denn seine 24-Bit-Farbunterstützung macht es erforderlich, dass mehr Informationen übertragen werden als bei den nur 8 Bits tiefen Bildschirmen der Konkurrenten.

Insgesamt waren VNC und Sun Ray bei LAN-Bandbreite schneller, ICA und RDP erbrachten jedoch bei geringeren Bandbreiten bessere Leistungen – ein wichtiger Faktor für Kunden, die planen, Thin-Client-Technologie vorwiegend in-house einzusetzen. Bei einer Bandbreite von 128 KBit/s hatten alle Protokolle Probleme, das zu erreichen, was Nieh als „gute“ Reaktionszeiten bezeichnete. Dieser Punkt wird besonders in Situationen ausschlaggebend, in denen die Einwahl über ein Modem oder eine drahtlose GPRS-, CDMA 1x- oder UMTS-Verbindung durchgeführt wird – eine sehr reale Möglichkeit, denn drahtlose Geräte werden immer leistungsfähiger und fungieren praktisch als Thin-Client-Terminals.

Page: 1 2 3 4 5 6 7

ZDNet.de Redaktion

Recent Posts

Chrome: Google verschiebt das Aus für Drittanbietercookies

Ab Werk blockiert Chrome Cookies von Dritten nun frühestens ab Anfang 2025. Unter anderem gibt…

5 Tagen ago

BAUMLINK: Wir sind Partner und Aussteller bei der Frankfurt Tech Show 2024

Die Vorfreude steigt, denn BAUMLINK wird als Partner und Aussteller bei der Tech Show 2024…

5 Tagen ago

Business GPT: Generative KI für den Unternehmenseinsatz

Nutzung einer unternehmenseigenen GPT-Umgebung für sicheren und datenschutzkonformen Zugriff.

5 Tagen ago

Alphabet übertrifft die Erwartungen im ersten Quartal

Der Umsatz steigt um 15 Prozent, der Nettogewinn um 57 Prozent. Im nachbörslichen Handel kassiert…

1 Woche ago

Microsoft steigert Umsatz und Gewinn im dritten Fiskalquartal

Aus 61,9 Milliarden Dollar generiert das Unternehmen einen Nettoprofit von 21,9 Milliarden Dollar. Das größte…

1 Woche ago

Digitalisierung! Aber wie?

Mehr Digitalisierung wird von den Unternehmen gefordert. Für KMU ist die Umsetzung jedoch nicht trivial,…

1 Woche ago