Kampf den Viren: Vier Anwendungen im Test

Wenn der LAN- und Internetzugang eines Unternehmens immer langsamer wird und schließlich gar nicht mehr funktioniert, verdeutlicht das besser als alles andere, dass trotz sorgfältiger Aktualisierung aller PC-Patches und Antivirensignaturen weniger gewissenhafte Kollegen Anlass zur Sorge bereiten können.

Hier geht es um das Problem einer Netzwerkattacke durch eine Variante des W32/Sdbot AKA W32.HLLW.Donk-Wurms. Dieser Wurm überwand die Firewalls von RMIT – höchstwahrscheinlich einfach über einen ungeschützten Laptop. Sobald er die Firewall hinter sich gebracht hatte, machte er alle PCs ausfindig, deren Signaturen nicht häufig genug aktualisiert worden waren, und überflutete schließlich das Netzwerk.

In manchen Bereichen gibt es vielleicht berechtigte Gründe, nicht zu aktualisieren; z. B. bei Tests auf Disk-Images von Clients, die in ihrem aktuellen Zustand belassen werden müssen. Doch in den meisten Fällen handelt es sich schlicht und einfach um Nachlässigkeit.

Wie ist dieses Problem also zu bewältigen?

Die einfachste Methode ist das Erstellen einer Richtlinie, dass auf jedem PC bei der Antivirensoftware ein automatisches Update von der Website des jeweiligen Herstellers konfiguriert sein muss.

Hierbei entsteht zudem ein eklatantes Problem: der Netzwerkverkehr und die damit verbundenen Kosten. Angenommen, bei der Antivirensoftware jedes Benutzers ist eine wöchentliche Aktualisierung konfiguriert – was nicht wirklich oft genug ist, aber es geht hier nur um ein Beispiel – und die typische Größe der Signaturdatei ist 1 MByte. Jeder Benutzer lädt folglich im Jahr 52 MByte herunter – nicht sehr viel, doch wenn man es mit der Anzahl der PCs multipliziert, vielleicht 10.000 oder mehr, sind 520 GByte doch eine ganze Menge.

Bei sehr großen Sites ist es wahrscheinlich einfacher und billiger, die Updates des Herstellers auf dem Server im eigenen Haus zu spiegeln und somit die Kosten bedeutend zu senken.

Doch es hat sich gezeigt, dass es meist zu einem alles andere als perfektem Ergebnis führt, wenn man sich darauf verlässt, dass die Benutzer die Updates von einem Server übernehmen.

Eine zuverlässigere Option besteht darin, einen Server so einzurichten, dass er die Updates zu den PCs der Benutzer kopiert. Das hat zudem den Vorteil, dass der Server nur dann tätig wird, wenn ein neues Update verfügbar ist. Wenn die Benutzer dagegen die Updates abrufen, müssen sie regelmäßig überprüfen, ob es neue gibt, was wiederum unnötig Bandbreite in Anspruch nimmt.

Im Folgenden lesen Sie die Testberichte über ETrust AntiVirus 7.0, Network Associates – McAfee VirusScan Enterprise 7.0 & ePolicy Orchestrator, Sophos AntiVirus & Enterprise Manager, Trend Micro-AntiVirus und einen Anwendungsbericht über Eset-NOD32.

Page: 1 2 3 4 5 6 7

ZDNet.de Redaktion

Recent Posts

Kaspersky warnt vor kritischen Sicherheitslücken in Cinterion-Modems

Betroffen sind Millionen IoT- und M2M-Geräte Geräte weltweit. Unter anderem können Angreifer per SMS Schadcode…

39 Minuten ago

Google schließt Zero-Day-Lücke in Chrome

Von ihr geht ein hohes Risiko aus. Angreifbar sind Chrome für Windows, macOS und Linux.

3 Tagen ago

KI erkennt Emotionen in echten Sportsituationen

Forschende des KIT haben ein Modell zur Emotionsanalyse entwickelt, das affektive Zustände ähnlich genau wie…

3 Tagen ago

Ermittlern gelingt weiterer Schlag gegen Ransomware-Gruppe LockBit

Sie decken die Identität des Kopfs der Gruppe auf. Britische Behörden fahnden mit einem Foto…

4 Tagen ago

Apple stellt neuen Mobilprozessor M4 vor

Er treibt das neue iPad Pro mit OLED-Display an. Apple verspricht eine deutliche Leistungssteigerung gegenüber…

5 Tagen ago

Cyberabwehr: Mindestens zwei kritische Vorfälle pro Tag

Davon entfällt ein Viertel auf staatliche Einrichtungen und 12 Prozent auf Industrieunternehmen.

5 Tagen ago