Kampf den Viren: Vier Anwendungen im Test

Wenn der LAN- und Internetzugang eines Unternehmens immer langsamer wird und schließlich gar nicht mehr funktioniert, verdeutlicht das besser als alles andere, dass trotz sorgfältiger Aktualisierung aller PC-Patches und Antivirensignaturen weniger gewissenhafte Kollegen Anlass zur Sorge bereiten können.

Hier geht es um das Problem einer Netzwerkattacke durch eine Variante des W32/Sdbot AKA W32.HLLW.Donk-Wurms. Dieser Wurm überwand die Firewalls von RMIT – höchstwahrscheinlich einfach über einen ungeschützten Laptop. Sobald er die Firewall hinter sich gebracht hatte, machte er alle PCs ausfindig, deren Signaturen nicht häufig genug aktualisiert worden waren, und überflutete schließlich das Netzwerk.

In manchen Bereichen gibt es vielleicht berechtigte Gründe, nicht zu aktualisieren; z. B. bei Tests auf Disk-Images von Clients, die in ihrem aktuellen Zustand belassen werden müssen. Doch in den meisten Fällen handelt es sich schlicht und einfach um Nachlässigkeit.

Wie ist dieses Problem also zu bewältigen?

Die einfachste Methode ist das Erstellen einer Richtlinie, dass auf jedem PC bei der Antivirensoftware ein automatisches Update von der Website des jeweiligen Herstellers konfiguriert sein muss.

Hierbei entsteht zudem ein eklatantes Problem: der Netzwerkverkehr und die damit verbundenen Kosten. Angenommen, bei der Antivirensoftware jedes Benutzers ist eine wöchentliche Aktualisierung konfiguriert – was nicht wirklich oft genug ist, aber es geht hier nur um ein Beispiel – und die typische Größe der Signaturdatei ist 1 MByte. Jeder Benutzer lädt folglich im Jahr 52 MByte herunter – nicht sehr viel, doch wenn man es mit der Anzahl der PCs multipliziert, vielleicht 10.000 oder mehr, sind 520 GByte doch eine ganze Menge.

Bei sehr großen Sites ist es wahrscheinlich einfacher und billiger, die Updates des Herstellers auf dem Server im eigenen Haus zu spiegeln und somit die Kosten bedeutend zu senken.

Doch es hat sich gezeigt, dass es meist zu einem alles andere als perfektem Ergebnis führt, wenn man sich darauf verlässt, dass die Benutzer die Updates von einem Server übernehmen.

Eine zuverlässigere Option besteht darin, einen Server so einzurichten, dass er die Updates zu den PCs der Benutzer kopiert. Das hat zudem den Vorteil, dass der Server nur dann tätig wird, wenn ein neues Update verfügbar ist. Wenn die Benutzer dagegen die Updates abrufen, müssen sie regelmäßig überprüfen, ob es neue gibt, was wiederum unnötig Bandbreite in Anspruch nimmt.

Im Folgenden lesen Sie die Testberichte über ETrust AntiVirus 7.0, Network Associates – McAfee VirusScan Enterprise 7.0 & ePolicy Orchestrator, Sophos AntiVirus & Enterprise Manager, Trend Micro-AntiVirus und einen Anwendungsbericht über Eset-NOD32.

Page: 1 2 3 4 5 6 7

ZDNet.de Redaktion

Recent Posts

Supercomputer-Ranking: Vier europäische Systeme in den Top Ten

Einziger Neueinsteiger ist das Alps-System in der Schweiz. Die weiteren Top-Ten-Systeme aus Europa stehen in…

2 Stunden ago

Angriffe mit Banking-Malware auf Android-Nutzer nehmen weltweit zu

Im vergangenen Jahr steigt ihre Zahl um 32 Prozent. Die Zahl der betroffenen PC-Nutzer sinkt…

3 Stunden ago

Künstliche Intelligenz fasst Telefonate zusammen

Die App satellite wird künftig Telefongespräche in Echtzeit datenschutzkonform mit Hilfe von KI zusammenfassen.

7 Stunden ago

MDM-Spezialist Semarchy stellt Data-Intelligence-Lösung vor

Als Erweiterung von Master-Data-Management ermöglicht es die Lösung, den Werdegang von Daten verstehen und sie…

8 Stunden ago

Apple stopft 15 Sicherheitslöcher in iOS und iPadOS

Sie erlauben unter anderem das Einschleusen von Schadcode. In älteren iPhones und iPads mit OS-Version…

9 Stunden ago

Hochleistungs-NAS-Speicher für KI-Daten

Neuer Speicher für KI von Huawei mit integrierter Ransomware-Erkennungs-Engine und deutlich geringerem Energiekonsum.

9 Stunden ago