Die Meisten werden es bestimmt mitbekommen haben:

Seit ein paar Tagen ist Windows 10 verfügbar.

Berechtigte Nutzer können nun ihr System auf Windows 10 umstellen.

Doch ist das sinnvoll?!

Es kommt im Prinzip ganz darauf an was man mit seinem Rechner macht. Wer nur ein paar Office Programme, Internet und Mails mit seinem Gerät verwendet, der kann fast bedenkenlos wechseln. Sollten aber exotischere Programme verwendet werden wie z.B. Rechnung-Programme, CAD-Programme und andere speziellere, nicht sehr weit verbreitete Software; so sollte dieser Schritt gut überlegt und vorbereitet sein.

Ein zeitnaher Umstieg ist auch hier möglich, jedoch sollte man dies vorher ausgiebig an einem Testsystem prüfen.

Gibt es Fehler und Bugs?!

Hierbei gibt es eine ganz klare Antwort: JA

Die Verbreitung dieses neuen Betriebssystems hat gerade erst begonnen. Mögliche Inkompatibilitäten und bisher unbekannte Fehler und Bugs fallen erst jetzt wirklich gehäuft auf. Wenn man sich also 100%ig auf sein Werkzeug verlassen können muss, dann sollte man zunächst davon absehen. Kommt Zeit kommt Rat, kommen Patches.

Ein Jahr lang gratis wechseln!

Ein sehr gelungener Marketing-Schachzug von Microsoft. Wer innerhalb eines Jahres von Windows 7, 8 oder 8.1 zu Windows 10 wechselt, erhält dieses „gratis“. Dies dient als Motivation für Wechselwillige. Das Ziel ist möglichst zügig einen hohen Verbreitungsgrad der neuen Software zu bekommen. Die Marktanteile von Windows 8 sind damals im Vergleich nur sehr langsam gestiegen. Hierdurch wächst der Marktanteil von Windows 10 in einer enormen Geschwindigkeit.

So ganz „gratis“ ist das kostenlose Upgrade dann doch nicht. Wenn man eine saubere Installation von Windows 10 durchführen möchte, muss man zunächst dennoch den mitunter langen Upgrade-Prozess auf Windows 10 vollziehen, wobei der verwendete Lizenzschlüssel für Windows 10 freigeschaltet wird. Funktioniert all dies problemlos, kann man eine saubere Installation vornehmen.

Sieht man die zusätzliche Zeit für das Upgrade als Arbeitsaufwand, so ist eine neue Lizenz unter Umständen sogar kostengünstiger.

Aber was denn nun?

Wie gesagt, erst einmal abwarten. In einem halben Jahr sieht die Welt schon ganz anders aus. Wer mit seinem Windows 7 oder Windows 8 zufrieden ist, hat eh bis 2020 bzw. 2023 (Ende Bereitstellung von Updates) Ruhe und kann sich ganz entspannt die Entwicklung in diesem Bereich anschauen.

Aktuell kocht bei Heise.de die Diskussion über die Farbwiedergabe an Apple-Geräten hoch. Explizit geht es um die Farbdarstellung mit

  • 8 Bit (16,7 Millionen Farben) und
  • 10 Bit (1,07 Milliarden Farben)

Die 10 Bit Darstellung wird von Apple einfach nicht unterstützt. Bei einem recht teuren, aktuellen Mac Pro ist die Option nicht verfügbar; obwohl die Grafikkarten-Hardware diese Option eigentlich bieten müsste. Für normale Benutzer uninteressant, ist das Fehlen dieser Option ein K.O.-Kriterium für professionelle Grafikbearbeitung.

Ich persönlich frage mich wieso diese Tatsache jetzt hochkocht. Dieser Sachverhalt ist mit Nichten aktueller Natur. Dieser Misstand ist bereits seit Jahren bekannt!

Ebenso ist seit Mac OSX eine unabhängige Kalibrierung mehrere Monitore nicht mehr möglich! Man kann zwar individuelle Profile pro angeschlossenem Monitor einbinden, jedoch werden diese nicht unabhängig verwendet. Einzig der Haupt-Monitor (der auf dem sich die Dock-Leiste befindet) verwendet sein Profil unverfälscht. Alle anderen Profile werden im Hintergrund von OSX an das Profil des Haupt-Monitors angeglichen. Die Kalibrierung ist somit ungenau. Dies fällt auf, wenn man die Werte mit einem Messgerät nach Einbindung der Profile überprüft.

Auch dieses Phänomen ist wie die Bit-Problematik seit über 3 Jahren bekannt und nichts neues. Meine Informationen zu diesen Themen stammen von einem netten Mitarbeiter der Firma Quato. Diese stellten bis vor ein paar Jahren professionelle Monitor her. Der Geschäftsbetrieb wurde in den letzten Jahren eingestellt, so dass die veröffentlichen Informationen zu diesen Themen auf der Quaot-Website leider nicht mehr verfügbar sind; somit muss ich Quellen (vorerst) leider schuldig bleiben.

Wie dem auch sei, die Jahre bei denen Apple als Referenz für professionelle Einsatzgebiete galt, sind lange vorbei. Das Unternehmen hat sich mit Erfolg als eine Marke für Lifestyle-Produkte etabliert. Über die Unzulänglichkeiten im professionellen Bereich wird geschwiegen um weiterhin vom alten Image in diesem Bereich zu profitieren.

Fazit:

Ob man in diesem Bereich auch weiterhin auf Apple setzten sollte oder nicht, muss jeder für sich selbst entscheiden. Jedoch wer wirklich gute Hardware für professionelle Einsatzgebiete sucht, sollte einfach mal bei snITcon fragen ;)

Kaum eine Firma verzichtet heute noch auf die Vorteile des elektronischen Zahlungsverkehrs. Das Online-Banking bietet viele Vorteile! Aber wie steht es um die Risiken? Eine generelle Aussage ist hierbei nicht möglich, denn es kommt ganz auf die angewendete Methode an.

Im Folgenden werden die gängigsten Methoden kurz vorgestellt und bewertet.

Die Verfahren im Überblick

Dieses Verfahren war eines der ersten Verfahren zur Legitimierung von Transaktionen. Die Banken schickten dem Kunden über den Postweg eine zeitlich unbegrenzt gültige TAN-Liste in Papierform zu. Bei jeder Transaktion kann eine der zur Verfügung stehenden TANs frei gewählt werden

    • Vorteile:
      • sehr Flexible Nutzung
      • zügige TAN-Ermittlung
      • wenig Aufwand
    • Nachteile:
      • unsicherstes Verfahren am Markt
      • universelle nicht an Aufträge oder zeitlich gebundene Gültigkeit der TANs

Das indizierte TAN-Verfahren ist der TAN-Liste sehr ähnlich. Die TANs sind jedoch durchnummeriert. Der Kunde kann also nicht mehr beliebig aus der Liste wählen, sondern wird von der Bank aufgefordert, eine bestimmte, durch eine Positionsnummer gekennzeichnete TAN einzugeben.

    • Vorteile:
      • sehr Flexible Nutzung
      • zügige TAN-Ermittlung
      • wenig Aufwand für den Benutzer
    • Nachteile:
      • unsicheres Verfahren, da TANs meist nicht zeitlich gebunden
      • Angreifer könnten TANs sammeln und entsprechend nutzen
      • TANs universell einsetzbar

Die erste Version der TAN-Generatoren wurde mittlerweile durch die Verfahren „Sm@artTAN plus“ und „S@artTAN optic“ abgelöst. Die TAN wurde mit Hilfe eines Generators und der EC-Karte generiert. Die generierte TAN ist abhängig von Werten wie: EC-Kartennummer, laufende TAN-Nummer, Datum, Uhrzeit usw. Wichtig hierbei ist, dass die Überweisungsdaten selbst nicht in die Berechnung einfließen. Die generierte TAN wird bei der Bank auf Gültigkeit anhand der Werte gegengerechnet.

    • Vorteile:
      • sehr Flexible Nutzung
      • zügige TAN-Ermittlung
      • wenig Aufwand für den Benutzer
      • TAN-Ermittlung benötigt EC-Karte
      • TANs zeitlich begrenzt nutzbar
      • separates, nicht mit dem Rechner verbundenes Gerät ohne Anbindung an das Internet
    • Nachteile:
      • TANs werden unabhängig von den Auftragsdaten generiert
      • TAN kann in dem zeitlichen Fenster auch für einen anderen Auftrag genutzt werden
      • keine Kontrollinstanz

Dieses Verfahren benötigt einen Kartenleser mit Tastatur. Aus den Auftragsdaten wird von der Bank ein entsprechender Code generiert. Dieser muss bei eingesteckter EC-Karte in das Gerät eingetippt werden. Der Code besteht in der Regel aus einem Überweisungscode sowie der Ziel-Kontonummer. Dieses Verfahren führt eine Kontrollinstanz in Form der Ziel-Kontonummer ein. Diese sollte vom Benutzer mit dem Original abgeglichen werden und erst nach positiver Prüfung verwendet werden. Je nach Generator werden neben Bankleitzahl auch Kontonummer und Betrag am Generator angezeigt.

    • Vorteile:
      • Die generierte TAN ist nur für diese eine Aktion gültig und kann nicht zweckentfremdet werden.
      • Kontrollinstanz anhand der Ziel-Daten möglich
      • wirksamer Schutz gegen Manipulation der Empfängerdaten
      • separates, nicht mit dem Rechner verbundenes Gerät ohne Anbindung an das Internet (nicht infizierbar)
    • Nachteile:
      • aufwändige TAN Generierung
      • Fehleranfällig durch Tippfehler am Gerät
      • die Eingabe benötigt etwas Zeit und Geduld

Dieses Verfahren funktioniert analog zum „Sm@artTAN plus“-Verfahren. Jedoch wird hierbei die Eingabe des Codes durch einen Flicker-Code am Bildschirm ersetzt. Das Gerät bekommt die Daten über eine optische Schnittstelle übermittelt. Optional verfügt das Gerät auch weiterhin über eine Tastatur, so dass die Eingabe auch manuell erfolgen kann.

    • Vorteile:
      • Die generierte TAN ist nur für diese eine Aktion gültig und kann nicht zweckentfremdet werden.
      • Kontrollinstanz anhand der Ziel-Daten möglich
      • Separates, nicht mit dem Rechner verbundenes Gerät ohne Anbindung an das Internet (nicht infizierbar)
    • Nachteile:
      • Optische Übermittlung ist etwas fummelig und gelingt nicht immer

Anders als bei den bisherigen Verfahren, wird die TAN bei der Bank generiert. Die Übermittlung erfolgt per SMS an eine Mobilrufnummer. Neben der TAN stehen die Auftragsdaten wie z.B. IBAN, Betrag usw. in der Nachricht. Die TAN ist an diese Auftragsdaten gebunden, zeitlich begrenzt und kann nicht zweckentfremdet werden. Dieses Verfahren minimiert zum einen Eingabefehler und steigert den Komfort, da kein TAN-Generator mehr benötigt wird (auch mobil problemlos einsetzbar). Hinzu kommen aber zwingend zu beachtende Verhaltensvorschriften. Es sollte z.B. unter allen Umständen vermieden werden, das Telefon mit dem Rechner zu verbinden oder gar über dieses die Überweisung (z.B. via APP) auszuführen.

    • Vorteile:
      • Die generierte TAN ist nur für diese eine Aktion gültig und kann nicht zweckentfremdet werden.
      • Kontrollinstanz anhand der Ziel-Daten möglich
      • Zweiter Kommunikationskanal unabhängig vom PC
      • Schnelle, unkomplizierte TAN-Generierung
    • Nachteile:
      • Die Sicherheit wird durch Smartphones untergraben (SMS könnte am infizierten Endgerät manipuliert werden).
      • Sicherheit abhängig vom Mobilfunkanbieter (Versand von Ersatzkarten / Twin-Karten an beliebige Lieferadresse)
      • Ggf. Kosten für den SMS-TAN-Versand

Die HBCI-Verfahren funktionieren prinzipiell ohne TANs. Zur Verwendung wird neben eines von der Bank ausgestellten Zertifikat eine Software benötigt. Die Verbindung zur Bank wird über das Zertifikat legitimiert. Meist wird das Zertifikat auf einem USB-Stick gespeichert und muss bei Bedarf mit dem Rechner verbunden werden.

    • Vorteile:
      • Relativ einfache Nutzung
      • Eine Legitimierung für viele Aufträge auf einmal möglich
    • Nachteile:
      • Universell einsetzbares Zertifikat im Dateiformat
      • Angreifer brauchen nur den Rechner infizieren und bekommen ALLE benötigten Daten (Backups der Bankingsoftware, Logindaten, Zertifikat, …), um von einem anderen Ort und PC Überweisungen auszuführen.
      • USB-Stick vermittelt dem Kunden eine falsche Sicherheit. Dieser kann ganz einfach bei Verbindung mit dem Rechner ausgelesen werden!
      • Keine Kontrollinstanz

Sehr analog zum „HBCI mit Zertifikat-Datei“-Verfahren. Jedoch wird die Zertifikat-Datei durch einen Kartenlesen mit Tastatur ersetzt. Dieser ist mit dem PC verbunden und wird von der Software angesprochen. Zur Legitimierung wird die EC-Karte sowie die Eingabe der PIN am Lesegerät benötigt.

    • Vorteile:
      • Relativ einfache Nutzung
      • Eine Legitimierung für viele Aufträge auf einmal möglich
    • Nachteile:
      • Universell einsetzbares Zertifikat auf der Chip-Karte
      • Durch eine Infizierung des PCs erlangen Angreifer Zugang zur Bankingsoftware, sowie den Logindaten.
      • Kartenleser bildet zwar eine Hürde, diese kann jedoch von Angreifern überwunden werden (höherer Aufwand als bei der Zertifikat-Datei)
      • Keine Kontrollinstanz

 

Bewertung der Verfahren

Unsichere Verfahren:

  • TAN-Liste
  • iTAN-Liste
  • TAN-Generator (erste Generationen)
  • HBCI mit Zertifikat-Datei

Relativ sichere Verfahren:

  • mTAN / Mobile TAN
  • HBCI mit Lesegerät

Sehr sichere Verfahren:

  • Sm@rtTAN optic
  • Sm@rtTAN Plus
  • mTAN / Mobile TAN (bei Verwendung eines separaten Handys)

 

Die Sm@rtTAN-Verfahren sind als besonders sicher zu bewerten, da sie ein externes, nicht verbundenes Gerät verwenden. Ebenso ermöglichen sie eine zügige Kontrolle der Auftragsdaten! Gleiches gilt für das mTAN Verfahren. Hier gilt jedoch die Empfehlung, ein eigenes Handy ohne Internetzugang oder Verbindung zum PC zu nutzen. Hierfür eigenen sich besonders einfache nicht-Smartphone-Geräte in Kombination mit einer Pre-Paid-Karte.

Fazit

Leider preisen die Banken nach wie vor die HBCI-Verfahren an. Diese wecken beim Kunden eine falsche Sicherheit und können fatale Schäden zur Folge haben. Meine klare Empfehlung geht definitiv in Richtung der Sm@rt-TAN sowie dem mobile-TAN-Verfahren. Im Ernstfall kann der Benutzer durch die ihm gebotene Kontrollmöglichkeiten Schäden abwenden.

Was ist zu tun?

Zunächst sollte man das aktuell eingesetzte Verfahren identifizieren. Anhand der hier vermittelten Informationen kann das Verfahren nun kritisch hinterfragt werden. Sollte man eine Änderung des Verfahrens wünschen, reicht in der Regel ein Anruf bei der jeweiligen Bank.

Hinweis: Es gibt tatsächlich Banken die nach wie vor mit TAN-Listen arbeiten bzw. als Alternative(n) nur unsichere Verfahren anbieten. Eine solche Tatsache sollte die Frage aufwerfen, ob man dieser Bank auch weiterhin sein Vertrauen schenken möchte oder, ob man sich nicht mal nach einer kompetenten, zukunftssicheren Alternative umsehen sollte!

Aus aktuellem Anlass möchte ich gerne mein Wissen über Computer-Viren und mögliche Schutzmechanismen zur Verfügung stellen. Im letzten Jahr haben die Quantität sowie die Effektivität von Angriffen enorm zugenommen. Im Folgenden möchte ich auf diese Punkte eingehen:

  • Was kann eine Antivirus-Software überhaupt leisten?
  • Unter welchen Umständen versagen Antivirus-Programme?
  • Wer sind eigentlich die Angreifer?
  • Wie kommen Viren eigentlich auf den Rechner?
  • Einfache Verhaltensregeln zur Prävention

Was kann eine Antivirus-Software überhaupt leisten?

Eine Antivirus-Software vermittelt schnell das Gefühl von Sicherheit. Aber ist dieser Schutz wirklich allumfassend? Die Antwort hierauf ist ein klares NEIN. Dies ist in den Funktionsprinzipien begründet, welche man in zwei große Bereiche aufteilen kann:

  • Signaturbasierte Erkennung von Schadprogrammen
    • Übertragen auf den Menschen ist dies eine Erkennung anhand eines „Fingerabdrucks“ bzw. anhand der „DNA“
  • Verhaltensbasierte Erkennung von Schadprogrammen
    • Es wird die Verhaltensweise von Programmen analysiert und überwacht.
    • Verdächtige Programme werden im Zuge dessen analysiert und ggf. bekämpft

Die Erkennung anhand von Signaturen ist eine Art solide Grundimmunisierung. Die Merkmale von bekannten Schadprogrammen werden gesammelt und zur Identifizierung eben dieser vom Antivirus-Programm verwendet. Dies funktioniert sehr gut bei schon längerer Zeit bekannten Viren. Es ist vergleichbar mit einer Impfung, die stetig aktualisiert wird.

Tritt jedoch etwas Neues oder Geändertes auf, versagt dieser Mechanismus. Erst einige Zeit nach dem erstmaligen Auftreten (ca. 1-2 Tage) sind die neuen Viren identifiziert und wurden der Merkmalliste hinzugefügt.

Im Klartext heißt dies, dass genau HIER die signaturbasierte-Identifizierung versagt! An diesem Punkt kommt die verhaltensbasierte Erkennung ins Spiel und soll diese Lücke schließen. Von den Herstellern wird dies unter vielen Produktnamen vertrieben. Sehr beliebt ist der Begriff des cloudbasierten-Virenschutzes. Im Prinzip funktionieren sie aber alle ähnlich. Wird ein bei einem Programm ein verdächtiges Verhalten erkannt, wird dieses Programm an das Rechenzentrum des Anbieters übermittelt. Hier wird die Datei in einer Testumgebung analysiert und ggf. als gefährlich eingestuft. Der Prozess benötigt natürlich etwas Zeit und ggf. sogar eine menschliche Komponente. Bei Erkennung werden die Merkmale des Virus der Signaturliste hinzugefügt. Hierbei entstehen also die 1-2 Tage Differenz von Auftreten bis Erkennung und dem Entwickeln einer effektiven Möglichkeit der Bekämpfung. Währenddessen ist es dem Programm durch den nicht ausreichenden Schutz der Antivirus-Software auf dem Rechner möglich, großen Schaden anzurichten.

Währenddessen versucht auf dem heimischen Rechner die Antivirus-Software den Schädling einzudämmen; mit mehr oder weniger Erfolg.

Unter welchen Umständen versagen Antivirus-Programme?

Meistens versagen Antivirus-Programme bei ganz neuen Viren. Diese Programme sind darauf ausgelegt, an ihrem Verhalten nicht erkannt zu werden bzw. ihre Tätigkeiten zu verschleiern. Es kann somit sein, dass diese Programme nur durch Zufall oder einen „Fehler“ beim Verhalten erkannt werden können. Bis dahin bleibt ihr Treiben meist im Verborgenen.

Wer sind eigentlich die Angreifer?

Die gefährlichen und relevanten Angreifer sind in der Regel hochspezialisierte und höchst intelligente Personen mit krimineller Energie und dem Ziel, Profit zu erwirtschaften. Dementsprechend sind diese Gruppen professionell organisiert und fahren präzise Angriffe. Diese Angriffe können grob in zwei Gruppen unterteilt werden:

  • Angriffe gegen kleine, spezielle Ziele wie z.B. ausgesuchte Firmen
    • Bleiben meist lange unentdeckt
    • Sind meist auf großen Schaden ausgelegt
    • Ziel: Finanzielle Mittel; Know-How-Entwendung; (Auftrags-)Sabotage
  • Angriffe auf die große Masse
    • Möglichst viele Ziele in kurzer Zeit
    • Kleinere bis größere Schäden
    • Ziel: Langfristige Infizierung von Rechnern und deren Missbrauch für illegale Aktivitäten; finanzielle Mittel

Wie kommen Viren eigentlich auf den Rechner?

Typischerweise werden Schwachstellen in Programmen ausgenutzt, die eine direkte Verbindung zum Internet haben. Hierzu zählen:

  • Browser (Internet Explorer, Firefox, Chrome, Safari, usw.)
  • Mail-Programme (Outlook, Thunderbird, Windows Mail; usw.)
  • Indirekte Programme (z.B. Java, Adobe Flash, Adobe Reader, Word, Excel, Powerpoint, usw.)

Die mit Abstand beliebteste Methode ist der Infektionsweg direkt über den Browser. Der einfache Besuch einer manipulierten Website oder einer Website mit manipulierter Werbung reicht in der Regel aus. Diese Angriffe sind so effektiv und populär, da für die Infizierung eine ganze Palette an Werkzeugen zur Verfügung steht. Es wird hierbei nicht nur eine Schwachstelle verwendet, sondern eine ganze Masse. Die Angriffsart kann kontinuierlich (im Minutentakt) geändert werden, um den Vorsprung gegenüber Antiviren-Software sowie Hersteller zu behalten und sich gegen Gegenmaßnahmen zu wehren.

Einfache Verhaltensregeln zur Prävention

Diese Frontlinie kann nur gehalten werden, solange der Benutzer durch sein Verhalten mitwirkt. Diese Verhaltensweisen sind einem aus dem realen Leben bekannt und vertraut. Diese sind nicht einmal kompliziert oder technisch sondern lassen sich mit ganz normalem Menschenverstand und Logik umsetzen:

  • Banner / Meldungen im Internet, sollten nicht sorglos angeklickt werden!
    • Typische Vertreter sind „ihr Rechner ist gefährdet“, „Sie haben eine neue Nachricht.“ usw. Hier sollte man sich die Frage stellen, woher eine beliebige Website diese Information überhaupt herhaben möchte. Und wieso ist diese Website SO sehr über meine Sicherheit besorgt?
  • Links in E-Mails sollten nicht sorglos angeklickt werden!
    • Eine beliebte Methode ist der Versand von E-Mails mit Links zu irgendwelchen Websites. Der Text weckt meist durch Dringlichkeit bzw. Erwartung die Neugier. Typischer Weise sind diese Mails optisch an bekannte Dienstleister angelehnt z.B. DHL, UPS, Banken, Amazon, Internetanbieter usw.
    • Mag die optische Täuschung noch so gelungen, sind diese doch relativ einfach zu enttarnen. Versandadresse sowie das Ziel des Links entlarven Fälschungen meist eindeutig.
      • Größere Firmen nutzen üblicher Weise eigene E-Mail-Adressen von ihren Domains. Hier ein Beispiel:
      • Adresse
      • Ebenso verdächtig sind Links zu Seiten die nichts mit dem Dienstleister zu schaffen haben und garantiert nicht von diesem stammen:
      • Inhalt
      • Die Links zu Seiten werden im Mail-Programm angezeigt, sobald man mit der Maus über diesen Link geht und kurz verharrt. Dieses Vorgehen ist nicht schädlich, nur bitte nicht den Link anklicken. (Einfach mal bei der von mir erhaltenen E-Mail zu diesem Artikel testen).
      • Wie auch bei den E-Mail-Adressen benutzen Firmen meist Verweise auf eigene Websites, diese sind dann an am Namen zu erkennen. Schreibfehler oder seltsame Kreationen wie z.B. amazoon.de , pay.pal.de o.ä. sollten direkt Misstrauen erwecken.
    • Im Zweifel gilt: Finger weg!
    • Beliebt sind auch Fragen nach persönlichen Daten bzw. das „Pakete“ für einen „gefunden“ wurden, aber z.B. die Adresse unvollständig ist. Auch hier hilft es sich kritische Fragen zu stellen wie z.B.:
      • Warum sollte mich meine Bank oder ein anderer Dienstleister nach meinen persönlichen Daten fragen?
      • Wieso kommt diese (kritische) Anfrage als E-Mail? Und wieso soll ich die Daten irgendwo eintippen?
      • Wie konnte etwas „Verlorenes“ ohne Anhaltspunkt wohin es gehört, mir dann überhaupt zugeordnet werden? Und seit wann steht eine E-Mail-Adresse auf dem Paket?
      • Wie kommt der Dienstleister überhaupt an meine E-Mail-Adresse?
      • Meist scheitern diese Betrugsversuche an simplen logischen Fragen.
  • Gefährliche E-Mail-Anhänge sicher enttarnen.
    • Egal ob von Bekannten oder Fremden, bei Anhängen sollte man stets misstrauisch sein!
    • Schädliche Anhänge lassen sich jedoch sehr einfach identifizieren:
      • Rechnungen werden üblicherweise als PDF mit der Endung .pdf verschickt. Der Datei-Typ wird vom E-Mail-Programm angezeigt (ähnlich den Link-Adressen).
      • .zip Dateien die angeblich Rechnungen, usw. enthalten sind als verdächtig einzustufen und die gesamte Mail sollte gelöscht werden. Die ZIP-Datei soll „Vertrauen“ durch Bekanntheit wecken und den eigentlichen Dateityp verschleiern. Die .zip selbst ist nicht gefährlich, jedoch deren Inhalt.
      • Finger weg von .exe .bat. cmd .htm, .html usw. NIEMAND wird jemals so eine Datei als E-Mail verschicken!
    • Keine Anhänge von fremden Quellen öffnen.
  • Grundsatz: E-Mails sind NIE dringlich!
    • Es stellt sich die Frage was ist eigentlich dringlich und wieso wird es als E-Mail verschickt. Hier ein paar Beispiele:
      • Abmahnung o.ä. von Anwälten: Sollte man in Kontakt mit einem seriösen Anwalt kommen, egal wieso, wird dieser einen IMMER per Brief kontaktieren! Alle E-Mail-Nachrichten bezüglich solcher Themen können getrost ignoriert werden!
      • Zahlungsaufforderung / Säumnis bei Rechnungen / Mahnungen: Was zwischen Geschäftskunden üblich ist, ist im privaten Umfeld nicht zu erwarten. Absender prüfen, falls dieser unbekannt ignorieren.
      • Ergänzung von Daten / Datenverlust: Eine Bank sowie jede seriöse Firme wird niemals eine Aufforderung seine Daten zu aktualisieren, per E-Mail schicken!
    • Generell gelten folgende Grundsätze:
      • Wenn jemand etwas von einem möchte (z.B. Geld) wird dieser auch weiterhin versuchen einen zu kontaktieren! Notfalls postalisch oder telefonisch! Wenn nicht, ist das sein Problem.
      • E-Mails sind nicht rechtskräftig. Sollte man mal eine E-Mail zu viel ignorieren oder falsch einordnen ist dies kein Anlass zur Sorge.
      • Es wird weder etwas Schlimmes passieren, noch stirbt jemand, wenn man nicht reagiert.

Fazit

Hält man sich an diese simplen Verhaltensregeln, sinkt die Wahrscheinlichkeit für eine erfolgreiche Attacke enorm. Bei E-Mails sollte man stets im Auge haben, dass es auch noch andere Kommunikationswege gibt und eine akute Dringlichkeit nicht besteht. Diese Tatsache sorgt für Besonnenheit und die Möglichkeit, logisch über den Inhalt der E-Mail nachzudenken. um Fälschungen zu identifizieren. Die Angreifer nutzen die vorgegebene Dringlichkeit oder Wichtigkeit, um beim Opfer Stress und Druck zu erzeugen. Unter diesen Umständen entstehen eher Fehler und logische Bedenken werden zurückgestellt bzw. ignoriert.

Ein bis zwei Minuten Nachdenken werden nicht zur Apokalypse führen. Im schlimmsten Fall erhält man die Informationen eben um diese Zeit später oder der Versender muss sich im Zweifelsfall nochmals melden. Dies ist auf jeden Fall erträglicher, als Gefahr zu laufen, infiziert zu werden. Dies ist in der Regel stressiger und kostspieliger.

Wie im November von der Telekom angekündigt, sind nun die hybriden Telekom-Tarife verfügbar.

www.telekom.de/hybrid

 

Die Idee

Die Hybrid-Tarife basieren auf folgenden Funktionsprinzip. Man erhält einen DSL-Anschluss zur Grundversorgung. Bei Lastspitzen, die  z.B. entstehen wenn größere Dateien heruntergeladen werden, wird eine Mobilfunkverbindung mitbenutzt und die Last zwischen DSL und Mobilfunk aufgeteilt. Von diesem Vorgang merkt der Nutzer nichts, da der Router dies vollautomatisch durchführt.

Kein Limit

Der Clou an der Sache, die Mobilfunkverbindung hat KEIN Volumenlimit, wie man es eigentlich von Mobilfunkverbindungen gewöhnt ist. Dieser zentrale Punkt macht die Tarife sehr attraktiv für Anschlüsse die etwas ländlicher liegen.

Zu den Tarifen

Die Schattenseite(n)

Zu gut um wahr zu sein? Teilweise leider ja. Gerade ländliche Gebiete die auf Grund der Entfernung nur sehr langsame Internetverbindungen haben, können nicht versorgt werden! Richtig gelesen, diejenigen die sich aktuell mit einem DSL-Light abquälen, bleiben auch jetzt außen vor! Als Mindestvoraussetzung muss am Standort eine IP-fähige DSL2000 Verbindung möglich sein. Somit ist es eine gute Idee, die leider nicht bis zum Ende gedacht wurde. Gerade die Gebiete die eine sehr mangelhafte DSL-Anbindung haben, werden weiterhin außen vorgelassen. Dies ist sehr traurig, da diese Voraussetzung künstlich von der Telekom vorgegeben wird und nicht von der verwendeten Technik diktiert wird.

Eine weitere Notwendigkeit ist die Verfügbarkeit von LTE am Standort. Langsamere Verbindungen wie UMTS werden nicht unterstützt.

Fazit

Keine Frage eine nette Idee! Nur fehlt wie so oft der letzte Meter um die eigentliche Zielgruppe erreichen zu können. Diese würden sich über jede Verbesserung freuen!

Liebe Telekom, bitte bessert hier nach!

Im digitalen Zeitalter sind zuverlässige und schnelle Internetverbindungen unerlässlich. Doch wer kümmert sich eigentlich um den Ausbau der Netze und wie wird dieser vorangetrieben?

Hier wäre z.B. unser neuer EU-Digitalkommissar Günther Oettinger zu nennen. Sein bisheriges Engagement könnte man glatt mit Lobbyarbeit verwechseln. Wieso? Er versucht bei der EU-Regulierungsbehörde die maximalen Vertragslaufzeiten (aktuell 24 Monate) aufzuweichen (mehr zum Thema). Er wollte zwar nicht „von Monopolen auf Ewig“ reden, schlug dies aber unmissverständlich vor. Die Telekom begrüßt natürlich einen solchen Freibrief (mehr zum Thema). Sollte sich dieser Vorschlag nur auf ländliche Gebiete beziehen, sollte man diesem Vorschlag offen gegenüberstehen. Eine Bindung an einen Anbieter über einen gewissen Zeitraum (jedoch mit Wechselmöglichkeiten innerhalb der Verträge) ist natürlich attraktiv wenn dieser im Gegenzug die Infrastruktur ausbaut, keine Frage.

Hier sollte sich jedoch die Frage gestellt werden, wieso ein so zufriedener Kunde überhaupt wechseln wollen würde? Mögliche Ursachen wären z.B.

  • schlechter Support
  • instabile Verbindung / Unzureichende Technik / Fehleranfälligkeit
  • unzureichende Tarifmodelle
  • usw.

Diese Faktoren sind natürlich ein unkalkulierbares Risiko für Investitionen; dies ist natürlich für die Firmen nicht hinnehmbar oder akzeptabel und es besteht auf diese Faktoren natürlich keine Einflussmöglichkeiten … Hierfür braucht es politisch unterstützte Langzeit-Knebelverträge. An diesem Punkt sollte man sich eine Frage stellen ob bestimmte politische Positionen nicht mal endlich mit kompetenten Leuten aus dem jeweiligen Einsatzgebiet besetzt werden sollten …

Ein weiteres Indiz für die politische Inkompetenz ist die Forderung der Versorgung aller Haushalte mit Internetanschlüssen von einer Bandbreite mit 50 MBit/s bis 2018. Keine Frage, es ist ein löbliches Ziel, welches unterstützt werden sollte! Es gibt nur einen Haken, Es ist hoffnungslos unrealistisch und steht in keiner Verbindung zur Realität. Ein aktueller Ansatz ist alle Haushalte mit Glasfaseranschlüssen zu versorgen. Ein Ziel welches in der Zeitspanne von 3 Jahren ebenso unrealistisch ist, oder? (mehr zum Thema).

Man mag nun denken, dass hiervon nur bestehende Wohn- und Industriegebiete betroffen sind. Leider ist dies weit gefehlt. Die Städteplanung so gut wie aller Kommunen versagt hier vollends. Ein Beispiel wären neu erschlossene Industrie- und Wohngebiete in Bocholt und Borken. Niemand käme auf die Idee keine Baustraße zu bauen, keinen Strom, kein Wasser oder Gas zu verlegen. Dies geschieht effizient im Rahmen der Erschließung eines neuen Baugebietes. Selbst an ein Telefonkabel wird gedacht. Glasfaser? Fehlanzeige. Koaxialkabel (Kabelfernsehn) Fehlanzeige! Wieso eigentlich? Sind diese Kabel zu teuer? Lohnt sich die Investition für die Anbieter nicht? Wäre dies nicht eine Möglichkeit den Ausbau zu Subventionieren und zu Fördern? Ob man nun 1 oder 2 Kabel mehr in den offenen Graben legt, sollte vom Aufwand doch fast egal sein?

Woran es auch liegen mag, so entstehen natürlich hoch attraktive Neubaugebiete für Privat und Industrie. Firmen, welche eine Investition in einen neuen Standort planen, bekommen nicht einmal Auskunft über die am neuen Standort anliegende Internetgeschwindigkeit oder Verfügbarkeit von Anschlüssen! Erst nach dem Anschluss offenbart sich eine 2 MBit/s Leitung. Einige Glückliche bekommen sogar 5 oder gar 6 MBit/s. Ein Traum! Willkommen an ihrem neuen zukunftssicheren Standort! Setzt man dies in Bezug zum Aufwand bei der Erschließung des Gebietes, ist dies eine skandalöse Frechheit.

Auch wenn Glasfaser als DAS Zukunftsmedium gehandelt wird, gibt es zumindest ebenbürtige Alternativen. Die DSL-Anbieter haben vor kurzem ihre Geschwindigkeit der VDSL-Anschlüsse erhöht. Eine gute Sache. Dies funktioniert jedoch nur auf sehr kurzen Strecken; durchaus ein Nachteil.

Quelle Wikipedia

Jetzt mag man sich vielleicht betrachten der Grafik fragen: „Was ist DOCSIS 2.0 und 3.0?“ Hierbei handelt es sich um die Technik, welche für Koaxialkabel genutzt wird.

Unitymedia und Kabel-Deutschland haben seit ca. einem Jahr bereits Anschlüsse mit 150 MBit/s angeboten. Sie haben es sich aber nicht nehmen lassen auf die neuen Angebote der DSL-Anbieter zu reagieren. Ab November 2014 stehen Tarife mit bis zu 200 MBit/s zur Verfügung. Eine weitere Erhöhung der Bandbreite auf 400 oder 500 MBit/s wurde für die nächsten Jahre in Aussicht gestellt. Das Schöne hierbei ist, die Länge der Leitung spielt kaum eine Rolle. (mehr zum Thema)

 

Zum Schluss sollten die folgende Fragen gestellt werden:

  • Wieso werden DSL-Anbieter mit dem Ausbau unzureichender Technik seit Jahren subventioniert?
  • Wieso wird erst jetzt auf Glasfaser gesetzt?
  • Warum werden seit Jahren überlege Techniken nicht bei der Erschließung neuer Gebiete verfügbar gemacht?
  • Wieso wachen die Verantwortlichen der Kommunen nicht mal endlich auf? Eine Nachrüstung ist definitiv aufwändiger und teurer!

Viele Internetanbieter haben bereits auf die Telefonie über VOIP (eine Verbindungsart über die Internetverbindung) vor Jahren umgestellt. Nun zieht die Telekom nach und stellt systematisch Analoge- und ISDN-Anschlüsse auf VOIP um. Es gibt zwei Wahlmöglichkeiten. Entweder man schließt einen entsprechenden Vertrag ab oder der aktuelle Vertrag wird nicht mehr verlängert, also zum Vertragsende aufgekündigt.

Mehr Infos unter:

Sehr überraschend ist dies nicht, da die Umstellung bereits seit einiger Zeit läuft, jedoch hatte man bislang die Wahl zwischen ISDN, Analog und VOIP; nur beim Abschluss eines Neu-Vertrages fiel diese Möglichkeit gänzlich weg.

Das Hauptargument für Firmen (nämlich eine zuverlässige, störungsunanfällige Telefonverbindung über das Festnetz) einen Anschluss bei der Telekom zu wählen, fällt nun weg. Nicht nur das, es scheint als wäre die Telekom dieser „neuen“ Technik noch nicht Herr so kommt es seit Wochen zu Ausfällen bei den Nutzern von VOIP der Telekom:

Darüber hinaus fallen bei der Telekom wieder Kosten für die Endgeräte (Router) an. Es besteht die Wahl das Gerät durch eine einmalige Gebühr zu erwerben oder mit einer monatlichen Gebühr zu mieten. Dies ist aber nur die Spitze des Eisberges.

Alles in allem bemüht sich die Telekom redlich möglichst unattraktiv zu werden. Meiner Meinung nach mit großem Erfolg! Wie gut, dass es inzwischen weitere sehr zuverlässige Anbieter gibt!