Rekursiv Programmieren mit PHP

__Was ist rekursives Programmieren ?

Um dies zu verdeutlichen, fang ich mal mit einem einfachen Problem an:

Es sollen alle Dateien eines Verzeichnisse ausgelesen werden inklusive aller Unterverzeichnisse und allen Dateien in diesen Unterverzeichnissen usw..

Das "Problem" liegt auf der Hand, denn dies lässt sich durch einen streng chronologischen Programmablauf nicht realisieren, denn es ist natürlich nicht bekannt, wie viele und welche Unter und Unter-Unterverzeichnisse das auszulesende Verzeichnis besitzt.__

Die folgende Funtion "get_dir()" z.B. gibt lediglich alle Dateien und Verzeichnisse im Verzeichnis $dir aus, jedoch werden die Unterverzeichnisse nicht ausgelesen.

function get_dir ($dir) {
 $fp=opendir($dir);
 while($datei=readdir($fp)) {
  if (is_dir("$dir/$datei") && $datei!="." && $datei!="..") {echo "$datei (dir)<br>";}
  else {echo $datei."<br>";}
 }
closedir($fp);
}

Die Aufruf der Funktion get_dir("./") ergibt dann z.B.:

bla.txt
index.html
bilder (dir)
nix.exe

Wie bekommt man es nun hin, dass das Unterverzeichnis "bilder" und alle Unterverzeichnisse von "bilder" auch noch ausgelesen werden ?
Indem man natürlich die Funktion get_dir() wiederum auf das Verzeichnis "bilder" anwendet und anschliessend auf alle Unterverzeichnisse von "bilder".
Da man dies aber natürlich nicht "per Hand" machen möchte und kann, gibt es nur eine Lösung: Die Fubnktion get_dir() muss sich bei Bedarf, d.h. wenn sie auf ein weiteres Verzeichnis stösst, selber wieder aufrufen und dieses Unterverzeichnis auch auslesen. Trifft sie dann wieder auf Unterverzeichnisse, soll sie sich wiederum selbst aufrufen und auch diese Verzeichnisse auslesen usw..

In unserem Beispiel von oben sähe das dann so aus:

function get_dir ($dir) {
  $fp=opendir($dir);
  while($datei=readdir($fp)) {
   if (is_dir("$dir/$datei") && $datei!="." && $datei!="..") {echo "$datei (dir)<br>";                                                                                         get_dir("$dir/$datei"); }
   else {echo $datei."<br>";}
  }
 closedir($fp);
}

Liegen in unserem Beispiel im Verzeichnis "bilder" nun z.B. die Dateien pic1.gif und pic2.gif und auch noch das Verzeichnis "weitere_bilder" mit den Dateien pic3.gif und pic4.gif, ergibt der Funktionsaufruf get_dir("./") in unserem Beispiel nun:

bla.txt
index.html
bilder (dir)
pic1.gif
pic2.gif
weitere_bilder (dir)
pic3.gif
pic4.gif
nix.exe

Es werden jetzt also wirklich alle Verzeichnisse und Unterverzeichnisse ausgelesen, egal wieviele Unterverzeichnisse, Unter-Unter-Verzeichnisse etc. es gibt.

Diesen "Trick", eine Funktion sich selbst aufrufen zu lassen, nennt man "rekursives Programmieren" oder auch "rekursive Funktionen". Rekursive Funktionen werden in Programmen der verschiedensten Programmiersprachen oft dazu verwendet, um mathematische Funktionen auszuführen und mathematische Probleme zu lösen ("Urbeispiel": Fakultät einer Zahl).
Gerade mit PHP lassen sich aber auch ganz andere (interessantere) Dinge durch rekursive Funktionen realisieren.

Z.B. ist es möglich, eine Suchmaschiene bzw. einen "Crawler" zu programmieren.
Dieser soll z.B. eine Seite auslesen und allen (internen) Links auf dieser Seite folgen und auch diese Seiten wiederum auslesen und vorhandenen Links auf diesen Seiten folgen. Das Prinzip bei der Programmierung und Realisierung eines solchen "Crawlers" ist dasselbe wie bei dem obigen Beispiel.

Die stark vereinfachte Struktur der rekursiven Funtion hierfür würde ungefähr so aussehen:

function crawl($link) {
 - Lese Seite aus
 - Suche (interne) Links
 - Wenn Link gefunden --> crawl (gefundener Link);
}

Die gefundenen Seiten könnten nun nach Stichwörtern indiziert werden oder die meta-tags könnten ausgelesen werden oder ähnliches, so dass im Prinzip eine komplette, klassische Suchmaschiene realisierbar ist.

Ebenfalls können durch rekursive Programmierung komplette "Baumstrukturen" in z.B. Datenbanktabellen festgehalten werden. Eine Tabelle, in der z.B. eine Familienstammbaum erfasst wird, könnte so aussehen (MySql-Tabelle):

Tabelle "Stammbaum"
<PRE>
Id name nachfahre_von

    1 Opa August 0

2 Onkle Karl 1
3 Tante Ute 1
4 Cousin Maik 2
5 Cousine Inge 3
6 Mutter 1
7 Ich 6
8 Mein Bruder 6
9 Sohn meines Bruders 8
</PRE>

Möchte man nun z.B. diese Baumstruktur geordnet uns strukturiert ausgeben lassen, geht dies wiederum mit einer rekursiven Funktion:

function get_tree($who,$ebene) {
 $res=mysql_query ("select * from stammbaum where nachfahre_von=$who;");
  while ($verwandter=mysql_fetch_array($res)) {
    echo $ebene.$verwandter[name]."<br>";
    get_tree($verwandter[id],$ebene."    ");
  }
}

Dies ausgabe der Funktion get_tree(0,"") ergibt nun den (hässlichen) Stammbaum:
<PRE>
Opa August
Onkel Karl
Cousin Maik
Tante Ute
Cousine Inge
Mutter
Ich
Mein Bruder
Sohn meines Bruders
</PRE>
Diese Struktur dürfte Vielen aus diversen Foren bekannt vorkommen.
In der obigen Tabelle kann man nun beliebig "Äste" hinzufügen, z.B. den Datensatz id=9, name=’Sohn von Cousin Maik‘ und nachfahre_von=4.
Die Funktion get_tree wird immer den kompletten Satmmbaum, egal wieviele "Ebenen" und "Äste" es gibt, ausgeben.

Was man beachten sollte.

Der grösste Vorteil rekursiver Funtionen, nämlich das zu erfassende Strukturen bis zum bitteren Ende ausgelesen bzw. erfasst werden, kann auch gleichzeitig eine "Falle" darstellen. Wenn man sich z.B. vorstellt, man wendet die hier zuerst besprochene Funktion get_dir() zum Auslesen von Verzeichnissen auf das Root-Verzeichnis "/"eines vollgepackten Rechners an, so kann man sich vorstellen, das dies zum Scheitern verurteilt ist.
Deswegen ist es ratsam, bei solchen Vorhaben eine Abruchbedingung in die Funktion eintufügen.
Dies kann z.B. ein "Timeout" sein, d.h. eine Funktion soll sich nur innerhalb eines bestimmten Zeitrahmens immer wieder selbst aufraufen, oder aber man beschränkt die rekursive Funktion auf eine bestimmte "Ebenentiefe".

Ein Programm mit der Funktion get_dir() und 10 Sekunden-Timeout-Bedingung könnte z.B. so aussehen:

function get_dir ($dir,$startzeit) {
 $fp=opendir($dir);
 while($datei=readdir($fp)) {
   if (is_dir("$dir/$datei") && $datei!="." && $datei!="..")
   {
     echo "$datei (dir)<br>";
     if (time()-$starttime > 10) get_dir("$dir/$datei",$startzeit);
   }
   else {echo $datei."";}
 }
  closedir($fp);
}
 
// Hauptprogramm
$start=time();
get_dir("./",$start);

Eine Ebenenbeschränkung, d.h. es sollen nur das Verzeichnis "./" und alle Unterverzeichnisse ausgelesen werden, jedoch Unter-Unterverzeichnisse und alles was darunter liegt, nicht mehr, könnte so aussehen:

function get_dir ($dir,$ebene) {
  $fp=opendir($dir);
  while($datei=readdir($fp)) {
    if (is_dir("$dir/$datei") && $datei!="." && $datei!="..")
    {
     echo "$datei (dir)<br>";
     if ($ebene<3) get_dir("$dir/$datei",$ebene+1);
    }
   else {echo $datei."<br>";}
  }
 closedir($fp);
}
 
//Hauptprogramm
get_dir ("./",1);

Ein weiterer "Nachteil" des rekursiven Programmierens ist natürlich auch, dass komplexere Funktionen als die hier angedeuteten schnell "unberechenbar" werden und es nicht mehr so einfach nachzuvollziehen ist, an welcher Stelle die Funktion was macht, vor allen Dingen in den Situationen, wo man die zu erfassende Struktur nicht schon im Vorraus kennt.

Ebenfalls ist teilweise sehr schwer herauszufinden, warum rekursive Funktionen in bestimmten Situationen sich in einer Art "Endlosschleife" immer wieder selbst aufrufen.
Ein Beispiel dazu ist der oben angesprochene "Crawler". Lässt man diesen ohne Kontrolle einfach auf eine Webseite los, so werden bestimmte Seiten, auf die von mehreren anderen Seiten gelinkt wird, natürlich auch mehrfach durchsucht und die gefundenen Links auf dieser Seite auch immer wieder ausgelesen und durchsucht usw., so dass es quasi kein eine Ende in dieser Prozedur gibt.
Eine Lösung hierzu ist z.B., dass bereits durchsuchte Seiten in einem Array festgehalten werden und vor jedem Selbstaufruf der Funktion überprüft wird, ob die entsprechende Webseite nicht schon durchsucht worden ist.

Auf jeden Fall kann rekursives Programmieren sehr nützlich sein und auch viel Spass machen und ich hoffe, dass der eine oder andere etwas mit diesem Artikel etwas anfangen kann.

Cookies unter der Lupe

__Netscape hat seinerzeit bei der Erfindung der Cookies den einzig
sinnvollen Weg gewählt, um Cookie-Informationen zwischen Client und
Server auszutauschen, nämlich die HTTP-Header, die bei jeder Anfrage
hin und her geschickt werden:__

    1. Ein Client fordert vom Server über eine der HTTP-Request-Methoden

eine Ressource an. Dummerweise sendet er dabei keinerlei Informationen
darüber, ob er gewillt ist Cookies zu akzeptieren, d.h. der Server
bekommt lediglich einen ‚gewöhnlichen‘ HTTP-Request

2. Der Server verarbeitet den empfangenen Request, rödelt auf die eine
oder andere Weise rum und sendet dann eine Antwort (HTTP-Response),
der mind. aus HTTP-Response-Headern besteht, i.d.R. aber auch einen
HTTP-Response-Body beinhaltet.
Will der Server Cookies an den Client übermitteln, geschieht dies
durch einen entsprechenden HTTP-Response-Header (Set-Cookie), der die
Cookie-Parameter enthält. Zu diesem Zeitpunkt weiß er nicht (s. 1.),
ob die Cookies überhaupt auf Gegenliebe stoßen werden. Aus diesem
Grund versorgt er vorsorglich alle Links, Formulare etc. mit
session-IDs, sofern session.use_trans_sid aktiviert wurde.

3. Der Client empfängt den HTTP-Response und wertet seinerseits die
Response-Header aus. Stößt er dabei auf einen Set-Cookie-Header, fragt
er je nach Einstellung den User, ob er diese(n) Cookie(s) annehmen
soll oder speichert bzw. verwirft diese(n) automagisch.

4a. Wurde(n) der/die Cookie(s) von 3. angenommen, sendet der Client
bei einer erneuten Anfrage an den selben Server anders als bei 1.
zusätzlich noch die gespeicherten Cookie-Werte an den Server,
ebenfalls als Teil der HTTP-(Request-)Header. Dies geschieht immer
automatisch und läßt sich nicht fallweise unterbinden.

4b. Hat der User keine Cookies akzeptiert, geht es bei 1. wieder los
und wiederholt sich solange, bis der User Cookies akzeptiert, sich die
Kugel gibt oder der Client von sich aus erkennt, daß der User diese
Cookies von dieser Site nicht annehmen möchte (s. Mozilla).

5. Erst jetzt erhält der Server die Information, daß die Cookies
akzeptiert wurden und gibt diese Informationen an PHP weiter ($_COOKIE
wird gefüllt). PHP seinerseits weiß nun, daß Cookies akzeptiert werden
und verzichtet von nun an auf die Nutzung von trans_sid. Dieses
Verhalten bleibt solange bestehen, bis die Cookies auf dem Client
gelöscht werden, sei es durch schließen des Browsers oder durch
explizites löschen der Cookies (s. Mozilla Cookie Manager).

Tunneling

Sperrt der proxy der Firma gewisse Protokolle, wie z.B. HTTP? Oder möchte man sich sicher in ein anderes Netzwerk anmelden, z.B. in das eines Geschäftspartners? -Bei beiden Varianten kommt man um den Begriff "Tunneling" nicht herum. Doch was genau ist das?

Das Tunneling

{img fileId="47" thumb="y" alt="" rel="box[g]"}Ein Tunnel bezeichnet in der EDV das Übertragen der Daten eines Netzwerkprotokolls, eingebettet in ein anderes Netzwerkprotokoll. Tunnel werden verwendet um gesicherte, verschlüsselte Verbindungen über ungesicherte Computernetze aufzubauen (siehe VPN) oder um Firewalls und andere Sicherheitsmassnamen zu umgehen.

HTTP-Tunneling

Meistens möchte man in der Firma gewisse Protokolle, wie FTP, POP3, usw. verwenden, die von der Firewall geblockt werden. Die Lösung dieses "Problems" besteht in der Verwendung eines sogenannten HTTP-Tunnels.
Ein "Tunnel" kann man sich in etwa so vorstellen, dass z.B. der PC der Firma die Daten ganz nomral über den HTTP Port 80 sendet; die Firewall denkt also es handelt sich um eine ganz normale WWW-Anfrage und lässt die Daten durch. Tatsächlich werden diese aber an einen Tunneling Server gesendet, wo dann die Daten an das ursprüngliche Protokoll weitergeleitet werden; die antwort wird wieder an den Tunnel-Server geleitet und dort über den Port 80 wieder über die Firewall der Firma (diese denkt wiederum, es sei eine ganz normale Antwort auf eine Webanfrage) zum Firmen-PC zurück. Dort werden dann die Daten wieder an das Ursprungsprotokoll gesendet. Also quasi wie ein "Tunnel" unter der Firewall hindurch.

Voraussetzungen um ein HTTP-Tunnel zu "bauen"

  • Ein HTTP-Server muss irgendwo auf einem, ständig mit dem Internet verbunden PC ausserhalb des Firmen Netzwerks laufen/installiert sein (dies kann z.B. der eigene PC zuhause mit Kabel/DSL sein)
  • Auf dem Frimane PC muss ein Tunnel-Client installiert werden
  • Die IP des Tunnel-Servers muss auf dem PC als Proxy-Server angegeben werden

Dann kann man im Tunnel Client für jedes Protokoll ein "Ersatz-Protokoll" angeben, dass dann über den Port 80 zum Tunnel-Server geleitet wird und wieder zurück.
Dazu eignet sich HTTPHost ganz gut.

Fragen rund um das Tunneling

Ist Vorsicht geboten bei der Benutzung eines Tunnels

Ja. Denn offenbar will der admin deiner Firma eben genau nicht, dass du andere Protokolle als die freigegebenen nutzt… 😉
Manchmal ist es aber auch so, dass deine Firma es schlicht nicht für nötig hält Protokolle, die fürs Geschäft nicht gebraucht werden (wie z.B. FTP) in der Firewall freizugeben. In einem solchen Fall bestehen gute Chancen, dass man dir verzeiht. Ist aber die private Nutzung des Internets generell untersagt, würde ich mir gut überlegen so was zu tun… Immerhin kann ein nicht befolgen des Arbeitsvertrages ein Kündigungsgrund sein.

Kann der Firmen-Proxy tracken, was ich tue?

Ja und er wird das sehr wahrscheinlich auch. Obwohl die Anfragen sehr ähnlich wie normale Webanfragen aussehen, wird der Admin mit etwas freier Zeit, oder so ein Typ im Anzug die Logfiles "entschlüsseln" können.

Gefärdet das Tunneling die Sicherheit des Firmen Netzwerk?

Jein; bzw. nur indirekt. Im Prinzip werden ja nur normale Daten übers WWW gesendet, also genauso wie wenn du im Internet surfst und Seiten abrufst. Allerdings kannst du ja dann Programme wie ICQ, Outlook, Kazaa, usw. benutzen. Über diese wird es möglich von aussen Viren auf deinen Firmen PC zu schleusen, ganz wie bei dir zuhause. Es sind also bestimmte Sicherheitsvorkehrungen deinerseits geboten, damit dies nicht passiert.

Related Links

|| Link | Beschreibung
[http://www.htthost.com/|HTTHost] | Die Seite, die gleichzeitig ein excelenter Tunneling-Server und Client zur Verfügung stellt, bietet auch einige Informatiionen über das Tunneling an und für sich
||

Google Techniken

__Google hat sich in den letzten Jahren nicht umsonst zur besten Suchmaschine aller Zeiten gemacht. Die Suchmaschine, die jetzt auch im Deutschen Duden erfasst wurde kann weit mehr als nur nach Webseiten, Bildern und Newsbeiträgen suchen.
Viele kennen einige Tricks, aber praktisch niemand kennt _alle_ Möglichkeiten der Suchmaschine.

Dies hat mich auf den Plan gebracht diesen Bericht zu schreiben und alles mir bekannte zusammenzufassen. -Es werden sicher auch Profis noch das eine oder andere Tool finden, dass sie bisher noch nicht kannten.__

Google als Universal-Suschmaschine

Google kann, einigen bekannt sein dürfte neben Bildern und News auch das Usenet durchsuchen. -Was aber viele nicht wissen: Google kann noch einiges mehr. -Manchmal handelt sich um mehr oder weniger bekannte Techniken, manchmal aber um echt praktische Erweiterungen, die fast niemand kennt und nutzt…
Dies hat mich dazu getrieben diesen Bericht zu verfassen mit allen mir bekannten google suchtechniken.

Google kann Rechnen

{IMG(fileId="42",thumb="y",rel="box[g]",imalign="left",align="left")}{IMG} Und zwar nicht einfach nur banale Rechnungen a la ‚1+2=3‘, sondern auch komplexe arithmetische operationen. -Es reicht die Rechung einfach ins Suchfeld einzugeben, also z.B. {CODE{}}’2(5+3)cos(4)13/7′

. -Google liefert dann das Ergebnis beim klick auf "suchen".

Google als Dolmetscher

{IMG(fileId="43",thumb="y",rel="box[g]",imalign="left",align="left")}{IMG} Einen Text in eine andere Sprache übersetzen lässt sich ganz eifach durch Eingabe des Textes, gefolgt von den Kürzeln der Sprache. Also um z.B. ein deutsches wort ins englische Übersetzen zu lassen genügt die eingabe: {CODE{}}wort de-en

; google zeigt dann als erstes das suchergebnis der Wörterbuchseite www.leo.org an.

Fachbegriffe Nachschlagen

Mal schnell wissen was ein bestimmter Fachjbegriff, oder eine Abkürzung bedeutet?
Mittels vorgehängtem <I>define:</I> kann dies nachgeschlagen werden.
Z.b.: {CODE{}}define:LOL

– Liefert die Erklärung zum Akronym: "LOL".

Film-Infos

Rechtzeitig zur Oscar-Verleihung brachte google ein neues "Film-Tool" heraus, mit denen sich umfassende Infos zu Filmen finden lassen. Der Operator dafür ist <I>movie:</I>
So kann man z.B. über die Eingabe von: {CODE{}}movie:Titanic

reviews zum Film Titanic bekommen; das ist aber noch lange nicht alles was das Tool zu bieten hat, denn man kann auch nach Schauspielern suchen. Die Eingabe von {CODE{}}movie:Johnny Depp

liefert eine Liste mit Filmen in denen Johnny Depp mitgespielt hat.
Google hilft hier sogar das Erinnerungsvermögen wieder aufzufrischen; möchte man Beispielsweise den Film wissen in dem eine rote und eine blaue pille vorkam, tippt man einfach: {CODE{}}movie:red pill blue pill

ein und erhält den Namen des Filmes!
Für die USA gib es sogar noch ein weiteres Feature: Die Eingabe einer Ortschaft, beispielsweise: {CODE{}}movie:New York

liefert die Kinos und Spielzieten für New Yorker Kinos.

Die neue Google Funktion ist im Google Blog vom 23. Februar genau beschrieben unter: http://www.google.com/googleblog/2005/02/google-movies-now-playing.html

Auf Reisen mit google

{IMG(fileId="44",thumb="y",rel="box[g]",imalign="left",align="left")}{IMG} Ja, sogar aktuelle Zugfahrpläne lassen sich mit google suchen, meistens sogar schneller als wenn man zuerst die Seite der Bahn ansurft.
Die eingabe von: {CODE{}}Frankfurt München 13:30

werden alle Zugverbindungen von Frankfurt nach München angezeigt, die ab 13:30 fahren; lässt man die Zeit weg, wird die aktuelle genommen.

Google hilft auch beim Auto Reisen

{IMG(fileId="45",thumb="y",rel="box[g]",imalign="left",align="left")}{IMG} Die Eingabe einer Ortschaft führt zum Stadtplan.

Billig Telefonieren

{IMG(fileId="46",thumb="y",rel="box[g]",imalign="left",align="left")}{IMG} Durch die Eingabe einer Telefon- oder Handy-Nr. kommt man zum aktuell günstigsten call-by-call anbieter.

Nach News suchen

{IMG(fileId="47",thumb="y",rel="box[g]",imalign="left",align="left")}{IMG} Nein, nicht das Usenet, dass man über den Link "groups" bei google erreicht ist hier gemeint, sondern Schlagzeilen aus vielen Weltweiten Zeitungen. -Es reicht das Schlagwort einzugeben, der oberste Treffer beinhaltet die gefunden Schlagzeilen

Sendungs-Verfolgung

{IMG(fileId="48",thumb="y",rel="box[g]",imalign="left",align="left")}{IMG} Man hat ein Packet mit UPS oder FedEX versendet und möchte dieses Tracken. -Ist es nicht mühsam extra zur ups/fedex Seite zu gehen und die Nr. einzugben? -Es reicht diese bei google einzugeben und den obersten Link anzuklicken.

Aktienkurse abfragen

{IMG(fileId="49",thumb="y",rel="box[g]",imalign="left",align="left")}{IMG} Ja, auch das kann google: Durch eingeben der ISIN oder WKN Nummer

Nummernbereiche suchen

Zum Abschluss noch etwas hacking… 😉
Google kann auch bestimmte nummernbereiche durchsuchen, nämlich durch trennen der Start- und Endnummer mit zwei punkten ‚..‘ -Zb. {CODE{}}1..100

sucht nach allen Nummern zwischen 1 und 100.
Dies kann man auch brauchen, wenn man z.B. seine Kreditkartennummer verloren hat und diese mit google wieder finden möchte… g
Die Eingabe von {CODE{}}visa 4356000000000000..4356999999999999

bringt alle Visa-Kreditkartennummern im gültigen Nummern Bereich hervor die sich auf Webseiten befinden.

Nach MP3 Web-Archiven suchen

Immer noch gibt es zahlreiche (versteckte) MP3 Archive. Sofern diese nicht passwortgeschützt sind, lassen sich diese mit Google konfortabel durchsuchen.
Die Suchabfrage:

-inurl:htm -inurl:html intitle:"index of" mp3

liefert immerhin einige 100 Seiten mit MP3s zum Download.
Es lässt sich aber auch gezielt nach einem Titel oder Namen suchen, indem man diesen einfach hinten anhängt:

-inurl:htm -inurl:html intitle:"index of" mp3 "pearl jam"

Übrigens lassen sich anstatt MP3s natürlich auch irgendwelche anderen Dateien, wie z.B. Filme oder Bilder suchen, einfach anstatt "mp3" die Dateiart und anschliessend optional einen Titel mitgeben.

Wenn Mobiltelefone die Melodie erkennen

Hinter dem praktischen Handydienst "Musicfinder" steckt eine ausgeklügelte Technologie.

Von Simone Luchetta

Neulich in einer Bar erregte mitten im Gespräch ein Musikstück, das uns berieselte, meine gesamte Aufmerksamkeit: Wie hiess der Song schon wieder? Es wollte mir einfach nicht einfallen. In schierer Verzweiflung fragte ich meinen Begleiter. Wortlos zückte dieser sein Handy, tippte darauf herum und hielt das Telefon in Richtung Boxen. Was tut der Mensch da? Wenige Sekunden später erhielt er ein SMS: «Das war ‹Loulou› von Stéphane Pompougnac.» Er lächelte triumphierend. Ich war beeindruckt.

Zauberei? Fast. Mein Gegenüber nutzte eine Dienstleistung namens Musicfinder, die Sunrise seit ein paar Monaten mit Directmedia zusammen anbietet. Wer ein Stück, das er oder sie gerade hört, nicht kennt, aber gerne würde, wählt 076 333 66 33, fängt die Musik rund 20 Sekunden mit dem Handy in Richtung Musikquelle auf, bis der Anruf abbricht, und erhält im Nu ein SMS mit den gewünschten Angaben. Eine Abfrage kostet 1 Franken plus Verbindungsgebühr.

Der Dienst ist laut Sunrise «ein durchschlagender Erfolg», Nutzungszahlen bleiben jedoch unter Verschluss. Orange überlegt, ebenfalls einen solchen Service anzubieten, bei Swisscom ist kurzfristig nichts Derartiges geplant. Macht nichts: Auch Swisscom- und Orangekunden können Musicfinder beanspruchen, der übrigens mit allen Handys funktioniert.

Das Erstaunliche ist, dass die Hexerei fast immer klappt. Ob Autechre, Lambchop oder Saint Etienne, Musicfinder erkennt den Song. Passen musste er hingegen bei Franz Ferdinand, an Konzerten, bei Ländlern und Klassiktiteln. Auch selbst gesungene Lieder erkennt er nicht.

Digitale Fingerabdrücke

Was steckt hinter dem Spuk? Hält sich Sunrise irgendwo in Bangalore ein paar Tausend Musik liebende Inder am Fliessband, die für ein Taschengeld die Anfragen per SMS beantworten? Falsch. Die Musikerkennung per Handy basiert auf einer Technologie der britischen Firma Shazam. Diese hat im Londoner Untergrund ein Netz von 80 Rechnern, das rund um die Uhr Anrufe aus der ganzen Welt empfängt. In Deutschland und England bietet die Swisscom-Teilhaberin Vodafone den Dienst an, weiter gibts ihn in Österreich, Griechenland, Italien, Australien und Japan. Während wir die Handys in die Luft halten, schneidet London mit, erstellt einen so genannten digitalen Fingerabdruck des Titels und vergleicht ihn mit einer Datenbank. Eine halbe Minute später kommt das SMS mit der Antwort. Die laufend wachsende Datenbank umfasst momentan 1,7 Millionen Stücke. Ziel ist es, jeden verfügbaren Titel aufzunehmen, von neuen CDs wird der Fingerprint noch vor dem Erscheinen genommen, versichert Shazam.

Das Prinzip des digitalen Fingerabdrucks ist rasch erklärt: Das Programm analysiert das Frequenzspektrum der Musik. Für die Identifizierung zählt nicht nur der zeitliche Ablauf, sondern auch Klangfarbe, Instrumentierung, Tempo und Dynamik eines Stücks. Damit liefert das Programm den einzigartigen Fingerabdruck.

Die Datenbank ist das Kapital von Shazam. Ohne sie ist ein Fingerprint so viel wert wie ein echter Fingerabdruck ohne Verbrecherkartei. Die Firma Gracenote, die mit Philips zusammen in der Musikerkennung forscht, soll laut Website gar über vier Millionen Abdrücke verfügen.

Übrigens: Erkennt Musicfinder einmal ein Stück nicht, ist das ein Frust, das erhaltene SMS ist dafür gratis.

Firewalls

Eine Firewall ist eine logische Vorrichtung, die ein privates Netz vor dem öffentlichen Teil, dem Internet oder aber auch verschiedenen Segmenten im in-ternen Netz voreinander schützt.
Meistens ist so eine Firewall ein eigenständiger PC, der zwischen zwei Netze gestellt wird, demzufolge braucht er auch zwei Netzwerkschnittstellen.

_
                                                |------|_| PC 1
                  <b>_</b><b>_              </b>      |    _
                 /             ___    |--|     |---|_| PC 2
                ( Internet o---|___|---|  |-----|      _
                 <b>_</b><b>_/    Modem   |</b>|     |-----|_| PC 3
                                     Firewall   lokales Netzwerk

Der einzige PC im LAN, der über alle Informationen und Zugang zum Internet verfügt ist die Firewall. Wenn z.B. PC1 ein File aus dem Internet downloaden möchte, wird es immer zuerst auf die Firewall geladen, erst dann kann PC1 auf das File zugreifen. Ein direkter Download auf PC1 ist nicht möglich.

Zwei der meistgebrauchten Firewalls ist die Paketfilter-Firewall und die Pro-xy-Firewall. Eine Filter-Firewall überprüft pausenlos den Netzwerkverkehr und filtert nach definierten Regeln Pakete. Die Regeln werden in einem Konfigura-tionsfile definiert. Je nach dem, wie die Regeln definiert wurden, wird das Paket angenommen oder abgewiesen.

Ist ein Proxy Server in einem Netzwerk angebracht, so dient er zur Verwaltung der herausgehenden Pakete. Dabei wird das sogenannte IP-Masqerading ange-wandt. Es bewirkt, dass jede Workstation, die über den Proxy geht, die IP des Proxys erhält. Somit sind die Workstaions direkt mit dem Proxyserver verbun-den, jedoch nicht mit dem Netz, mit dem der Proxy verbunden ist.

Nicht nur die Funktionalität der Firewall wird unterschieden, auch das Pro-dukt selber. So gibt es Firewalls für Windows wie auch für Linux. Die Windows Produkte heissen Dektop- oder Personal-Firewalls und dienen eher dazu, Nor-malanwender vor Gefahren aus dem Internet zu schützen.
Eigenständige Rechner, die mit einer Linuxfirewall arbeiten, sind schon eher für professionellen Gebrauch geeignet.

Will man sein Computernetzwerk abschotten, muss man sich überlegen, was genau abgeschottet werden muss und wie sicher es sein soll. Dazu gibt es verschie-dene Firewall Strukturen, die zeigen, wo eine Firewall angebracht werden muss und wie z.B. eine Kombination aus zwei Firewalls aussieht.
Der grösste Schwachpunkt bei Filter-Firewalls ist jedoch die ungenaue Defini-tion der Filterregeln. Ist nur eine Regel fehlerhaft definiert, entsteht schon eine Sicherheitslücke, die möglicherweise ausgenutzt werden könnte.

Ein kurzes Wort zum "unsichtbar" Machen von Rechnern

Viele Leute denken, wenn sie eingehende pinq-requests verwerfen, sei der Rechner quasi "unsichtbar". Dies stimmt so nicht, wie folgendes Beispiel zeigen soll:

    1) dein router ist online und reagiert auf pings:

ich pinge dich an -> ein ICMP-echo-request-paket läuft übers internet -> dein router empfängt es und antwortet mit einem ICMP-echo-reply-paket -> das paket wandert über netz zurück zu mir -> ich weiß dein router ist online und wie lange es dauert pakete zwischen den 2 geräten auszutauschen.

2) dein router ist offline:
ich pinge dich an -> ein ICMP-echo-request-paket läuft übers internet -> der router deines providers bemerkt dass du offline bist und sendet mir ein ICMP-destination-unreachable-paket -> ich weiß dass du offline bist

3) dein router ist online, reagiert aber nicht auf pings
ich pinge dich an -> ein ICMP-echo-request-paket läuft übers internet -> dein router empfängt, aber verwirft es -> ich bekomme gar keine antwort -> ich weiß, dass du online bist, aber pings unterdrückst 😉

Hinweis: Dieses Beispiel stammt von: http://www.pcwelt.de/forum/windows-nt-2000/219687-icmp-ping.html

IT Security

Da das Thema IT Security sehr wichtig ist, hab ich ihm einen eigenen Bereich gewidmet.
<---TOC--->

Was versteht man unter IT Security?

In den letzten Jahrzehnten hat die Nutzung von Computern stetig zugenommen. Begonnen von us-amerikanischen Militäreinrichtungen über Universitäten und öffentlichen Behörden ist heute jedem in den Industrieländern die Welt der Computer offen. Doch damit hat sich auch der Bedarf an Sicherheit erhöht, der v.a. mit der Nutzung des Internets, und damit die weltweite Vernetzung, drastisch gestiegen ist.

Unter IT-Security versteht man nicht nur Hacker-Angriffe und Virenversand sondern allgemein die Forderung alle Massnahmen zur Garantie der Vertraulichkeit (Zugriff und Manipulation nur für Berechtigte), Verfügbarkeit (Sicherung der berechtigten Zugriffsmöglichkeit auf Datenverarbeitungssysteme), Integrität (Garantie von korrekten und vollständigen Daten, vor unberechtigtem Zugriff schützen) und Originalität (Authentizität des Absenders sicherstellen) von Daten.

SSL – Sicherheit im Internet

Einleitung

Secure Sockets Layer (SSL) stellt eine Entwicklung dar, die privacy auf dem Internet sicherstellt. Es erlaubt einer Client-Server Verbindung sicher zu kommunizieren.
Es wurde entwickelt, um
privacy zwischen 2 kommunizierenden Partnern (client-server) sicherzustellen den Server und eventuell den Client zu authentifizieren

Das SSL-Protokoll ist unabhängig von der Applikation, was eine Flexibilität und gute Akzeptanz sicherstellt. Sogenannte higher level -Protokolle (HTTP, FTP, TELNET) können über dem SSL-Protokoll stehen, SSL fungiert dann als Interface zwischen Applikation und Übertragung, das die Daten verschlüsselt. Einerseits erlaubt SSL das Aushandeln eines Verschlüsselungsalgorithmus, andererseits kann das Protokoll einen Server authentifizieren bevor die Daten gesendet oder empfangen werden können. SSL bietet eine sogenannte channel security an, die 3 wesentliche Möglichkeiten haben:
<UL><LI>Der Übertragungskanal ist private: Mittels Handshake wird ein secret key ausgehandelt, der dann für die Übertragung aller Nachrichten verwendet wird.</LI><LI>Der Übertragungskanal ist authentifiztiert: Während der Server immer authentifiziert ist, ist dies beim Client nicht immer der Fall </LI><LI>Der Übertragungskanal ist Verlässlich: Die Übertragung beinhaltet eine Überprüfung</LI></UL>

Handshake

Hier geschieht das Aushandeln der Kommunikation und der Verschlüsselung. Dies geschieht in 2 Phasen

Phase 1

Hier wird die Kommunikation zwischen dem Client und dem Server ausgehandelt. Dies geschieht über das Senden und Empfangen von sogenannten Hello-Nachrichten. Der Client initiert den Verbindungsaufbau mittels Senden von CLIENT-HELLO. Der Server empfängt diese Nachricht und sendet seinerseits ein SERVER-HELLO. Aus dieser Information wissen die Partner nun, ob ein neuer Master Key für die Verschlüsselung gebraucht wird oder ob für die beiden Partner schon einer besteht.
Ist der Master Key schon vorhanden, so kann mit der 2. Phase begonnen werden, andernfalls wird dieser Key vom Server generiert (nur dieser kennt zusammen mit dem Public Key den Master Key) und der Client mittels SERVER-VERIFY davon verständigt.

Phase 2

Hier geschieht die Authentification des Clients (Der Server wurde ja schon in der ersten Phase vom Client authentifiziert).
Möchte der Server etwas von einem Client, so sendet er ein request. Hat der Client die benötigte Information, so sendet er diese an den Server; andernfalls kommt es zu einem Fehler, den an den Server gesendet wird. Für die Authentifikation eines Partners durch einen anderen wird eine spezielle Nachricht (finished) gesendet. Nun muss der sendende Partner seinerseits auf eine finished Nachricht warten, bevor das Handshake Protokoll fertig ist. Die Daten der Applikationen können jetzt übertragen werden.

IPv6

Die ersten Entwicklungen des IPv6 wurden im Jahre 1995 gestartet.

Dieses Protokoll ist der offizielle Nachfolger von IPv4; die Version 5 ist auch vorhanden, wurde aber lediglich für Testzwecke gebraucht. In dieser neuen Version wurde der Header komplett neu überarbeitet und wurde auf 128Bit (vorher 32Bit) gesetzt. IPv4 hat 4 Zahlenfelder (z.B.: 192.168.0.1), IPv6 dagegen hat 5 Zahlenfelder, mit denen man theoretisch 3,4 x 1038 Hosts gleichzeitig versorgen kann, dies hat der Vorteil, dass die Knappheit von IP Adressen-Vergabe keine Rolle mehr spielt. Mit diesem neuen Protokoll ist es möglich, statt nur der BasisHeader zusätzlich noch ErweiterungsHeader zu senden, somit kann man eine optimale Datenübertragung für Programme erzielen; derzeit sind 6 ErweiterungsHeader vorhanden (sind unten aufgelistet). Die Anwendung IPv6 ist OpenSource und lässt es zu, dass es von Zeit zu Zeit weiter-"wächst" und sich immer mehr an die Umgebung anpasst und somit das Internet leistungsfähiger macht.

Der Header von IPv6 sieht folgendermassen aus:

Version	     Priority	              Flow Laber
   Payload Length	       Next Header   Hop Limit
             IP Adresse des Senders
            IP Adresse des Empfängers

Vorteile von IPv6 gegenüber von IPv4

    1.) Die IP Adressen-Vergabe wird kein Problem mehr darstellen.

2.) Die Audio & Video Übertragung wird schneller und besser übertragen.
3.) Man kann Erweiterungs-Header einbinden, und somit Programme optimieren.
4.) Reduzierung des Umfangs der Routing-Tabellen
5.) Höhere Sicherheit (Authentifikation & Datenschutz)
6.) OpenSource

Nachteile von IPv6 gegenüber von IPv4

    1.) Es ist keine Prüfsumme mehr vorhanden. Somit muss, wenn ein Fehler auftritt, das ganze Paket noch einmal gesendet werden.

2.) Die Grösse der Datenpakete ist vorgegeben und ist nicht mehr variabel wie bei IPv4.
3.) Viele Programme & Geräte (z.B.: Router,…) müssen umgebaut bzw. umgeschrieben werden, was eine grosse Wirkung auf die Kosten und Arbeit hat.

Die 6 ErweiterungsHeader mit dem BasisHeader von IPv6:

<B>Header	                         Beschreibung</B>
IPv6 Basis Header.	                 Dieser ist zwingend erforderlich
Optionen für Teilstrecken
(Hop-by-Hop Options Header)              Verschiedene Informationen für Router
Optionen für Ziele
(Destination Options Header              Zusätzliche Infos für das Ziel
Routing(Routing Header)	                 Definition einer vollständigen oder teilweisen Route
Fragmentierung(Fragment Header)	         Verwaltung von Datengrammfragmenten
Authentifikation
(Authentication Header)	                 Echtheitsüberprüfung des Senders
Verschlüsselte Sicherheitsdaten
(Encapsulating Security Payload Header)	 Informationen über des verschlüsselten Inhalt