Suche Home Einstellungen Anmelden Hilfe  


Entwicklung, Gefahren und Auswirkungen von Informationstechnologien
I N H A L T S V E R Z E IC H N I S
Facharbeit Geschichte & Politik von Thomas Brunner

1. Einleitung
2. Die Entwicklung des Internet
3. Mögliche Gefahren auf dem "Information Highway"
4. Gesellschaftliche Auswirkungen
5. Literaturverzeichnis




Herbst 1996
Kantonsschule Kollegium Schwyz (KKS)


 
 
 
 
 
 

Kapitel 1

Einleitung

Das Internet und ähnliche Informationstechnologien werden unser Leben in Zukunft verändern, darüber sind sich eigentlich alle einig. Wie weit allerdings diese Veränderungen gehen werden, ist umstritten. Während die einen "von der wichtigsten Errungenschaft seit der Erfindung des Feuers" reden, ist das Internet für andere bloss ein neues Medium. Das Ziel meiner Arbeit ist es, dem Leser zu zeigen, welche Gefahren das Internet in sich birgt und wie es unser Leben und die Gesellschaft in Zukunft verändern könnte. Da das Internet heute vor allem in technischer Hinsicht einem starken Wandel unterworfen ist, verzichte ich grösstenteils auf technische Details, da diese in einem Jahr schon ganz anders aussehen könnten. Um einige Probleme besser zu verstehen, ist es manchmal aber unumgänglich, auch auf technische Fragen einzugehen. Um die Problematik als Ganzes besser zu verstehen, beschäftigt sich Kapitel 3 mit der Entstehung und der Entwicklung des Internet.

Zurück zum Anfang der Seite

Kapitel 2

Die Entwicklung des Internet

Die Anfänge

Ein atombombensicheres Computernetzwerk

Die Grundlagen für das Internet wurden schon anfangs der sechziger Jahre mitten im Kalten Krieg geschaffen. Die Rand Corporation, eine amerikanische Denkfabrik, fragte sich damals, wie wohl ein Computernetz aussehen müsste, das auch Katastrophen, beispielsweise einen atomaren Angriff, überlebt.

Eine einfache und dennoch revolutionäre Antwort präsentierte Paul Baran, ein Mitarbeiter der Rand Corporation, 1962 in seiner Schrift "On Distributed Communication Networks". Barans Idee war, dass ein atombombensicheres Netzwerk von keiner zentralen Autorität, die vom Gegner ausfindig gemacht und zerstört werden könnte, gesteuert sein darf. Das Netz sollte aus gleichberechtigten Knoten aufgebaut sein. Ferner müsse das Netz nicht leitungsvermittelt, sondern paketvermittelt arbeiten.

Leitungsvermittlelt oder paketvermittelt ?

Bei einem leitungsvermittelten Netz wird zuerst bei einer Zentrale eine Verbindung zum Empfänger angefordert. Ist die Verbindung von der Zentrale aufgebaut worden, wird die Nachricht übertragen und danach wird die Verbindung wieder abgebrochen. Dies ist zwar ein sehr effizientes und schnelles, allerdings auch ein sehr unsicheres System. Möchte man ein leitungsvermitteltes System ausser Kraft setzen genügt es, die Zentrale auszuschalten. Obwohl dann die Leitung zwischen Sender und Empfänger immer noch vorhanden wäre, kann keine Verbindung mehr zustande kommen.

Bei einem paketvermittelten Netz hingegen gibt es keine Zentrale. Die zu übermittelnde Nachricht wird in einzelne "Datenpakete" aufgeteilt. Die Pakete werden numeriert und jedem Paket wird Absender- und Empfängeradresse mit auf die Reise gegeben. Danach werden die Pakete zu dem direkt erreichbaren Computer geschickt, der dem Empfänger am nächsten ist. Dieser entscheidet bei jedem ankommenden Paket aufgrund der Zieladresse, wie die Reise weitergeht. Es wird als bei jedem Rechner, den ein Paket passiert, neu bestimmt, in welche Richtung das Paket weitergeleitet werden soll. Die Aufteilung in einzelne Pakete macht deshalb Sinn, weil es auch vorkommen kann, dass während der Übertragung eine schnellere Leitung frei oder eine Leitung unterbrochen wird. Es ist daher auch möglich, dass nicht alle Pakete auf dem gleichen Weg ans Ziel gelangen bzw. dass beispielsweise der Anfang der Nachricht erst am Ende beim Empfänger ankommt. Dank der Numerierung der Pakete kann die ursprüngliche Reihenfolge dennoch wieder hergestellt werden. Sind Pakete fehlerhaft oder während der Übertragung verlorengegangen, muss nicht die ganze Nachricht wiederholt werden, sondern nur die betroffenen Pakete. Trotzdem ist die Effizienz weit geringer als bei leitungsvermittelten Netzen, da neben den eigentlichen Daten mit jedem Paket noch zusätzliche Informationen gesendet werden müssen. Der entscheidende Vorteil des System wird sichtbar, wenn man sich vorstellt, dass ein Teil des Netzes ausser Betrieb gesetzt wird.

Diese Idee Barans eines leitungsvermittelten Computernetzes sollte allerdings noch mehr als ein halbes Jahrzehnt Theorie bleiben. Da sich damals die Computerindustrie im Gegensatz zu heute kaum für Netze interessierte, blieben die Forschungsarbeiten auf staatliche Institutionen sowie Universitäten beschränkt. 1968 wurde erstmals ein paketvermitteltes Experimentalnetzwerk am National Physical Laboratory in England in Betrieb genommen. Wenig später, im August 1968, schrieb das amerikanische Verteidigungsministerium einen Auftrag aus, ein paketvermitteltes Netz mit quer über die USA verteilten Computern zu bauen. Im Dezember erhielt das in Cambridge (Massachusetts) ansässige High-Tech-Unternehmen Bolt Beranek & Newman Inc. (BBN) den Zuschlag. Auftraggeberin war die Advanced Research Projects Agency (ARPA), eine dem US-Verteidigungsministerium unterstellte Institution. Das Netz sollte vorerst nur vier Knoten umfassen: die Universitäten von Santa Barbara, Los Angeles und Salt Lake City sowie das Stanford Research Institute. Auch an diesen Universitäten wurde an der Umsetzung des Projekts gearbeitet. Während sich die Spezialisten der BBN lediglich auf die Ausführung des Auftrages konzentrierten, gingen die Studenten weit weniger zielstrebig vor, an hochfliegenden Ideen und Vorschlägen herrschte kein Mangel.

"Die Zusammenkunft mit BBN im Februar 1969 versetzte dem studentischen Enthusiasmus dann allerdings einen Dämpfer. Die Kommunikationsprofis waren einzig daran interessiert, die Bits über die Leitung zu bringen, und schauten etwas konsterniert in die chaotische Runde, während die Studenten fürchteten, dass sie jetzt durch ein offiziell von der ARPA einberufenes Team von Protokollspezialisten ersetzt würden. Doch nichts dergleichen geschah. Das ARPANET konnte im Dezember 1969 nach einem ersten Experiment in Los Angeles wie geplant seine vier Knoten in Betrieb nehmen."

Das ARPANET entwickelte sich in den nächsten Jahren zu einem Forschungsnetzwerk im doppelten Sinne: Einerseits diente es den Forschern als nützliches Arbeitsinstrument, andererseits war das ARPANET auch selbst Forschungsobjekt. Im wesentlichen hatte das Netz drei Hauptfunktionen: Telnet, File Transfer und E-Mail. Mittels Telnet konnte man über das ARPANET auf einen anderen Computer zugreifen. Mit Hilfe des File Transfer konnte man Programme oder Dokumente, die sich auf einem anderen Rechner im ARPANET befinden, auf den eigenen Computer kopieren. Der absolute Renner war allerdings E-Mail, die Elektronische Post. 1971 waren aus den ursprünglichen vier dem ARPANET angeschlossenen Computern schon 19 geworden, von denen die meisten in Universitäten standen.

Vom ARPANET zum Internet

Um das ARPANET einer breiteren Öffentlichkeit bekannt zu machen, wurde 1972 an der International Conference on Computer Communications eine Demonstration des ARPANET organisiert, mit Erfolg, denn langsam wurde auch die Kommunikations- und Computerindustrie darauf aufmerksam. 1973 startete die ARPA das Internetting Project, ein Forschungsprogramm mit dem Ziel, verschiedene paketvermittelte Netzwerke zu verbinden. So hatte beispielsweise die Universität von Hawaii ein Paketfunknetz in Betrieb genommen, mit dessen Hilfe die Computer drahtlos von Insel zu Insel kommunizieren konnten. Paketversuche wurden auch mit Nachrichtensatelliten angestellt. Das Problem war, dass in den einzelnen Netzen verschiedene Computersysteme und Technologien benutzt wurden. Um trotzdem die verschiedenen Netzsysteme verbinden zu können, musste der Anschluss der Computer an das Netz über einheitliche Kommunikationsprotokolle hergestellt werden.

Die ersten Entwürfe für eine solche Protokollgruppe entstanden im Frühling 1973 in Stanford unter der Leitung von Vinton Cerf, Assistenzprofessor in Stanford, und Robert Kahn, einem Mitarbeiter von BBN. Auf dem Papier waren die TCP/IP für Transmission Control Protocol / Internet Protocol getauften Protokolle im Dezember 1974 abgeschlossen. Nun begann die Umsetzung für die verschiedenen Computersysteme, und zwar gleich an mehreren Orten: in Stanford, bei der BBN und am University College London. Obwohl die TCP/IP-Protokolle ständig weiterentwickelt wurden und den bisherigen ARPANET-Protokollen weit überlegen waren, konnten sie sich nicht auf breiter Front durchsetzten. 1977 gelang es dann aber, die Geldgeber vom Verteidigungsministerium mit einer Demonstration der TCP/IP-Protokolle zu beeindrucken. Von einem Lieferwagen auf dem Bayshore Freeway in San Francisco aus wurde eine Nachricht über ein Paketfunknetz ins ARPANET gesendet, von dort gelangte sie, die nähere Umgebung galt für das Experiment als in Schutt und Asche gelegt, via Satellitennetz nach Europa und wieder zurück und kam dann nach einer Rundreise von 94'000 Meilen an einem 800 Meilen von San Francisco entfernten Ziel an. "Wir verloren kein einziges Bit", jubelt Cerf noch heute.

In den folgenden Jahren stiessen immer mehr Netze zum Internet, so wurden beispielsweise Bodenstationen für das Satellitennetz in Italien und Deutschland angeschlossen. Das Internet ist also im Grunde genommen lediglich ein weltweiter Verbund von vielen verschiedenen Netzen, die vorher schon vorhanden waren und in dem das ARPANET eine Trägerfunktion innehat. Um die Weiterentwicklung der TCP/IP-Protokolle zu gewährleisten, wurde ausserdem 1979 das Internet Configuration Control Board gegründet, das heute als das Internet Architecture Board (IAB) der Internet Society (ISOC) noch immer besteht. 1980 wurde TCP/IP vom Verteidigungsministerium als das bevorzugte Protokoll für das ARPANET erklärt. Um die Umstellung auch in den anderen Teilen des Internet zu forcieren, bediente man sich eines technischen Tricks. Im Frühling 1982 akzeptierte das Netz während eines Tages keine im bisherigen Protokoll abgefassten Pakete mehr, sondern nur noch TCP/IP-Pakete. Am nächsten Tag herrschte wieder Normalbetrieb. Es brauchte eine Wiederholung der Übung im Herbst während zweier Tage, bis die Benutzer begriffen, dass man es mit der Umstellung ernst meinte. Schliesslich konnte das ARPANET am 1. Januar 1983 endgültig auf TCP/IP-Betrieb wechseln.

Ein wichtiger Schritt zum heutigen Internet war die Integration des NSFNet ins Internet. Das Hochgeschwindigkeitsnetz der U.S. National Science Foundation (NSF) übernahm die Trägerrolle, die bisher das ARPANET innehatte. Das NSFNet ist bis heute das Kernstück des Internet in den USA, es transportiert monatlich über 12 Milliarden Datenpakete zwischen den zahlreichen Netzen, die es verbindet.

Inzwischen hatten sich mehrere Organisationen gebildet, die sich mit der Weiterentwicklung der Internet-Protokolle und sonstiger Internet-Technologien befassten. Um die Anstrengungen besser zu organisieren, wurde 1992 die Internet Society gegründet, zu der auch die Internet Engineering Task Force (IETF) und die Internet Research Task Force (IRTF) gehören. Während sich die IETF mit der Weiterentwicklung der heutigen Protokolle beschäftigt, liegt der Schwerpunkt der Forschungsarbeiten der IRTF bei der Entwicklung von neuen Konzepten und Technologien. Beide Organisationen halten mehrmals jährlich Konferenzen ab. Die Forschungsarbeit liegt allerdings nicht alleine bei diesen Organisationen. Wenn beispielsweise ein Protokoll erweitert und verbessert werden soll, wird zu diesem Thema im Internet ein Diskussionsforum eröffnet. Dort kann sich jedermann aktiv an der Weiterentwicklung beteiligen.

Obwohl sich das Internet bis zu diesem Zeitpunkt mit einer bemerkenswerten Geschwindigkeit ausgebreitet hat, dient es noch immer fast ausschliesslich Forschungszwecken und ist somit kommerziell noch nicht interessant.

Das Internet wird gesellschaftsfähig - Entwicklung und Ursprünge des World Wide Web

Das Hypertext-Konzept

Einer der Hauptgründe, wieso sich das Interesse einer breiteren Öffentlichkeit bisher in Grenzen hielt, lag im ziemlich komplizierten Zugang zum Internet. Wer sich in den entsprechenden Computersystemen nicht gut auskannte, hatte keine Chance.

1989 entwickelte Tim Berner Lee am europäischen Kernforschungszentrum CERN in Genf das Konzept des World Wide Web (WWW), welches zu einem grossen Teil auf der Idee des Hypertext basiert.

Schon 1932 stellte Bertolt Brecht in einer Rede über die Funktion des Rundfunks Forderungen an das Radio, die das Internet mit dem WWW jetzt einlöst. Er kritisierte die eindimensionale Ausrichtung der Medien, insbesondere forderte er, dass das Radio nicht länger ein reines Distributionsmedium bleibt:

"Der Rundfunk wäre der denkbar grossartigste Kommunikationsapparat des öffentlichen Lebens, ein ungeheures Kanalsystem, das heisst, er wäre es, wenn er es verstünde, nicht nur auszusenden, sondern auch zu empfangen, also den Zuhörer nicht nur hören, sondern auch sprechen zu machen und ihn nicht zu isolieren, sondern ihn in Beziehung zu setzen. Der Rundfunk müsste demnach aus dem Lieferantentum herausgehen und den Hörer als Lieferanten organisieren."

Tatsächlich verläuft die Kommunikation im Internet und insbesondere im WWW nicht nur eindimensional, sondern jeder kann dort Informationen einbringen. Ein konkreteres Konzept präsentierte in den sechziger Jahren Theodor Nelson mit Xanadu. Nelson gründete eine eigene Firma, die versuchte, seine Vision zu verwirklichen. Xanadu sollte ein Computernetz werden, das Zugriff auf alle Formen von Wissen bietet. Die Informationen sollten nicht wie bisher in einzelnen, in sich abgeschlossenen Dokumenten, sondern in Form von Hypertextdokumenten gespeichert werden, so dass alle Informationen in einer vom Benutzer selbst gewählten Ordnung zur Verfügung stünden. Nelson gilt heute als der Vater des Hypertext.

Auch das WWW besteht aus einer Art Hypertext. Einzelne Textstellen oder Wörter sind Hyperlinks. Ein Hyperlink ist ein Verweis auf ein anderes Dokument, das sich auf dem gleichen Rechner, aber auch irgendwo sonst im Internet befinden kann, ob in einem anderen Land oder gar auf einem anderen Kontinent spielt dabei keine Rolle. Ein Hyperlink ist vergleichbar mit einem Verweis in einem Lexikon. Man kann beispielsweise im Internet in einer Zeitung eine Rezension eines Buches lesen; möchte man nun weiteres über den Autor erfahren, klickt man mit der Maus auf den entsprechenden Hyperlink und schon erscheint das entsprechende Dokument mit Informationen über den Autor auf dem Bildschirm. Da alle Informationen im World Wide Web mittels solcher Hyperlinks verknüpft sind, verliert man sich leicht in der Informationsflut, der Benutzer merkt oft gar nicht, dass ihn seine Informationssuche rund um den Globus führt.

Neben dem Hypertext war das Konzept des WWW aber auch in anderer Hinsicht revolutionär. Denn während Informationen im Internet bisher fast ausschliesslich in Textform ausgetauscht werden konnten, besteht ein typisches WWW-Dokument aus Bildern und Text. Daneben können aber auch Filmsequenzen, Tondaten oder beliebige andere Daten in WWW-Dokumente integriert sein.

Mit Mosaic zum Erfolg

Dieses multimediale Hypertext-Konzept hatte Tim Berner Lee ursprünglich als Internet-Kommunikationsintstrument für eine bessere Zusammenarbeit der über den ganzen Erdball verstreuten Hochenergie-Physikern gedacht. Anfänglich verbreitete sich das WWW nur zögerlich; 1993 gab es erst etwa 50 Computer im Internet, die mit einem Informationsangebot nach den WWW-Normen aufwarten konnten. Das änderte sich schlagartig, als 1993 der Student Mark Andreesen, der am National Center for Supercomputer Applications (NCSA) in Chicago an seiner Diplomarbeit arbeitete, das Programm Mosaic schrieb, mit dem im WWW mit der Maus auf einfache Art und Weise nach Informationen gesucht werden kann. Nach dem Erscheinen von Mosaic wuchs die Zahl der Internet-Rechner mit WWW-Informationsangeboten mit atemberaubender Geschwindigkeit: 1995 war die Zahl schon auf über 50'000 geklettert, mehr als tausendmal mehr als noch 2 Jahre zuvor. Vor allem immer mehr kommerzielle Anbieter drängten mit WWW-Angeboten ins Internet.

Dass man mit dem Internet viel Geld verdienen kann, erkannte aber auch Mark Andreesen selbst. Er gründete seine eigene Firma, die Netscape Communications. Mit dem auf Mosaic basierenden Programm Netscape Navigator ist seine Firma heute Marktführer im zukunftsträchtigen Bereich der Internet-Software.Als Netscape im August '95 an die Börse ging, löste dies eine regelrechte Euphorie unter den Anlegern aus. Innert vier Monaten stieg der Wert einer Netscape-Aktie von 28 $ auf 171 $, was Mark Andreesen innert kürzester Zeit zum Millionär werden liess. Allerdings bläst Netscape Communications inzwischen der harte Wind der Konkurrenz ins Gesicht, die keineswegs gewillt ist, dem Newcomer das Feld kampflos zu überlassen. So stellt der bisherige Marktleader im Bereich der PC-Software, die Microsoft Corp., seine Internet-Software inzwischen teilweise kostenlos im Internet bereit und hat eine Reihe bemerkenswerte Allianzen mit ehemaligen Erzrivalen geschlossen, um den Anschluss an das Informationszeitalter nicht zu verpassen und um sich einen "Platz an der Sonne" zu sichern.

Dieser "Softwarekrieg" ist nur ein Beispiel dafür, dass inzwischen auch im Internet die Gesetze des Marktes Einzug gehalten haben. Aus dem elitären Akademikernetz ist ein gewaltiges Gebilde geworden, in dem wirtschaftliche Interessen eine immer grössere Rolle spielen. Werbung auf WWW-Seiten, früher verpönt, ist heute selbstverständlich, ja überlebenswichtig geworden. Auch in den Medien ist das Internet allgegenwärtig geworden. US-Vizepräsident Al Gore prägte 1992 mit dem Begriff des Information Highway eines der vielen Schlagworte, die um das Internet entstanden sind. Trotz seiner enormen Grösse fehlt es dem Internet heute immer noch an einmaligen, speziell auf die neue Technologie zugeschnittenen Inhalten. Die Geschichte des Internet war bisher in erster Linie eine Geschichte der Technik. Während man heute noch von der technischen Seite des Internet beeindruckt ist, werden in Zukunft die Inhalte wichtig werden. Denn bleibt der Reiz des Internet auf die Faszination der Technik beschränkt, wird es nie zu einem Massenmedium werden.

Das Internet in der Schweiz

Um die Entwicklung und die Verknüpfung des Internet in der Schweiz voranzutreiben und besser zu organisieren, wurde 1987 die Stiftung SWITCH gegründet, die von der Eidgenossenschaft und den acht Universitätskantonen getragen wird. Diese betreut nicht bloss das nationale Netz der zum Teil hochleistungsfähigen Datenleitungen in der Schweiz, Auslandverbindungen und Netzknoten; sie bietet ihre Dienste auch Firmen und Privaten an. SWITCH hat ihren Hauptsitz in Zürich, das Zentralsystem befindet sich im Computerzentrum der ETH. Seit ein paar Jahren sind auch private Firmen als sogenannte Internet Service Provider (ISP) zugelassen, die Spannweite reicht dabei heute von regionalen Wiederverkäufern bis zu nationalen und internationalen Anbietern. SWITCH hat ausserdem den Auftrag, Telematikdienste für Lehre und Forschung zu erbringen und so Synergieeffekte zwischen Wirtschaft und Wissenschaft zu ermöglichen. Um die hohen Anfangskosten zu decken, gewährte die Eidgenossenschaft zwischen 1988 und 1992 der Stiftung einen Kredit von 13 Millionen Franken. Ausser den Universitätsverbindungen, die vom Staat subventioniert sind, müssen alle anderen Geschäftsbereiche von SWITCH kostendeckend arbeiten. Von den mehr als 60'000 Internet-Rechnern in der Schweiz sind etwa drei Viertel an SWITCH angeschlossen, etwa zwei Drittel des verbleibenden Viertels sind am Kernforschungszentrum CERN in Genf angesiedelt.

Zurück zum Anfang der Seite

Kapitel 3
Mögliche Gefahren auf dem "Information Highway"

Informationssicherheit bei kommerzieller Nutzung

Ein Forschungsnetzwerk für kommerzielle Zwecke

Immer mehr Angebote im Internet sind kommerzieller Natur, die allerdings selten über Werbung hinaus gehen. Dies liegt weniger daran, dass die Anbieter kein Interesse an Geschäften über Internet hätten, sondern vielmehr an den grossen Sicherheitsrisiken, die das Internet heute noch in sich birgt. Ein Geschäft beruht auf einem Vertrag zwischen zwei Parteien. Im "echten" Leben ist ein solcher schnell geschlossen: die Partner setzen ihre Unterschrift unter den Vertrag. Ganz anders sieht es im Internet aus.

Die Ursache für die mangelnde Sicherheit des Netzes ist in der Vergangenheit zu suchen, denn das Internet wurde einst als Verbund von Forschungseinrichtungen konzipiert, wo Offenheit und unbehinderte Kommunikation wichtiger sind als Sicherheitsbelange. Die Risiken liegen im Mechanismus der Datenübertragung selbst begründet, welche auf dem Internet Protocol (IP) basiert. Da sich der Weg, den die Datenpakete nehmen werden, nicht vorhersagen lässt, kann der Absender nur hoffen, dass an den Rechnern, an denen die Datenpakete vorbeikommen, vertrauenswürdige Personen sitzen, die die Daten nicht missbrauchen. Eine Lösung ist erst in Sicht, wenn die Internet Engineering Task Force (IETF) die Arbeiten am neuen IP Next Generation (IPv6) abgeschlossen hat, welches einen gravierenden Einschnitt in die Technik des Internet bedeuten wird. Bis das neue Protokoll auf breiter Basis im Einsatz sein wird, werden aber noch Jahre vergehen. Es gibt zwar heute einige Verfahren wie z.B. das Secure Sockets Layer (SSL) oder Pretty Good Privacy (PGP) , die die Sicherheit im Internet verbessern können, allerdings können sie keine umfassende Infrastruktur zur Zertifizierung und Verschlüsselung garantieren.

Digitale Unterschriften

Wie bei einem herkömmlichen Scheck die Unterschrift auf ihre Echtheit hin überprüft werden kann, muss auch bei einer elektronischen Zahlung die Echtheit verifiziert werden können. Um dieses Problem zu lösen, gibt es verschiedene Ansätze. Die einfachste Lösung wäre, dass der Kunde ein Passwort verwendet. Dies wäre allerdings sehr riskant, da jemand, der den Datenverkehr abhört und dabei das Passwort entdeckt, auf fremde Kosten Geschäfte tätigen könnte. Schon sicherer ist die Verwendung von Einmalpasswörtern (one time passwords): Der Kunde bekommt eine Anzahl geheimer Passwörter, die nach einmaligem Gebrauch ungültig werden. Bequemer sind Einmalpasswörter, die der Kunde selbst auf seinem Computer erzeugen kann. Der einfachste Weg wäre eine (geheime) mathematische Reihe, mehr Sicherheit bietet aber das Challange-Response-Verfahren ("Frage-Antwort-Spiel"), bei dem der Kunde eine zufällig Zahlenfolge vorgegeben bekommt, aus der sein PC über eine mathematische Transformation eine Antwortfolge erzeugt und zurückgibt. Zur Berechnung solcher Antwortcodes werden im allgemeinen sogenannte one way functions benutzt. Diese Funktionen führen eine mathematische Transformation durch, für die es keine Umkehrfunktion gibt oder deren inverse Funktion praktisch nicht berechenbar ist.

Digitales Geld

Ein besonders interessantes Thema ist das digitale Geld, auch E-Cash genannt. Heute werden Zahlungen im Internet immer über eine Kreditkarte oder ähnliches getätigt, d.h. die Kundendaten und eine Kreditkartennummer werden dabei registriert. Bei E-Cash wird das Geld durch eine digitale Zeichenfolge repräsentiert. Bei einer Zahlung ist wie bei echtem Bargeld die Anonymität des Kunden gewährleistet, da keine Möglichkeit besteht, die Herkunft des digitalen Geldes herauszufinden. Natürlich stellen sich im Zusammenhang mit digitalem Geld diverse Probleme, so könnte es z.B. zu Zwecken des Geldwaschens missbraucht werden. Aber auch an die Kryptographie stellt das digitale Geld hohe Anforderungen, da natürlich eine Sicherheitslücke verheerende Folgen haben könnte: Fände jemand das Verfahren heraus, mit dem das digitale Geld kodiert wird, wäre er in der Lage, beliebige Mengen an E-Cash zu erzeugen, mit dem er dann anonym Zahlungen tätigen könnte.

Politische und rechtliche Probleme

Die neuen Möglichkeiten, die die Informationstechnologien im Zahlungsverkehr eröffnen, werfen aber auch rechtliche und politische Fragen auf. Soll beispielsweise jedermann verschlüsselt kommunizieren können, so dass nicht einmal mehr die Strafverfolgungsbehörden abhören können ? Soll vollständig anonymes digitales Geld überhaupt zugelassen werden ? Sollen digitale Unterschriften rechtlich verbindlich sein ? Dies sind nur ein paar Fragen, die sich ergeben. Die rasante Entwicklung stellt die Behörden vor schwierige Aufgaben. Es ist aber denkbar und zu hoffen, dass der Staat rechtzeitig sinnvolle Richtlinien für die künftige Entwicklung aufstellt.

Persönlichkeitsschutz

Überall werden heute Personendaten digital erfasst und gespeichert. Via Internet ist es relativ einfach, recht detaillierte Angaben über die Vorlieben einer Person zu erhalten. So kann beispielsweise ein Anbieter einer Zeitung im Internet genau erfassen, welche Personen welche Artikel lesen, auf diese Weise kann er von jedem Leser ein individuelles Persönlichkeitsprofil erstellen. Kaum ein Internetbenutzer ist sich bewusst, dass seine Aktivitäten von einzelnen Firmen, ohne dass diese um Erlaubnis bitten oder informieren würden, aufgezeichnet, in Datenbanken gespeichert und nachher zu Marketingzwecken verwendet oder sogar an interessierte Firmen weiterverkauft werden. Dass das Interesse an solchen Daten gross ist, dürfte nicht erstaunen. Gezielter kann ein bestimmtes Publikum auf anderen Wegen kaum angesprochen werden.

Schon heute beklagen sich viele Internetbenutzer über völlig überquellende elektronische Briefkästen, weil sie mit Werbung und ähnlichem regelrecht bombardiert werden. Zwar kann in solchen Fällen gegen Unternehmen vorgegangen werden, die Chancen auf Erfolg sind aber mangels gesetzlicher Grundlagen nicht allzu gut, bei Persönlichkeitsverletzungen ist es noch erheblich schwieriger. Im Internet kann sich jeder Teilnehmer in zahlreichen Diskussionsforen oder auf einer eigenen WWW-Seite zu jedem beliebigen Thema äussern. Das Internet ist mit einer unzensurierten Zeitung vergleichbar, in der jeder etwas publizieren und dabei mit einer potentiellen Leserschaft von über 40 Millionen Menschen, die über den ganzen Erdball verteilt sind, rechnen kann. Verbreitet nun jemand eine persönlichkeitsverletzende Äusserung, so kann der Betroffene nicht viel dagegen tun. Im besten Fall folgt im nachhinein eine Richtigstellung, die vom Publikum aber meistens kaum beachtet wird. Oft kann der Urheber der Nachricht gar nicht ermittelt werden, da es mit etwas Erfahrung kein Problem ist, im Internet anonym zu bleiben. Ausserdem fehlt eine Instanz, an die sich ein Geschädigter wenden könnte, um rechtliche Schritte gegen den Täter einzuleiten. Ein weiteres Problem ist die Frage der Verantwortlichkeit. Kann beispielsweise die Firma, die den Anschluss an das Internet anbietet, für die Inhalte des Internet verantwortlich gemacht werden ? Bei den heutigen Datenmengen wäre das wohl keine erfüllbare Forderung mehr. Wie bei allen anderen juristischen Problemen, die sich im Zusammenhang mit dem Internet ergeben, stellt sich die Frage nach der Gesetzesgrundlage. Dass jedes Land andere oder gar keine Datenschutzgesetzte hat und dass im Internet die geographische Position einer Information keine Rolle spielt, führt oft zu Problemen. Wenn beispielsweise eine elektronische Zeitung im Internet in einem bestimmten Land verboten ist, kann der Herausgeber der Zeitung die Publikation auf einen Rechner im Ausland verschieben, wo weniger harte Datenschutzgesetze herrschen. Trotzdem bleibt die Zeitung weltweit abrufbar. Ein klares Ziel für die Zukunft sollte also sein, die entsprechenden Gesetze weltweit zu vereinheitlichen und die Verantwortlichkeit klar zu regeln, da sonst dem grassierenden Missbrauch nicht Einhalt geboten werden kann.

Zensur

In letzter Zeit häuften sich Negatischlagzeilen über das Internet und andere Computernetze. Pornographie und Rassismus im Internet gehören zu den Lieblingsthemen der Medien, die dem "Information Highway" nicht gut gesinnt sind. Vielleicht um die befürchtete Konkurrenz zu diskreditieren ? Auch angebliche Anleitungen für Terroristen zum Bau von Bomben und kriminelle Machenschaften der Mafia und Drogendealer im Internet sorgen immer wieder für Schlagzeilen.

So veröffentlichte im September 1993 das deutsche Nachrichtenmagazin "Focus" einen Bericht über ein Computernetz namens "Thule" deutscher Neonazis, in dem rechtsradikale Propaganda verbreitet wird. Im Bericht, so Burkhard Schröder in einer umfassenden Analyse mit dem Titel "Neonazis und Computernetze", "wurde der nachweislich falsche Eindruck erweckt, dass die Neonazis in ihrem Netz konspirative Aktionen aushecken". Dem Thule-Netz als linkes Pendant gegenübergestellt wurde das deutschsprachige Z-Netz. In diesem Netz kommunizieren über 30'000 Teilnehmer aus ganz Europa, ausserdem diente es unter anderem als alternatives Kommunikationsmedium zwischen den verfeindeten Landesteilen im ehemaligen Jugoslawien. Einen Monat nach diesem Focus-Bericht erschien im "Spiegel" unter dem Titel "Bombenbasteln am Computer" eine Kurzmeldung: In einer auf Disketten verteilten Zeitschrift namens "Endsieg" sei ein "Handbuch für improvisierte Sprengtechnik" und ein Bildschirmschoner mit Hakenkreuzmotiv zu finden. Diese Meldung löste eine regelrechte Lawine weiterer Fernseh- und Zeitungsberichte aus, in denen, so Schröder, "stets ohne Belege bevorzugt auf angebliche Bombenbauanleitungen Bezug genommen wurde". In Wirklichkeit bestand die "Bauanleitung" lediglich aus einer Auflistung der zur Herstellung verschiedener Sprengstoffe nötigen Ingredienzen, und zwar ohne Mengenangaben. "Die Angaben", vermerkte das bayrische Landeskriminalamt in einem Gutachten, "gehen jedoch nicht wesentlich über Informationen hinaus, die in frei zugänglichen Lehrbüchern und Lexika enthalten sind." Der Verfasser der brisanter Nachricht, ein siebzehnjähriger Schüler, händigte bei einer Hausdurchsuchung den Staatsschutzbeamten seine Quelle aus: sein Chemielehrbuch.

Die vielbeachtete "Times"-Titelgeschichte Cyberporn des renommierten Computerjournalisten Philip Elmer-DeWitt hat ebenfalls einen Sturm der Entrüstung ausgelöst. Der Bericht stützte sich auf ungeprüfte Daten einer Untersuchung des Studenten Martin Rimm von der Carnegie-Mellon-Universität in Pittsburg unter dem Titel "Die Vermarktung von Pornographie auf dem Information Superhighway". Der Fehler in der Untersuchung liegt in der Verwechslung von zumeist kommerziell betriebenen Erwachsenen-Mailboxen und dem Internet. So stimmt es zwar, dass in den Newsgroups des Internet etwa 80 Prozent aller Bilder pornographischer Natur sind, es ist aber zu beachten, dass die Newsgroups in erster Linie Diskussionsforen zu allen erdenklichen Themen sind, wobei auch Bilder ausgetauscht werden können. Die Foren, in denen ein solcher Bilderaustausch möglich ist, machen allerdings nur einen verschwindend geringen Teil der über 10'000 nach Diskussionsthemen gegliederten Foren aus; und die Newsgroups machen wiederum nur einen kleinen Prozentsatz des gesamten Internet-Datenverkehrs aus, es ist daher kaum möglich, dass jemand zufällig auf pornographisches Material oder rassistische Inhalte trifft.

Trotzdem darf nicht übersehen werden, dass man mit etwas Aufwand im Internet so ziemlich alles findet, was man sich vorstellen kann, ob legal oder illegal, da das Internet bis heute ein weitgehend rechtsfreier Raum geblieben ist. Alles, was sich irgendwie in Bild, Ton oder Text ausdrücken lässt, darf im Internet ausgetauscht werden - Tabus gibt es keine. Ausserdem kann man sich im Internet die gewünschte "Ware" bequem vom Wohnzimmer aus beschaffen, ohne eine Tür- oder Hemmschwelle eines Sexshops übertreten zu müssen. Dass dieser Zustand einigen Politikern sauer aufstösst, erstaunt eigentlich nicht. Im amerikanischen Senat wurde dem Cyberporn unter der Führung zweier Republikaner denn auch der Kampf angesagt, was Mitte 1995 zur Verabschiedung des Communcations Decency Amendment (CDA) führte. Falls das Gesetz in Kraft treten würde, könnte die Verbreitung von anstössigem ("indecent") Material via Internet mit Geldbussen bis zu 100'000 Dollar oder Gefängnis bis zu zwei Jahren bestraft werden. Klar, dass die Vorlage die Kritik der Internetbenutzer herausforderte, die bei einer Inkrafttretung des Gesetzes das Internet in seinen Grundzügen gefährdet sahen, da sie darin den ersten Schritt zu weiteren staatlichen Zensurmassnahmen erblickten und weil zu wenig klar definiert war, welche Inhalte nun "anstössig" und damit verboten sind und welche nicht. Kritik kam allerdings nicht nur aus den Reihen der Internetgemeinde, auch prominente Politiker wie Newt Gingrich, der mit dem Statement, "It is clearly a violation of free speech and it's a violation of the rights of adults to communicate with each other.", seinen Parteigenossen in den Rücken fiel. Die Rechtsfreiheit, die natürlich missbraucht werden kann, macht zu einem grossen Teil den Reiz des Internet aus. In den letzten Jahren hat sich darin eine "Welt" entwickelt, frei von Gesetzen und Regelungen, die einmalig ist, nirgends sonst kann man freier miteinander kommunizieren, den Gedanken freieren Lauf lassen. Um den Widerstand gegen ein Verbot besser zu organisieren, wurde von der Electronic Frontier Foundation (EFF), einer Gruppierung, die sich für die Freiheit im Internet einsetzt, die Blue Ribbon Campaign gestartet. Firmen oder Personen, die im Internet publizieren, wurden aufgerufen, als Zeichen des Widerstandes auf ihren WWW-Seiten ein Bild mit einer blauen Schleife und einen Hyperlink auf die Blue-Ribbon-Seite der EFF zu plazieren. Diesem Aufruf wurde auch Folge geleistet, so fand sich beispielsweise auf den WWW-Seiten fast aller grossen Computerfirmen wie Microsoft oder Apple die blaue Schleife. Einige WWW-Seiten blieben sogar aus Protest ganz schwarz. Am 12. Juni 1996 schliesslich konnte die Internetgemeinde aufatmen. "Just as the strength of the Internet is chaos, so the strength of our liberty depends upon the chaos and cacophony of the unfettered speech the First Amendment protects.", mit diesen Worten erklärte ein Bundesrichter in Philadelphia das Gesetz für ungültig, weil es die Presse- und die Redefreiheit, wie sie in der amerikanischen Verfassung verankert sind, verletzen würde.

Dass ein solches Gesetz in der Praxis sowieso schwierig durchsetzbar ist, zeigt sich zur Zeit in einigen asiatischen Ländern, wie z.B. Singapore, wo alle Internetverbindungen über einen staatlich kontrollierten Rechner laufen. Die Regierung verbietet den Zugriff auf einige Seiten, darunter auch auf das WWW-Angebot des amerikanischen Nachrichtensenders CNN. Das Problem liegt darin, dass die "Kontrolleure" kaum die immense Menge neuer Informationen, die jeden Tag ins Netz geschleust werden, bewältigen und auf unerwünschte Inhalte überprüfen können.

Einen ganz anderen Ansatz verfolgen ein paar Softwarefirmen mit Programmen wie "KidCode", "CyberPatrol" oder "SurfWatch", die helfen sollen, Kinder von den Rotlichtregionen des Internet fernzuhalten. Ein solches Programm vergleicht die vom Kind angewählte Internetadresse mit einer Liste verbotener Adressen und sperrt gegebenenfalls den Zugriff. Der Chef einer Softwarefirma, die solche Programme herstellt, Jay Friedland, räumt allerdings ein: "Wenn du ein 16jähriger guter Hacker bist, kannst du uns möglicherweise austricksen."

Zurück zum Anfang der Seite

Kapitel 4

Gesellschaftliche Auswirkungen

Neue Anforderungen an das Bildungssystem

Wer im Internet Informationen zu einem bestimmten Thema sucht, hat oft Mühe. Zwar gibt es mehrere abrufbare Suchhilfen, mit denen man Teile des Internet nach Stichwörtern abfragen kann, allerdings helfen einem diese in der Praxis oft wenig, da für einen Suchbegriff oft hunderte von Seiten mit dem betreffenden Wort gefunden werden. Wenn nun alle gefundenen Angebote wertvolle Informationen enthielten, gäbe es nichts daran auszusetzen, leider ist es aber so, dass die Qualität der im Internet vorhandenen Informationen oft bedenklich tief ist, Quantität geht in den meisten Fällen vor Qualität. Wirklich nützliche Informationen gibt es zwar auch, allerdings sind diese schwer zu finden, und es braucht ein geübtes Auge, um nützliches Wissen von unnützem zu unterscheiden. Hier hat die Schule eine wichtige Aufgabe zu erfüllen. Wie wir heute am Kiosk seriöse von unseriösen Publikationen unterscheiden, sollte an den Schulen der sinnvolle Umgang mit dem neuen Medium vermittelt werden, damit der Schüler lernt, im Netz Brauchbares von Unbrauchbarem zu unterscheiden. Sollte die Schule diese Aufgabe nicht wahrnehmen, könnte das unter Umständen schlimme Folgen haben. Kann nämlich nur eine kleine Minderheit mit der neuen Informationstechnologie umgehen, könnte dies zu einem Orwellschen "1984"-Szenario führen: Zuunterst wären diejenigen Menschen, die nicht wissen, wie man mit dem Computer umgeht und die Informationen nur über andere Medien wie das Fernsehen bekommen. In der Mitte wäre eine Schicht, die zwar den Computer benützen kann, aber nicht weiss, wie man ihn programmiert. Zuoberst schliesslich wäre die Schicht, die den Computer und damit die Macht im Griff hat. Dass Informationen künftig eine sehr gewichtige, machtverleihende Rolle spielen könnten, ist angesichts des Ausmasses des Internet-Booms eine durchaus realistische Einschätzung. Dass man sich auch in der entsprechenden Technologie auskennen muss, um das Internet für seine Zwecke einzusetzen, ist allerdings nicht nötig. So konnte beispielsweise Karl der Grosse nicht einmal seinen eigenen Namen schreiben, trotzdem schuf er die Schola Palatina (die kaiserliche Schule) und damit einen neuen kulturellen Mittelpunkt für das Imperium. Ähnlich könnte es mit Informationstechnologien sein: wenn man sie selbst nicht versteht, muss man sich eben mit Leuten umgeben, die es können. Um aber ein solches Gefälle zwischen "Wissern" und "Nichtwissern" gar nicht erst entstehen zu lassen, ist es wichtig, dass die Benutzer geschult werden. Als Alternative böten sich Einschränkungen an, die allerdings weder wünschenswert noch durchführbar wären.

Die Realität in Sachen Informatik und Internet, wie sie sich heute an den Schulen zeigt, ist leider ziemlich düster. An vielen Schulen stehen veraltete Geräte herum, von modernen Rechnern oder gar Internetanbindung oft keine Spur. Neben der nötigen technischen Infrastruktur ist auch ein Umdenken bei den Lehrkräften nötig. Oft haben aber Pädagogen eine kritische Einstellung gegenüber dem Computer als Lernmedium.

"Leider kommen solche Vorurteile nicht von ungefähr. Schuld daran sind die Entwickler pädagogischer Lernsoftware. Da werden Kids dafür belohnt, dass sie Aufgaben mit niedlichen Tierchen oder Männchen richtig lösen. Die scheppernde Computerstimme ermutigt sie alle paar Sekunden mit 'weiter so' oder 'gut gemacht' zu weiteren Tun. So sind sicher drei Viertel aller Lernprogramme nicht viel mehr als schnell auf den Markt geworfener pädagogischer Krampf."

Die Lernsoftware der Zukunft sollte auf einer anderen Grundlage aufbauen, nämlich auf jener der selbständigen Suche nach Informationen in virtuellen Welten wie dem Internet. An einigen wenigen Schulen wird heute schon auf private Lehrerinitiativen hin das Internet als neues Lerninstrument eingesetzt. So beteiligt sich beispielsweise die Klasse des Reallehrers Hanspeter Füllemann in Frauenfeld an mehreren Schulprojekten in der ganzen Welt. Die Schüler können sich die Informationen "vor Ort" holen, behandeln sie beispielsweise das Thema Israel, können sie in den Archiven der israelischen Regierung stöbern, die via Internet abrufbar sind. In diesem veränderten Umfeld hat auch der Lehrer eine neue Funktion zu erfüllen: Er ist z.B. eine Art Lernbegleiter, der den Schülern beratend und führend zur Seite steht. Leider fehlt es heute aber an Ideen und Visionen für die Lerngesellschaft des 21. Jahrhunderts. Einige Leute sehen schon das baldige Ende der Schule nahen, so glaubt beispielsweise der amerikanische Bestsellerautor Lewis Perelman, dass die Schule sang- und klanglos wie ein Kartenhaus zusammenfallen wird. Auch der Medientheoretiker Neil Postman sieht schlimme Zeiten auf die Schule zukommen. Bleibt zu hoffen, dass diese düsteren Voraussagungen nicht eintreten, denn gerade um die neuen Aufgaben im Informationszeitalter zu bewältigen, brauchen wir ein gutes Bildungsssystem.

Der Mensch und seine Identität im Informationszeitalter

In Zukunft wird der Mensch immer mehr Zeit auf den weltweiten Datennetzen verbringen, immer mehr Dinge aus der Realität verschieben sich in eine virtuelle Parallelwelt. Da sich diese Welt allerdings grundsätzlich von der wirklichen Welt unterscheidet, stellt sich die Frage, wie der Mensch darauf reagieren wird. Ein wichtiger Unterschied zur Realität ist die Revidierbarkeit: In den künstlichen Welten lässt sich alles per Knopfdruck ändern und umstellen oder neu beginnen. Der Effekt, den diese Revidierbarkeit auf die Identität des Menschen haben kann, zeigt sich besonders deutlich am Beispiel bestimmter Internet-Anwendungen.

Bei den sogenannten "multiuser dungeons" (MUDs) kann der Spieler zu Beginn einen beliebigen "Charakter" mit wählbaren psychischen und physischen Eigenschaften definieren. Mit dieser Figur kann sich dann der Spieler durch eine labyrinthartig aufgebaute Umgebung bewegen. Dabei trifft er auf andere Mitspieler, die sich auch via Internet ins MUD eingeklinkt haben. In diesen virtuellen Welten kann man miteinander kommunizieren, sich duellieren, virtuelle Gegenstände austauschen oder sich beispielsweise gegen andere Gruppen miteinander verbünden.

"Die amerikanische Soziologin Sherry Turkle hat diese virtuellen Welten und ihre Auswirkungen auf die Identität ihrer Teilnehmer untersucht. Dabei zeigt sie auf der Grundlage einer grossen Zahl von Gesprächen, wie die Erfahrungen im Cyberspace die Vorstellung multipler Identitäten ohne eigentliches Zentrum begünstigen. Akteure präsentieren verschiedenste virtuelle "Ichs" und erwecken sie virtuell zum Leben. Neben MUD existiert das wirkliche Leben - abgekürzt "RL" (real life). Diesbezüglich zitiert Turkle einen Spieler mit der Feststellung, dass RL nichts anderes als ein weiteres, häufig aber nicht das beste Fenster sei. Damit rückt der Grenzfall einer immer aufs neue revidierbaren Welt in den Bereich des Möglichen. Ihr entspricht die Neigung zu fortwährend revidierbaren Identitäten, bei denen man allerdings nie sicher sein kann, ob man jeweils die "wahre" Identität gewählt hat, ob man überhaupt eine wahre Identiät hat. Das Ideal eines integrierten, gehaltvollen und geistig vertieften Selbst wird abgelöst von fragmentierten, immer wieder neu zusammensetzbaren, multiplen Identitäten."

Schon vor 20 Jahren zeichnete Marshall McLuhan in "Wohin steuert die Welt" ein apokalyptisches Bild der Identität von Menschen im Kommunikationszeitalter. Er vermutete, dass das durch die Informationstechnologien resultierende Zusammenschrumpfen von Raum und Zeit die Identität der Menschen auslöschen werde und ein Massenmensch entstehe, der völlig angepasst sei.

Trotz diesen düsteren Perspektiven und den nicht von der Hand zu weisenden Gefahren wäre eine generelle Ablehnung der neuen Informationstechnologien sicher der falsche Weg. Man kann die Reaktion der Gesellschaft nicht genau einschätzen, und man darf deren Adaptionsfähigkeit nicht unterschätzen. Sicher ist aber, dass sich die Identität des Menschen unter Einfluss der neuen Informationstechnologien in Zukunft weiter verändern wird.

Das globale Dorf

Informationstechnologien wie das Internet lassen geographische Distanzen immer unwichtiger werden, Raum und Zeit scheinen zu schrumpfen. Auch in der Arbeitswelt scheint sich eine Dezentralisierung anzubahnen. So ist es vorstellbar, dass in Zukunft wieder mehr Leute zu Hause an ihrem Rechner arbeiten. Das Marktforschungsunternehmen Gartner Group geht davon aus, dass das Internet bereits 1998 die technischen Voraussetzungen erfüllen wird, um solche virtuellen Arbeitsgemeinschaften entstehen zu lassen. Ob allerdings wirklich eine Verlagerung der Arbeitsplätze von einem speziellen Arbeitsort nach Hause erfolgen wird, ist damit noch keineswegs sicher. Die Internationalisierung hat aber noch andere Folgen. So werden sich in Zukunft vermehrt nationalitätenunabhängige Interessengruppen bilden. Es fragt sich ohnehin, inwiefern in einem solchermassen veränderten Umfeld nationale Strukturen noch einen Sinn haben. Ein einzelner Mensch fühlt sich wahrscheinlich viel mehr einer virtuellen, grenzüberschreitenden Gruppe zugehörig, als einem Nationalstaat, in den er zufällig hineingeboren wurde.

Trotzdem darf man die gesellschaftlichen Wirkungen nicht überschätzen, denn schon oft bei der Einführung neuer Technologien hat man deren Auswirkungen überschätzt. So glaubte man beispielsweise, als zwischen Frankreich und Deutschland eine Eisenbahnverbindung gebaut wurde, dass ein Konflikt zwischen den beiden Ländern gar nicht mehr möglich sei. Die Realität hat leider diesen Wunschglauben korrigiert. Auch als der Fernseher die Wohnungen stürmte, wurden düstere Bilder einer fernsehabhängigen Gesellschaft gemalt. Obwohl die Realität nicht so negativ ausgefallen ist, haben all diese Medien ihre Spuren hinterlassen. So war es beispielsweise vor der Ausbreitung des Telefons nicht ungewöhnlich, wenn unangemeldet Verwandte an der Türe standen. Heute ist es üblich, dass Besuche vorher telefonisch angemeldet werden. In welcher Form das Internet in Zukunft aussehen wird, kann heute niemand sagen; sicher ist lediglich, dass sich noch einiges verändern wird. Das WWW, heute der Hauptbestandteil des Internet, ist erst sieben Jahre alt und wir stehen erst am Anfang einer Entwicklung, die noch lange dauern wird.

Zurück zum Anfang der Seite

Kapitel 5

Literaturverzeichnis

Autor unbekannt, "A Brief History of the Internet and Related Networks", Internet Society (ISOC), abgerufen am 10.7.1996

Autor unbekannt, "About SWITCH", SWITCH, abgerufen am 10.7.1996

Autor unbekannt, "Federal Court Rules Communications Decency Act Unconstitutional", Electronic Fronier Foundation (EFF), abgerufen am 10.7.1996

Autor unbekannt, "Internet Domain Survey", Net Wizards, abgerufen am 6.10.1996

Autor unbekannt, "The Blue Ribbon Campaign for Online Free Speech", Electronic Frontier Foundation (EFF), abgerufen am 10.7.1996

Belser Urs, "Datenschutz in vernetzten Welten - Die Technologie läuft dem normativen Ansatz davon", NZZ 2.10.1995 Nr. 228 S. 81

Buchmann Marlis und Eisner Manuel, "Informationstechnologien und Identität - Wechselbeziehung zwischen Technologie und Menschenbild", NZZ 8.10.1996 Nr. 234 S. B21

Cerf Vinton, "How internet came to be", Internet Society (ISOC), abgerufen am 10.7.1996

Billinghurst Kevin, Chaesson Paul, Interview mit Umberto Eco, Weltwoche 23.5.1996 Nr. 21 S. 33

Geisel Sieglinde, "Büchse der Pandora - Umstrittenes Gesetz gegen den «Cyberporn»", NZZ 19.7.1995 Nr. 165 S. 39

Glaser Peter, "A Walk on the Wild Sites", NZZ Folio Nr. 2 Februar 1996 zum Thema "Vernetzte Welt" S. 34

Henger Gregor, "Stürmische Entwicklung des Internet - Internationale Kooperative der Kommunikation", NZZ 14.7.1995 Nr. 161 S. 43

Henger Gregor, "Surfen im weltumspannenden Internet", Magazin der Kantonalbank Ausgabe 1/1996 S. 3

Lubich Hannes P., "Das Netz der Netze in der Schweiz - Stand und künftige Entwicklung des Internet", NZZ 19.9.1995 Nr. 217 S. 97

Maurer Ueli, "Informationssicherheit - eine Herausforderung für den Gesetzgeber - Möglichkeiten und Probleme der Chiffrierung", NZZ 26.6.1996 Nr. 146 S. 61

Meier Martin, "Der Weg ins Netz", NZZ Folio Nr. 2 Februar 1996 zum Thema "Vernetzte Welt" S. 12

Möcke Frank, Heinson Dennis, "Ein Krampf - Extremismus im Internet und Zensurversuche", c't Magazin für Computertechnik November 1996 S. 118

Moser Heinz, "Kopf ohne Herz und Hand", Weltwoche 27.6.1996 Nr. 26 S. 63

Haldimann Ueli, Imhof Paul, Interview mit Neil Postman, SonntagsZeitung 7.7.1996 S. 25

Reif Holger, "Netz ohne Angst - Sicherheitsrisiken des Internet", c't Magazin für Computechnik September 1995 S. 174

Tzernias N., "Das Internet im Visier der Microsoft Corp. - Bemerkenswerte Lizenzabkommen mit Erzrivalen", NZZ 9.12.1995 Nr. 287 S. 27

Waidner Michael, "Keine Angst um Ihr Geld! - Entwicklung des sicheren Zahlungsverkehrs im Internet", NZZ 8.10.1996 Nr. 234 S. B51

Werner Christian, "Hölle oder Paradies ? - Die Informationsgesellschaft verändert unsere Lebensbedingungen", NZZ 8.10.1996 Nr. 234 S. B47

West Ruth, "Die Bibliothek auf dem Schreibtisch - Das Internet und seine Vordenker", NZZ 8.12.1995 Nr. 286 S. 65

Zurück zum Anfang der Seite






Erstellt am 8. November 1996
Besucher seit dem 10. Februar 1997, letzte Veränderungen am 1. Mai 2000

Benutzer: gast • Besitzer: mthomas • Zuletzt geändert am: