the.net part I


NET.actuell

 

 

© Franz Krahberger Version März 2002

Technologie
Kontrolle
Userverhalten
Wissensmanagement
Konzentration
Security, Viren und Terror
Spiele und Entertainment
Publishing
Vernetzung
Zensur
Kommunikationshilfen
Wirtschaft
Science

Technologie

Die Entwicklung der neuen Medien ist untrennbar mit dem technologischen Feld verbunden. Wer sich den neuen Medien in kultureller Perspektive nähert, kommt nicht umhin, sich mit den technologischen Aspekten auseinander zu setzen.
Sowohl Software wie Hardwareentwicklungen verändern sich kontinuierlich und nicht immer ist der neueste Weg der richtige Weg. Aktuell läuft eine harte Auseinandersetzung zwischen AOL Time Warner und Microsoft. Microsoft hat Ende der 90er Jahre mit wettbewerbswidrigen Mitteln Netscape, seit einiger Zeit ein Tochterunternehmen von AOL , vom Markt zu drängen versucht. Microsoft wollte sich ein absolutes Monopol für den Internetexplorer schaffen.
Der Zusammenschluss von America Online und der Time Warner Verlagsgesellschaft, sowie die Konflikte mit Microsoft sind ein deutlicher Beleg für die Untrennbarkeit von technologischer Entwicklung, vom Einfluss der jeweiligen Software und der Contentindustrie.

Ähnliche Konfliktsituationen zeichneten sich bereits ein paar Jahre früher in den sogenannten Helloween Papers ab, die die Kontroverse zwischen dem geschlossenen durch und durch kommerzialisierten Projekt Microsoft und dem Open Source Betriebssystem Linux, das jedermann kostengünstig zur Verfügung steht, beschreiben. Linux bildet eine virtuelle Kommune, in der auf freiwilliger Basis Anwender von sich aus permanent neue Werkzeuge hervorbringen.

Neue elektronische Medien entwickeln sich in relativ kurzen Produktions- und Distributionszyklen zu Massenmedien. Eine Erfahrung, die einmal mehr durch die umfassende Entwicklung des Internets, insbesondere der Webversion sich erneut bestätigt hat.
Technologisches Kernstück des computergestützten Netzmediums sind einerseits die zur Verfügung stehende Hardware des einzelnen Users und die alles verbindende technische Infrastruktur des Distributionsnetzes.
Die Entwicklung des Webs von einem Text - und Hypertextmedium hin zu einem Bildmedium mit Video und Real Time Angeboten benötigt höhere Bandbreiten, Übertragungsgeschwindigkeiten und Speicherkapazitäten. Derzeit findet man am Markt bereits mehrheitlich PC Angebote, die sowohl für dieses Breitbandprojekt wie auch für komplexe Multimediaanwendungen geeignet sind.

Das Internet wird schneller
Das Internet hat im vergangenen Jahr einen deutlichen Performance-Schub erfahren. Keynote Systems, Anbieter für Internet-Performance-Management-Lösungen, registrierte eine klare Verbesserung der Ladezeiten für die 40 bekanntesten deutschen Websites: Der von Keynote im wöchentlichen Rhythmus ermittelte Internet-Performance-Index erreichte im Januar 2001 noch einen Durchschnittswert von bis zu 6,62 Sekunden; im Dezember unterschritt das Ranking dagegen erstmalig die Zwei-Sekunden-Grenze.

Fujitsu: 2,4 Terabits pro Sekunde über 7400 km Glasfaser
Fujitsus Forschungsabteilung, Fujitsu Laboratories, hat erfolgreich Daten mit 2,4 Terabit/s über 7400 km Glasfaserleitung verschickt und dabei einen Wellenbereich zwischen 1536 nm und 1610 nm genutzt. Die dahinter steckendn Wavelength-Division-Multiplexed-(WDM-) Technologie könnte in Zukunft in Transatlantik-Leitungen genutzt werden, die etwa 6500 km lang sind.

Glasfasernetz mit 1,2 Terabit/s für das Internet der Zukunft
Der Staatssekretär im Bundesministerium für Bildung und Forschung (BMBF), Uwe Thomas, hat am Mittwoch, den 21. November 2001 im Heinrich-Hertz-Institut in Berlin zum Abschluss des BMBF-Förderschwerpunkts KomNet ein Experiment zu optischen Hochleistungsnetzen als Basis für das Internet der Zukunft gestartet.

metronet startet öffentliche WLAN in Wien Die Firma metronet hat in Wien das erste öffentlich nutzbare Wireless-Citynetwork Europas zum Datentransfer mit Breitbandgeschwindigkeit eröffnet. Damit ist es möglich, von öffentlichen Plätzen mit Notebook oder PDA drahtlos mit bis zu 11 MBit/s ins Internet zu gehen.

http://www.top500.org/
Auch in der 18. Auflage der Top-500-Liste der weltweit schnellsten Supercomputer hat das IBM ASCI White System mit einer Rechenleistung von 7,2 Teraflop/s beim Linpack-Benchmark wieder den ersten Platz belegt. Der Rechner verrichtet seinen Dienst im Lawrence Livermore National Laboratory in den USA

Kontrolle

Die Entwicklung des Netzes folgt grundsätzlich einer globalen Strategie. Alles wird mit allem vernetzt, verbunden und in interaktive Beziehung gesetzt. Das grosse Versprechen der Neuen Medien lautete von Anbeginn, Weltwissen auf einem digitalen Dorfplatz zu versammeln, eine virtuelle Dimension herzustellen, in der alles mit allem in Verbindung treten kann. Dieses Projekt hat über ein Jahrzehnt hinweg Phantasie und Vision der Menschen erregt und ist in der weltweiten Entfaltung des World Wide Web Realität geworden.
Bis in die Mitte der 90 er Jahre wurde dieses Projekt als geradezu euphorische Utopie begriffen, die die grossen Träume der Menschheit nach umfassender Einheit, nach Formen der direkten Demokratie, nach gemeinschaftlichem und jederzeit verfügbarem Wissen, nach offen zugänglicher und umfassender Information in einem globalen Vorhaben bündelte.
Tatsächlich wäre das Projekt World Wide Web ohne diesen utopischen Glauben, ohne die vielen Einzelaktivitäten von wissenschaftlichen und kulturellen Institutionen, von Medienkünstlern und einer grossen Zahl von Computerfreaks nicht gelungen. Die Wirtschaft hätte von sich aus ohne den utopischen Schub dieses Projekt nicht zustande gebracht. Dazu bedurfte es das Zusammenwirken aller.
Umso betrüblicher ist es, dass Mitte der 90 er Jahre die ersten Versuche erkennbar wurden, das Web seitens der Wirtschaft und seitens des Staates nach der Zeit wildwuchernden Wachstums in den kontrollierenden Griff zu bekommen. Die Frage nach der allgemeinen Geltung der Urheberrechte, die bekanntlich im Netz über lange Zeit dem Goodwill der Anbieter und User überlassen blieb, stellte erstmals diese real existierende Utopie in Frage.

Das Verlagswesen unternahm erste Vorstösse, die entsprechenden geltenden rechtlichen Regeln auch auf das Netz auszudehnen und selbst die begeistertsten Internet Freaks, die ihre Inhalte nach wie vor kostenlos im Netz bereitstellen, begannen sich skeptisch zu fragen, wie den ein langfristiges Contenangebot im Netz, das letztendlich kontinuierlich verbessert und erweitert werden muss, auf Dauer haltbar ist.
Kürzlich fand ich eine Linkliste aus dem Jahr 1995 mit Eintragungen der Adressen von Web Projekten. Einige davon sind damals weltweit bekannt geworden und Gegenstand von Besprechungen in der einschlägigen Fach- literatur gewesen. 90 Prozent dieser Links erweisen sich im Jahr 2002 als nicht mehr erreichbar.

Nachdem das Misstrauen gegenüber dem Internet von den traditionellen Printmedien, vor allem von der Boulevardpresse und den TV-Anstalten, die die Konkurrenz der Zukunft witterten, vor allem wegen der Verbreitung von Kinderpornographie geschürrt wurde, sahen sich Staat und Gesetzgeber veranlasst, rechtliche Grundlagen zur Überwachung des Internets zu schaffen. Alle Bemühungen einer Selbstkontrolle durch freiwillige Internetaktivisten waren zwangsläufig zum scheitern verurteilt.
Allerdings erweist sich die öffentliche Kontrolle seitens staatlicher Einrichtungen angesichts des explosionsartig zugenommenen Informationsangebotes wie auch des rapide wachsenden Informationsflusses im Netz wie im e-Mail Verkehr auf Dauer gesehen als hilflos.
Öffentlich bekannt geworden sind jedoch die zahlreichen globalen Überwachungsstrategien der USA, insbesondere der NSA (National Security Agency), die mit global verteilten Abhörknoten und mit der Kontrolle des Datenflusses über Satelliten und Überseekabeln sich in alle nur denkbaren Formen von Informationsquellen und Kommunikationsknoten einklinken.
Doch auch dieses Projekt hat Schwierigkeiten wegen der anfallenden Menge von Daten. So gleicht das globale elektronische Kommunikationsprojekt zunehmend der babylonischen Metapher des letztendlich scheiternden virtuellen Turmbaues.
Um die 2000 Wende stand vor allem die staatliche Kontrolle des Datenflusses zur Diskussion.
Künftig ist es durchaus denkbar, dass es zu einer direkten Kontrolle der täglichen Bewegungen von Personen und Transportmitteln kommen wird, die in Ansätzen bereits in der Jetztzeit möglich ist.
Für die nähere Zukunft zeichnet sich eine heftige Auseinandersetzung um das Monopol der globalen Kontrolle des Netzes ab. Es wird kaum noch jemanden verwundern, dass für dieses Monopol die USA bereits jetzt umfassende Voraussetzungen geschaffen haben.

Abgesehen von der bereits vorherrschenden Kontrolle der Welt mit militärischen und wirtschaftlichen Mitteln durch die USA, zeichnet sich als weiteres die umfassende Kontrolle der internationalen Kommunikation ab.
In frühen Ausstellungen von Medienkunst Projekten wurden gerne interaktive Videowalls gezeigt, die sich je nach Bewegung des Ausstellungsbesuchers direkt veränderten.
Über das elektronische Netz ist es heute bereits in bestimmten Bereichen von Unternehmen und öffentlichen Einrichtungen möglich, Bewegungsprofile von Personen herzustellen. Die automatisierten Kontrollinstanzen im Netz wissen eines Tages nicht nur, mit wem man interaktiv Kontakt aufnimmt, welchen Inhalt man verschickt, sondern sie werden eines Tages erkennen können, wo man sich gerade befindet, und überprüfen ob man berechtigt ist, an diesem Ort zu verweilen. Alles wird nachvollziehbar sein.

Diese umfassenden technischen Überwachungsfähigkeiten werden das soziologische Verhalten der Menschen wesentlich bestimmen. Man kann annehmen, dass die zukünftige Gesellschaft den Begriff von Freiheit gegen den der Sicherheit austauschen wird.

Giga: Sicherheits- und Breitbandtechnik sind Wachstumsfelder
Nach Einschätzungen der Giga Information Group gelten für 2002 der Bereich Sicherheitstechnologie und der verstärkte Einsatz des Breitbandfunks als eindeutige Wachstumsfelder. Insbesondere vor dem Hintergrund weiterer zu befürchtender Terroranschläge in den USA und in Europa prognostiziert Giga-Analyst Rob Enderle sowohl einen schnell wachsenden Bedarf an Sicherheitsfunktionen - zur schnellen Kontaktaufnahme mit mobilen Mitarbeitern von Unternehmen und Organisationen - als auch einen Ausbau von Multimedia-Applikationen auf der Basis des Breitbandfunks

US-Verteidigungsministerium kauft Ausweis-Chips bei Infineon
Infineon soll die Mikrocontroller-Chips für den neuen Ausweis der Mitarbeiter des US-amerikanischen Verteidigungsministeriums liefern. Die Chipkarte mit der Bezeichnung "Common Access Card" (CAC) ist nach Herstellerangaben die gegenwärtig einzige, die die strengen Sicherheitsanforderungen des US-Department of Defense (DoD) erfüllt.

Euro-Banknoten sollen 2005 mit Transmittern bestückt werden
Nach einem Bericht der EEtimes.com arbeitet die europäische Zentralbank daran, ab 2005 die Euro-Banknoten mit einem Transmitterchip zu bestücken, der kontaktlos ausgelesen und beschrieben werden kann. Die sogenannten Radio Frequency Identification (RFID) Tags sollen bis 2005 soweit entwickelt werden, dass sie in die Geldscheine eingearbeitet werden können. Damit soll die Fälschbarkeit der Scheine praktisch unmöglich gemacht und die Zirkulation des Geldes kontrollierbar gemacht werden.

Elektronischer Tierpass mit eingebauter Antenne
Zu mehr Verbrauchersicherheit an der Wurst- und Fleischtheke könnte künftig ein Halbleiterchip von Infineon im so genannten elektronischen Tierpass beitragen. Der elektronische Tierpass ist Bestandteil der Ohrmarke von Nutztieren, wie Kühen und Schweinen, und vereinfacht den fälschungssicheren Herkunftsnachweis der Tiere.

Real Time Life
http://www.appliedautonomy.com/isee/info.html

Die Routen der geringsten Überwachung
New Yorker Webpage sucht Wege an den Videokameras vorbei

Ein Projekt von US-Bürgerrechtsaktivisten berechnet Usern die Route mit der geringsten Video-Überwachung durch New York. iSEE vom "Institute for Applied Autonomy" erfasst alle 2.400 bekannten Überwachungskameras in den verschiedenen Stadtteilen, einschließlich von Systemen zur Überwachung von öffentlichen Plätzen, des Straßenverkehrs, der U-Bahn oder in Kaufhäusern. Der Benutzer der Webseite gibt einfach seinen Standort und sein Ziel auf einem Stadtplan von New York ein und erhält die schnellste Route an allen Kameras vorbei. Allerdings muss der Benutzer von iSEE weite Umwege in Kauf nehmen, um jeder Überwachung zu entgehen.
iSEE ist als Protest gegen die zunehmende Videoüberwachung in Großstädten gedacht. Die Schöpfer der Seite sehen in den Überwachungssystemen eine Einschränkung der Privatsphäre für Angehörige von Minderheiten, Frauen oder Jugendlichen, die besonders im Blickwinkel des Bedienungspersonal seien. Ihrer Meinung nach steht der Aufwand in keinem Verhältnis zu den tatsächlichen Erfolgen. So verhindert Video-Überwachung auch keine Terroranschläge. Daneben bemängeln sie, dass in den USA noch keine rechtlichen Grundlagen existieren, die die Verwendung, Weitergabe und Auswertung des Bildmaterials regeln. Weitere iSEE-Projekte sind für Seattle, Chikago und London geplant.

Userverhalten

Die Nutzung elektronischer Medien nimmt die grösste Zeit der Aufmerksamkeit der User in Anspruch. Fernsehen und Rundfunk sind mit Abstand die am meisten genutzten Unterhaltungs- und Informationsmedien geworden. Je eine halbe Stunde verwendet der User in Deutschland zur Zeitungslektüre. Mehr als fünf Stunden täglich verbringen die Deutschen mit Fernsehen und Rundfunksendungen.

Je eine halbe Stunde widmen sie der Lektüre eines Buches, dem Lesen von Zeitungen und dem Surfen im Internet. Das bedeutet, dass das Netz tatsächlich ein ernsthafter Konkurrent der Printmedien geworden ist.

Die meisten meiner Kollegen, die einen On-Line Zugang benutzen, lesen nur mehr die Internetausgaben der Tageszeitungen. Die Verknüpfung der audiovisuellen Medien und des Textmediums, die technische qualitative Verbesserung des Angebots in Breitbandzugängen wird einen weiteren Schub der Internetnutzung auslösen.
Auf der anderen Seite werden laufend neue Bündnisse zwischen global agierenden Contentanbietern, Grossverlagen und Telekommunikationsbetreibern geschlossen.

Auch hier zeigt sich der bedenkenlose Einsatz von Kontrolltechnologien. Um ein besonders effizientes Marketing zu erreichen, versuchen viele Website Betreiber das Leseverhalten ihrer User mit entsprechender Software heraus zu finden.
Grosse Probleme bereitet noch die reale Bezahlung des benutzten Contents. Die User, die viel Geld für ihren PC ausgegeben haben und auch noch einiges Geld an den Provider und On-Line Kosten zu entrichten haben, sind es seit Jahren gewohnt, inhaltliche Angebote und Informationen im Netz kostenlos zu erhalten. Eine Veränderung dieses Verhaltens ist nur durch rigorose Änderungen auf der Anbieterseite vorstellbar.
Das derzeitige Verhalten im Netz entspricht viel mehr einer kollektiven utopischen Ökonomie als der allgemein im realen Leben geübten individuellen Verrechnung. Hier schwingen noch die Reste einer gesellschaftlichen Utopie mit, auf die sich die Internetanwender zu Beginn noch berufen haben, die Schaffung eines gemeinsamen öffentlichen Kommunikations- und Informationsraumes. Die jüngere Entwicklung zeigt, dass die klassische Ökonomie heftig mit diesen Vorstellungen kollidiert. Noch ist der Ausgang der Entwicklung offen. Die klassische Ökonomie der direkten Verrechnung wird nur dann durchsetzbar sein, wenn das Netz völlig kontrollierbar gemacht wird bzw. diese technische Möglichkeit umfassend überhaupt durchführbar ist.
Damit würde aber der gegenwärtige offene Charakter des Netzes völlig zerstört werden. Die Erosion würde zwar Jahre andauern, bis eben viele der bestehenden Sites aus Kostengründen, abgeschalteten Servern, kaputten Festplatten etc. wiederum aus dem Netz verschwindet und endgültig einem Netz Platz macht, dass Content mehrheitlich wiederum nur gegen Tarif zugänglich macht. Das wäre dann wiederum der Sieg der grossen Medien Monopolisten, der immer wahrscheinlicher wird, da das kostenlose Contentangebot bedingt durch Produktions- und Haltungskosten auf Dauer schwer vorstellbar ist.

User sind zwar bereit, für Sexsites Geld auszugeben. Sie bekommen das nötige Password erst nach Bezahlung. Sie können und wollen sich jedoch nicht vorstellen, für anderen Content, der wesentlich die Qualität des Webs ausmacht, zu bezahlen. Und selbst wenn sie es wollten, scheitert dies an den nicht vorhandenen und nur schwer umsetzbaren technischen Möglichkeiten. Das über lange Zeit diskutierte Xanadu Modell von Ted Nelson, die Erfassung jeder einzelnen Website und Löhnung in Form eines Micro Zensus würde in der Ausschüttung der Erlöse einen globalen Zentralrechner erfordern, der gleichzeitig wiederum die absolute globale Kontrollinstanz wäre.
Der Erhalt des gegenwärtigen Webs in seiner anarchisch anmutenden völlig gleichberechtigten Koexistenz einer Unzahl von Servern widerspricht also grundsätzlich ökonomischen Strukturen.

Die Technologie des Webs funktioniert jedoch auf dieser willkürlich chaotischen Verteilung einer Unzahl von individuell betriebenen Servern. Sollten die Monopolanbieter künftig ihre Vorstellungen durchsetzen können, wird die Motivation zum Betreiben individueller Server bedeutend geringer. Wie funktioniert das Web technisch, wenn diese Struktur wegzufallen beginnt ? Bereits jetzt zeigen sich viel mehr Widersprüche, als die bürgerliche Gesetzgebung imstande ist, zur Zufriedenheit aller zu regeln.

75 Prozent der Surfer gehen von zu Hause aus in Netz, während sich vom Arbeitsplatz 40 Prozent einloggen. Entsprechend steigt auch die private Nutzung des Mediums. Zwei von fünf Usern nutzen das Internet zu rein privaten Zwecken (2. Quartal: 36 Prozent). Gut 50 Prozent verfolgen private und berufliche Ziele beim Surfen. Nur noch neun Prozent der Internet-Nutzer sind aus rein beruflichen Gründen online (10,5 Prozent). Dies sind aktuelle Ergebnisse der Studie @facts, die Forsa im Auftrag des Online-Vermarkters SevenOne Interactive erstellt

Internetnutzung in den USA erreichte im Oktober neuen Rekord Laut dem Oktober Internet Ratings Report 2001 von Nielsen NetRatings hat die Internetnutzung in den USA im Oktober um 4 Prozent zugenommen und mit 115,2 Millionen Nutzern ihren Höchststand in diesem Jahr erreicht

Internetnutzung: Baden-Württemberger surfen am meisten
Die Menschen in Baden-Württemberg sind mit Abstand die fleißigsten Online-Nutzer der Republik. Mit 44,2 Prozent Internet-Surfern lagen sie im zweiten Quartal 2001 über vier Prozent über dem bundesweiten Durchschnitt von 39,8 Prozent und haben damit im Vergleich zum Vorjahr nochmals deutlich zugelegt. Das ist das Ergebnis einer Studie, die Michael Schenk, Prof. für Kommunikationswissenschaften an der Universität Hohenheim, gemeinsam mit Malthe Wolf im Auftrag der Akademie für Technikfolgenabschätzung in Baden-Württemberg (TA-Akademie) vorgelegt hat

500.000 .biz-Domains und 675.000 .info-Domains registriert Die erst vor wenigen Wochen bzw. Monaten neu eingeführten Domain-Endungen ".biz" und ".info" erfreuen sich offenbar großer Beliebtheit.Wie die Vergabestelle NeuLevel mitteilt, wurde am Mittwoch dieserWoche der 500.000. Domain-Name mit dem Kürzel ".biz" vergeben. Unterder zweiten neuen Domain-Endung, ".info", sollen weltweit bereits 675.000 Namenangemeldet worden sein.

2005 tätigen 110 Mio. Europäer ihre Bankgeschäfte online
Während sich die Flaute in den Aktienmärkten negativ auf das Onlinebrokeragegeschäft niederschlägt, steigt die Attraktivität des Onlinebankings in Europa kontinuierlich. Ein Drittel aller Internetnutzer, das heißt 42 Millionen Verbraucher, tätigen ihre Bankgeschäfte bereits via Internet, und jeden Monat wächst die Schar der Onlinebanker um mehr als eine Million neue Nutzer, das geht aus der Forrester-Studie "Profiting from Europe's Internet Banking" hervor.

Internet gehört zum Alltag in deutschen Haushalten
Laut einer Verbraucherstudie des Marktforschungsunternehmens Forrester gehen mittlerweile 44 Prozent der deutschen Bevölkerung ins Internet, insbesondere wenn für die Kaufentscheidung oder Reisebuchung Produkt- und Preisinformationen fehlen, Software und Musik gewünscht oder Bankgeschäfte getätigt werden. Die Internetnutzung verändere die Informations- und Kommunikationsgewohnheiten der Menschen maßgeblich.

@facts: Zehn Millionen neue Internet-Nutzer in 2001
Mit 27,8 Millionen Deutschen (ab 14 Jahre) sind inzwischen mehr als zwei Fünftel (43,6 Prozent) der Bundesbürger online. Im vergangenen Jahr sind zehn Millionen neue Nutzer hinzugekommen, so die aktuellen Ergebnisse von @facts, einer Internet-Studie, die forsa im Auftrag des Online-Vermarkters SevenOne Interactive erhebt.

Forsa: Immer weniger Bundesbürger lesen Zeitschriften
Langzeitstudie: Deutsche verbringen 7,5 Stunden täglich mit Medien

Mit TimeBudget veröffentlicht SevenOne Media die aktuellen Ergebnisse einer Studie, die das Mediennutzungsverhalten der Bundesbürger unter die Lupe nimmt. Da sich die Veränderungen durch den fundamentalen Wandel im Mediensystem nicht durch eine einmalige Untersuchung feststellen lassen, ist TimeBudget als Langzeituntersuchung angelegt: Seit 1999 befragt das Forschungsinstitut Forsa jeden Sommer eine repräsentative Zahl von Deutschen im Alter zwischen 14 und 49 Jahren (insgesamt 2487 Personen) zu relevanten Aspekten ihres Mediennutzungsverhaltens.

Die Ergebnisse der drei Wellen sind jetzt verfügbar.

Die Analyse erforscht unter anderem die Themenkompetenz der Medien, Themeninteressen der Nutzer sowie Parallelnutzung oder Verzichtbarkeit der Medien. Es ist die erste Studie, die solche Entwicklungen über mehrere Jahre hinweg verlässlich nachzeichnet und Hinweise auf die zukünftigen Trends gibt.

Insgesamt verbringt jeder Deutsche zwischen 14 und 49 Jahren jeden Tag etwa 7,5 Stunden mit der Nutzung von Medien (1999 waren es noch 6,5 Stunden). Davon entfällt der Löwenanteil auf Fernsehen (153 Minuten) und das Begleitmedium Radio (169 Minuten). Danach folgen Bücher (32 Minuten) und das Internet (30 Minuten). Für Zeitungen wendet der Durchschnittsbürger 24 Minuten auf, für Zeitschriften 15 Minuten.

Die größten Zuwachsraten bei der Nutzung hat das Internet, das 1999 im Schnitt nur neun Minuten pro Tag genutzt wurde und damit um 21 Minuten zulegt hat. TV und Radio verzeichnen leichte Nutzungszuwächse, während die Nutzung der Printmedien stabil bleiben.

Fernsehen und Radio sind die Medien mit der höchsten Reichweite. 97 Prozent aller Bundesbürger (14-49) sind über das Fernsehen zu erreichen, bei den 14- bis 29-Jährigen sind es knapp 100 Prozent. Das Radio erreicht mit 93 Prozent (14-49) ähnliche Werte. Die Printmedien haben an Reichweite verloren. Während 1999 noch 92 Prozent angaben, zumindest selten eine Zeitung zu lesen, sind es heute nur noch 88 Prozent. Die Zeitschriften sind im selben Zeitraum von 73 Prozent auf 65 Prozent abgefallen.

Der große Gewinner ist das Internet. Innerhalb der vergangenen drei Jahre hat sich die Zahl der Surfer in Deutschland mehr als verdoppelt: 1999 waren 8,2 Millionen Menschen zwischen 14 und 49 Jahren "drin", heute sind es 20,8 Millionen. Nach wie vor überwiegt der männliche Anteil mit 57 Prozent.

Im Internet sind die wichtigsten Themen Reisen und Musik (hinter Radio und TV). In diesen Kernkompetenzen macht das Internet vor allem den Zeitschriften Konkurrenz.

Bei der Frage nach dem beliebtesten Medium steht das Fernsehen nach wie vor an erster Stelle. Das Internet liegt mit 17 Prozent bereits an dritter Stelle. Zeitungen bezeichnen rund zehn Prozent als das Medium, das sie am wenigsten entbehren könnten.

Wissensmanagement

Die Expansion des World Wide Web, das vielfältige Angebot von On-Line Fachpublikationen, die On-Line Präsenz von Publikationen aus Naturwissenschaften, Geisteswissenschaften, Politik und Wirtschaft, Gesellschaftswissenschaften ebenso wie aus Literatur und neuen Entwicklungen der Kunst stellt einen enormen Anstieg gemeinsam verfügbaren allgemeinen Weltwissens unter Beweis.
Die egalitär, technisch gesehen rein funktional nebeneinander gestellten Inhalte selbst können bedingt durch die überbordende Dateienmenge nicht mehr strukturiert dargestellt und abgebildet werden. Es wird also, abgesehen von individuell angelegten Linklisten, von jeweiligen Fachinstituten thematisch angebotenen Linksammlungen, nie einen generellen Internet Katalog geben. Im Vergleich zu einer geordneten Bibliothek mit Signaturen und festgelegten Stellplätzen befindet sich das Netz in einem chaotischen Zustand.
Anstelle des Bibliothekskatalogs tritt die Suchmaschine. Voraussetzung für deren Funktionieren ist das umfassende Sammeln von Internet Dateien im globalen Masstab. Suchroboter wie altavista oder google scannen in kontinuierlichen Abständen das Web nach neu angelegten Webdokumenten, nehmen diese in ihren Speicher auf. Mittels der Eingabe von Stich- und Suchworten kann der User entsprechend seinen themenspezifischen Vorstellungen nach gespeicherten Inhalten suchen. Je nach Häufigkeit des verwendeten Begriffs oder Namens stellen dem Anwender die Suchmaschinen Listen von Eintragungen zur Verfügung, die nun nach ihrem tatsächlichen Informationswert hin durchgesehen werden können. Diese globalen Internetsuchmaschinen erfassen weite Teile des Netzes und man kann davon ausgehen, dass die im Netz angebotenen Informationen des alphabetischen Kulturkreises weitgehend erfasst werden, nicht zu vergessen jene Sites, die sich in
anderen Schrifttraditionen entwickeln.

Das Internet bietet wahrscheinlich das aktuelle Wissen unserer Zeit in den meisten Wissengebieten an. Mittels der vom Suchroboter angebotenen Eintragungen gelingt es in fast allen Fällen, einen brauchbaren Rahmen für ein zu bearbeitendes Thema herzustellen.
Ich habe über einen längeren Zeitraum an einem schwierigen zeitgeschichtlichen Thema mit internationaler Spannweite gearbeitet. Ich konnte besonders heikle Fragen mit Hilfe von Informationen, die mir über das Netz zugänglich geworden sind, zur Zufriedenheit lösen.

Mit den bestehenden Möglichkeiten der Suchmaschinen ist das Netz zu einem wertvollen und nützlichem Speichermedium geworden, mit dem punktuell ausgezeichnete Ergebnisse erzielt werden können.
Es stellt sich nun auch heraus, dass Hypertextualität und flanierendes Surfen nicht allein die Qualitäten des Netzes ausmachen, sondern eben nur eine flüchtige Möglichkeit von Umgang mit Wissens darstellt. Jahrelang wurde Hypertext zu einem alles überragenden Gestaltungsmittel stilisiert. Heute sehen wir, dass die Möglichkeiten der hypertextuellen Vermittlung begrenzt sind.
Andererseits hat sich das Netz zu einem umfassenden Wissensreservoir entwickelt, das sich vor allem dazu eignet, mit entsprechenden Suchläufen Querverbindungen zu analysieren und so Zusammenhänge besser abbilden zu können.
Die zufällig gewachsene hypertextuelle Struktur kann zu analytischen Zwecken benutzt werden. Das Netz im derzeitigen Status zeigt sich den Anforderungen des geordneten Wissensgewinns durchaus gewachsen. Tatsächlich ist erstmals in der Geschichte der Menschheit und der Medien das aktuelle Wissen der Zeit global gespeichert, vernetzt und erfassbar. Die Vision einer derartig hypermedialen Datenbank, deren Inhalte flexibel vernetzt werden können, geht zurück auf Vannevar Bush. Bush leitete während des zweiten Weltkrieges ein Kollegium von etwa 6000 Wissenschaftlern aus den unterschiedlichsten Fachbereichen, die in Fragen von neuen Waffentechnologien, in der klassischen wie auch elektronischen Erfassung von gegnerischen Bewegungen, in der umfassenden Logistik einer globalen kriegerischen Auseinandersetzung rasch wirkungsvolle Lösungen zu finden hatten. Zusätzlich zu diesen Planungstätigkeiten mussten auch die nötigen Produktionsunterlagen erarbeitet und die Produktionskapazitäten organisiert werden.
Vannevar Bush skizzierte nach erfolgreichem Abschluss dieses Megaprojektes die Vison einer hypertextuell vernetzbaren Datenbank in seinem im Juli 1945 im Atlantic Monthly erschienenen Artikel As We May Think.
In diesem Zusammenhang wird deutlich, dass die hypertextuelle Struktur weniger dem flanierenden Surfen bzw. dem individuellen Sampeln von Texten dienen sollte, sondern auf Gewinnung von effizient gebündelter und vernetzter Information mit je nach Aufgabenstellung sich veränderndem Kontext aus war. Vannevar Bush und mit ihm die führenden Köpfe der USA hatten klar erkannt, dass effizientes Wissensmanagement die Voraussetzung für den Erfolg in komplexen Aufgaben bildet.

Alan Turing und Norbert Wiener haben ihre bahnbrechenden Grundlagenforschungen ebenso in diesem Weltkriegs II Projekt durchgeführt. In den Jahren 1945 bis 1950 gehörte Vannevar Bush dem Intelligence Establishment des US-Statedepartments an und leitete die Forschungs- und Entwicklungskommission, die wesentlich an der Entwicklung der Grundlagen künftiger kalter Kriegsführung beteiligt gewesen ist.

Heute gehört Wissensmanagement verbunden mit effizentem Marketing zum Führungsinstrumentarium jedes erfolgreichen Unternehmens.

60 % der Industrieunternehmen planen Knowledge-Management
Industrieunternehmen in Europa verzeichnen eine massive Steigerung bei der Umsetzung von Knowledge-Management-(KM-)Programmen. Dies ist das Ergebnis von "Documented", einer von Xerox durchgeführten Studie zu E-Business-, KM- und CRM-Strategien im industriellen Sektor. Die Untersuchung zeigt, dass bislang 51 Prozent der befragten europäischen Unternehmen ein Konzept zur Nutzung firmeninternen Wissens haben. Sechs von zehn Unternehmen erwarten darüber hinaus, innerhalb der nächsten drei Jahre ein KM-Programm einzuführen.

Konzentration

Die elektronischen Medien sind erstmals imstande über Kabelnetzwerke, über Satellitenverbindungen den Usern rund um die Uhr und rund um den Planeten verfügbar zu sein. Ähnlich wie in der Einführung des Fernsehens war die Zielvorstellung, ein weitverbreitetes Netz von Anwendern zu bewirken.
Es besteht jedoch ein gravierender Unterschied. Die ersten inhaltlichen Angebote, die das Web überhaupt erst interessant machten. kamen nicht aus der etablierten Contentindustrie, nicht aus dem Verlagswesen.

Sie wurden von Universitätsinstituten, von Medienkünstlern und von vielen kleinen Anbietern erbracht. Die erste Phase des Netzes wurde in einer ungeheuren kollektiven Anstrengung in nicht kommerzieller Absicht erstellt. So entstand eine Art weit verzweigtes kollektives Gedächtnis mit einer Unmenge von Beiträgen zu fast allen vorstellbaren Themenbereichen. Ich halte das Internet als die grösste gemeinschaftliche Leistung seit der Erstellung von Denis Diderots erster umfassender Enzyklopädie.
So erscheint das aktuelle Weltwissen des ausgehenden 20. Jahrhunderts und beginnenden Jahrtausends in einem allen zugänglichen öffentlichen, die Erde umspannenden virtuellen Raum gespeichert zu sein.

Das Wissen erscheint an einem für alle erreichbaren Ort konzentriert. Neben den Bibliotheken und Archiven ist tatsächlich binnen acht Jahren ein qualitätsvoller Wissensspeicher gewachsen.Voraussetzung zur effektiven Nutzung jedoch ist nach wie vor entsprechende Bildung.
Wissen kann man zwar umfassend anbieten, dessen Vermittlung lässt sich aber nicht automatisieren.
Es wird den kommerziellen Anbietern sehr schwer fallen, diese Gemeinschaftsleistung zu überbieten und dann noch Geld dafür zu verlangen.

Die kommerziellen Anbieter versuchen durch forcierten Lobbyismus in der staatlichen Gesetzgebung, durch Konzentration von Verlagen, Cable Networks, TV-Stationen und On-Line Anbietern die Vorherrschaft über das Netz zu erringen. Das scheint ihnen offenbar nicht wirklich zu gelingen.
Die AOL TIME WARNER CNN Gruppe schrieb für das Jahr 2001 60 Milliarden Dollar Verluste.
Aktuell wird die grösste Telekom Pleite der US-Geschichte gemeldet. Global Crossing, das über ein leistungsstarkes Glasfaser-Kommunikationsnetz verfügt, das weltweit mehr als 200 Städte in 27 Ländern erreicht, meldete Ende Jänner 2002 Konkurs an.
Das Konzept der umfassenden Globalisierung der Kommunikation treibt die kommerziellen Anbieter zunehmend in grosse finanzielle wie organisatorische Probleme.

Die Besorgnis, dass das versammelte Wissen im nichtkommerziellen Bereich eines Tages im Netz sich wiederum auflöst, verschwindet, ist durchaus berechtigt. Denn es entstehen Arbeitsleistungen und Kosten, die auf Dauer nicht ohne weiteres getragen werden können.
Es wäre aber schade, wenn diese gemeinsame Kulturleistung zerfallen sollte.
Selbst dann kann man das letzte Jahrzehnt als einen bedeutenden Abschnitt der Menschheitsgeschichte ansehen.
Das Internet ist eine der grossen realen Utopien, in der sich viele bislang unerfüllte Menschheitsträume neu denken lassen.

Nasdaq Europe und Berliner Börse gehen Partnerschaft ein
Die Nasdaq Europe und die Berliner Börse haben eine Partnerschaft bekannt gegeben - damit hat erstmalig ein internationaler Markt eine direkte Verbindung zum deutschen Aktienmarkt geschaffen. Die Partnerschaft, die auch einen gegenseitigen Aktientausch in Höhe einer signifikanten Minderheitsbeteiligung vorsieht, soll die Strategie von Nasdaq Europe ausweiten, Partnerschaften mit Schlüsselmärkten und Marktteilnehmern in Europa einzugehen

Der Axel Springer Verlag wird seine Online-Redaktionen der Tageszeitungen Die Welt, Hamburger Abendblatt sowie die Ullstein Online-Redaktion - bestehend aus Berliner Morgenpost, B.Z. und berlin1.de - zusammenlegen. Die entstehende zentrale Online-Einheit soll für eine "optimale Bündelung vorhandener Kompetenzen auf redaktioneller Ebene" sorgen, heißt es in einer Pressemitteilung.

Bertelsmann stockt Anteil an RTL Group weiter auf
Bertelsmann will das Fernsehengeschäft als integralen Bestandteil seiner Konzernstrategie stärken und hat deshalb mit Pearson ein Abkommen getroffen. Ziel von Bertelsmann ist es, den eigenen Mehrheitsanteil an der TV-, Radio- und Fernsehproduktionsgruppe RTL Group in Höhe von derzeit 67 Prozent um weitere 22 Prozent aus dem Besitz der Pearson-Gruppe aufzustocken.

Security, Viren und Terror

Da das Internet ursprünglich eine militärische Entwicklung gewesen ist, wurden Sicherheitsfragen von Anbeginn mit diskutiert. In den ersten Jahren des World Wide Webs war der Umgang eher freizügig, abgesehen davon, dass hin und wieder Server attackiert wurden.
Die kommerzielle Nutzung des Netzes durch Banken, durch Internet- Shops mit Kreditkarten Verrechnung, die Verbindung von Local Area Networks mit dem globalen Netz, erhöhte enorm sowohl Sicherheitsansprüche wie auch Sicherheitsaufwand. Dort, wo es nicht mehr allein um den freizügigen Austausch von Information geht, sondern eben um Transaktionen, Abwicklung von Geschäften, kommt es zum Einsatz komplexer Sicherheitssoftware und Technologie. Einerseits ist man bestrebt, den Datenbestand und den Datenfluss möglichst vor unberechtigten Zugriffen, also vor Einbrüchen und vor Datendiebstahl zu schützen. Andererseits fordern die Behörden vehement Zugänge zu Provider- Daten, etwa um den e-mail Verkehr im Verdachtsfall überwachen zu können.
Die grossen Security Einrichtungen der USA, an vorderster Stelle die NSA, versuchen schon seit einiger Zeit den elektronischen Informationsfluss in ihren Überwachungsgriff zu bekommen.
Dem verständlichen Wunsch nach Schutz der Daten im wirtschaftlichen wie auch im privaten Bereich, steht das Begehren des Staates gegenüber, möglichst umfassenden Zugang zu haben.
Begründet wird dies mit Wirtschaftskriminalität, die ebenso global vernetzt ist wie die Weltwirtschaft, mit Computerkriminalität, sexuellem Missbrauch etwa durch die Verbreitung von Kinderpornografie und insbesondere seit dem 11.September 2001 mit der Angst vor weiteren Anschlägen.

Wie sich herausgestellt hat, wurde das Netz zur Vorbereitung und Organisation des terroristischen Anschlages auf das World Trade Center benutzt.
Dieser Anschlag hat ebenso eine Schwäche der globalen elektronischen Überwachung offenbart. Es ist durchaus möglich, dass die NSA eine Unmenge von Daten gewinnen kann. Immer häufiger jedoch wird die Meinung geäussert, dass es ein Unding ist, diese Unmenge gesammelter Daten auch auszuwerten und richtig zu interpretieren.

Gleich nach dem ungeheueren New Yorker Anschlag wurde eben Kritik an dieser teuren Form der Informationsgewinnung laut, die letztendlich keinen effizienten Schutz geboten hat. Noch dazu darf man annehmen, dass die Al Kaida von den Diensten besonders aufmerksam bereits lange vorher ins Visier genommen worden war.
Tatsächlich haben in diesem Fall sowohl die Dienste wie auch die elektronische Überwachung weitgehend bis hin zur Flugsicherung versagt. Wie lässt es sich erklären, dass es offensichtlich nicht besonders aufgefallen ist, dass vier Maschinen in gleichem Zeitraum von ihren vorgesehenen Flugrouten abgewichen sind. Ist es nicht fragwürdig, wenn im wirklich bedrohlichen Ernstfall die Überwachung eigentlich völlig versagt ?

In der Geschichte des Netzes gibt es ebenso eine Reihe von hinterhältigen Virenattacken, meist von rücksichtslosen Einzeltätern in Umlauf gebracht, die häufig zu Schäden an den Endgeräten geführt haben. Meist jedoch in reperablem Ausmass auf Ebene der Software. Hier zeigt sich, dass das Netz wirksame Selbsthilfemassnahmen durch das rasche Angebot entsprechender Anti Viren Software zu leisten imstande ist.
Ebenso zeigt sich, dass das Netz von einer öffentlichen Community getragen wird, die bereit und fähig ist, in Problemfällen Abwehrmassnahmen zu ergreifen und diese dann auch On-Line zur Verfügung zu stellen.
Trotzdem ist es heute nicht mehr anzuraten, Geräte On-Line ohne parmanent aktualisierbare professionelle Anti Viren Software zu betreiben.
Ebenso ratsam ist es, mit e-mails vorsichtig auf der inhaltlichen Ebene umzugehen. Es sind genügend Fälle von mail Missbrauch bekannt geworden, u.a. Adressverfälschungen Nicht immer muss der ausgewiesene Absender dahinterstehen.
Die Entscheidung, ob etwas nun wahr oder unwahr ist, fällt bereits im gewohnten Alltagsleben im Umgang mit realen Personen schwer.

Im virtuellen Umfeld wird es noch um einiges problematischer, da die Möglichkeiten der Täuschungen weniger durchschaubar werden.
Sie wurden einige Zeit sogar als besondere Qualität der virtuellen Kommunikation beschrieben. Jeder und jede könne sich ein passendes alter ego oder gar eineVielzahl von Masken wählen. Solches Verhalten hat aber auch entsprechende psychologische Implikationen und kann zu schweren Kommunikationsstörungen führen.
Wer einmal in eine virtuelle Falle geraten ist, die vom Fallensteller hartnäckig weiter ausgebaut wird, kann in eine durchaus tiefgehende Krise getrieben werden. Das Netz bietet sowohl der organisierten Kriminalität, wie auch dem individuellen Terror, ebenso wie der alltäglichen Gemeinheit ein weites Betätigungsfeld und den staatlichen Kontrollbegierden neue Aufgaben.
Man kann jedoch davon ausgehen, und dem entspricht, abgesehen von einigen wenigen schwerwiegenden Irritationen, meine langjährige Erfahrung, dass die Mehrheit der Netzbenutzer fairen Kommunikations- und Umgangsformen folgt.

Wir können damit rechnen, das computer- und netzwerkgestützte Kommunikation sowohl im beruflichen wie auch privaten Leben weiterhin zunehmen wird, obwohl sie bereits einen sehr beachtlichen Teil unseres Lebens einnimmt. Damit verknüpft sich aber auch wesentlich unsere Identität und unser Selbstverständnis und wir sollten alles daran setzen, dass die Regeln im Netz den realen Bürgerrechten, die sich die Individuen über die Jahrhunderte hinweg erkämpft haben, in nichts nachstehen.

Sicherheitsunternehmen bricht auf Wunsch in Netzwerke ein
Das Unternehmen Internet Security Systems baut die Aktivitäten des eigenen Spezialisten-Teams "X-Force" im Kundenbereich durch neue Service-Angebote aus. Neben Schwachstellen-Analysen testen die Fachleute von Internet Security Systems auf Wunsch des Kunden ein Netzwerk auf Einbruchsicherheit durch authentische Hacking-Aktionen.

VirusScan verhindert unerwünschten E-Mail-Versand
Die aktuelle Version 6.0 des Virenscanners VirusScan von McAfee enthält eine überarbeitete Oberfläche und eine Blockade-Routine, um unerwünschten E-Mail-Versand abzufangen und so die Verbreitung von E-Mail-Würmern einzudämmen. Ferner gehört das bisher separat angebotene VirusScan Wireless ab sofort mit zum Lieferumfang.

Gefahr für deutsche Computer durch Terrorattacken?
Nach den Anschlägen des 11. Septembers befürchten Experten der Bundesregierung terroristische Angriffe durch das Internet auf Versorgungs- und Kommunikationseinrichtungen in Deutschland.

Neuer HTML-Wurm formatiert die Festplatte Zahlreiche Hersteller von Anti-Viren-Software entdeckten einen neuen in Visual-Basic geschriebenen Wurm namens JS.Gigger.A@mm, der sich sowohl via E-Mail als auch über das IRC-Programm mIRC verbreitet. Die Schadroutine des Virus ist enorm zerstörerisch, weil er alle Dateiinhalte löscht und anschließend die Partition C beim nächsten Neustart des Rechners formatiert.

Spiele und Entertainment

Spieletest: Die Sims Hot Date - Virtuelle Partnervermittlung
Die Personensimulation "Die Sims" entwickelt sich für den Publisher Electronic Arts immer mehr zum Dauerbrenner. Nicht nur das Hauptprogramm verkaufte sich sehr gut, auch die ersten beiden Erweiterungen "Das volle Leben" und "Party ohne Ende" waren sehr erfolgreich. Mit "Hot Date" ist jetzt bereits das dritte Add-On erhältlich.

Lego und Electronic Arts arbeiten zusammen
Der dänische Spielwarenhersteller Lego hat für seine Computer- und Videospielprodukte einen Vertrag mit Electronic Arts (EA) unterzeichnet. Infolgedessen wird EA innerhalb der nächsten drei Jahre wenigstens 30 Programme von Lego veröffentlichen und vermarkten.

Spieletest: U-Boot-Simulation Silent Hunter II
Im Spiel Silent Hunter II steuert man auf der Seite der deutschen Kriegsmarine ein U-Boot mit dem Ziel, möglichst viel Tonnage des Feindes zu versenken und wenn möglich selbst mit heiler Haut davonzukommen

AIBO ERS-220 - Neues Roboterdackel-Modell
Bei den letzten beiden vorgestellten AIBO-Modellen Latte und Macaron hat Sony dem Roboterhund ein familienfreundliches Comic-Design angedeihen lassen. Beim neuen Modell ERS-220 gibt es nun wieder ein rein futuristisches und erstmals auch etwas martialisch wirkendes Design, dessen Besonderheiten jedoch mehr in der verbesserten Erweiterbarkeit der Hard- und Software liegen sollen.

Sprachsynthesizer Logox WebSpeech 4 kostenlos zum Download Mit Logox WebSpeech 4 stellt G Data einen komplett neu entwickelten Sprachsynthesizer vor. Das Plug-In für den Internet Explorer liest deutschsprachige Internet-Seiten auf Wunsch sogar im Dialekt vor.

Publishing

Die vehement vertretene These überzeugter McLuhan Epigonen, dass digitale Medien das Buch verdrängen würden, hat sich bislang nicht bestätigt. Das gedruckte Buch wird weiterhin eine wichtige Rolle in der menschlichen Kultur einnehmen. Es hat sich praktisch erwiesen, dass der Buchmarkt und die traditionellen Bibliotheksverwaltungen dem Netz nach wie vor gewachsen sind.
Erfolgreiche Buchmanuskripte durchlaufen nach wie vor den komplexen Prozess der Herstellung vom Lektorat über Korrektur bis zur erfolgreichen Ankündigung in der Distrubutions Sphäre.

Bibliotheken bewahren das Buch in geordneten Speicherbeständen auf. Man kann auch Jahrzehnte nach der Drucklegung damit rechnen, dass es in einem dieser Bestände wieder gefunden werden kann.
Diese Sicherheiten bietet das Netz noch lange nicht. Wichtige Artikel und Texte können nach einem beliebigen Zeitraum verschwinden. Niemand kümmert sich um die geordnete Sammlung des inhaltlichen Angebotes.
Ein derartiges Projekt wäre wohl auch kaum durchführbar und würde Kosten verursachen, die niemand bereit ist, zu bezahlen. Alta Vista hat derzeit 82 Millionen Dokumente indiziert. Niemand kann garantieren, dass man ein Dokument authentisch vorfindet. Selbst die differenzierte Stichworteingabe hat Schwächen. Alta Vista zeigt zu einem abgefragten Thema nur 200 Positionen an. So ist man mehr oder minder dem Zufall und der Themenhäufigkeit überlassen. Weiters sind Netzpublikationen in Bezug auf Seriosität Buchpublikationen in der Wertschätzung der LeserInnen nicht gleichgestellt. Das sagt allerdings nichts über Qualität von Information im Netz, die oft sehr hohen Ansprüchen genügt, aus. Die Qualität und Glaubwürdigkeit muss der Leser und User von Fall zu Fall selbst bestimmen. Aber das ist ja in der Lektüre eines Buches auch nicht anders.

Als grösstes Problem des Web Publishing stellt sich die Ökonomie heraus. Für Content wird im Internet nach wie bis auf wenige Ausnahmen nichts bezahlt. Die Texte werden in einem riesigen Tauschmarkt der Informationen freizügig zur Verfügung gestellt.
Nachdem viele Klein- und Fachverlage des traditionellen Printwesens merkbar dazu übergehen, ihren Autoren keine Honorare mehr anzubieten und bereits Druckkostenzuschüsse von den Autoren selbst verlangen, die Kleinauflagen meist nur über ein schmales Marktsegment angeboten werden, ist das Netz durchaus zu einer plausiblen Alternative geworden.

Aus eigener Erfahrung weiss ich, dass eine meiner umfangreichen Arbeiten über die Kulturpolitik des Kalten Krieges im Netz entschieden von mehr Lesern gelesen wird, als ich über einen kleinen oder mittleren Verlag erreichen hätte können.
Besser positioniert wäre es sicher jedoch in einem grossen Verlag, da man man dann auch davon ausgehen kann, dass das Buch auch entsprechend beworben wird.

7 Jahre Electronic Journal Literatur Primär

Das Electronic Journal Literatur Primär besteht gemeinsam mit thing.at nun seit mehr als sechs Jahren im World Wide Web und ist nach wie vor gut positioniert.

Inhaltliche Orientierung

Das Electronic Journal Literatur Primär versammelt Beiträge aus österreichischer Gegenwarts-Literatur, Geisteswissenschaften, aus Theorie und Praxis der Neuen Medien, insbesondere in ihrer kulturellen und künstlerischen Ausrichtung, ebenso wie Beiträge aus Gesellschaft und Politik.

Die Auswirkungen der Neuen Medien und Kommunikations- Technologien auf Publishingwesen, auf Kultur, Gesellschaft und Wirtschaft werden beobachtet und kommentiert. Das Electronic Journal Literatur Primär versammelt weiters Beiträge zur Kulturgeschichte der 2.Republik und der Auswirkungen des Kalten Krieges auf das kulturelle und politische Leben; ein hoch aktuelles Thema. Erste Publikationen sind bereits on-line.

Autoren & Autorinnen
Das Electronic Journal Literatur Primär bietet österreichischen Autoren und Autorinnen eine attaktive Web-Plattform und gewinnt aus seiner Konzeption und aus den Beiträgen die nötige inhaltliche Qualität.
Der Autorenkreis des Electronic Journal Literatur Primär wird ständig erweitert.

Statistik - Präsenz im globalen Netz

Gemeinsam mit thing.at hat das Electronic Journal Literatur Primär in den letzten sieben Jahren eine international bemerkenswerte Webpräsenz erreicht . thing,at zählt heute im Global Ranking zu den Top 1% der Websites weltweit.

TOP RANKING

thing.at Vienna under the best 1 % in Global Web Präsenz
http://www.websmostlinked.com
The domain: thing.at, is ranked #8691 out of 1048254 domains in the WebsMostLinked.com database. Zu diesem leider nur ideellen Erfolg hat das Electronic Journal Literatur Primär einen guten Anteil beigetragen. Das Electronic Journal Literatur Primär ist weltweit in über 1000 Web Indexe eingetragen.

Nützliche Präsenz der AutorInnen im World Wide Web

Die Adresse des Electronic Journals Literatur Primär ist in vielen wichtigen Web-Indexen (siehe Anhang) eingetragen. Universitäten (u.a. Harvard, Princeton, FU_Berlin, Humboldt Universität), Herausgeber von On-Line Literatur Publikationen, Web Presse Indexe führen das Electronic Journal Literatur Primär in ihren On-Line Verzeichnissen.
Viele UserInnen greifen auf das Electronic Journal via Suchmaschinen in spezifischen Abfragen auf das Electronic Journal Literatur Primär zu und finden so rasch Texte von AutorInnen ihrer Wahl.

Die Texte werden mit dem expliziten Einverständnis der AutorInnen veröffentlicht. Das copyright © verbleibt selbstverständlich bei den AutorInnen.
Das Electronic Journal ist eine offiziell registriertes Web Organ mit der ISSN Nummer 1026-0293

Verbindungen und nützliche Kontakte

Das Electronic Journal Literatur Primär verfügt über gute Beziehungen zu Bibliotheken und Archiven und zählt mit dem Admontinischen Universum zu den ersten Web Sites die in den neugegründeten digitalen Sammelbestand der Österreichischen Nationalbibliothek aufgenommen wurden.

Besondere Beachtung finden die Veränderungen und Erweiterung der Kommunikations- und Dialogmöglichkeiten durch die Nutzung der Interaktivität und der globalen Vernetzung. Das Electronic Journal bietet ebenso Zugriff auf verwandte Publikationen im Netz bzw. auf Sites, die sich ebenso qualitäts- und niveauvoll mit der Entwicklung der Internet-Kultur auseinandersetzen.

Kulturjournale sind Nischenprodukte in den unendlichen Weiten des Webs und sind auf Vermittlung und Verständnis der institutionellen Medien und die Empfehlungen der einzelnen LeserInnen angewiesen.

n receipt of the following information, your business information can be listed among thousands of highly successful executives and professionals who would also like a fast and easy way to communicate with their peers.
There are a variety of business publications that will list your information for free. The information you provide below will help in finding a registry, directory or trade publication that would be best suited for your personal business expertise.
In many cases your acceptance into one or more of these publications can be considered recognition for your accomplishments throughout your business career.
For the traditional book publications it is important to provide the company’s SIC code (Standard Industry Classification code). Some of the registries list the companies by SIC codes to make it easier to find the type of business you would be looking for.
If you would like to be published in an on-line registry, you would want to submit several “key words” that would enhance the search capabilities for your organization. The more “key words” your listing contains the easier your information can be accessed by the individuals that are looking for your type of business or expertise.

Deutscher E-Book-Verlag startet mit rund 100 Büchern
Ab sofort ist ein neues Angebot für digitale deutschsprachige Unterhaltungsliteratur im Netz verfügbar. Unter www.readersplanet.de findet der interessierte Surfer mehr als 100 belletristische Titel zum Download.

Web.de setzt auf Google
Web.de setzt in Zukunft auf die Suchmaschine Google, um eine verbesserte Suchqualität zu bieten. Damit trennt sich Web.de von der Suchtechnik von FAST Search & Transfer.

AltaVista aktualisiert seinen Index und sein Design
Mit einem Re-Design der deutschen Website und einer kompletten Erneuerung seines Index reagiert AltaVista auf das explosionsartige Wachstum des Internet. Der Datenbestand an indizierten Dokumenten umfasst jetzt 82 Millionen Dokumente. Neben den Suchergebnissen sollen die AltaVista-User durch das Re-Design von einer einfacheren Navigation auf der Site und von schnelleren Seiten-Ladezeiten profitieren.

Amerikaner nutzen Internet zunehmend für religiöse Zwecke
In einer repräsentativen Umfrage, bei der das Pew Internet & American Life Project im Sommer 2001 US-Amerikaner befragte, wurde untersucht, wie sehr das Internet für religiöse Zwecke genutzt wird. Demnach besuchen mehr als drei Millionen Amerikaner täglich Websites mit spirituellen oder religiösen Material und damit deutlich mehr als im letzten Jahr, als nur 2 Millionen entsprechende Websites täglich aufsuchten. Rund 25 Prozent der befragten Personen gaben an, gelegentlich religiöse oder spirituelle Websites aufzusuchen. Im Jahr zuvor waren es noch 21 Prozent.

Siehe auch Admontinisches Universum http://admont.thing.at

Vernetzung

Der Begriff der Vernetzung sollte nicht allein auf das Internet angewendet werden. Vernetzung betrifft all unsere Lebensbereiche und bildet das Grundgerüst einer allumfassenden elektronischen Kultur.
Das elektronische Kontinuum bildet eine künstliche Welt, die von digitalen Bildern entferntester Galaxien bis hin zum netzwerkfähigen Haushalt reicht.
Das kosmisch Unendliche steht scheinbar gleichberechtigt neben dem trivialen Alltag. Der vernetzte Mensch nimmt teil am Ganzen, wird zum Teilchen eines umfassenden Verbundes. Die Vernetzung von PCs, Handys und Internet lassen heute bereits die Vision eines elektronischen voll integrierten Menschen in realen Zügen wahrnehmen.
Tatsächlich lässt sich ausserhalb des weltumfassenden Technopols die Entwicklung einer anderen oder gleichwertig konkurrenzierenden Kultur nicht mehr denken. Die elektronisch technische Revolution hat nicht nur unser westliches System und unsere individuellen Lebensbereiche erfasst. Sie streckt ihre Fühler gobal aus, trachtet danach, alles in den Griff zu bekommen. Jene Staaten und Gesellschaften, die nur über beschränkte oder rückständige technologische Fähigkeiten verfügen, haben überhaupt keine Chance mehr, Alternativen zu dieser globalen Konzeption zu entwickeln.
Das Internet als zentraler Datenspeicher der Menschheit gerät zur totalitären Horrorvision. Bill Gates hat anlässlich seines Wiener Aufenthaltes einmal mehr das papierfreie Büro gefordert. Das bedeutet, dass wir alle unsere Daten, private und gesellschaftliche dem Datenspeicher und einem Netz überantworten, das jederzeit einem Virenangriff oder einem Hacker zum Opfer fallen kann.

Das politische und wirtschaftliche System des Kapitalismus, insbesondere der USA und ihrer Verbündeten zeigt ungebrochenen Expansionswillen und verfügt sowohl über die politischen, wirtschaftlichen, militärischen und technologischen Instrumentarien diesen Willen auch durchzusetzen.

Die USA zeigen sich auch keineswegs daran interessiert, dass unabhängige Technopole neben dem ihren bzw. unabhängig davon entstehen.
Aktuell soll entschieden werden, ob die EU mit ihrem System Galileo ein eigenes globales Satellitensystem zur Erdüberwachung neben dem bereits existierenden amerikanischen GPS System einrichten soll. Die Befürworter stellen die Unabhängigkeit von den US-Einrichtungen in den Vordergrund.
Doch stellt es sich eben immer mehr heraus, dass das Projekt der elektronischen umfassenden Vernetzung im Wesen eben ein globales Konzept ist, in dem eine europäische Alternative möglicherweise gar nicht mehr sinnvoll erscheint und nur zusätzliche Kosten verursacht. Sollten die Europäer auf eine eigene Satelliteninfrastruktur verzichten, geraten sie andererseits in eine weitere Abhängigkeit von den USA.

Tatsächlich fallen die wirklichen geopolitischen Entscheidung heute im elektronischen Gesamtraum. Die Landmarken der Zukunft werden nicht mehr im natürlichen, sondern im elektronischen Raum gezogen.

LG Electronics kündigt vernetzte Küchengeräte an
LG Electronics will ab dem vierten Quartal 2002 eine Serie von netzwerk- und internetfähigen Haushaltsgeräten auf den US-Markt bringen, wie der koreanische Elektronikhersteller nun mitteilte. Den Anfang machen ein Kühlschrank, eine Mikrowelle und eine Waschmaschine, die LG zum Teil schon im letzten Jahr demonstrierte, aber noch nicht auslieferte

Computerpanne macht ISS vorübergehend steuerlos
Die Internationale Raumstation ISS ist nach einem Computerproblem im russischen Teil ins Trudeln geraten. Für sechs Stunden konnte die Station nicht korrekt gesteuert werden, was zu Problemen bei der Stromversorgung führte, da die Solarzellen nicht auf die Sonne ausgerichtet waren. Wie die NASA am Montag mitteilte, konnte das Problem von der russischen Bodenkontrolle schließlich gelöst werden. Der fehlerhafte russische Computer, der die Ausrichtung der ISS im All kontrolliert, wurde neu gestartet und arbeitete danach wieder normal, wie es hieß.

Zensur

Die Zensurdebatte begleitete die Entwicklung des World Wide Webs von Anbeginn an. Nachdem das Netz sowohl zur Verbreitung rechtsradikaler Propaganda und wie auch als Tauschplatz von Pornografie in ihren schlimmsten Formen missbraucht wurde, wurden die Stimmen nach staatlicher Zensur laut.
Die meisten Kritiker sind heute verstummt, da der positive Nutzen des Netzes bei weitem überwiegt und extreme Auswüchse von der Netzcommunity weitgehend selbst gemieden werden.
Auch eine Zurückgehen der pornografischen Flut von Bildern, die durchaus dem allgemeinen Bilderangebot in diversen TV-Kanälen, dem Print- und Videoangebot entspricht, ist merkbar.
Ebenso gescheitert sein dürfte das grosse staatliche Überwachungsprogramm der USA. Technisch lässt sich zwar die im Netz bestehende und kursierende Information weitgehend erfassen. Doch gerade die Menge und Fülle des Materials verhindert eine inhaltliche Bewertung.
Es verbleibt jedoch ein unangenehmes Gefühl allgemeiner Überwachung, dessen Ursachen in den technischen Möglichkeiten und andererseits in den aktuellen Gesetzesvorlagen zur Regulation der Netz Kommunikation zu finden sein dürfte.
Mangels an wirklich eklatanten Einschränkungen der allgemeinen Meinungsfreiheit werden Anlässe in den Diskurs eingebracht, die dazu keineswegs geeignet erscheinen. So hat im Jänner 2002 ein junger Medienkünstler die Regierung des Bundeslandes Nordrhein Westfalen geklagt, weil diese die Zugänge zu bestimmten führenden rechtsextremistischen Websites gesperrt hat.
Alvar Freude und sein Mitarbeiter haben 2001 für ein merkwürdig manipulatives Projekt den Medienkunstpreis des SWR und des ZKM erhalten. Sie haben über mehrere Wochen mit Einverständnis der Institution den Server der Stuttgarter Merz Akademie willkürlich verändert.

Zwei Personen kontrollieren 250 Personen

Um die Kompetenz und Kritikfähigkeit der Anwender bezüglich des Alltags-Mediums Internet zu überprüfen, kontrollierten und manipulierten wir im Rahmen unserer Diplom-Arbeit insert_coin den Web-Datenverkehr an der Merz Akademie in Stuttgart. So verwandelten wir beispielsweise Suchmaschinen in Denunzier-Portale, veränderten aktuelle Meldungen auf Nachrichten-Sites; selbst Wörter in privater Email-Kommunikation, die über Web-Interfaces wie Hotmail abgerufen wurde, liefen durch unsere Filter. – Und niemand bemerkte es.

Authenzität vorzutäuschen war uns ein Leichtes, denn auch die Adressen (URLs), die Daten im Web unverwechselbar auszeichnet, wurden von uns kontrolliert. Als wir das Experiment den Studenten und Mitarbeitern der Akademie bekannt machten, interessierte sich jedoch so gut wie niemand dafür. Obwohl wir eine simpel zu befolgende Anleitung veröffentlichten, mit der jeder selbstständig, den Filter ausschalten konnte, nahm sich nur ein verschwindend geringer Teil der Studenten eine Minute Zeit, um eine einfache Einstellung vorzunehmen und so wieder an ungefilterte Daten heranzukommen. Noch mehrere Monate nach der Beendigung unseres Experiments war der Web-Zugriff von den meisten Computern der Akademie aus gefiltert.

Jetzt werfen Freude und Co. dem Land Nordrhein Westfalen Einschränkung der Meinungsfreiheit und Manipulation des Internets vor. Nach dem deutschen Grundgesetz sind jedoch die Behörden verpflichet, Neonazipropaganda zu verhindern.
In bestürzender Weise sehen sowohl führende Mitglieder des Chaos Computer Clubs Hamburg und das wichtigste deutsche Web Magazin Telepolis in einem Artikel diese legitime und nötige Massnahme als einen Akt der Zensur an. Der österreichische Depeschendienst Quintessenz kommt zu ähnlichem Schluss.

Besonders spaßig liest sich die Begründung und die Liste jener Paragraphen, gegen die von den Möchtegern-Zensoren mutmaßlich verstoßen wird. Die Qualität und Machart der indizierten Pages ist unerheblich. Wichtig ist, dass der Versuch einer Provinzregierung, sich in puncto Sauberkeit ihr eigenes Provinzinternet zu schaffen, damit adäquat beantwortet ist.
Die Qualität und Machart der indizierten Pages, auf denen offen rassistische Verhetzung und nationalsozialistische Propaganda betrieben wird, ist also laut Quintessenz unerheblich.
Stattdessen wird die Anklage eines Politikers, der in dieser Frage offensichtlich Haltung bewiesen hat, für richtig empfunden. Sollte das Verbot rechtsradikaler Sites auch weiterhin Anlass von Debatten im Namen der Menschenrechte sein, kann dies zu einer empfindlichen Verzerrung des wahren Sachverhaltes führen.
Dass die Nazis die öffentliche Meinung völlig gleichgeschaltet haben, dass sie strenge Zensurmassnahmen bis hin zur Vernichtung von Andersdenkenden angewandt haben, scheint die vorgeblichen Kämpfer um die demokratischen Grundrechte gar nicht zu kümmern. Glauben sie den wirklich, dass die Betreiber der Nazisites andere Ziele haben, als die der totalen Unterwerfung der öffentlichen und der individuellen Meinung.
Wer die nötige Auseinandersetzung um den Erhalt der Publikationsfreiheit im Rahmen der elektronischen Medien an solchen Anlässen und Inhalten aufhängt, wird langfristig gesehen das Gegenteil erreichen und muss damit rechnen, als Wegbereiter des Rechtsextremismus angesehen zu werden.

Verfassungsschützer drohen eBay mit Strafverfolgung
Deutsche Verfassungsschutzbehörden drohen dem Internet-Auktionshaus eBay juristische Schritte an. Nach Recherchen des ZDF-Magazins Frontal 21 werden über den eBay-Internetservice zahlreiche verbotene, von Gerichten beschlagnahmte und indizierte Ton- und Bildträger mit volksverhetzenden und gewaltverherrlichenden Inhalten verkauft.

Nintendo gewinnt Prozess gegen Websitebetreiber
Nintendo of America hat bekannt gegeben, dass ein beim U.S. District Court in Seattle, Washington, angestrengter Prozess gegen 49 Websites, die nach Angaben von Nintendo Urheberrechte des japanischen Videospieleherstellers verletzen, gewonnen werden konnte. Infolgedessen müssen sämtliche Rechte an den benannten Domains an Nintendo übergeben werden.

CCC: Nordrhein-westfälischer Provider sperrt Internetseiten
Der Chaos Computer Club berichtet, dass zumindest der Düsseldorfer Internetprovider ISIS "in vorauseilendem Gehorsam den Zugriff auf mehrere Seiten im Internet behindert". Der Zensurversuch erfolgt laut CCC Düsseldorf durch eine Änderung des DNS-Eintrages auf dem ISIS-Nameserver, was jedoch durch ein Ausweichen auf andere Nameserver umgangen werden könne.

Porno-Filter für jeden Computer gefordert
Deutsche Politiker wollen verpflichtende Installation von"Cyber Sentinel"
Computernutzer sollen nach dem Willen der deutschen CDU/CSU bald verpflichtet werden, in ihren Rechnern eine spezielle Filtersoftware gegen Internetseiten mit Kinderpornografie zu installieren. Der rechtspolitische Sprecher der CDU/CSU-Bundestagsfraktion, Norbert Geis (CSU), will der "Bild am Sonntag" (BamS) zufolge eine Gesetzesinitiative prüfen lassen, die die Installation des Programms "Cyber Sentinel" zur Pflicht macht.
Auch der stellvertretende Bundesvorsitzende der Deutschen Polizeigewerkschaft, Rainer Wendt, setzte sich für die Filtersoftware ein. Wendt forderte in dem Zeitungsbericht die Installation von "Cyber Sentinel" in deutschen Universitäten, Schulen, Internetcafes und Firmen. (APA)
http://www.securitysoft.com/new601/cs_bus.htm

Kommunikationshilfen

http://www.webspeech.de/

Wer täglich mit englischen Texten zu tun hat, für den sind kostenlose Online-Wörterbücher wie das LEO English/German Dictionary von der TU-München oder andere Übersetzungsdienste eine große Hilfe. Der Übersetzungssoftwareanbieter Linguatec bietet nun mit Linguadict.de ein eigenes, kostenlos nutzbares Online-Wörterbuch an.

Wirtschaft

Die Vision der New Oeconomy hat wesentlich zum Internet Hype der letzten Jahre beigetragen. Die New Oeconomy versprach global wirksame Organisationsformen und Milliardengewinne. Mit dem Ende des 20.Jahrhunderts platzte dieser gigantisch aufgeblasene Wirtschaftstraum. Anstelle neuer Vertriebs- und Handelsstrukturen stürzten die Kurse der Technologiewerte in den Keller und markierten den Beginn einer weltweiten Rezession. Völlig überhitzte Vorstellungen haben zu diesem Deasaster geführt. Mit Risikokapital gegründete dot.coms, die meist ausser einer virtuellen Geschäftsidee nichts besassen, verschwanden von heute auf morgen von der Bildfläche und mit ihnen eine Unmenge in den Sand gesetzten Kapitals. Dieser Flop betraf weniger die Computer- und Netztechnologiehersteller.

Technische Ausrüstungen waren permanent gefragt, hatte die New Oeconomy Welle doch wesentlich den Ausbau des Netzes beschleunigt. Jeder und jede wollte partizipieren bzw. in der allgemeinen Vernetzung und Digitalisierung beteiligt sein. Offensichtlich hat die Computerisierung in der menschlichen Kultur einen Stellenwert eingenommen, der ein Beiseitestehen nicht mehr erlaubt. Umso bestürzender waren dann die wirtschaftlichen Einbrüche, deren wahres Ausmass und deren Folgen für die allgemeine Entwicklung der Weltwirtschaft noch nicht völlig absehbar sind. Die Visionen der New Oeconomy waren eng verbunden mit kulturellen Vorstellungen, die nun angesichts des Deasasters neu überdacht werden müssen. Wie sehr sich kulturelle Vorstellungen an wirtschaftliche Prozesse angenähert haben, zeigt folgendes Beispiel aus dem Steirischen Herbst 2001.
Literarische Texte wurden an einer eigenst eingerichteten Literaturbörse als virtuelle Werte gehandelt und abgesehen von einer Vorauswahl einer völlig freien Bewertung durch die Börsenspielteilnehmer überlassen.

Warum ein Text gut ist, lässt sich aus den Kaufentscheidungen der Kulturbörsenspieler nicht entnehmen. Das Ergebnis hat im wesentlichen auch keinerlei Folgen, ausser dass sich der Gewinner Franzobel darüber freuen darf, besser als Elfriede Jelinek abgeschnitten zu haben. Ebenso berechtigt ist der Zweifel, dass dadurch Literatur eine weitere Verbreitung finden könnte.
In merkwürdiger Weise ähnelt das literarische Börsenspiel der New Oeconomy. Es wurden rein virtuelle Werte verhandelt. Nur dass im konkreten wirtschaftlichen Kontext die realen Börsen der Weltwirtschaft mitgespielt haben und am Ende vor einer wirtschaftlichen Katastrophe standen.

Das Experiment ist zu Ende

http://www.literaturboerse.com/data/atts/boerse_end.pdf

Ein Hinweis vorneweg: Im Konferenzraum werden sukzessive die Referate der SymposionteilnehmerInnen veröffentlicht. Wir laden Sie ein, mitzudiskutieren.

Von 1. Juni bis 1. November 2001 hatte die Literatur ihre Börse im Internet. Das Projekt www.literaturboerse.com konfrontierte die Literatur im Rahmen des Kunstfestivals „steirischer herbst“ mit den Mechanismen des Finanzkapitalismus. Das Projekt setzte sich zum Ziel, Literatur in den Rahmenbedingungen der Gegenwart zu diskutieren. Diese Rahmenbedingungen sind nun einmal Marktbedingungen.

Über 100 Autorinnen und Autoren haben ihre Texte an die Börse geschickt. Knapp 40 Texte wurden für das „going public“ ausgewählt, von zuletzt 712 Mitspielern in ihr Portfolio aufgenommen und mit steigender Intensität gehandelt. Vor allem die letzten Börsenwochen waren von turbulenten Handelsaktivitäten gekennzeichnet. Einige Mitspieler berichteten von Suchterscheinungen und stark erhöhten Telefonrechnungen. Allein im Oktober wurden die Seiten der Literaturbörse 922.000 mal aufgerufen. Insgesamt wurden 1622 Milliarden Anteile der gehandelten Texte abgesetzt.

Business Meeting

Die Gewinner

Als gewinnorientiertester Anleger ging Christian Kraus mit einem Vermögen in der unvorstellbaren Höhe von 407 Billionen Euro aus dem Börsenspiel hervor. Er erhielt einen Gutschein in der Höhe von Euro 363.- von unserem Sponsor Amazon.at.

Spannend waren auch die Vorgänge im Spitzenfeld der Wertpapiere zu beobachten. Bei der Berechnung der Gesamtresultate wurde neben dem Kurswert-Durchschnitt der jeweiligen Aktie auch die Zahl der verkauften Aktien als Kenngröße herangezogen. Der erfolgreichste Text stammt aus der Feder von Franzobel. Er erhielt einen Scheck in der Höhe von 727.- Euro von der Wiener Börse AG. Das vollständige Endergebnis finden Sie hier, die Spartensieger abschließend:

Flugangst von Franzobel (Sparte Drama): LAIX-Wert 341,5
Das versunkene Feld von Enno Stahl (Sparte Experiment): LAIX-Wert 141,1
Das ist Drogen...! von Lou A. Probsthayn (Sparte Prosa): LAIX-Wert 169,35
Der Stoff aus dem die Welt von Björn Kuhligk (Sparte Lyrik): LAIX-Wert 174,05

Die Börsenaufsicht des garnierten Literaturflups

AOL Time Warner: Verlust von 996 Millionen US-Dollar
AOL Time Warner hat die Zahlen für das dritte Bilanzquartal 2001 veröffentlicht. Unter Berücksichtigung aller Kosten entstand ein Verlust von 996 Millionen US-Dollar. Auf die einzelne Aktie gerechnet ist dies ein Nettoverlust von 22 US-Cent.

Siemens mit Nettoverlust von rund 1,1 Milliarden Euro
Das Siemens-Konzernergebnis nach Steuern für 2001 liegt bei 2,088 Milliarden Euro einschließlich Infineon, Sondereffekten sowie Aufwendungen für Restrukturierung und Sonderabschreibungen. Siemens (ohne Infineon) erzielte im operativen Geschäft ein EBITA von 1,329 Milliarden Euro. Hierin enthalten sind Aufwendungen für Restrukturierung und Sonderabschreibungen in Höhe von 1,863 Milliarden Euro. Ohne diese Sonderbelastungen ergibt sich ein EBITA in Höhe von 3,192 Milliarden Euro.

Flexibilität in New-Economy-Unternehmen schafft Probleme
Wer seine IT-Fachleute im Unternehmen halten will, muss sich darum kümmern, dass sie bleiben. Denn die hohe Flexibilität in Unternehmen der New Economy sorgt laut dem Institut Arbeit und Technik (IAT/Gelsenkirchen) nicht nur für schnelle Reaktionsfähigkeit und hohe Innovationsdynamik, sondern sorgt auch für Instabilität, wenig Mitarbeiterbindung, Fluktuation und damit den Verlust von Know how.

Bannerwerbung macht private zu gewerblichen Websites
Eine Markenverletzung gleich welcher Art kann nur dann vorliegen, wenn das betreffende Kennzeichen "im geschäftlichen Verkehr" verwendet wurde. Eine (bezahlte) Bannerwerbung kann nach einem Spruch (Az. 2 - 06 O 212/01) des Landgerichts Frankfurt am Main daher für eine "private" Homepage zu einer kritischen und teueren Falle werden.

Bannerwerbung macht private zu gewerblichen Websites

LG Frankfurt mit neuem Urteil zum Markenrecht

Eine Markenverletzung gleich welcher Art kann nur dann vorliegen, wenn das betreffende Kennzeichen "im geschäftlichen Verkehr" verwendet wurde. Eine (bezahlte) Bannerwerbung kann nach einem Spruch (Az. 2 - 06 O 212/01) des Landgerichts Frankfurt am Main daher für eine "private" Homepage zu einer kritischen und teueren Falle werden.

Das Gericht beschied, dass der Beklagte mit der Verwendung der Bezeichnung "Ballermann" im Metatag seiner Homepage Markenrechte der Klägerin verletzt habe.

Der Beklagte könne nicht geltend machen, dass er nicht im geschäftlichen Verkehr gehandelt habe. Zur Verwirklichung dieses Merkmals sei es ausreichend, so das Gericht, wenn die Handlung einem beliebigen eigenen oder fremden Geschäftszweck dient, wobei Gewinnabsicht, Entgeltlichkeit oder ein Wettbewerbsverhältnis nicht Voraussetzung sind.

Da der Beklagte auf seiner Homepage auf kommerzielle Partyveranstaltungen hinweise und auf seinen Seiten auch ein Werbebanner angebracht hatte, verfolge er auch eigene geschäftliche Ziele.

Damit folgte das LG Frankfurt a.M. einer früheren Entscheidung des LG Hamburg (Az.: 315 O 219/99), das die Benutzung einer fremden Marke als Domain-Name (hier Lucky-strike.de) nicht als erlaubte Privatnutzung duldete, da auf der Domain Werbe-Banner oder Links zu geschäftlichen Angeboten waren. Nach § 14 MarkenG ist jegliche Benutzung einer fremden Marke im geschäftlichen Verkehr verboten. Nach Auffassung des Gerichts war die Verwendung von Werbebannern oder Links zu geschäftlichen Angeboten bereits ein solches Handeln im geschäftlichen Verkehr.

T-Online: Inhalte werden kostenpflichtig.
Ab sofort bietet T-Online kostenpflichtige Inhalte an. Im ersten Schritt realisiert T-Online mit namhaften Partnern Inhalte aus den Bereichen Wirtschaft, Entertainment, Sport und Wellness. Zudem stellt man Testberichte zu verschiedenen Themen zur Verfügung.

1&1 Puretec schaltet dotcomtod ab (Update)
Eigentlich wird auf dotcomtod über aktuelle und kommende Pleiten, Entlassungen und andere "exitorientierte" Nachrichten diskutiert, vorzugsweise von New-Economy-Unternehmen. Doch nun ist die Site selber abgeschaltet - unfreiwillig. Auf Grund des hohen Besucheraufkommens schaltet der Provider 1&1 Puretec die Datenbank des Online-Angebots ab

Internet World Germany 2002 bekommt Zuwachs
Die Internet World Germany bekommt Gesellschaft. Unter dem Motto "5 Messen - ein Standort" finden vom 4.- 6. Juni auf dem Berliner Messegelände parallel zur Internet World Germany 2002 vier weitere Messen statt: die Streaming Media Germany, die ISPCON/ASPCON, die Mobile World und die Call Center Trends. Insgesamt werden mehr als 1.200 Aussteller und 90.000 Fachbesucher erwartet

US-Wirtschaft: Billionen-Grab Internet

Nach den neuen Bilanzierungsregeln müssen US-Unternehmen offen legen, wie viel Geld sie durch die geplatzen Internet-Träume verloren haben. Diese Monster-Abschreibungen werden offenbar beispiellose Ausmaße erreichen.

New York - Den Anfang machte AOL Time Warner. 40 bis 60 Milliarden Dollar müsse das Unternehmen nach den neuen Richtlinien abschreiben, sagte Richard Parsons, der im Mai den Chefposten des Medienkonzerns übernimmt.

Nach Ansicht von Alfred King, Vizechef von Valuation Research und Berater der US-Regierung, öffnet das Eingeständnis von AOL die Schleusentore. Einem Bericht der Londoner "Times" zufolge erwarten er und andere Analysten, das US-Firmen im ersten Quartal insgesamt bis zu einer Billion Dollar abschreiben werden. Eine solch hohe Summe wäre in der Börsengeschichte ohne Beispiel.

Science

Wissenschaftler der Bell Labs bauen organische Transistoren
Wissenschaftler der Bell Labs von Lucent Technologies haben organische Transistoren mit einer Kanallänge von nur einem Molekül entwickelt und damit nach eigener Ansicht die Grundlagen für eine neue Klasse von preisgünstigen Elektronik-Bauelementen auf Basis von Kohlenstoffverbindungen geschaffen.

Nanoelektronik: Molekülgroßer Transistor entwickelt Zhenan Bao und Hendrik Schon, zwei Forscher von Lucents Bell Labs, haben den vermutlich ersten individuell adressierbaren Transistor gefertigt, der aus nur einem organischen Molekül besteht. Im Vergleich mit aktuellen Transistoren ist Bell Labs Ein-Molekül-Transistor nur ein Zehntel so groß - etwa zehn Millionen davon finden auf dem Kopf einer Nadel Platz.

IBM baut Quantencomputer
Forscher an IBMs Almaden Research Center haben die bisher komplizierteste Berechnung mit einem Quantencomputer durchgeführt. Mit sieben Qbits lösten sie eine vereinfachte Version des mathematischen Problems, das das Herz heutiger erschlüsselungssysteme bildet.

Neuer IBM Supercomputer Blue Storm für Wettervorhersage
IBM hat vom European Centre for Medium-Range Weather Forecasts den Auftrag zum Bau eines neuen Supercomputers erhalten. Das Gerät soll Meteorologen für die Wettervorhersage in ganz Europa deutlich bessere und genauere Prognosedaten bieten als jetzige Systeme, beispielsweise in den Bereichen Frühwarnung bei Stürmen und Fluten oder für optimierte Schiffsroutenplanung.

IBM führt zum neunten Mal die US-Patentanmeldungsliste an
IBM hat sich im Jahr 2001 in den USA nun schon zum neunten Mal in Folge an die Spitze der Neuanmeldungen von Patenten gesetzt. Das Unternehmen konnte im Vergleich zum Vorjahr sein Patentvolumen um rund 20 Prozent steigern. IBM ist damit das erste Unternehmen, das insgesamt mehr als 3.000 Patente in einem einzigen Jahr zugesprochen bekommen hat.

Open Source: invers most http://www.google.de

Fortsetzung folgt...
 
 
 
 


·^·