Copy Link
Add to Bookmark
Report

Chalisti Ausgabe 14

eZine's profile picture
Published in 
Chalisti
 · 25 Apr 2019

 


CCCCC H H AA L I SSSSS TTTTTT I
C H H A A L I S TT I
C HHHHHH AAAA L I SSSS TT I
C H H A A L I S TT I
CCCCC H H A A LLLLLL I SSSSS TT I

Ausgabe 14 - (1.6. 1991)

Editorial.............................RC..........NRC1
OSI-Modell............................FA..........NFA3
Studenten und Kommunikation...........FA..........NFA4
Andrew Filesystem.....................FA..........NFA5
Alan Turing und Intelligenz...........DS..........NDS6
BSI-Workshop Boppard..................RC..........NRC7
Indivudal Network (IN)................NE..........NNE8
Wir leben laengst im Cyberspace.......NE..........NNE9
Kurzmeldungen.........................WJ..........NWJ2
Microcomputer/Zentrum fuer Rostock...........1-1
Apple ueberholt IBM im PC-Markt..............2-2
Dapa wird neustrukturiert....................3-3
Anhoerung zu Virtuel Reality.................4-4
X11R5........................................5-5
Impressum.............................RC..........NRC3


Erlaeuterungen: DS - Datenschleuder
RC - Redaktion Chalisti
BX - Redaktion BTX (Netzwerker)
WJ - DFN-Projekt Wissenschaftsjournalisten
NE - Uebernommen aus einem Netzwerk
ST - Kurzgeschichte
MK - MIK-Magazin
FA - Freier Artikel (Autorenangabe am Anfang oder
Ende des Artikels)

Die Artikelkennung (NDS1,NBX2,etc) dient zum suchen der Artikel mit
Editoren und Textverarbeitungssystemen. Mit der Marke 'NEXT' kann gleich
zum naechsten Artikel gesprungen werden.
------------------------------------------------------------------------------
NEXT NRC1

Auf ein neues ...

Nach 2 Monaten Ferien ist die Chalisti nun wieder da. Viel zu erzaehlen gibt
es diesmal eigentlich nicht. Die Chalisti lebt so vor sich hin, sucht
krampfhaft Leute die was schreiben, der Redaktaeur ist zu grossen Teilen
damit beschaeftigt auf seinen Mitredakteur zu warten und die naechste
Ausgabe so zwischen 1.7. und 15.7 erscheinen.

Vielleicht ist noch zu berichten, dass es tatsaechlich Leute gibt, die die
Chalisti lesen. Beispielsweise hat ein Satz in der letzten Chalisti eine nette
kleine flamige Diskussion im Zerberus gestartet, wo es (wiedermal) um das
Selbstverstaendnix und Erscheinungsbild des Z-Netzes ging. Schade nur, dass
einige NUR diesen Satz gelesen haben.

Weiterhin ist zu berichten, dass demnaechst wohl das Medienzentrum Hamburg
die Chalisti aufgearbeitet in Form einer Diskettenzeitung verbreiten wird.
Dies wird allerdings nur in Hamburg und gegen Geld zu beziehen sein. Aber
mal sehen, wie das ankommt.

Sonst gibt es nix zu berichten. Die Welt ist mehr oder minder friedlich. Es
sind 11 Grad ueber Null, dass Wetter dunkel und die Terminals ziemlich
gefensternt ..

Redaktion Chalisti
------------------------------------------------------------------------------
NEXT NFA3
Die sieben OSI Schichten
------------------------

Grosse Programme zerlegt man i.A. in kleinere Module, zwischen denen
man dann exakte Schnittstellen definiert. Das macht die Angelegenheit
uebersichtlicher und man kann Module austauschen, ohne dass die
anderen geaendert werden muessen.

Bei den OSI Protokollen ist man genau diesen Weg gegangen um die
sehr umfangreichen Protokolldefinitionen zu gliedern. Eine
Verbindung zwischen zwei Programmen durchlaeuft 7 'Schichten',
die die Datenpakete aufbauen, die schliesslich auf die
Leitung gehen.

Die Schichten liegen uebereinander und verstaendigen sich nur
mit den direkt darueber und darunter liegenden Schichten.
Jede Schicht stellt der ueber ihr gelegenen Schicht einen
'Dienst' zur Verfuegung. Um diesen Dienst erbringen zu koennen,
greift sie dabei auf die direkt unter ihr liegende Schicht zu
und nutzt deren Dienste. Im Allgemeinen heisst das, dass eine
Schicht von oben eine Anweisung oder ein Datenpacket bekommt.
Dieses wird evtl. mit zusaetzlichen Informationen (Bytes) versehen
und an die naechsttiefere Schicht zur Weiterbearbeitung
durchgereicht.

Die Kommunikation erfolgt abstrakt durch den Austausch von
'service primitives'. Das koennen in einer realen Implementation
Prozeduraufrufe, per message passing verschickte Datenstrukturen
oder sonst was sein (OSI beschreibt nicht die Implementierung,
sondern nur das abstrakte Zusammenspiel der Schichten).

Betrachten wir z.B. das service primitive N-CONNECT.request:
Es wird von der Transportschicht (Layer 4) mit einer Hand
voll Parameter (Adressen, quality of service, ...) an die
Netzwerkschicht (Layer 3) gesendet und fordert die Netzwerkschicht
auf, fuer die Transportschicht eine Netzverbindung aufzubauen.
Falls die Netzwerkschicht z.B. das X.25 Protokoll unterstuetzt,
wird ein entsprechendes Call-Datenpacket (protocol data
unit = PDU) zusammengestellt und zur Uebertragung an die
Schicht 2 weitergereicht (mit einem DL-DATA.request).

Auf dem Zielrechner wird nun von Schicht 3 an Schicht 4
ein N-CONNECT.indication gemeldet -- beim Telefon wuerde
man sagen, es klingelt. Nun muss diese Schicht 4 ein
N-CONNECT.response loslassen um 'abzuheben', was dann der
anrufenden Schicht 4 schliesslich als N-CONNECT.confirm bestaetigt
wird. Nun ist z.B. eine Schicht 3 Verbindung aufgebaut.

Es gibt im einzelnen folgende sieben Schichten:

1) Physical Layer (PHY)
-----------------------

Diese Schicht erlaubt es ueber eine Leitung oder ein anderes
Medium Bits zu uebertragen. Sie kuemmert sich um den Auf- und Abbau
der Leitungsverbindung (carrier signal aktivieren, ...) und um ein
eventuelles Umschalten der Senderichtung, falls ein halfduplex
Medium benutzt wird.

2) Datalink Layer (DL)
----------------------

Die Daten, die zwischen zwei Stationen ausgetauscht werden, werden
von der Schicht 2 mit einen fehlerkorrigierenden Protokoll
uebertragen. Sie stellt als Dienst also die fehlerfreie
Uebertragung von Datenpaketen auf einen physikalisch
an den Rechner angeschlossenen Zielrechner zur Verfuegung.
Meistens wird dazu eine Version des ISO HDLC Protokolls
eingesetzt (z.B. LAP-B bei X.25). Bei LANs wird diese Schicht
noch in eine Medium Access Control Schicht (MAC) und in eine
Logical Link Control Schicht (LLC) eingeteilt. Erstere regelt,
wer wann senden darf, die LLC uebernimmt die Fehlerkorrektur.
Fuer den Einsatz auf PCs wurde 1990 der HDLC Standard auch auf
asynchrone Schnittstellen (start/stop mode) ausgedehnt.

3) Network Layer (N)
--------------------

In einem Netz sind in der Regel nicht alle Knoten vollstaendig
miteinander vernetzt, sondern die Daten muessen ueber Zwischenknoten
(intermediate systems [IS], router, switches) weitergeleitet werden.
Zwischensysteme haben nur die untersten 3 Schichten. Ein
Datenpacket wird fehlerkorrigiert empfangen, es wird die
Adresse analysiert, die die sendende Netzwerkschicht den
Daten angehaengt hat und schliesslich an den naechsten Knoten
weitergeleitet. Erst die Netzwerkschicht des Zielrechners gibt die
Daten nach oben durch. Unter OSI sind derzeit zwei Netzwerkprotokolle
definiert: Das X.25 (z.B. in WIN und DATEX-P verwendet) und
das CLNP (connectionless network protocol), dass dem Internet IP
sehr aehnlich ist und daher oft auch als OSI IP bezeichnet wird.
Da die Netzwerkschicht selbst noch einmal gegliedert ist,
kann man auch ein Protokoll ueber dem anderen benutzen.

4) Transport Layer (T)
----------------------

Dieses Protokoll sichert die Verbindung zwischen zwei Endsystemen
und wird von den intermediate systems nicht gelesen. Bei OSI
ist ein Transportprotokoll definiert, das in 5 unterschiedlichen
Leistungsstufen benutzt werden kann. Waehrend TP0 voll auf die
Sicherheit des Netzdienstes vertraut (was bei DATEX-P ausreicht),
fuehrt TP4 eine komplett fehlerkorrigierte Uebertragung durch
(wie sie bei CLNP noetig ist). TP1 versucht beim Zusammenbrechen
einer Verbindung, diese selbststaendig und ohne die hoeheren
Schichten zu informieren, neu aufzubauen (das ist bei instabilen
Netzen nuetzlich, bei denen hin und wieder ein disconnect auftritt),
TP2 erlaubt das Multiplexen von mehreren Transportverbindungen ueber
einen Netzanschluss und TP3 vereinigt TP1 und TP2. TP4 kann schliesslich
alles zusammen und ist mit dem Internet TCP vergleichbar.

5) Session Layer (S)
--------------------

Es ist oftmals notwendig, in einen Datenstrom Synchronisationsmarken
einzufuegen, die dann eventuell erst von der Partnerstation
bestaetigt werden muessen, bevor die Uebertragung weiter geht.
Wenn etwas schief geht, kann sich ein Programm dann auch auf so
eine Marke zurueckberufen und die Uebertragung neu starten.
Damit man so etwas nicht in jede einzelne Anwendung einbauen
muss, hat man bei OSI dieser Aufgabe eine eigene Schicht gewidmet.
Ausserdem koennen sich zwei Programme ueber diese Schicht
einigen, ob jeder staendig senden darf (duplex) oder ob
abwechselnd immer nur ein Partner dieses Recht haben darf.

6) Presentation Layer (P)
-------------------------

Fast jeder Rechner hat sein eigenes Datenformat. Mal kommt
bei 32bit Zahlen das niederwertigste, mal das hoechstwertigste
Byte zuerst, es gibt etliche Formate fuer Strings, REAL-Zahlen,
Uhrzeiten, etc. Die Presentation Layer wandelt die Daten der
Anwendungsschicht in ein netzeinheitliches Format um.

Man hat eine eigene Sprache (ASN.1) definiert, um das Format
der Datenpakete formal zu definieren. Genauso wie man mit
Grammatiken (EBNF, etc.) z.B. die Menge aller syntaktisch korrekten
C Programme sehr leicht festlegen kann, werden mit ASN.1
Datenstrukturen beschrieben, die als Pakete versendet werden koennen.
Dadurch werden die Normdokumente wesentlich uebersichtlicher,
als wenn man die Datenstrukturen nur in englischer Sprache definieren
wuerde. Es gibt inzwischen auch ASN.1 Compiler, die die formalen
Definitionen in C-Funktionen umwandeln, aehnlich wie man sich
mit dem bekannten YACC leicht Compilerskelette erzeugen lassen kann.
In der Presentation Layer werden die zu sendenden Daten mit den Basic
Encoding Rules (BER) in Bytesequencen umgewandelt. Zuvor werden
noch mit der Partner-Presentationschicht die verwendete Grammatik
und die Encoding Rules ausgemacht.

7) Application Layer
--------------------

Hier gibt es eine ganze Reihe von verschiedenen Protokollen,
die den darueberliegenden Anwendungsprogrammen (oder evtl.
auch nur dem Betriebssystem) anwendungsspezifische Dienste
zur Verfuegung stellen. Einige der bereits definierten
Anwendungsprotokolle sind:

- X.400: (auch MHS = message handling system genannt) Ein Protokoll
(eigentlich mehrere), dass es erlaubt, zwischen Rechnern
electronic mail auszutauschen.
- FTAM: (file transfer, access and management) Es koennen einfach
nur Files uebertragen werden (wie bei Kermit) oder es kann auch
voll auf das Dateisystem des anderen Rechners zugegriffen werden
(create file, copy file, list directory, change directory,
auf einzelne Records zugreifen, einfuegen, loeschen, ...)
- VT: (virtual terminal) Ein Rechner fungiert als Terminalemulatur,
ueber den dann der User mit einem Host arbeiten kann. Das
Protokoll unterstuetzt Dienste, mit denen der Hostrechner
den Bildschirm des Users steuern kann (Schriftarten, Farben,
Eingabemasken, Cursorsteuerung, Schirm loeschen, ...)
- DS: (directory service) Eine Art globales ueber das Netz verteiltes
Telefonbuch. Man kann z.B. ueber meinen Namen und die Tatsache,
das ich an der Uni Erlangen in Deutschland bin (c=de;o=uni-erlangen),
meine e-mail Adresse heraussuchen (meine bevorzugte ist markiert),
ebenso wenn ich es eingetragen habe, meine Adresse, Telefonnummer,
Faxnummer, mein oeffentliches FTAM directory, eine kurze
Beschreibung meiner Taetigkeit/Stellung uvam.
- CMIP: (common management information protocol) Grosse Netzwerke
mit vielen Knoten muessen oft von einem zentralen System
Administrator verwaltet werden. Mit CMIP kann er auf die
Resourcen der einzelnen Rechner zugreifen und z.B. Passwoerter
eintragen, neue Softwareversionen installieren/patchen,
Fehlermeldungen empfangen (Platte voll, Leitung weg,
Stromausfall, Einbrecheralarm, uvam.) und noch einige
tausend andere Sachen tun.

Es gibt noch einige andere Protokolle (Spezialprotokolle fuer
Bibliotheken, Banken, ...) und viele sind noch geplant
(News Service, Multimedia, ...).

Ausserhalb des Schichtenmodelles definiert OSI noch eine
Management- und eine Security-Architektur, die alle Schichten
umfasst.

Einfuehrungsliteratur:
----------------------

- Uyless Black, OSI - A Model for Computer Communications Standards,
Prentice Hall 1991, ISBN 0-13-637133-7, 528 S., DM 96,-.
- ISO 7489, OSI Reference Model, International Standards
Organisation, Genf 1984.


Dieser Text darf nach Belieben fuer nichtkommerzielle Zwecke kopiert
werden, wenn er in voller Laenge und ungeaendert uebernommen wird.
Ich uebernehme fuer den Inhalt keine Gewaehr.

Markus Kuhn, 16. Mai 1991,
X.400 : G=Markus;S=Kuhn;OU1=rrze;OU2=cnve;P=uni-erlangen;A=dbp;C=de
RFC822 : mskuhn@faui43.informatik.uni-erlangen.de
------------------------------------------------------------------------------
NEXT NFA4
Elektronische Kommunikation fuer Studenten

Berich des DFN-Workshops am 23.04.91 in Muenster

DFN ist die Abkuerzung fuer Deutsches Forschungsnetz und gleichzeitig
der Name eines Vereins mit Sitz in Berlin, der sich um den Aufbau eines
deutschen Forschungsnetzes bemueht.

Im Maerz 1990 erfuhr ich von Terra, dasz auf der letzten DFN Betriebstagung
die Problemstellung "Studierende und Netznutzung" aufgekommen sei, was
dazu gefuehrt hat, dasz der DFN e.V. im April dazu eine gesonderte
Veranstaltung durchfuehren wuerde. Ort der Veranstaltung werde Muenster
sein. Als Studi-Vertreter der Fachschaftsvertreterversammlung, der
unabhaengigen Studierenden-Vertretung der Universitaet Stuttgart, fuehlte
ich mich sogleich berufen, da mitzumischen. Natuerlich braucht man dazu
erst einmal eine Einladung. Also habe ich bei der DFN Geschaeftsstelle
angerufen und mich nach Ort und Verfahren dieser Veranstaltung erkundigt.
Man gab mir die Telefonnummer des Rechenzentrums der Westfaelischen
Wilhelms-Universitaet in Muenster, welches mir sofort eine Einladung
zuschickte. Diese wurde dann ins Netz gepostet, inkl. Ankuendigung eines
"Vorgespraechs" mittels Internet Relay Chat. Ob wir das schon tun
koennen sollten VOR diesem Workshop und trotz der segensreichen Arbeit
des DFN ?

In den folgenden Wochen wurde eifrigst auf diese Veranstaltung hin
mobilisiert, damit auch eine ausreichende Vertretung der studentischen
Interessen gewaehrleistet sei. Anrufe bei ASten oder nicht auf dem Netz
vertretenen Menschen brachte leider meist nur Desinteresse oder totales
Unverstaendnis hervor. Keiner der angesprochenen wuszte von der
Veranstaltung. Selbst die Studi-Vertretung in Muenster war nicht
informiert. Gluecklicherweise meldete sich jemand aus Muenster (allerdings
keine Studi, hi, Daniel 8), so dasz man schon ahnte, welches dunkle
Zeitalter man netz-technisch in Muenster zu erwarten hatte.

Durch die Einladung konnte man ersehen, dasz dort Naegel mit Koepfen
Gemacht werden sollten. Der Prorektor der WWU Muenster sollte die
Veranstaltung eroeffnen, Hr. Haupt aus Aachen, der im Vorstand
des DFN Verwaltungsrats ist, sollte in das Thema einfuehren. Einen
Vortrag ueber das WIN wollte Hr. Maass aus Berlin von der Zentralen
Projektleitung (DFN-ZPL) halten. Er ist Geschaeftsfuehrer des DFN-Vereins.

Am 23.04.91 fuhren also zwei Delegierte der FaVeVe nach Muenster,
natuerlich per Zug. Beim Aussteigen stolperten wir sogleich ueber
die Studi-Vertreter der FS Informatik aus dem Saarland, sie hatten
seit Mannheim einige Abteile von unserem entfernt genaechtigt.
Es war natuerlich auch etwas frueh (bei der Bundesbahn hat man bei
Reisen immer die Wahl zwischen "zu frueh" und "zu spaet"...), also
blieb noch genug Zeit, um mal kurz im Rechenzentrum vorbeizuschauen.
Wir waren nicht ueberrascht...

Beim AStA-Buero, ca. 200m vom Veranstaltungsort, sah es nicht so aus,
als ob sich jemand fuer solche technischen Dinge interessierte.

Also liefen wir gegen 10 Uhr am Ort der Veranstaltung ein - sie
sollte letzten net.rumors zufolge schon frueher als in der Einladung
angekuendigt stattfinden - und fanden den Raum verschlossen.

Waehrend der Warterei fanden sich dann langsam einige Leute ein, die
man so aus dem Netz kennt. Z.B. Daniel Roedding, der in einem irgendwie
per Netz an die Uni angeschlossenen Krankenhaus seinen Zivildienst
abfeiert. Oder Heiko und Vera von der FU Berlin, sowie (natuerlich)
Terra (Oldenburg) und Framstag (Ulm). Desweiteren traf auch ein Studi aus
Muenster ein, der hier einen Vortrag halten sollten, sein Thema waren
Mailboxnetze. Ferry kam aus Hannover, er kannte das Problem mit dem
Netzwerkzugang fuer Studierende aus eigener Erfahrung.

Und endlich begann wie auf der Einladung angekuendigt, um 11:30 Uhr der
Workshop. Die aelteren Krawatten muszten sich sogleich vom normalen
Volk distanzieren, indem sie sich Tische passend zurechtrueckten.

Sodann wurde das Programm kraeftig umgekrempelt. Die fuer den Nachmittag
vorgesehenen Vortraege der Studierenden wurden direkt im Anschlusz
gehalten, die Krawatten redeten erstmal kraefig drauf los, ohne dasz
man wuszte, wer sie denn nun eigentlich seien. Schlieszlich kann man
nicht immer vom Inhalt der Rede auf den Programmpunkt und damit auf
den Redner schlieszen :)

Der Prorektor sprach davon, dasz das RZ der WWU diese Veranstaltung
durchfuehren wuerde, weil sie in naechster Zeit eine komplette
Auswechselung der Computer-Infrastruktur vorhaben. Hier sei die
Gelegenheit, die Wuensche der Studierenden einzubringen.

Hr. Haupt definierte als Ziel, Verfahren zu entwickeln, die Studis
Zugang zum Netz ermoeglichen sollten. "Natuerlich nicht unbegrenzt",
schraenkte er ein, in Anspielung auf das 50GB/Monat Limit, welches
im Vertrag zwischen Bundespost und DFN bein wissenschaftlichen
Hochschulnetz (WiN) festgelegt wurde.

Hernach begannen die 5 Vortraege der Studis. Der erste Vortrag war
von einem Studi der TU Muenchen, der ueber das Projekt mit IBM berichtete,
bei dem 100 Mod.70 unter AIX Studierenden der Informatik fuer ein Jahr
nach Hause gestellt wurden, inkl. Modem. Dafuer muszten sie ca. 300 DM
an Versicherungs- und Wartungsvertraegen bezahlen.
Die Modems waren 1200 Baud schnell (schnell ? postzugelassen...), die Rechner
mit 60 MB-Platten (fuer AIX !) und mit dieser Konfiguration sollten
sich die Studis aktuelle Informationen, Arbeitsblaetter
und anderer studienbezogener Daten von der Informatik-Fakultaet abrufen.
Auf der Institutsseite war eine IBM 9370 unter VM/CMS (!) als Server
gedacht. Daran waren insgesamt 8 Modem-Leitungen angeschlossen.
Zwar war geplant, auch den Zentralrechner unter AIX laufen zu lassen,
dies wurde aber waehrend der gesamten Laufzeit des Projekts nicht
realisiert. Zwar war fuer die Studis die das Abrufen von Arbeitsblaettern
und aehnlichem theoretisch arbeitssparend, nur wurden diese Texte als
.dvi-Files bereitgestellt, doch den Studenten wurden keine Drucker
beigegeben. Kurz und gut: Die Zusammenstellung der Komponenten
(Zentralrechner, Modem, Platten usw) war Mist. Lt. Studi war auch die
Nutzung insgesamt bescheiden. Dasz zu irgendeinem Zeitpunkt zwei Studis
gleichzeitig auf dem Zentralrechner eingeloggt waren, kam praktisch
nicht vor. Nutzer in der Fernzone 1 hatten monatliche Rechnungen von
DM 30, was darauf schlieszen laeszt, dasz sie das ganze praktisch nicht
verwendeten.
Peinlich war, als am Nachmittag der mitreisende Wiss.Mitarb. der TU
Muenchen zugab, dasz sie die Geraetschaften beim Auslaufen des Projekts
von IBM gekauft hatten.

Der zweite Vortrag beschrieb die derzeitige Nutzung von
Telekommunikationseinrichtungen durch Studis, die keinen Netzzugang an
der Uni haben. Meist wird dann ein Mailbox-Projekt gestartet. So auch
hier, in Muenster hatten Studis eine Maus-Netz-Box aufgezogen. Fuer Ein-
geweihte war daher die Aehnlichkeit des Vortrags zu einem Artikel eines
gewissen Michael Keukert in einer der letzten Ausgaben des Computermagazins
C't nicht verwunderlich. Schluszwort des Studis: Zusammenarbeit,
Integration und Vernetzung von Privatnetzen mit den Forschungsnetzen,
damit Studis auch von Zuhause auf die Dienste dieser Netze zugreifen
koennen. Worauf Hr. Maasz vom DFN verwundert fragte: "Welche Privat-Netze
denn ?".

Der dritte Vortrag von Studierendenseite brachte Vorschlaege zur
Gestaltung des Zugang und der Verwaltung von Netzzugaengen. Es wurde
klar, dasz saemtliche vortragende Studis aus Muenster von der
Jura-Fakultaet kamen und dort den CIP-Pool betreuen. Dementsprechend
wurde auch der Bedarf bezueglich Netzzugang artikuliert. Z.B. ist
derzeit ein direkter Zugriff auf Datenbankdienste fuer Studierende
nicht moeglich. In Muenster wurden ueber Pauschalvertraege der
Fakultaet mit Juris Moeglichkeiten geschaffen, dennoch intensive
Recherchen durchzufuehren. Als Aufgabe fuer den DFN wurde es angesehen,
ueber Verhandlungen mit den kommerziellen Datenbankanbietern guenstige,
volumenunabhaengige Zugaenge bereitzustellen, die es Studis ermoeglichen,
mit solchen Netz-Resourcen umzugehen.

Ueber Zwischenfragen der Zuhoererschaft kam man aber schnell zu dem
Punkt, dasz eigentlich nicht die Nutzung der Rechnernetze das
Problem sei, sondern zuallererst der uneingeschraenkte und NICHT
auf die Erledigung bestimmter Aufgaben (Semesterarbeiten, Praktika,
Hiwi-Jobs) ausgerichtete Zugang zu Rechnern selbst der derzeit
limitierende Faktor ist. Eine der Krawatten, ein hoher Vertreter des
nordrheinwestfaelischen Wissenschaftsministeriums, war allerdings
sofort bereit, dieses Recht Studierenden zuzugestehen. Auch Hr. Haupt
sah darin keine prinzipiellen Probleme. Beide werden sich dennoch
hueten, diese Meinung jemals zu veroeffentlichen, was wuerden denn
die ganzen Kollegen in den Rechenzentren sagen ?

Der vierte Vortrag ist mir entfallen. Seit fuenf (5!) Wochen
warte ich auf den Block mit Notizen, der sich derzeit in Unido
aufhaelt :)

Der fuenfte Vortrag war nicht vorgesehen. Terra hielt es auf
seinem Stuhl nicht mehr aus und erzaehlte, wie der Netzzugang an
der Uni Oldenburg geregelt ist (wer Zugang zum Rechnernetz haben will,
bekommt einen Account), was man gegen uebermaeszige Netzbelastung tut
(man erklaert demjenigen, wie das Netz funktioniert, zeigt ihm, wie er
sein Problem mit weniger net.load loesen koennte oder wo hier in
Deutschland Software und Informationen zu finden sind) und wie man mit dem
sogenannten Sicherheitsproblem umgeht (Wenn Probleme auftreten, sind die
Studis ermutigt, sie zu berichten und Vorschlaege zu machen, wie man sie
behebt - im Gegenzug gibt es keine Stelle im Netz, wo man ihnen den Zugriff
ohne Erklaerungen verweigert).

Die Vortraege der Studis waren somit vorbei und es wurde Zeit zum
Mittagessen (Warum ich das hier schreibe ? Weil ich Kohldampf schiebe,
es ist 19:27:41 und seit 10 Uhr habe ich nix mehr gegessen !).

Danach begann der "professionelle" Teil.

Ein Hr. Kaufmann von ZPL-DFN stellte in einem Vortrag X.400 als DIE
Loesung fuer das Problem elektronic mail vor. Es stellt sich
die Frage, ob der DFN dann in Kuerze weiterhin Statistiken
ueber den Traffic ueber den X400-Gateway publiziert, wenn diese
Mengen abnehmen. Es gibt ja Geruechte, dasz jene, die X400 zu Beginn
verwendet haben, auf funktionierende Mailsysteme umsteigen. Und
wer schonmal den cosine-mhs-server@nic.switch.ch verwendet hat,
um Informationen ueber dieses X400-Projekt zu bekommen, der steht
solchen Verkaufsvortraegen kritisch gegenueber.
Interessant die Kosten fuer den 2-Mbit-X.25-Anschlusz ans WIN, sofern
er jemals kommt. Eine Uni soll DM 250000 pro Jahr fuer diese
Kapazitaet zahlen.

Ein Mensch der Akademischen Software Kooperation stellte den
Software-Server der ASK vor. Dieser soll dabei helfen, nuetzliche
Software zu finden, indem man in einer Datenbank schluesselwort-
orientiert sucht. Zusaetzlich werden textuelle Informationen und
Mailing Lists zur Verfuegung gestellt. Das ganze soll ein beispiel-
haftes Modell eines Informationsserver sein. Auch der DFN bietet so
etwas ja an (telnet cadmus2.dfn.de, login infosys, passwd <RETURN>).
Vorteilhaft an diesem System ist die Verbindung zu aehnlichen Diensten
z.B. auf ZIB-Berlin.de und v.a. ins JANET, wovon dort allerdings nicht
die Rede war.

Und schluszendlich stellte die Studienberatung der Fern-Uni Hagen
dar, was sie an Diensten fuer die Studis bereitstellt. Davon weisz
ich leider nicht mehr viel.

Und dann kam der auf der Einladung so vielsprechende Tagesordnungspunkt
"Diskussion ueber das weitere Vorgehen". Maass vom DFN legte eine
Folie auf, in der er seine Notizen der Diskussion zusammenfaszte.
Dummerweise hat sich niemand diese Folie mitgeschrieben, d.h. kann
auch niemand eine Zusammenfassung dieser Folie geben. Nur eins ist
klar: Dienste, die ueber die Moeglichkeiten der OSI-Protokolle
hinausgingen, waren umstritten. Eine starke Gruppe forderte
Konferenzdienste a la USENet und die Krawatten wuszten nicht,
was denn der grosze Unterschied zu Mailing Lists sein sollte und
ob es d.h. nicht reicht, Mailing Lists anzubieten. Dasz solche
Konferenzdienste verteilt ablaufen mueszten, verstehen die
Herren nicht, aber dennoch musz solch ein System ja zig-tausend
Nutzer vertragen und welcher einzelne Rechner tut das schon ?
Gluecklicherweise existiert schon eine Arbeitsgruppe X.gc (group
communications), so dasz die in OSI-Normen denkenden Krawatten
die Hoffnung hatten, die Einfuehrung solcher Dienste bis auf
die Verabschiedung dieser X.gc-Norm verschieben zu koennen.

Umstrittener war daher interaktives Conferencing, welches sich z.B.
als Bitnet Relay, Internet Relay Chat oder ICB steigender Beliebheit
erfreut. Dafuer ist auch in ferner Zukunft kein OSI-Protokoll zu
entdecken, ich weisz immer noch nicht, ob es jetzt auf der
offiziellen Liste der von Studis benoetigten Dienste steht.

Kaum war diese Liste soweit "vervollstaendigt", kam der naechste
Vorschlag. Der DFN wolle ein Pilotprojekt "Studenten und Netzzugang"
starten. Maass schlug vor, die Initiative hier in Muenster zu
nutzen und es hier zu veranstalten, natuerlich in Zusammenarbeit
mit einer Partner-Uni. Es wurde sofort Uni Oldenburg benannt, denn
alle anderen Unis waren nicht durch Entscheidungstraeger vertreten.

Bei den offiziellen Studierendenvertretern stiesz solch ein
ueberhastetes Vorgehen auf Widerstand, schlieszlich koenne man nicht
ohne Absprache irgendwelche Projekte starten, die u.U. bundes-
weite Auswirkungen haben, ohne entsprechend Studierendenvertretungen
zu beteiligen. Zwar waren in dem Projekt durchaus noch die Ansprechpartner
AStA und Fachschaft frei, doch fuer uns war abzusehen, dasz sich
Studis aus diesen Gruppen aus Muenster nicht melden koennten, weil
sie von der Veranstaltung (lt. Telefongespraech eine Woche spaeter mit
dem dortigen AStA) nichts davon wuszten. Und die krawatten-tragenden
Vorzeige-Studis der Fak. Jura wuerden sicher nichts verraten.

Also zauberte Maass kurzerhand den Titel "Know-How-Partner" aus
dem Sakko und "verlieh" ihn an Flynn von Ulm (Framstags Kollege
aus der Fakultaet Ulm) und mir.
Damit war die Opposition ruhiggestellt (wohl eher sprachlos) und
Maass verkuendigte, dasz dieses Projekt damit stattfinden werde.
Terra schlug vor, dasz fuer die Teilnehmer wegen der weiten raeumlichen
Verteilung eine Mailing Liste eingerichtet werden solle, er koenne
das uebernehmen und so wurde es beschlossen.

Damit hatte die Veranstaltung ihren Hoehepunkt erreicht und wurde
flugs beendet.


Was geschah danach ?

Die FaVeVe-Delegation ging ersteinmal Pizza essen (Es ist 21:30 und
ich habe immer noch nichts zu essen...)

Nachdem eine Woche ins Land gegangen war und immer noch keine
Mailing Liste entstanden war, bekam ich von Terra die Information,
dassi die muensterraner Jurastudenten am Schluss der Veranstaltung noch bei
Maas gewesen sind und sich beschwerten, dass ihnen das "Heft aus der Hand
genommnen wird". Die Maillinglist wollten die Muensterraner selbst
einrichten. Sie existiert somit immer noch nicht.

Viele der Teilnehmer, die sich von den Netzen her kennen, waren verwundert,
warum der DFN solch ein Projekt in dieser Art durchpeitscht, wobei
er in der Diskussion jahrzehnte alte Bastionen der Unis wie
"Restriktiver Zugang zu Rechnern und Netzen" so einfach aufgab.
Kaum waren Forderungen, die sonst utopisch erschienen, wie die
Verbindung zu privaten Netzen oder Indials in das Uni-Netz, genannt,
schon beruhigten uns die Krawatten: "Klar, kein Problem".

Das BMFT, welches lt. Hrn. Haupt bisher 100 Mio DM fuer die Errichtung
und den Ausbau des Deutschen Forschungsnetzes ausgegeben hat, hatte
im neuen Haushaltsjahr einen Etat-Rueckgang zu verzeichnen. Dennoch
muszte der Raumfahrtanteil gesteigert werden. Also muszte woanders
gespart werden. Selbst sichere Etatposten wie z.B. bei der GMD (einer der
13 Groszforschungseinrichtungen der BRD) fielen, so scheint es mir nicht
abwegig, dasz auch der DFN von seinen Foerderern in die Nacht geschickt
wurde: "Geh, such Dir andere Toepfe"...

Und dann stellte der DFN ploetzlich fest, dasz es sicher auch noch
andere Ministerien geben wuerde, die etwas Geld haben, wie z.B. das
Bundesmist. fuer Bildung und Wissenschaft und die Landesministerien
fuer Wissenschaft, die die Unis wegen der Kultus-Hoheit der Laender
verwalten. Wenn man denen das Netz als Infrastruktur fuer die
gesamte Uni verkaufen koennte, dann wuerden die ja vielleicht
auch was bezahlen.

Und damit ist klar, was dieses Projekt ist: Ein Potemkinsches Dorf.

Die Tatsache, dasz keine Studierendenvertretungen ueber diesen
Workshop informiert wurden (selbst der AStA oder die Fachschaft Jura
von Muenster nicht), und dasz die Vorzeige-Studis auch erst auf
direkte Ansprache durch die Workshop-Organisatoren was zu sagen hatten,
diskreditiert die ganze Show.

Bis heute habe ich keine Wort mehr von irgendeinem der Projektteilnehmer
gehoert.

PI (pi@complx.stgt.sub.org)

------------------------------------------------------------------------------
NEXT NFA5

Bericht ueber den Vortrag von Dr. John Howard:

"Managing Thousands of Workstations in a Distributed
Computing Environment".

Der Vortrag mit reger Beteiligung der fachkundigen Anwesenden
fand am Mittwoch, den 10.April 1991 am Rechenzentrum der TH
Darmstadt statt.

Dr. John Howard ist Direktor des "Information Technology Centers"
kurz ITC. Dies ist ein Forschungsinstitut der Carnegie Mellon
Universitaet in Pittsburgh. Seit acht Jahren wird dort in
Zusammenarbeit mit IBM das AFS entwickelt. Das AFS (Andrew File
System) ist ein Unix-Dateisystem das die bisher noch vorhandenen
zentralen timesharing Systeme abloesen soll. Die Leute von OSF
(Open Systems Foundation) haben das AFS zum zukuenftigen Standard
erhoben. Es beansprucht fuer sich sowohl Desk-Top-Computing wie
auch zentrale Dienste zu integrieren. Im wesentlichen sind dies:

- Netzwerkanbindungen
- ein verteiltes Dateisystem
- elektronische Post und "Schwarze Bretter"
- Druckservice
- Workstation Support

Zu Beginn des Vortrages stellte Dr.Howard die Situation an der
Carnegie Mellon Universitaet dar. Dort sind ca. 5500 Studis und
ein Personalstamm von ca. 1500 Menschen. Diese arbeiten an ca.
2500 Workstations und/oder PCs. Das Rechenzentrum bietet fuer
alle Universitaetsmitglieder einen zentralen Service und
technischen Support. Der Service beinhaltet die bereits oben
aufgelisteten Punkte sowie einen auf Wunsch umfassenden
Anwenderservice (fuer Hard- und Software).

Das Rechenzentrum betreibt sogar einen eigenen Computer-Laden mit
Werkstatt in dem sowohl gebrauchte wie auch neue Computer
umgesetzt werden. Dr. Howard erwaehnte, dass dies ca. 3000 Apple
Macintoshs und ca. 2000 ATs (Neugeraete) sind, die hier pro Jahr
verkauft werden. Die Universitaet bietet den Studenten einen
Finanzierungsservice ueber den Zeitraum von vier Jahren an, der
stark genutzt wird. Die Organisation der LANs (lokalen
Netzwerke) folgt einem sehr einheitlichen Prinzip: Workstations
sind grundsatzlich nur an ein LAN anzuschliessen. Jedes LAN muss
ueber einen Router mit dem Backbone verbunden sein. Am Backbone
sind Fileserver und Mainfraimes verfuegbar. Eine Cray YMP ist
ueber einen weiteren Router am Backbone angeschlossen. Als LANs
werden Ethernet und Token-Ring eingesetzt. Alle TCP/IP -Dienste
werden unterstuetzt. Am Backbone ist FDDI im Einsatz. Bei allen
groesseren Strecken sowie bei stark beanspruchten Leitungen wird
Glasfaser als physikalisches Medium bevorzugt. Das Rechenzentrum
macht auch die zentrale IP-Verwaltung. Innerhalb von 24 Stunden
ist kann ein interessierter Anwender seine IP-Nummer, Passwort
und seinen Plattenplatz im AFS erhalten. Als UserId wird
grundsaetzlich der Vor- und Nachname des Users verwendet.
Nameserver-Service gehoert zu den zentralen Diensten des
Rechenzentrums. Im Andrew-File-System erhaelt jeder Student bis
zu 4MB zentralen Platten- platz um am internationalen
Mailverkehr, IP-Diensten wie ftp, rlogin usw., und den Bulletin
Boards incl. dem News -System teilehmen zu koennen !

Im AFS wird ein zentraler Backup-Service angeboten. Dies betrifft
genauso wie Plattenplatzkontingente natuerlich nur die Dateien
die auf den Fileservern abgelegt sind. Um die lokalen Platten,
die das Kontingent auf den zentralen Fileservern weit
uebersteigen kann, muss sich der User natuerlich selbst kuemmern.
Das AFS bietet einen voll-transparenten Zugriff von den WS (Work-
stations) auf die Fileserver und einen etwas eingeschraenkteren
Zugriff von kleinen Computern aus. Bei Dateizugriffen werden die
jeweiligen Dateien vollstaendig lokal herkopiert und vollstaendig
gecached (das Wort habe ich zwar nicht aus dem Duden aber es ist
eben einfacher als eine deutsche Umschreibung). Probleme sind
(lt. Dr. Howard dabei kaum aufgetreten), jedoch gab es eine
Diskussion in der Zuhoererschar die hier einige Faelle
konstruierte bei denen es zu unerwuenschten Ergebnissen kommen
koennte.

Das AFS beinhaltet ebenfalls die Benutzeridentifikation,
Kontrolle der Zugriffsrechte einzelner Gruppen und Benutzer,
logische Laufwerke, "Administrative Zellen" und den bereits
erwaehnten Backupservice. Fuer WS ohne Festplatten stehen
logische Platten im AFS transparent zur Verfuegung. Die Security
ist gewaehrleistet durch verschlusselte Tickets die auf einem (!)
Rechner abgelegt sind. Hierzu gab es eine laengere Diskussion
ueber den genauen Vorgang und den Ausschluss von "unerwuenschten"
Usern. Es wurde dabei auf das in allen Systemen bestehende
Problem trojanischer Pferde aufmerksam gemacht. In seinem home-
Verzeichnis hat jeder Teilnehmer im AFS ein Unterverzeichnis
Mailbox und ein Unterverzeichnis Backup. Im Unterverz. Backup
findet jeder User die Dateien des vorherigen Tages wieder. Im
Unterverzeichnis Mailbox besteht write-access (nicht read-access)
fuer world! Zur Mailbox komme ich nochmal zurueck.

ACLs (Access-Control-List) -- Masken mit Zugriffsrechten --
existieren fuer jedes Verzeichnis extra mit Eintragungen fuer die
jeweilige Gruppe. Standard Gruppen sind AnyUser, AuthUser,
Admins und Operators. Die Gruppen koennen erheblich erweitert
werden! Ein User kann in vielen Gruppen eingetragen sein, ohne
dass dies zu irgendwelchen Schwierigkeiten, Kollisionen o.ae.
fuehren wuerde.

Ein Problem, deren Loesung von jedem Dateisystem verlangt wird
sind die logischen Laufwerke, da in der Regel viele Fileserver
und viele User im Netz umherschwirren. Im AFS kann eine grosse
Anzahl logischer Platten eingerichtet werden. Eine logische
Platte kann im AFS allerdings n i c h t ueber verschiedene
physikalische Platten verteilt werden. Dies ist in anderen
Filesystemen besser geloest. Ueber diesen Punkt wurde laenger
diskutiert. Dr.Howard sah hier kein grosses Problem, jedoch
einige der Anwesenden. Die logischen Platten sind untereinander
verbunden durch "mount points". Es ist moeglich, die logischen
Platten waehrend des normalen Userbetriebs auf andere
physikalische Platten zu verschieben. Auf sofortige Nachfrage aus
dem Kreis der Zuhoerer meinte Dr. Howard: "it is n o t easy to
do it --- but we do it !" --allgemeines Grinsen..... Das AFS
nutzt logische Laufwerke u.a. fuer space-quota, assignments of
file- servers and partitions, migration on operator commands,
replication on ReadOnly data, unit of backup and restore
(Uebersetzung spare ich mir hier). Das AFS kann in
"administrative Zellen" unterteilt werden, die jeweils eigene
Fileserver, Userlisten, Systemadministratoren und
Systemkontrollen haben koennen. Server kennen nur ihre eigenen
Zellen! Dr.Howard gab hier noch Beispiele wie sie an der Carnegie
Mellon Univeritaet existieren.

Das ATK: Zum Andrew File System gehoert das Andrew Toolkit (kurz:
ATK). Fuer den Enduser stehen hier u.a. ein Editor (mit
Einbindungsmoeglichkeit von Tabellen und Grafiken) und ein
Hilfe-System netzweit zur Verfuegung. Ebenso die Anwendungen
eines multimedia Systems mit verschiedenen Programmiersprachen,
Tabellenkalkulationsprogrammen, Raster- und
Vektorgrafikverarbeitung, dynamischen Linkern usw.

Wesentlicher Punkt des ATKs ist das "Andrew Messages Program".
Es enthaelt einen E-Mail-Editor, der ausser dem ueblichen Text
auch Rastergrafik mit einschliesst. Die Mails koennen auch von
anderen Editoren gelesen werden (enthaltene Rastergrafik kann
man/frau dann eben nicht sehen). Ein weiterer Bestandteil ist
das Bulletin Board System, bei dem sowohl eigene (lokale)
Schwarze Bretter mit verschiedenen Hierarchiestufen bis zu
internationalen News, Digests usw. verwaltet werden koennen. An
der Carnegie Mellon Universitaet sind hiermit ca. 2000 Mails pro
Woche und ca. 3000 folder im BBS zu verwalten. Netzweit ist ein
benutzerfreundliches Hilfesystem verfuegbar (vergleichbar mit dem
von IBM verkauften INFO-System fuer X-Windows unter AIX).

Weitere Dinge die noch erwaehnt wurden, sind der zentrale
Update-Service und der Druck-Service im AFS. Gedruckt wird auf
kleinen Postscript-Druckern. Dies ermoeglicht es an der CMU,
dass keinerlei Druckauftragskontrolle noetig ist, da die Drucker
langsam genug sind und eine Abrechnung teurer als das insgesamt
verbrauchte Papier waere !

Vincent Steger ; erreichbar unter: XBR1YD32@DDATHD21.BITNET

------------------------------------------------------------------------------
NEXT NDS6
Alan M. Turing und die Intelligenz

"Sage mir exakt, was der Mensch der Maschine voraushat, und ich werde eine
Maschine bauen, die Deine These widerlegt"

Ein Versuch
-----------
Das obige Zitat stammt von einem der (Ueber-) Vaeter der Informatik, dem
Englaender Alan Matheson Turing (1912--1953). Turing, Mathematiker,
Kryptologe (er war massgeblich an der Entschluesselung des deutschen
Enigma-Codes beteiligt), Computertheoretiker, bevor es ueberhaupt Computer
gab, Schoepfer der Turingmaschine (primitives Denkmodell, das aber prinzipiell
allen Computern gleichwertig ist) und des Turing-Tests. Sein beruehmtester
Artikel stellt die provokante Frage "Can Machines Think?" -- und er erlaeutert
dann eine praezise Methode, diese Frage fuer eine beliebige Maschine zu
klaeren.

Es soll also um kuenstliche Intelligenz gehen, diesen frustrierenden Zweig
der Informatik, der immer wieder feststellen muss: it Das, was wir gerade
geschafft haben, ist doch keine Intelligenz ?!

In den 50er Jahren meinte man, dass das Schachspiel unbestreitbar eine
Intelligenzleistung sei, und machte sich daran. Als man Erfolg hatte,
zerstob die Hoffnung. Das Finden mathematischer Saetze und Beweise erwies
sich als ebenso mechanisch loesbar wie das Verstehen (geschriebener, spaeter
auch gesprochener) Sprache, das Erkennen von Schriften, das Loesen von
angewandten Problemen.

Um auf Turings Zitat zurueckzukommen: Sicher gibt es Dinge, die Maschinen
noch (?) nicht gut koennen.

Insbesondere das Erkennen von Gesichtern, auch wenn sie durch Alter,
Krankheiten, Stimmung, Beleuchtung, Bewegung veraendert erscheinen. Es sieht
so aus, als seien Menschen ohne weiteres in der Lage, Gesichter auf das
Wesentliche zu reduzieren und daher wiederzuerkennen, ohne dass ihnen
dieser komplexe Vorgang ueberhaupt bewusst wird.

Ein weiteres, von den Verfechtern und Gegnern der kuenstlichen Intelligenz
immer wieder beschworenes Bild ist die Faehigkeit, aeus dem System
herauszuspringen", die ausgetretenen Pfade zu verlassen und zu neuen,
unerwarteten Ideen zu kommen. "Die Maschine kann nur tun, was wir ihr zu
befehlen wissen" (Augusta Ada Lovelace, geb. Byron, Mitarbeiterin von
Charles Babbage).

Ein Schachprogramm wird sich nie aus eigenem Antrieb die "Uberlegung
anstellen, sich durch bewusstes Verlieren (wie offensichtlich darf das sein?)
beim Gegenueber einzuschmeicheln, nach Verlusten sauer zu reagieren oder gar
vorzuschlagen, doch lieber 17 und 4 zu spielen.

Aber Schachprogramme schlagen ihre Programmierer -- ein Widerspruch?
Nein, denn ein Haus schuetzt auch besser vor Regen als ein Maurer.
Allerdings: "Der Mensch will betrogen sein", das zeigt der ungeheure (und
auch nicht "er-wuen-sch-te") Erfolg von Programmen wie "DOCTOR" / "ELIZA"
von Joseph Weizenbaum, einem der schaerfsten Kritiker der kuenst-lichen
Intelligenz. Das Programm simuliert einen Psychiater ("nondirektive
Therapie"), indem es auf definierte Schluessel-worte vorgegebene Textkonserven
auswirft. Viele Benutzer, obwohl vorher ausdrueck-lich auf diesen Charakter
des Programms hingewiesen, glaubten sich trotzdem it verstanden.

Die in letzter Zeit eher als "Abfallprodukt" der Forschung entstandenen sog.
"Expertensysteme" stellen eher eine Datenbank verknuepft mit einem Schluss-
mechanismus dar und werden von ernsthaften Leuten auch lieber als
"wissensbasierte Systeme" bezeichnet. Sie sind nicht besser als das ihnen
eingegebene Wissen (bestehend aus Fakten und Regeln), haben aber den Vorteil,
im Gegensatz zu echten Experten beliebig kopierbar zu sein, nicht krank zu
werden und keine Gehalts-erhoehungen zu fordern. Ihre Lernfaehigkeit ist
aber begrenzt, und ausserhalb ihres speziellen Gebietes sind sie bestenfalls
als Ablageflaeche nutzbar.

All dies beleuchtet aber nur verschiedene vordergruendige Facetten des
Turing'schen Zitates aus heutiger Sicht. Was Turing eigentlich fordert, ist
die exakte Definition, wo der Mensch ueberlegen sei: Eben hieran hapert es.

Insofern ist die Forschung auf dem Gebiet der Kuenstlichen Intelligenz
verschmolzen mit Psychologie, Neurologie und Philosophie (Erkenntnistheorie,
Ontologie) zur Kognitionswissenschaft (Cognitive Science), ein Weg, unsere
eigenen Denkprozesse besser zu verstehen -- tiefer, als die formale Logik und
die Mathematik dies ueberhaupt vermag.

Allmaehlich daemmert es auch den Hardlinern der Wissenschaft, dass die Welt
nicht vollstaendig mit Differentialgleichungen und Zahlentheorie beschreibbar
ist. Goedel, Church, Turing und andere haben dies bewiesen.

Wahrlich, dies schrieb Pirx. Es folgt: Wau

"Sage mir exakt, was der Mensch dem Tier voraushat, und ich werde dir einen
Menschen zeigen, der dem zuwider handelt."

Ein Versuch
-----------

Das obige Zitat modifiziert ein Zitat von Alan Turing, dem wohl ersten
Praktiker maschinengestuetzter Entschluesselung im zweiten Weltkrieg. Die
Maschinen mussten nicht nur hergestellt, sondern vorher erdacht werden.

Turing, ein Homosexueller, starb trotz seines Einsatzes fuer das Vaterland
als spaetes Opfer einer religioesen Frage.

Der Sieg des Priestertums ueber die gesunde Sinnlichkeit des Volkes durch
Veraechtlichmachung derselben ist wohl die nachhaltigste Folge des Christenums
hier, waehrend die Idee der Naechstenliebe und der pazifistische Gedanke des
Friedens auf Erden von der Kirche weit weniger unterstuetzt wurde.

Auch heute spielt der Krieg eine wichtige Rolle. Wer gewinnt, ist die
Frage. Wenn die Amis in Bagdad den Zensor hinter der Satellitenschuessel
von CNN dauerhaft auswechseln koennen, ohne den Reporter dabei umzubringen,
haben sie gewonnen.

Wenn ein Hund als Hausgenosse dir einen Ball so zuspielt, dass du ihn
leicht halten kannst und du spielst mit und ihm den Ball zurueck, geht
es so dreimal. Dann haelt der Hund zwei zu eins fuer sich und du hast
keine Lust mehr. Und dann will der Hund Ball finden spielen.
Er bringt dir genau deinen Ball aus den 19 anderen kleinen und wartet
darauf, dass du ihn hinter dem Ruecken in eine Hand nimmst. In welcher
ist der Ball? Das erste Mal laesst er dich stets gewinnen. Doch hinterher
steht es zwei zu eins fuer seine Nase.

Wie soll man so ein Problem loesen? Vielleicht ein kleines Tuch unter
der geruchsintensiven Achsel tragen und es dann mal mit Ball und Tuch
zusammen oder getrennt in den Haenden versuchen! Mal sehen, wie der
Hund reagiert.

Diese Idee als Loesungsansatz einer Maschine mit kuenstlicher Intelligenz
zu betrachten, verdeutlich das Problem.

Lemminge sollen angeblich schon mal alle gemeinsam eine Klippe runterspringen
und ersaufen. Der Fortschritt beim Menschen besteht darin, dass er die ganze
Welt wegsprengen kann. Und wenn dann als Entschuldigung benutzt werden
koennte, der Oberboese solle nicht auch noch wissen, wie Atombomben gebaut
werden, bevor man sich ueber die Verteilung oder Vernichtung der vorhandenen
geeinigt hat, wird es kritisch.

Wie ist es mit Monopolen zerstoererischen Wissens? Und wer bezahlt solche
Entwicklungen, anstatt Wichtigeres zu erforschen? Als de Gaulle die
franzoesische Atombombe wollte, verweigerten ihm die USA trotz ihres
Grundrechts auf Waffen seit ihrem Unabhaengigkeitskrieg den Franzosen den
dazu benoetigten Computer, der irgendwelche Gleichungen ausrechnen sollte.
Modern formuliert, hatte der so etwa die Kapazitaet eines IBM PC XT. In der
Konsequenz erhielten franzoesische Kolonien die Unabhaengigkeit, was
mehrheitliche Auswirkungen auf UN-Abstimmungen hatte, weil so das Gewicht
amerikanischer Kolonien mit Bananenmarketing sank.

Angesichts der neuen Weltordnung mit mehr Selbstbestimmung fuer Laender mit
bisher nicht so netten Regimes fragt sich, wann endlich im UN-Sicherheitsrat
das Vetorecht abgeschafft wird.

Auch wenn nur Mahatma Gandhi am roten Knopf fuer alle ABC-Waffen der Welt
saesse, waere mir die Waffenabschaffung lieber. Wir haben genug Probleme und
brauchen mehr natuerliche Intelligenz statt kuenstlicher.

Und wenn schon Blauhelme zu den brennenden "Oelquellen sollen, dann ist auch
freie Information ueber den erreichten Demokratielevel und die oekologischen
Daten dort notwendig. Die FUCHS-Spuerpanzer als Umweltmesswagen, aber kein
nacktes Datenmaterial, sondern genauso Lebensberichte etwa von Nomaden in der
Wueste und ihr jahrtausendealtes kulturelles Verhaeltnis zu Grenzen.
Information ueber Kultur und Wirklichkeit der less-developped-countries per
Satellit auch fuer ganz Europa ueber einen Kanal, das UN-Fernsehen von einem
anderen. Eine tiefschuerfende Datenbank ueber die Lehensvertraege der
Ressourcen fehlt noch. Ach ja, zumindest technische Telekommunikation hat
der Mensch dem Tier voraus, auch wenn schon Affen im Kaefig mit einer TV-
Fernbedienung umgehen koennen.

Wau

Aus Datenschleuder 34
------------------------------------------------------------------------------
NEXT NRC7

BSI - Geheimdienst oder Notwendigkeit

"Die gluecklichen Sklaven sind die erbittersten Feinde der Freiheit"
Ebner-Eschenbach
(Ausspruch eines Teilnehmers auf dem BSI-Workshop)

In nur einer halben Stunde Diskussion wurde am 24. Oktober 1990 im deutschen
Bundestag ein Gesetz besprochen, dessen Reichweite heute noch nicht zu
ueberblicken ist. Nicht nur hat der Gesetzgeber dort ein neues Amt mit ueber
200 Mitarbeitern geschaffen, sondern definierte auch den Begriff der Sicherheit
in der Informationstechnik (IT) im Hinblick auf Wirtschaft und Gesellschaft.
Es kann bekanntlich davon ausgegangen werden, dass die Produktionsgesellschaft
sich endgueltig in eine Informationsgesellschaft wandelt und sich damit direkt
und ursaechlich in Abhaengigkeit von der verwendeten Technik, insbesondere der
Informationstechnik, begibt. Ein Bundesamt fuer Sicherheit in der
Informationstechnik (BSI) kommt damit automatisch eine zentrale Rolle in der
zukuenftigen Entwicklung zuteil.

Die Vorgeschichte
-----------------
Wenn nun an dieser Stelle von einem neuen Bundesamt gesprochen wird, so ist
erstmal zu erwaehnen, dass zwar der Status als Bundesamt neu ist, allerdings
die Behoerde an sich schon aelter ist: Mitte der fuenfziger Jahre wurde schon
die Zentralstelle fuer das Chiffrierwesen (ZfCh) gegruendet und dem
Bundesnachrichtendienst (BND) zugeordnet. Die Existenz des ZfCh war lange Zeit
unbekannt, da davon nur unter der Rubrik "vertraulich" neben der Regierung
der Innenausschuss des Bundestages informiert war. Das ZfCh befasste sich
insbesondere mit kryptographischen Verfahren zur Verschluesselung von
Nachrichten und Verfahren zum "Brechen" von verschluesselten Nachrichten,
sowie Koordination und Standardisierung solcher Verfahren im Rahmen der NATO.

Am 1.6.1989 machte das ZfCh seine erste Wandlung durch und wurde in
Zentralstelle fuer die Sicherheit in der Informationstechnik (ZSI) umbenannt.
Damit anheim ging eine Erweiterung der Aufgaben auf den Bereich Sicherheit in
der IT. Dies war die direkte Folge - des weit ueberschaetzten - Eindringen
in Systeme der NASA, sowie der Folge des sogenannten KGB-Hacks.


Mit Wirkung vom 1.1.1991 hat nun das ZSI erneut seinen Namen geaendert und
heisst nun BSI. Gleichzeitig wurde das BSI aus der organisatorischen Anbindung
an den BND entlassen und nun direkt dem Bundesministerium des Innern (BMI)
zugeordnet. Damit lies das neue Bundesamt aber seine Entwicklung nicht am
Nagel der Geschichte haengen. Die Aufgaben des Bundesamtes waren deutlich
ueber den geheimdienstlichen Bereich erweitert worden, so z.B. die Beratung
der Wirtschaft und Bundes- bzw. Landesbehoerden in Fragen der Sicherheit,
der Unterstuetzung der Datenschutzberater, etc. Allerdings wurde das BSI
der Abteilung Innere Sicherheit 4, zustaendig fuer Geheim- und Sabotage-
schutz, als nationale Sicherheitsbehoerde zugeordnet. Leiter des BSI ist und
bleibt Dr. Leiberich, der davor schon das ZSI und davor seit 1957 im ZfCh
taetig war und seit 1974 deren Leiter war.

In dem Gesetzgebungsverfahren ist dem BSI noch die Aufgabe der
Technologiefolgenabschaetzung (TFA) in Par. 3, Absatz 1, Punkt 7 mit auf den
Weg gegeben worden und der Bundesinnenminister machte dies in seiner Rede vor
dem Bundestag nochmal deutlich. Allerdings hat die organisatorische Anbindung
an das BMI schon im Vorfeld dem BSI die Moeglichkeit genommen, erstmal ohne
Misstrauen betrachtet zu werden. Die Diskussion ueber die nationale
Sicherheitsbehoerde der USA, der National Security Agency (NSA) war noch nicht
vergessen und die Befuerchtung, dass endgueltig ein neuer Geheimdienst im
Bereich der IT geschaffen wird, wurde immer haeufiger laut.


Das BSI laedt ein ...
---------------------
Ende April traffen sich Experten aus dem Gebiet der Wissenschaft, Wirtschaft
und der Behoerden zu einem Workshop in Boppard. Das BSI hatte unter der
ueberschrift "IT-Sicherheit: moegliche Folgen fehlender oder unzureichender
Sicherheitsvorkehrungen" an den idillischen Ort am Rhein in die Bundesakademie
fuer oeffentliche Verwaltung der Naehe von Bonn geladen. Die Liste
der geladenen Teilnehmer las sich wie ein "Who is Who" der IT-Sicherheit-
Engagierten. Teilnehmer aus den diversen Universitaeten, dem Virus-Test-Labor
Hamburg, Firmen wie Debis, Siemens und IABG, Landesdatenschutzbeauftragte aus
Berlin und NRW, Projekttraeger, Ministerialraete aus den diversen Ministerien,
sowie gesellschaftliche Gruppen wie DGB, Gesellschaft fuer Informatik (GI)
oder Chaos Computer Club waren vertreten.
Die zentralen Aussagen auf diesem Workshop sollen hier dargestellt werden.

In der Begruessung wuerdigte der BSI-Praesident Dr. Leiberich das Erscheinen
von ca. 50 Teilnehmern und lobte den Initiator der Veranstaltung Dr. Ulrich
fuer sein Engagement. Dr. Ulrich hat sich in der Fachwelt schon einen Namen
durch seine Publikationen im Bereich der TFA und der Restrisiken in der
Informationssicherheit gemacht und arbeitete nun sein kurzen im BSI. Schon die
Begruessung wurde von einigen Teilnehmern als Distanzierung zu Dr. Ulrich und
der Veranstaltung aufgefasst und auch im weiteren Verlauf der Veranstaltung
kam der unbefangene Teilnehmer nicht umhin zu vermuten, dass der Bereich TFA,
im Bundesamt durch Dr. Ulrich vertreten, ein Novizendasein fuehrt.

Als erster Referent ergriff Prof. Rossnagel von der FH Darmstadt das Wort.
Er legte dar, dass die bisherigen Bemuehungen um IT-SIcherheit zu
technikzentriert sei und die gesellschaftliche Einbettung des
Sicherheitsproblems nur unzureichend beruecksichtigen. Informations- und
Kommunikationssysteme seien Systeme mit Auswirkungen auf die Gesellschaft und
seien daher als soziotechnisches System aufzufassen. Wie die meisten Teilnehmer
war auch er der Meinung, dass die Verletzlichkeit der Gesellschaft nicht nur
durch technische Massnahmen zur Verhinderung von Fehlern und Missbraeuchen
veringert werden muss, sondern das auch die Abhaengigkeit der Gesellschaft von
Informations- und Kommunikationstechnik und das dadurch bestehende Schadens-
und Katastrophenpotential beeinflusst werden muss. Es gehoert eben nicht nur
zur IT-Sicherheit die moeglichen Fehler eines Systems zu betrachten, sondern
auch im Verhaeltnis das Risiko das allein durch den Rechnereinsatz entsteht.
Als Beispiel wurde ein einfacher Lesefehler einer Festplatte bei der Pariser
Justiz angefuehrt, der dazu fuehrte das aus mehrere Bescheiden wegen
Vekehrssuenden ploetzlich Delikte wegen Drogenmissbrauch und Prostitution
wurden. Diese eher harmlosen Folgen stehen aber auch katastrophe Fehler im
Rechnereinsatz entgegen, wie ein Softwarefehler in einem Programm zur Steuerung
einer Bestrahlungsapparatur in einem Krankenhaus. Weil ein bestimmte Zustand
vom Programmierer nicht vorgesehen waren, wurden 2 Patienten mit erhoehter
Strahlung behandelt was zum Tode der Betroffenen fuehrte.
Ebenso machte Prof. Rossnagel darauf aufmerksam, dass ein Fehler in
Rechensystemen weit aus staerkere Folgen haette als gemeinhin angenommen.
Durch die Verkettung der Gesellschaft wuerde der Ausfall von zentralen
Rechner in einigen Grossstaedten sich im gesamten System fortpflanzen und
eine Gefahr fuer die Gesamtheit darstellen. Ein "Chaosmanagment" waere
aber dann auch nicht mehr moeglich, weil die gesamte dafuer notwendige
Infrastruktur ebenfalls ausgefallen waere. Eine schreckliche Vorstellung
fuer jedem im Katastrophenschutz.

Das BSI hat - aehnlich wie ihre Vorgaenger in anderen Staaten - den Weg des
technokratischen Sicherheit gewaehlt und sich damit auf einen Wettlauf
zwischen steigender Verletzlichkeit und Sicherungstechnik eingelassen, die
letztere kaum gewinnen kann.

Prof. Brunnstein vom Virentestlabor in Hamburg fuehrte in seinem Beitrag
ebenfalls aus, dass er beim BSI eine Fehlentwicklung sieht, weil sich das BSI
allein auf technische Massnahmen konzentriert. Da es aber keine sichere Systeme
geben kann, muessen technisch und sozial beherrschbare Systeme gefordert
werden. Unter beherrschbaren Systemen muessen aber Systeme verstanden werden,
die von Menschen noch erfasst und damit kontrolliert werden koennen. Da aber
die gesamte heutige Computertechnik auf die Ideen von Neumann aufbaut, ist
dies faktisch unmoeglich. Von Neumann hatte den Rechner mit seinem Bus,
Speicher, CPU, etc verglichen mit dem Aufbau des menschlichen Gehirn und ging
dadurch von einer moeglichen Transparenz zwischen Mensch und Maschine aus.
Heute wissen wir, dass diese aehnlichkeit nicht besteht, also der Rechner
ansich dem Menschen immer fremd bleiben muss.

Dr. Buellesbach von der Daimler Benz Informationssysteme (debis) und fruehrer
Datenschutzbeuftrager Bremens ging das Sicherheitsproblem von der
Entwicklungsseite an. Er kritisierte das nachtraegliche Aufspueren von
Sicherheitsluecken mit Hilfe von Tiger-Teams, also professionel-angestellten
Hackern, und legte dar, dass bei der Entwicklung von Software in
Zusammenarbeit mit den Betroffenen (Betreiber, Benutzer, Anwender) die Basis
fuer "Security Managment" gelegt werden muss. Gleichzeitig muss ueber
Sicherheitsprobleme oeffentlich diskutiert werden, den diese Transparenz ist
die Basis fuer den Fortschritt. Zwar stehen dem Sicherheitsbedenken der
Hersteller oder Abwender entgegen, aber in der Regel sei Verheimlichung kein
Sicherheitsgewinn.

Eine ganze andere - eher pragmatische - Sichtweise wurde von Dr. Bunge,
Ministerialrat beim Bundesrechnungshof, vorgestellt. Das BRH stellt haeufig
Sicherheitsmaengel fest, die allerdings nicht bekannt werden. Dadurch werden
aber aehnliche Maengel in anderen oeffentlichen Einrichtungen nicht beseitigt.
Daher ist der Rechnungshof dazu uebergegangen, solche Maengel anonym zu
veroeffentlichen. Dabei werden diese aber abstrakt dargestellt um
Nachahmungstaeter zu vermeiden. Die Details gelten aus vertraulich. Sicherheit
ist fuer den BRH ein wichtiger Punkt, da es ueber den angemessen und
wirtschaftlichen Einsatz staatlicher Gelder wacht. Auf der einen Seite kostet
Sicherheit aber Geld, ein evntl. Schaden kann auch grosse finanzielle
Aufwendungen nachsichziehen. Inzwischen muss daher bei Antrag auf den Einsatz
von Rechnern ein Nachweis ueber Angemessenheit und eine Risiokoabschaetzung
eingereicht werden.
Das BRH beschaeftigt sich darueber hinaus nicht nur mit der punktuellen
Sicherheit einzelner Systeme, sondern auch im Gesamtkonzept
Mensch-Organisation-Technik. Beispielsweise findet im Augenblick eine
Diskussion ueber den Einsatz von Unix im Hinblick auf Sicherheit, Wirtschaft-
lichkeit und Risiko statt.

Am 2. Tag der Veranstaltung erlaeuterten Dr. Pfitzmann von der Uni Karlsruhe
und Prof. von Henke von der Uni Ulm, die Anforderungen von IT-Systemen
bezuegl. Funktionalitaet und Korrektheit. Dabei wurde erlaeutert, dass die
Regel Fehler in der Software und seltener in der Hardware liegen. Kleine
Fehler in Fortranprogrammen koennen Raumsonen um Hunderttausende von KM
ihr Ziel verfehlen lassen (und Cruise Missiles um paar Meter). Ein
Loesungsansatz wurde z.B. beim Airbus 320 verwendet. Zwei vollkommen
eigenstaendig entwickelte Systeme, die ihre Ergebnisse vergleichen. Solange
ihre Ergebnisse uebereinstimmen, kann davon ausgegangen werden, dass das
Ergebnis richtig ist. Bei nicht uebereinstimmung koennen entsprechende
Massnahmen eingeleitet werden. Allerdings hat das System auch seine schlechten
Seiten, wie der Absturz bei einer Airbus-Vorfuehrung in Paris gezeigt hat.

Als abschliessendes Referat brachte Herr Lau von der Uni Rostock noch einen
Einblick in die Situation in der ehemaligen DDR. Eine Abteilung Daten-
sicherheit war der Abt. Geheimnisschutz des Ministerrates in der DDR
unterstellt. Datenschutz an sich gab es in der DDR nicht. Datensicherheit
selbst wurde aber auch an den Universitaeten gelehrt. Fuer Informatiker waren
da 30 SWS Pflicht. Ob das so bleiben wird, ist unklar. Geplant ist demnaechst
ein Workshop von der Uni Rostok un der Uni Bremen zur Rechtsangleichung des
Datenschutzes.


Was nun BSI ?
-------------
Wo sieht das Bundesamt aber seine zukuenftige Aufgabe ? Die Teilnehmer
waren einer Meinung, dass die Arbeit des BSI auf Grundlage des
Errichtungsgesetzes geschehen muesse, aber dieses genug Freiraeume zum
setzen von Schwerpunkten und Prioritaeten lassen wuerde. Dabei wurden denn
Punkten oeffentlichkeitsarbeit, Kooperation mit der Wissenschaft,
Unterstuetzung der Datenschutzbeauftragten und der
Technologiefolgenabschaetzung hohe Stellenwerte eingeraeumt. Es kam der Wunsch
auf, dass die Technologiefolgenabschaetzung eine eigene Abteilung im BSI werden
wuerde und nicht stiefmuetterlich am Rande zum Vorzeigen verwendet werden
wuerde. Die parlamentarische und ausserparlamentarische Kontrolmechanismen
werden einen besonderen Augenmerk auf die TFA werden, die ja erst im letzten
Augenblick in das Gesetz aufgenommen wurde.

Die Teilnehmer der abschliessenden Podiumsdiskussion sprachen sich durch-
weg fuer die Verbindung zwischen Technik und Gesellschaftlicher Verantwortung.
Sicherheit darf nicht nach dem olympischen Prinzip (hoeher, weiter, schneller),
so Prof. Dierstein, betrachtet werden, sondern auch nach TFA und
Verfassungskonformitaet. Auch wurde die Zusammenarbeit zwischen Juristen,
Techniker, BSI und Betroffenen angemahnt, sowie regelmaessige Treffen zum
Bereich der TFA vorgeschlagen.

Die Abschlussrede blieb Dr. Leiberich vorenthalten. Es bedankte sich bei
den Teilnehmern und lobte die Diskussion. Dann erlaeuterte, wo der die
Schwerpunkte des BSI sehen wuerde, naemlich im Bereich der Verhinderung
des Abhoerens kommerzieler und staatlicher Links. Diese Gefahr erlaeuterte
er recht ausfuehrlich.
Das in naechster Zeit wirklich nicht mit einer aenderung der Einstellung
zu rechnen ist, zeigt die 2. Deutsche Konferenz ueber Computersicherheit
die Mitte Juni vom BSI und BIFOA veranstaltet wird.
Von ueber 30 Vortraegen beschaeftigt sich keiner mit TFA. Dafuer gibt es
aber eine Podiumsdiskussion ueber "Techno-Terrorismus" und Kongressgebuehren
von ueber 1000 DM. Ob damit der Gesellschaft geholfen ist ?
Und in wie weit es sinnvoll ist, dass die von der ehemaligen ZSI entwickelten
Sicherheitskriterien fuer Software kein Wort der TFA enthaelt und die
ueberpruefung von Software nach diesen Kriterien - neben drei TueV-Anstalten -
auch von der IABG in Muenchen vorgenommen werden, also einer Firma die zu
grossen Teilen dem Bund gehoert und bis jetzt stark fuer die Geheimdienste und
dem Verteidigungsministerium gearbeitet hat, spricht ebenfalls nicht dafuer,
dass das BSI ernsthaft um eine Trennung seiner Vergangenheit bemueht ist.

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

Laut BSI-Errichtungsgesetz vom 17.12.1990 kommt dem neuen Bundesamt gemaess
Par. 3, Absatz 1 folgene Aufgaben zu:

1. Untersuchung der Sicherheitsrisiken bei Anwendung der Informationstechnik
sowie Entwicklung von Sicherheitsvorkehrungen, insbesondere von
informationstechnischen Verfahren und Geraeten fuer die Sicherheit in der
Informationstechnik, soweit dies zur Erfuellung von Aufgaben des Bundes
erforderlich ist,

2. Entwicklung von Kriterien, Verfahren und Werkzeugen fuer die Pruefung und
Bewertung der Sicherheit von informationstechnischen Systemen und
Komponenten,

3. Pruefung und Bewertung der Sicherheit von informationstechnischen Systemen
oder Komponenten und Erteilung von Sicherheitszertifikaten,

4. Zulassung von informationstechnischen Systemen oder Komponenten, die fuer
die Verarbeitung oder uebertragung amtlich geheimgehaltener Information
(Verschlusssachen) im Bereich des Bundes oder bei Unternehmen im Rahmen von
Auftraegen des Bundes eingesetzt werden sollen, sowie Herstellung von
Schluesseldaten, die fuer den Betrieb zugelassener Verschluesselungsgeraete
benoetigt werden,

5. Unterstuetzung der fuer die Sicherheit in der Informationstechnik
zustaendigen Stellen des Bundes, insbesondere soweit sie Beratungs- oder
Kontrollaufgaben wahrnehmen, dies gilt vorrangig fuer den Bun

 
desbeuaftragten
fuer den Datenschutz, dessen Unterstuetzung im Rahmen der Unabhaengigkeit
erfolgt, die ihm bei der Erfuellung seiner Aufgaben nach dem Bundesdaten-
schutzgesetz zusteht,

6. Unterstuetzung
a) der Polizeien und Strafverfolgungsbehoerden bei der Wahrnehmung ihrer
gesetzlichen Aufgaben,
b) der Verfassungsschutzbehoerden bei der Auswerttung und Bewertung von
Informationen, die bei der Beobachtung terroristischer Bestrebungen oder
nachrichtendienstlicher Taetigkeiten im Rahmen gesetzlicher Befugnisse
nach den Verfassungsschutzgesetzen des Bundes und der Laender anfallen.

Die Unterstuetzung darf nur gewaehrt werden, soweit sie erforderlich ist, um
Taetigkeiten zu verhindern oder zu erforschen, die gegen die Sicherheit in
der Informationstechnik gerichtet sind oder unter Nutzung der Informations-
technik erfolgen. Die Unterstuetzungsersuchen sind durch das Bundesamt
aktenkundig zu machen,

7. Beratung der Hersteller, Vertreiber und Anwender in Fragen der Sicherheit
in der Informationstechnik unter Beruecksichtigung der moeglichen Folgen
fehlender oder unzureichender Sicherheitsvorkehrungen.

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

Terra
------------------------------------------------------------------------------
NEXT NNE8
Indvidual Network oder ein Geist wird geboren

Was is'n das ?
--------------
Am 4. Mai 1991 fand in Berlin ein Treffen zwischen mehreren Leuten mit dem
Ziel statt, eine weitere Verbesserung der Connectivity im Rahmen der
internationalen Netze, die Erweiterung des Dienstangebot und eine Verringerung
der Teilnahmekosten zu erreichen. Das Ergebnis dieses Treffens hat den
Namen IN - Indivdual Network bekommen. IN ist kein neues Netz in herkoemmlichen
Sinne, sondern eigentlich eher eine Idee, ein Geist, ein Dach fuer bestehende
Netze, die mit dem deutschen EUnet ueber eine pauschale Privatpersonenregelung
teilnehmen. IN soll nicht in Form eines Vereins, Clubs, einer Firma, Kirche
oder etwas Aehnlichem institutionalisiert werden.
Im Rahmen von IN soll versucht werden, bestehende technische Regelungen
anzugleichen, sowie zu gewaehrleisten, dass nicht in jedem Netz das Rad neu
erfunden werden muss. Die Zielgruppe ist primaer natuerlich Teilnehmer im
UUCP, allerdings ist die Regelung auch fuer andere Netze interessant, die
international erreichbar sein wollen und ueber pauschalisierte Gebuehren
am weltweiten Verbund teilnehmen wollen.

Es soll ein Dach geschaffen werden, das es auch Teilnehmern ausserhalb der
Bereiche Berlin, Hanse und North ermoeglicht, einfach an den internationalen
Verbuenden teilzunehmen, ohne sich auf ein Schlag selbst mit allen
Problemen (Gebuehren, Abbrechnung, Domainverwaltung, etc.) beschaeftigen
zu muessen.


Also wieder ein neues Netz ?
----------------------------
Eigentlich nicht. Eher ein Verbund schon bestehender privater Netze. Diese
Netze (HanseNet, NorthNet, In-Berlin, etc.) haben bereits eine pauschal-
tarifierte Regelung mit Unido. Aus Gruenden der Vereinfachung und der
Vereinheitlichung der Tarife, sowie des Leistungsangebotes auf privaten
Sektor wollen diese Netze sich in einer Art "Dachverband" oder 'Interessens-
verbund" zusammenschliessen.
Ausserden glauben wir, durch IN eine alle Seiten zufriedenstellende Grund-
lage fuer den Aufbau anderer regionaler Netze wie auch fuer absolute
Neueinsteiger zu schaffen.


Wie ist das Ganze den strukturiert ?
------------------------------------
Geplant sind zwei unterschiedliche "Qualitaeten" von Domains:

- serviceverwaltete Domains
(kleinere Domains, die zwar aufgrund ihrer geographischen
Einordnung einen eigenen Namen erhalten, ber technische
Aufgaben von einer anderen Domain mit uebernommen werden)
- Selbstverwaltete Domains
(groessere Domains, die eigenverantwortlich verwaltet werden)

Die Zustaendigkeiten (Routing, Maps, Guidelines) sollen folgendermassen
geregelt werden:

Routing
Das Routen innerhalb der Domain uebernimmt der
jeweilige Verwaltungsrechner. Handelt es sich um eine
serviceverwaltete Domain, so laufen die Mails aus Gruenden
der Verantwortlichkeit vorher ueber den Verwaltungsrechner
der zustaendigen Domain.

Maps
Das Sammeln, Verwalten und Weiterleiten der Mapschnipsel
wird von der zustaendigen Domain vorgenommen.

1. Serviceverwaltete Domain
Beratung
Soweit moeglich sollen auftretende Fragen innerhalb der
Domain geklaert werden.

Nettiqette/Guidelines
Die Art, wie inhaltliche Probleme geloest werden, sollen
ebenfalls von den einzelnen Domains selbst geklaert werden.
Dies gilt soweit es nicht auch andere Domains betrifft.
Gemeinsam soll eine Empfehlung (Mini-Nettiqette) fuer
evntl. domainueberschreitende Probleme ausgearbeitet
werden.

Alle anderen Dinge werden von einer selbstverwalteten Domain
mit uebernommen. Eine neue Domain bekommt erstmal den Status
einer serviceverwalteten Domain, bis durch die Anzahl der Rechner
und die vorhandenen Moeglichkeiten, sowie auf Wunsch der lokalen
Domain diese sich selbst verwalten will.

2. Selbstverwaltete Domain

Finanzen
Die selbstverwaltete Domain hat eine eigene Abbrechnung,
bezahlt ihren Anteil auf ein Konto, sorgt selbst fuer
das Verschicken von Mahnungen, etc. Die selbstv. Domain
ueberweisst ihren und den Gebuehren und der von ihr
serviceverwalteten Domains das IN-Konto.
Secondary Domain
Die Domain wird vollstaendig von der selbstv. Domain
uebernommen. Technisch bedeutet das, dass ein MX-Record
auf den Verwaltungsrechner der Domain eingerichtet wird.
Preispolitik
Wie der Anteil an den Gebuehren innerhalb der Domain
umgelegt wird, wird ebenfalls hier bestimmt. Dies gilt
bis zum 1.1.1992. Bis dahin sollen die Anschlussgebuehren
vereinheitlicht werden oder andere entsprechende Regelungen
gefunden werden.
Antragsbearbeitung
Die selbstv. Domains verschicken Antraege zur Teilnahme und
sammeln diese.
Beratung
Die selbstv. Domains beraten und informieren die service-
verwalteten Domains in Hinblick auf Wissenerweiterung
der lokalen Domains. (Damit diese von Know-How her die
Moeglichkeit erhalten, spaeter ihre Domain selbst zu ver-
walten.)

3. Indivual Network (IN)

Das IN wird faktisch als Geist und nicht als Organisation gebildet.
Die meisten und wichtigen Verantwortungen liegen bei den Domains.
Ein Vertreter jedes Namensraums wird in eine IN-Mailinglist auf-
genommen, in der die Aufgaben des IN aufgeteilt und wahrgenommen
werden. IN ist also praktisch die Gemeinschaft der Domains.

Ueberweisung
Das IN sammelt das Geld der Namensraeume und bezahlt die
Rechnung bei Unido.
Maillinglist
Das IN betreibt eine Maillinglist aus den Vertretern der
Domains und besonders interessierten und aktiven
Teilnehmern.
Network Managment
Das IN (also die technischen Vertreter der Namensraeume)
stellen die Versorgung an News und die Maillinks sicher und
vermeidet sinnlose (ineffektive) Verbindungen oder die
Verwendung nicht zugelassener Links. Dazu gehoert auch der
Betrieb eines Primary Domainnameservers.
Oeffentlichkeitsarbeit
Im Rahmen der Arbeit des IN soll Informationsmaterial
zur Verfuegung gestellt werden, was das IN ist, was es
bedeutet, wie mensch eine Domain eroeffnet, etc. Diese
wird von Vera und Heiko aus der In-Berlin Domain ausge-
arbeitet. Die Domains erweitern diese Info um ihre lokalen
Besonderheiten.
Netzpolitik
Das IN vertritt seine Domains nach aussen. Durch den
groesseren Verbreitungsraum und die groesseren Teilnehmerzahl
sollen die Moeglichkeiten der Privatpersonen im Netz
verbessert werden.


Was aendert sich fuer die privaten Netze ?
------------------------------------------
Im Augenblick garnix oder nicht viel. Einige der privaten Netze tragen ihre
Teilnehmer auf Grund eines Anrufes oder einer Mail ein. Dies soll nur noch
temporaer geschehen. Neue Teilnehmer (und natuerlich auch die alten) sollen
schriftliche Antraege stellen, die im IN auch einheitlich sind. Insofern
aendert sich was in der Verwaltung, aber das wird sich erstmal nur wenig
auswirken. Auch an den Gebuehren aendert sich nix.
Zum 1.1. 1992 sollen allerdings in den teilnehmenden Netzen die Gebuehren
vereinheitlich werden. Im Augenblick werden Gebuehren zwischen 5 und 25 DM
in den Netzen erhoben. Zum Teil mit unterschiedlichen Kriterien wie
News: Ja/Nein oder Multiuser/Point. Wie das aussehen wird, ist noch unklar.
Durch den gemeinsamen Abbrechnungsraum im Rahmen des IN werden diese
zukuenftigen Gebuehren im Durchschnitt (das Wort bitte betont lesen) sicher
geringer ausfallen, als heute. Auch rechnen wir mit deutlich mehr Teilnehmern
und Diensten als heute. Das IN soll im Endeffekt ab 1.7. 1991 ihren Betrieb
aufnehmen.


Fuer welche Netze ist IN gedacht ?
----------------------------------
Fuer jedes. Es ist also nicht nur auf UUCP und Internetdienste beschraenkt.
Im Augenblick gehoert auch noch das MausNet zum Verbund. Evntl. wollen
Teile des Zerberus ebenfalls daran teilnehmen. Das IN betreibt aber keine
Gateways. Diese Initiativen sollen und muessen weiter von einzelnen Personen
oder Netzen kommen. Wir helfen nur bei dem Teil der Netzpolitik, der mit
der internationalen Connectivity und damit entstehenden Problemen zusammen-
haengt.
Neu ist dabei allerdings, dass die Grundlage der Vereinbarung zwischen IN
und Unido eine Internet-Regelung ist. Das heisst nicht nur, dass keine
zusaetzlichen Mailkosten anfallen, sondern auch das prinzipiell nun
fuer Privatpersonen die Teilnahme am Internet mit seinen Diensten (telnet,
ftp, irc, etc) moeglich wird. Im Augenblick stehen eher technische Probleme
entgegen, als netzpolitische. Daran wird aber gearbeitet, wie z.B. in
Berlin bei der netmbx oder Hamburg bei der mcshh.


Woher erfahre ich etwas zum IN ?
--------------------------------
Jede bestehende Domain im IN sollte Information (z.B. IN-Info) haben und
sie bei Fragen zuschicken koennen. Weiterhin sollten die technischen
Verwalter der selbstverwaltenen Domains darueberhinausgehende Fragen
beantworten koennen. Im Augenblick waeren das:

heinau@methan.chemie.fu-berlin.de
heiko@methan.chemie.fu-berlin.de
thw@mcshh.hanse.de
juergen_conradi@hb.maus.de
terra@sol.north.de


Welche weiteren Aufgaben hat das IN ?
-------------------------------------
Maximal zur Verwirrung der Netzwerklandschaft beitragen. :-)

Vera, Heiko, Ralf, Thomas, Frank
------------------------------------------------------------------------------
NEXT NNE9
Wir leben laengst im Cyberspace

Weshalb Kultur immer eine kuenstlich generierte Welt ist,
und kommende Techniken nur graduelle Neuerungen bringen.

You are not wrong, who deem
That my days have been a dream;
(...)
In a vision, or in none,
Is it therefore the less g o n e ?
A l l that we see or seem
Is but a dream within a dream.

Edgar Allan Poe,
A DREAM WITHIN A DREAM


In allen Bereichen unseres Lebens scheinen sich deutliche
Veraenderungen zu vollziehen. In meinem Text 'Leben in Turbulenz'
habe ich ueber Trends berichtet, die aus dem Bereich der Computer-
technologie in unsere Kultur draengen und einschneidende Umwaelzun-
gen eingeleitet haben oder moeglicherweise einleiten werden. Hier
nun moechte ich meiner Einschaetzung Ausdruck geben, dasz diese un-
leugbar beschleunigt stattfindenden Umbrueche unser Verstaendnis
von Kultur nicht werden mitreiszen koennen. Begreifen wir etwa die
Aussicht auf die Realisierung und Verbreitung von Cyberspace als
die Verabschiedung des Menschen aus der Realitaet, so zeigt dies,
dasz wir das Wesen menschlicher Kultur miszverstanden haben. Was
ich hier vertreten will ist die Ueberzeugung, dasz der Mensch sich
wohl bereits mit der Nutzbarmachung des Feuers in einen kuenstlich
geschaffenen Raum begeben hat.
[Anm. der Red. - der erwaehnte Text wurde im Zerberusnetz veroeffentlicht,
nicht in einer frueheren Chalisti]

Kunstwelten

Der Mensch war zunaechst Jaeger und Sammler, dann ein dem Vieh
folgender Nomade, dann seszhafter Ackerbauer, Handwerker, Haendler,
Industriearbeiter und schlieszlich Software-Anwender. All diese
Schritte sind wohl als Revolutionen bezeichnet worden; und sie
sind auf das Finden und Erfinden von Fertigkeiten und Techniken
zurueckzufuehren. Dabei hat die Umwelt des Menschen sich in dem
Sinne veraendert, als - wenn man so will - der Grad ihrer Kuenst-
lichkeit immer weiter zugenommen hat. Somit kann die zukuenftig
durchaus denkbare Verbreitung von Cyberspace keinesfalls als Ver-
abschiedung von der Realitaet gesehen werden: vielmehr wird sich
die Realitaet (einmal mehr) veraendern. In diesem Zusammenhang wer-
den auch andere Technologien (etwa die Genmanipulation) eine
auszerordentliche Rolle spielen.
Warum aber erzeugt schon die Nutzbarmachung des Feuers durch
den Menschen eine Art Cyberspace? Die Antwort erwaechst aus fol-
gender Ueberlegung. Begeben wir uns um rund 400 000 Jahre zurueck.
Den lebenden Menschen ist es gleichgueltig, ob wir sie noch als
Homo erectus oder bereits als als Homo sapiens bezeichnen. Sie
muessen in einer rauhen Umgebung ueberleben. Staendig drohen Ueber-
faelle durch Raubtiere, die es besonders auf Saeuglinge, Kinder und
Schwache abgesehen haben. Die Faehigkeit, ein Feuer zu entzuenden,
oder es zumindest am Brennen zu halten, ermoeglicht einen Lager-
platz, der einen gewissen Sicherheitsradius schafft. (Der Leser
moege sich diesen Platz als ein Feld auf einer Landkarte vorstel-
len, dessen Farbintensitaet zum Rand hin abnimmt.) In diesem
Bereich sind die Bedingungen des uebrigen Lebensraums aufgehoben.
Eine Kunstwelt ist generiert, die fuer Raubtiere schlicht keine
Schnittstelle hat! Als griffiges Beispiel kann man eine fiktive
Geschichte aus dem Alaska der Jahrhundertwende lesen: den ersten
Teil von Jack Londons 'White Fang' (Wolfsblut). Der jetzt noch
immer feuer-unglaeubige Cyber-Freak moege sich vor Augen fuehren,
dasz die Bilder hinter seiner Datenbrille der Hard- und Software
beduerfen, also nicht 'von ungefaehr' kommen. Feuer braucht Holz,
Cyberspace braucht MIPS. Die Lichterscheinungen des Feuers aber
(wir brauchen uns hier nicht ueber Wellen oder Korpuskel strei-
ten) - erscheinen sie uns nicht instinktiv als unstofflich, was
doch wohl eigentlich und geradezu das Wesen des Cyberspace ist.
Mit einem weiteren Beispiel moechte ich die kostbare Zeit
meiner Leser stehlen. Die zweite ueberragende Entdeckung nach dem
Feuer war die Erfindung der Schrift. Betreten wir in unserer Vor-
stellung also ein Wohnzimmer, dessen Waende gefuellte Buecherregale
sind. Hier befindet sich Material fuer ein ganzes Leben geistiger
Beschaeftigung. Der Leser schirmt seine Sinne gegen die Umwelt ab
(klingt wie eine Cyberspace-Beschreibung), und es tun sich Welten
auf, die gar nicht da sind. Das wird erst richtig deutlich, wenn
uns die Vorstellung gelingt, wir koennten nicht lesen. Dann ist da
nur noch ein Brennstofflager, aus dem bestenfalls noch ein Oster-
feuer zu machen waere.

Wie wir Heute leben

Im Gegensatz zum groeszeren Teil der Menschheit genieszen wir
die Gnade der wissenschaftlich-technisch-industriellen Zivilisa-
tion. Egal welchen Teil man aus ihr zur Betrachtung herausgreift,
er ist kuenstlich erzeugt, ein Produkt des menschlichen Geistes.
Das reicht von der Gehwegplatte bis zum Stealth-Bomber. Wie sehr
diese Verkuenstlichung unsere Lebensweisen und -bedingungen seit
einigen Jahrzehnten veraendert, ja geradezu verzerrt hat, moechte
ich an vier wesentlichen Techniken erlaeutern: Telefon, Automobil,
Fernsehen.
Das Telefon ist bereits seit vielen Generationen im Einsatz.
Es verzerrt den Schallraum ungemein. Es entsteht ein Schlauch
zwischen zwei beliebig weit entfernten Orten. Wer macht sich noch
klar, wie weit und schnell wir damit greifen? Was macht uns so
sicher, dasz die Laute in der Muschel von den Menschen kommen, die
wir uns vorstellen? In diesem akustisch-kybernetischen Raum be-
gegnen wir nur einem Teil des Menschen - auf den Rest koennen wir
offensichtlich verzichten. Es laeszt sich also sagen, dasz wir den
Menschen nicht mehr als Zweck, sondern lediglich noch als Mittel
der Kommunikation betrachten. Nun wird der scharfsinnige Leser
einwenden (Feministinnen muessen sich an derartigen Textstellen
analoge Redundanzen selbst dazudenken), dasz er das Telefon doch
nur dazu benutzt, sich mit der g a n z e n Freundin zu verabre-
den. Das mag hier und da tatsaechlich der Fall sein, doch muessen
wir klar sehen, dasz die meisten Telefongespraeche in unserem
institutionalisierten Leben 'geschaeftlicher' Natur sind. Men-
schen, die sich noch niemals gesehen haben und sich niemals sehen
werden, koennen in ihrem Berufsleben miteinander Probleme loesen,
die unser aller Leben sichern. Der Mensch bedarf des 'Zusammenle-
bens' also ueberhaupt nicht mehr, die Telekommunikation reicht
voellig aus.

Sterben fuer sinnlose Kommunikation?

Bis auf einen Fernsehmoderator, der von einem Alptraum
sprach, fanden es vor wenigen Wochen auf der CeBIT alle so toll,
dasz in etwa zehn Jahren jedes Automobil serienmaeszig mit einem
Autotelefon ausgeruestet sein wird. Jedem ist eigentlich klar, dasz
noch mehr Radfahrer und Fuszgaenger sterben muessen, wenn es nicht
mehr nur die Schickimicki-Studentinnen mit VW-Golf sind, die
nicht auf den Verkehr vor ihrer Windschutzscheibe achten, sondern
auf den Verkehr durch ihr Telefon - ihr Freund im Austin-Mini-
Mayfair heizt gerade am anderen Ende der Stadt... Oder steckt er
im Stau? (Ja, auch Computer-Freaks und Stubengelehrte werfen mal
einen Blick in 'Cosmopolitan', die wahre Frauenzeitschrift, um
die Geisteswelt gewisser Menschen zu erforschen.)

Mit der letzten Variante des Telefons sind wir auch schon
bei meinem Lieblingsthema (ein gesonderter Artikel ist in Vorbe-
reitung): das Automobil. Auch diese Technologie ist bereits seit
Generationen im Einsatz und hat gewaltige Veraenderungen mit sich
gebracht. Es verhaelt sich wie mit dem Feuer oder dem Telefon. Die
vorher gegebenen Bedingungen sind auf Teilen der Weltkarte - dort
wo es befestigte Straszen, Autos und Treibstoff gibt - voellig ver-
aendert. Auch hier ist ein kuenstlich generierter Raum geschaffen,
der Verzerrungen mit sich bringt. Anfangs brachte das Auto Frei-
heit. Jeder, der ein Auto hatte, konnte nun zwar noch nicht sein,
WAS er wollte, wie bei Timothy Learys LSD-Trips, zumindest aber
konnte er sein, WO er wollte. In dem Masze aber, da das Auto zur
alltaeglichen Selbstverstaendlichkeit wurde, und jeder das Fahren
in sein Leben einbaute, entstanden die Zwaenge. Die Komponenten
des Lebenszusammenhangs wie Wohnung, Arbeitsplatz, Verwandschaft,
Freunde, Verein usw. liegen heute raeumlich bereits an den Grenzen
der Leistungsfaehigkeit des Autos zumal der Verkehrsflusz immer
haeufiger zum Stau wird. Wenn das Verkehrsmittel also versagt,
funktioniert die Tagesplanung auf einmal nicht mehr, und man ist
ploetzlich allein, weil man die anderen kaum noch erreichen
kann, und man merkt endlich: wir leben laengst nicht mehr in der
'wirklichen' Welt, sondern im Automobil-Cyberspace!

Traum vom Ausbruch aus dem verbauten Leben

Wenn einem die Zeit nicht mehr reicht, die Freunde zu sehen,
weil das Ueberbruecken des Raums zwar nicht unmoeglich, so aber doch
mit Stresz verbunden ist, setzt man sich doch lieber vor den Fern-
seher. Das es sich hier nun endgueltig um eine unwirkliche Welt
handelt, brauche ich nicht mehr zu erlaeutern. Und da heute jeder
Fernsehzuschauer allein vor seinem Geraet sitzt, die Fernbedienung
nicht mehr aus der Hand legt und unzaehlige Programme zur Verfue-
gung hat, ist er nichtmal der vielgescholtene passive Konsument,
denn er sucht sich ja seinen Weg durch die Programme selbst. Was
er nicht sehen will, braucht er nicht zu sehen, denn er findet
auf einem anderen Kanal bestimmt etwas Reizenderes. Wenn ich mich
mit meinen Mitmenschen ueber Dinge unterhalte, die ich im Fernse-
hen gesehen habe, erhalte ich immer haeufiger zur Antwort: "Das
habe ich nicht ganz gesehen", oder: "Da hatte ich gerade auf ein
anderes Programm geschaltet".
Aber das sogenannte 'Zapping' (das Folgen des eigenen Im-
pulses also), ist nicht die letzte Entwicklung. Man musz nicht von
dem amerikanischen Nachrichtensender CNN sprechen, wenn man
'Echtzeit' meint. Unsere 'wirkliche' Nachbarschaft etwa nehmen
wir gar nicht mehr wahr. Ich selbst kenne durchaus nicht alle
Mitbewohner meines Hauses, manche habe ich wohl noch nie gesehen.
Aber ich koennte sie kennen, wenn ich regelmaeszig die 'Linden-
strasze' einschalten wuerde. Meistens ist mir das Ansehen dieser
erfolgreichen Serie unertraeglich, denn ich halte die laecherlichen
Probleme dieser Menschen einfach nicht aus (Muecke-Elefanten-
Effekt). Wenige Stunden vor Ausbruch des Golf-Krieges (Wessen
Fernseher lief nicht rund um die Uhr?) sah ich zufaellig, wie eine
Lindenstraszen-Nachbarin von den Ereignissen am Golf voellig mitge-
nommen war (und keine Kinder haben wollte in dieser Welt oder
sowas in der Richtung). Das haute mich als inzwischen abgebruehten
Fern-Seher doch fast aus dem Sessel: Das ist ja alles echt. Wann
haben die das denn gedreht? Die drehen gar nicht mehr, das ist
'live'! Und ich war noch gewohnt, dasz der 'Tatort' im Winter
spielt, wenn drauszen Sommer ist.
Die drei Beispiele Telefon, Automobil und Fernsehen zeigen,
wie sehr wir unser Leben verbaut haben. Erst reiszen wir es mit
komplizierter Technologie auseinander, um es dann mit noch aus-
gefeilterer Technologie wieder zusammenzufuegen. Was dabei ent-
steht, ist ein Flickenteppich von Wahrnehmungen, der uns (ich
sage mal: ausgeglichene) Sinnlichkeit kaum noch erfahren laeszt.
Diejenigen, die gegenwaertig an Cyberspace-Systemen aus Datenbril-
len, -handschuhen und -anzuegen basteln, scheinen mir von der
Sehnsucht nach einer harmonischen, riszlosen Welt getrieben zu
sein. Zwar gibt der zottelige Jaron Lanier zu, dasz die Rueckkehr
aus seinem Cyberspace ihm die Groszartigkeit der 'wirklichen' Welt
erst wirklich bewuszt macht, doch ist das eher so zu verstehen,
dasz eben noch viel Arbeit fuer einen besseren Cyberspace geleistet
werden musz.
Noch ist Marilyn (oder wen auch immer man sich herbeitraeumt)
eben ein mehr oder weniger verkrampftes Drahtkantenmodell. Und
vielleicht noch bevor sich das aendern kann, wird sich der Cyber-
space beleben. Die am Anfang von einem selbst bestimmbare und
deshalb freie Baukastenwelt, die uns Begegnungen und Bekannt-
schaften nach Wunsch ermoeglicht: sie wird die Beschraenkungen und
Zwaenge unseres gemeinschaftlich orientierten und deshalb notwen-
digerweise organisierten Lebens in sich aufsaugen. Und somit wird
es sein, wie es immer war. Wir begegnen nur solchen Menschen, die
uns die Lebenszeit stehlen, weil sie uns nicht ernst nehmen:
Lehrer, Professoren, Chefs und die Schar der sonstigen Bekannten.
Dazu kommen die (Frauen), welche unsere Liebe verbrauchen und
danach ploetzlich entschwinden.
Dasz wir es im Cyberspace zum Teil mit Kunstwesen zu tun
haben werden, mag fuer viele ein erschreckender Gedanke sein. Aber
diejenigen, die Heute davor warnen, werden in der zukuenftigen
Praxis des Cyberspace keinen Unterschied zwischen hineingezogenen
und kuenstlichen Existenzen bemerken! (Ich denke da auch an 'Blade
Runner'.) Und selbst ein John Searle musz funktionale Kriterien
bemuehen, um Sinn von Unsinn, Nicht-KI von KI zu unterscheiden.
Das ist wohl ein Beleg, dasz es keinen Sinn machen wird, zwischen
'echt' und 'unecht' zu unterscheiden. Denn wie Edgar Allan Poe
richtig sagt: Es ist gleichgueltig, ob das Erlebte eine Erschei-
nung war oder nicht. Wichtig ist allein die Erfuellung, die man
darin gefunden hat. Zum Funktionalismus sind wir eh verurteilt.

Kuenstlichkeit haengt nicht vom Cyberspace ab!

Trotz aller Technik und der damit verbundenen Veraenderungen
sind wir Menschen geblieben. Und an dem Punkte, wo ich kuerzlich
eine Studentin sagen hoerte, sie werde immer zwischen einem Com-
puter und einem Menschen unterscheiden koennen, naemlich anhand der
Frage, ob sie mit ihm schlafen koenne oder nicht - genau da fuehrt
sich das Menschsein selber vor und geraet vollends zur Laecherlich-
keit! Nicht nur, dasz sie zur Verifikation der gesamten Menschheit
nach dieser Methode bisexuell sein mueszte. Vielmehr waeren Schlusz-
folgerungen aus einem solchen Test reine Induktion, denn ihr
(hier als angenehm unterstelltes) Test-Erlebnis waere schon morgen
vielleicht nicht wiederholbar, da jener Mann seine Meinung von
ihr ueber Nacht geaendert hat. Doch das wuerde diese Frau gar nicht
schocken, denn sie wuerde sich von neuem auf die Suche machen, um
sich bei einem anderen von dessen Menschsein zu ueberzeugen.

Dieses weit verbreitete und gnadenlos oberflaechliche Men-
schenbild der besagten Studentin fuehrt zur hier vertretenen These
zurueck. Nicht die Computertechnologie wird uns den kuenstlichen
Menschen bescheren, sondern es gibt viele Menschen, die sich auf-
grund ihrer Flachheit und Bindungsunfaehigkeit selbst zu Kunst-
Erscheinungen machen. Diese Eigenschaft entsteht aber sicher
nicht in Folge technologischer Veraenderungen. Es ist eher wahr-
scheinlich, dasz die Intensitaet menschlicher Bindung in staendigem
Wechsel begriffen ist. Es verhaelt sich vielleicht wie mit den im
Wirtschaftsgeschehen zu beobachtenden Konjunkturverlaeufen. Es
gibt Perioden, in denen die Menschen aufeinander zugehen und
andere, in denen sie es weniger tun. Allerdings sind solche Ver-
mutungen mit Vorsicht zu genieszen. Glaubt man den Medien, so
leben wir in einer Zeit zunehmender Vereinzelung und Isolation
des Menschen. Nimmt man aber etwa den vom Statistischen Bundesamt
herausgegebenen 'Datenreport' zur Hand, so zeigen die Erhebungen,
dasz nichts dergleichen zu beobachten ist. Wenn wir also nichtmal
die menschliche Befindlichkeit feststellen koennen, so ist es
reine Ausweichtaktik, dann der Technik die Schuld zu geben. Das
wird leider zu haeufig unwidersprochen getan. Technik schafft
zwar, wie oben gezeigt wurde, kuenstliche Welten, die unsere
Lebensumstaende bestimmen. Das darf aber nicht davon ablenken, dasz
wir selbst es sind, die unsere Umgangsweise mit den Mitmenschen
bestimmen und somit unser Menschenbild. In zehn oder fuenfzehn
Jahren werden die Medien konstatieren, dasz die Menschen sich zu
sehr auf die Pelle gerueckt sind, kein Individualismus mehr
moeglich ist, und somit psychische Schaeden aufgrund mangelnder
Selbstverwirklichung entstehen. Oberflaechlichkeit ist also nicht
technikinduziert.

Einstieg in die Wirklichkeit

Nun haette dieser unsaegliche Text hier in seinen letzten Ab-
schnitt muenden koennen, wenn da nicht noch ein Gedanke bezueglich
der 'Wirklichkeit' aufgetaucht waere. Vielleicht wird es so
kommen, dasz uns erst die neuartige Technologie des Cyberspace die
'eigentliche' Wirklichkeit eroeffnen wird. Wir koennten uns die
Datenbrille ueberziehen und beim Durchwandern der Landschaft
Radioaktivitaet, Dioxin und Schwermetalle direkt wahrnehmen, weil
sie etwa als gruener Schleim oder gelber Staub dargestellt sein
wuerden. Geringe Konzentrationen koennten beliebig verstaerkt wer-
den. Wir haetten die uns bestimmende Realitaet wiedergewonnen.
Wer jedoch glaubt, diese Technik wuerde dazu fuehren, dasz ein
Verlangen entstuende, etwas gegen die Vergiftung zu tun, der irrt
sich allerdings. Beiszender Gestank und bruellender Laerm der Auto-
mobile sind auch ohne Cyber-Hilfsmittel wahrnehmbar, aber es
geschieht nichts. Das Klima veraendert sich, Waelder sterben weiter
ab. Aber wir wollen auf das Verprassen von Energie eben nicht
verzichten. (Was fuer eine Leistungsaufnahme haben mein Mega und
sein SM124 eigentlich? Der Abluftstrom hat immerhin eine Tempera-
tur von 33 Grad Celsius, was allerdings zur Raumheizung beitraegt
und eine Art Waermerueckgewinnung darstellt. (Und so hat jeder eine
Rechtfertigung fuer sein naerrisches Spielzeug. Das Selbstbeluegen
reicht von der Hausfrau bis zum Reaktor-Toepfer (Letzterer wird in
Schizophrenie enden.). )) Wer also Energie verschleudern will,
weil Windenergieanlagen die Zugvoegel irritieren, und weil intel-
ligente Energieausnutzung und -einsparung zuviel Fantasie erfor-
dern, der musz eben mit kleinen Seiteneffekten wie Tschernobyl
rechnen. Die Zahl der Menschen, die dadurch zu Siechtum und
Traenen verurteilt sind, reicht wahrscheinlich in die Millionen.
Vielleicht ist man angesichts dieses Elends auf dem Weg vom
Fernseher zum Kuehlschrank ploetzlich in Traenen ausgebrochen, doch
Minuten spaeter lebt man weiter wie immer. Das ist eben mensch-
lich; so sind wir eben. Ich nehme mich da nicht aus.

Verbauter Geist?

Feuer als Cyberspace? Menschen, die auch ohne technische
Einfluesse als Kunstwesen erscheinen? Erschlieszung der Wirklich-
keit durch neue Techniken? Und alle diese Gedanken geaeuszert auf
der Basis einer Technik der virtuellen Realitaet, die eigentlich
erst in mehr oder weniger miszratenen 'Demos' existiert, die ich
selbst nur aus Presse und Fernsehen kenne. Wenn dieser Text als
nicht schluessig empfunden wird, so ist dieser Eindruck nicht
unrichtig. Vielleicht liegt das in eben dieser leichtfertigen
Verquickung von gegenwaertigen Beobachtungen mit Zukunftsspekula-
tion. Und deshalb mag jemand einwenden, meine Ausfuehrungen seien
gefaehrlich, weil ich Funktionsweisen zukuenftiger Technologie
verwende, um kulturelle, historische und soziale Phaenomene zu
beschreiben. Damit tue ich, was Joseph Weizenbaum bezogen auf das
menschliche Denken als ein Verstehen unter Zuhilfenahme computer-
bezogener Begriffe kritisiert. Ich sehe das Problem. Doch wahr-
scheinlich fordert unsere Zeit solche Paradigmen. Vielleicht sind
die Problemfelder, die ich behandelt habe, nur auf diese Weise
brauchbar zu verdeutlichen.
Zwar sehe ich der technischen Zukunft mit sehr gemischten
Gefuehlen entgegen, doch steht zu vermuten, dasz viele Moeglichkei-
ten, ueber die wir spekulieren, garnicht sobald verfuegbar sein
werden. Zusaetzlich stellt sich die Frage ihrer Durchsetzung. Da
sich Technik graduell entwickelt (qualitative Spruenge scheinen
mir nachtraeglich hineininterpretiert zu sein), entstehen Struktu-
ren langsam, und deshalb umso schleichender. Und was noch
wichtiger ist: Jeder von uns traegt mit seiner eigenen Fantasie zu
dem langsamen Prozesz bei. Kauft sich jemand ein Modem und laeszt
seinen Computer also in Verbindung mit Mailboxen treten, so ist
das ein witziges Hobby, dasz mindestens so harmlos sein mag wie
ein Kleingartenverein. Doch traegt dieses Tun voellig unbeabsich-
tigt zur Schaffung von Akzeptanz fuer eine allgemeine Vernetzung
bei, die offensichtliche, doch haeufig verdraengte Gefahren birgt.
Was wir also im Auge behalten muessen ist das, was sich in unseren
Koepfen tut, und was sich daraus im Alltag ergibt und nicht in
ferner Zukunft. Wie technische Entwicklungen so gestaltet werden
koennten, dasz ungewollte und unangenehme Verbauungen unseres
Lebens ausgeschlossen werden koennten - ich weisz es nicht.
Aber vielleicht liegt unsere Fahrlaessigkeit darin, dasz wir
das 'Nachdenken' den emotionslosen und/oder unsensiblen Klug-
scheiszern ueberlassen; diese besitzen die vorteilhafte Faehigkeit,
auf jede Frage eine komplette Echtzeit-Antwort zu haben. Wenn sie
dazu noch genug Eitelkeit besitzen, werden sie Politiker (Um ein
Horror-Spektrum prominenter Widerlichkeit zu spannen: Ruehe,
Scharping, Moellemann, Ditfurth, Gysi). Aber nur solche Figuren
sind fuehrungskompatibel. Denn der reflektierende, vorsichtige und
somit vielleicht weisere Mensch wird Grosz-Verantwortung meiden.
Wir werden auch in Zukunft maches Unangenehme zu erdulden haben.
Trotz aller Technik, auch wenn es denn Cyberspace sein wird,
werden wir immer Affen bleiben. Getraeumt haben wir immer. Und
wenn die Technik das verstaerkt, sei es drum... Entscheidend ist,
was uns die Erscheinungen geben. Wenn diese uns noch zur Zufrie-
denheit gereichen, dann ist es gut genug, oder?

von Frank Moeller Hamburg, Mai 1991
<F.MOELLER@LINK-HH.ZER>
------------------------------------------------------------------------------
NEXT NWJ2
-----------------
! Kurzmeldungen !
-----------------

1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1-1

Mikrocomputer-Zentrum fuer Rostock

Orientierungshilfe und fachliche Beratung fuer Anwender von Mikrocomputern
wird demnsschst auch in Rostock angeboten. Am 13. Mai 1991 wurde der
Kooperationsvertrag zwischen der Industrie- und Handelskammer Rostock und
der Gesellschaft fuer Mathematik und Datenverarbeitung mbH (GMD), der
staatlichen Gro~forschungseinrichtung fuer Informatik und Informationstechnik
in der Bundesrepublik Deutschland, zur Gruendung eines Mikrocomputer-Zentrums
unterschrieben. Die offizielle Eroeffnung des Zentrums findet am 24. Mai
1991 in der Rostocker Ernst-Barlach-Strasse 7 statt.

Mit Unterstuetzung der GMD entsteht in Rostock das zweite Dienstleistungs- und
Bera- tungszentrum fuer die neuen Bundeslssnder. Wie in Potsdam bringt die GMD
neben dem Konzept des Mikrocomputer-Zentrums die Hard- und Software in die Koope
ration ein. Traeger des neuen Mikrocomputer-Zentrums ist die Industrie- und
Handelskammer Rostock.

Kernstueck des Mikrocomputer-Zentrums ist eine staendige Ausstellung
unterschiedlicher deutscher und internationaler Hersteller fuer Personal
Computer-Systeme. Ein Seminar- und Schulungsprogramm zu verschiedenen
aktuellen Themen der Datenverarbeitung und Informationstechnik rundet das
Angebot ab.

Zentrale Aufgabe des Mikrocomputer-Zentrums ist es, insbesondere kleine und
mittelstaendische Unternehmen, Handwerker und Behoerden, aber auch die
interessierte Oeffentlichkeit in Fragen des Einsatzes von Software-Loesungen
auf der Basis von Personal Computern zu beraten.

Das Konzept des Mikrocomputer-Zentrums wurde vor fuenf Jahren in der GMD
entwickelt und erfolgreich umgesetzt. Seit dem sind eine Vielzahl solcher
Zentren mit Unterstuetzung der GMD entstanden.

2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2

Apple ueberholt IBM im PC-Markt

IBM hat seine seit 1981 ununterbrochen gehaltene Spitzenposition
im PC-Markt (gemessen an Marktanteilen) an Apple verloren. Laut
einer Studie von "Audits & Surveys Inc." hielt Apple im Februar 1991
27% und IBM 25%. Nur sechs Monate zuvor waren die Verhaeltnisse
noch wesentlich anders: IBM mit 37% und Apple mit 17%.
IBM fuehrt den Rueckgang auf die schwache Wirtschaft und den
allgemeinen Rueckgang im PC-Markt zurueck. Laut dem "Wall Street
Journal" meinen viele Beobachter jedoch, dass der PC-Markt auch
noch weiter waechst und IBMs Probleme auf eigene (taktische)
Fehler zurueck zu fuehren seien; insbesondere seien die Preise fuer
IBM-PCs zu hoch, aber auch die Hardware sei z. T. veraltet und der
Zwist mit Microsoft nicht geschickt.. Apple hatte denn auch mit
seiner im Oktober 1990 durchgefuehrten, drastischen
Preisreduzierung bei gaengigen Modellen vollen Erfolg und berichtete
kuerzlich fuer 1990 einen um 20% gestiegenen Ertrag bei einer
85%igen Steigerung der Anzahl verkaufter Geraete (Letzte Woche
allerdings kam die Nachricht, dass die Profite fuer das erste Quartal
1991 geringer sind als erwartet, weil insbesondere der "sales mix"
zu schnell auf die preisguenstigen Maschinen mit geringeren Margen
geschwenkt sei).
IBM versucht jedenfalls nun zu kontern: Nachdem auch Compaq
kuerzlich seine Preise bis zu 34% gesenkt hat und Firmen wie Dell
und AST Research sehr agressiv im Markt agieren, hat IBM neue
Modelle und Preisreduzierungen bekanntgegeben: Das Einstiegsmodell
PS/2-30 basiert immer noch auf dem 286 und kostet (mit groesserer
Speicherkapazitaet) $2,495. Das Modell PS/2-90, auf der Basis des
neuen 486SX, faengt bei $8,345 an und das Spitzenmodell PS/2-95,
ausgeruestet mit dem 486, liegt zwischen $15,195 und $17,195.
Jetzt bleibt abzuwarten, wie andere Unternehmen (u.a. Compaq und
AST Research haben auch 486-Modelle angekuendigt) - und natuerlich
auch die Kunden - darauf reagieren.

Aus FITNUS, GMD Aussenstelle Washington

3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3-3

Darpa wird neustrukturiert

Die "Defense Advanced Research Projects Agency" (DARPA) des
Pentagons wird einer Reorganisation unterworfen, um - wie
offizielle Stimmen berichten - eine integriertere Programmstruktur
und mehr Effektivitaet zu erzielen.
Der noch nicht genehmigte Vorschlag zur Neustrukturierung
beinhaltet insbesondere die Streichung des "Defense Manufacturing
Office" (DMO), welches fuer so bekannte Projekte wie SEMATECH, das
200-Millionen-Dollar "Semiconductor Manufacturing Consortium" von
Regierung und Industrie sowie fuer "High-Definition Display
Research" zustaendig war. Laut DARPA-Leiter Vic Reis tendierte das
DMO gegen das Ziel, Fertigungstechnologien innerhalb der Behoerde
zu integrieren. DARPAs stellvertretender Leiter Gary Denman ist
fuer die Reorganisation zustaendig. DMOs Leiter Mike Kelly wurde
zum "special assistant for electronics manufacturing" benannt.

U.a. soll es folgende Bereiche innerhalb DARPA geben
(Verantwortliche in Klammern):
- Computer & Communication (Steve Squires),
- Information Science (Barry Boehm),
- Electronic Devices (Arati Prabhakar),
- Advanced Electronics (Lance Glasser).

Aus FITNUS 19-2

4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4-4

Anhoerung zu "Virtual Reality" im Senat

Unter Vorsitz von Senator Al Gore fand am 8.5.1991 eine Anhoerung
des "Science, Technology and Space Subcommittee" zum Thema
"Virtual Reality: New Developments in Computer Technology" statt.

Eingeladene Zeugen waren
- Mr. Jaron Lanier ("President" von VPL Research),
- Dr. Fred Brooks (Prof. an der Univ. of North Carolina at Chapel Hill),
- Dr. Thomas A. Furness III ("Director" des "Human Interface
Technology Laboratory" an der Univ. of Washiongton at Seattle),
- Dr. Charles Brownstein ("Director" des CISE-Direktorats der
National Science Foundation) und
- Dr. Lee B. Holcomb ("Director" der "Information Sciences and Human
Factors Division" bei dem "Office of Aeronautics and Space
Technology" der NASA).

Es wurde die historische Entwicklung der Technologie, ihre
Bedeutung fuer die Zukunft und heute bereits bekannte sowie
zukuenftige Anwendungsmoeglichkeiten aufgezeigt. Mittels Filmen,
Dias und Folien wurden Beispiele von heute bereits moeglichen
Anwendungen gegeben und fuer die Mitglieder des Subkomitees wurde
Ausruestung aus dem gesamten Land zusammengetragen, damit sie
selbst diese neue Technik einmal erleben und erfahren koennen.
Anwendungsgebiete wurden sehr viele genannt, darunter
insbesondere Medizin, Ausbildung, Architektur und allgemein der
Konstruktions- und Fertigungsbereich sowie die Simulation.
Es wurde festgestellt, dass die amerikanische Forschung und
insbesondere auch das "Department of Defense" sich schon seit Mitte
der sechziger Jahre mit "Virtual Reality" befassen, aber wieder mal
die Gefahr bestuende, diesen Bereich zum grossen Teil an Japan zu
verlieren, das sich erst seit ein paar Jahren mit diesem Gebiet
beschaeftigt. Dies sei aber keine Kritik an Japan, sondern wieder mal
ein Ausdruck dessen, dass es den Amerikanern oft nicht gelaenge,
vielversprechende Technologien in Produkte umzusetzen. Einzelne
japanische Grossunternehmen wuerden auch - so eine Aussage von
Gore - mehr in "Virtual Reality" investieren als die gesamte USA.
Lanier berichtete auch mehrfach von der guten Ausruestung in
Deutschland und Frankreich und zeigte unter anderem einen Film
ueber eine geplante U-Bahn-Station in Berlin in "virtual reality".
Weiter wurde aufgezeigt, dass das Gebiet durch das
Zusammentreffen verschiedener Wissenschaftsbereiche und
verschiedener Technologien sehr interdisziplinaer sei und es wurde
in diesem Zusammenhang auf die Gefahr hingewiesen, dass die USA
bezueglich bestimmter hochwertiger Technologien vom Import
abhaengig sei; als Beispiele wurden die Sensortechnik und "High
Resolution Display Systems" genannt.
Fuer die weitere Zukunft des Gebiets und insbesondere fuer die
raeumlich (weit) verteilte Anwendung von "Virtual Reality" wuerde
die Schnelligkeit von Computern sowie die Verfuegbarkeit von
schnellen Netzwerken eine grosse Rolle spielen (in diesem
Zusammenhang wurde Bezug genommen auf Supercomputer und auf
das geplante "National Research and Education Network NREN").

Aus FITNUS 19-3, GMD Aussenstelle Washington

5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5-5

X 11 Release 5 aus Japan

OMRON has developed "X Window Version 11 Release 5 (X11R5)," a
next-generation "X Window" system, and will start OEM-supplying it to
workstation makers worldwide within the year. X11R5 features a
multi-language processing function added to the Release 4 version that
is supported by most workstation makers. The new version, which has
been approved by the X Consortium as a standard system, makes it
unnecessary for software vendors to develop applications for each
language. (5/21/91: Nikkan Kogyo p.10)

Aus JANEWS, GMD Aussenstelle Tokio
------------------------------------------------------------------------------
NEXT NRC3
IMPRESSUM
---------

"Die gesamte Menschheit bleibt aufgefordert, in freier Selbstbestimmung
die Einheit und Freiheit des globalen Dorfes zu vollenden."

Herausgeber: Chaos Computer Club e.V./Redaktion Chalisti

Erscheinungsdatum: 1.6. 1991

V.i.S.d.P. : F.Simon

Redaktion: Volker Eggeling, Frank Simon

Mitwirkende an dieser Ausgabe: Herwig, Carlo, Peter, Pirx, Wau,
Vincent Steger, Pi, Frank Moeller, etc

Redaktionen: Chalisti, c/o Frank Simon, Strackerjanstr. 53
W2900 Oldenburg, Tel. 0441/76206
Datenschleuder, Schwenkestrasse 85, W2000 Hamburg 20
Tel. 040/4903757, Fax: 040/4917689
MIK-Magazin, c/o J. Wieckmann, W2000 Hamburg 60
Barmbeker Str.22

Verbreitung: Zerberus : /Z-NETZ/MAGAZINE/CHALISTI
UUCP(dnet) : dnet.general
UUCP(sub) : sub.mag.chalisti
EARN/CREN : CHAMAS@DOLUNI1, Brett chamas.chalisti
GeoNet : mbk1: brett ccc-presse
MagicNet : Artikel&News
Mausnet : Chalisti
FidoNet : ccc.ger
BTX : *CHAOS# / TELESOFT

Adressen: EARN/CREN : CHAMNT@DOLUNI1.bitnet
UUCP : eggeling@uniol (eunet)
terra@sol.north.de (subnet)
Zerberus : terra@sol.zer
GeoNet : mbk1: chaos-team
FidoNet : Volkmar Wieners on 2:241/2.1205
MagicNet : trendbox:gec
MausNet : terra@sub (temporaer)
AmNET II : HENNE;SML
FidoNet : 241/5800.5
DFN : C=de;A=dbp;P=gmd;O=kmx;S=ext/simon

Teilnehmer aus diversen anderen Netzen benutzern am besten
die Adresse terra@sol.north.de

Mit Namen gekennzeichnete Artikel geben nicht unbedingt die Meinung der
Redaktion wieder. Alle Artikel und Beitraege koennen mit Quellenangabe
weiterverwendet werden. Artikel aus dem MIK-Magazin bitte mit Quelle:
(emp/mik) MIK Magazin, (c/o) J. Wieckmann, Barmbecker Str. 24, 2000 HH 60
angeben.
Die Verbreitung der Chalisti auf anderen Netzen wird ausdruecklich er-
wuenscht. Bei Abdruck in Zeitungen oder Zeitschriften bitten wir um zwei
Belegexemplare.




← previous
next →
loading
sending ...
New to Neperos ? Sign Up for free
download Neperos App from Google Play
install Neperos as PWA

Let's discover also

Recent Articles

Recent Comments

Neperos cookies
This website uses cookies to store your preferences and improve the service. Cookies authorization will allow me and / or my partners to process personal data such as browsing behaviour.

By pressing OK you agree to the Terms of Service and acknowledge the Privacy Policy

By pressing REJECT you will be able to continue to use Neperos (like read articles or write comments) but some important cookies will not be set. This may affect certain features and functions of the platform.
OK
REJECT