Websalon

Informationstechnologien in Europa, Buerokratie jetzt!


In diesem Artikel moechte ich einige Probleme beschreiben, die ich
in der Entwicklung und der wissenschaftlichen Verwendung der IT in Europa
sehe.

Zuvor noch ein Wort ueber Anwendung von Technologie allgemein, man
koennte es eine Meta-Position nennen:

1.) Solange es keinen weltweiten Konsens ueber den Nichteinsatz egal welcher
    Art von Technologie gibt, wird sich der Einsatz nicht verhindern
    lassen. Konsens meint eine hinreichende gemeinsame Meinung ueber
    die Beurteilung von Technologien sowie Kontrollmechanismen.
2.) Um die Entwicklung (nicht den Einsatz) von Technologie kontrollieren
    zu koennen (Stichwort Technologiegestaltung), braucht man eine sehr
    weitgehende Transparenz. Dies verhindert die Geschwulst der Ruestungs-
    forschung. Da Technologieeinsatz schnell zu instabilen Zustaenden im
    "Wettbewerb" fuehrt, muss also die Offenheit sehr gross sein.
3.) Offenheit benoetigt eine wirkungsvolle Methode, Informationen auch
    ueber eine Fachoeffentlichkeit hinaus zu verbreiten. Damit erhoeht
    man die Teilnehmerzahl an der oeffentlichen Diskussion und verhindert
    abgehobene Spezialdebatten. Es geht um den vereinfachten ZUGANG zur
    Information und Diskussion.

Nun zum ersten grossen Problemfeld, den sogenannten Wissenschaftsnetzen.
Darunter fallen z.B. DFN, IXI, RARE oder RIPE.

Derzeit sind Wissenschaftsnetze m.E. die Vorreiter der allgemeinen
Vernetzung. Unter dem Vorwand, dass sie sich noch in der Entwicklung
befinden, entfallen Aspekte wie Datenschutz und Fernmeldegeheimnis.
Was bei ISDN grossen Aufruhr verursacht, die Verkehrsdatenerfassung,
das geschieht bei vernetzten Systemen regelmaessig und ohne Aufsehen.
Das Beispiel ist hier die Funktion des Postmasters (oder SysOp) einer 
Netzeinrichtung, der Statistiken ueber den Verkehr in jeder erdenklichen 
Weise erstellen kann und der ebenso den INHALT von Nachrichten kontrollieren 
kann, ohne gleichzeitig dabei kontrollierbar zu sein.

Gleichzeitig wird mit der Einfuehrung von ausgewaehlten Netztechnologien
versucht, bestehende Herrschaftsstrukturen auf elektronische Medien
umzusetzen, weil man es ja nicht anders kennt und andere Strukturen auch an
den bestehenden Machtverhaeltnissen kratzen wuerden. Als Beispiel moechte
man z.B. das Diskussionsforum QOM des DFN ansprechen, in dem geschlossene
Konferenzen moeglich sind, weil Oeffentlichkeit ja schon immer schadet.
Dass geschlossene Konferenzen in herkoemmlichen Systemen existieren, um
den Aufwand an Material begrenzbar zu halten, was bei elektronischen nicht
notwendig ist, sieht man nicht ein.

Mit den derzeitigen Methoden der Vernetzung in Europa im wissenschaftlichen
Bereich wird auch weiterhin versucht, Aussenseiter-Forschung (Betriebliche
Forschung, Arbeitskreise etc.) durch die Art der Institutionalisierung von
Rechnernetzen aussen vor zu lassen. Um an ein Forschungsnetz zu kommen,
muss man halt gewissen Standards gehorchen, die dann im gleichen Zuge
verhindern, dass nicht konforme Forschung ein Forum findet. Als Beispiel
sei genannt (weil ich es halt kenne) das deutsche Forschungsnetz. Die
Kosten des Zugangs sind so hoch, dass es keine Alternativen ausserhalb
des offiziellen Weges ueber "Institut/Prof/Firma" gibt. Die Methode ueber
die Hintertuer ("Ich kenn da den Systemverwalter") wird genutzt und kann immer
dann gesperrt werden, wenn einem die "Nase" des Betreffenden nicht mehr ge-
faellt. Das Kostenargument ("Solch eine Art des Zugangs ist zu teuer!")
ist schoen, aber nicht korrekt. Der Aufwand ist gering und wird nur durch
mangelnde Transparenz und eine gehoerige Portion Mystik bei der Berechnung in
die Hoehe geschraubt. Als Beispiel dienen hier die Kosten fuer
Telekommunikationsendeinrichtungen und -dienstleistungen wie z.B.
FAX-Geraete, Modems, Telefone, Leitungskosten, die hier in der BRD und
allgemein in der EG deutlich hoeher sind als notwendig.

Rechtliche Unsicherheit ist eine weitere Methode, die den Aufbau eines
alternativen elektronischen Mediums verhindert. Natuerlich ist dies keine
gezielte Massnahme irgendwelcher Machtgruppen oder Regierungen, sondern
system-immanent. Als Beispiel sei die relativ laecherliche Regelung ueber
die Registrierung JEDER Telekommunikationsdienstleistung genannt, die
dadurch jeden, der dies nicht tut, mit horrenden Strafen und sofortiger
Kriminalisierung bedroht. Gleichzeitig behaelt sich der Staat die
Moeglichkeit vor, diese Kommunikation durch den Verfassungsschutz
kontrollieren zu lassen (G10-Gesetz). Wer kontrolliert die Kontrolleure ?
(Hierzu auch "Operation Sun Devil").

Auf der Ebene der Scientific Community, die heute nicht mehr so ganz
trennbar vom militaerisch-industriellen Komplex oder politischem Filz
ist, waechst mit der technischen Vernetzung die Moeglichkeit, Projekte
im uebersichtlichen Wust vor jeglicher Kontrolle zu verstecken. Wie
sagte Heike von Benda, die Initiatorin des Landessystemkonzepts von
Baden-Wuerttemberg in einem Vortrag: "Wir haben uns damals auf die
Verwendung von OSI-Standards festgelegt. Obwohl es nichts ausgemacht
haette, wenn man OSI gesagt und SAA gemacht haette, weil das niemand
gemerkt haette."
Bei den vielfaeltigen EG-Projekten im Rahmen von RARE, RIPE, ESPRIT, EUREKA
etc. ist mir unklar, ob noch jemand darueber die Uebersicht behaelt.
Vermutlich ist das Wissen ueber diese Strukturen nur noch "in-group".
Mechanismen wie die von der EC gesponsorte Kommunikationsstruktur
EuroKom verstaerken diesen Effekt.

Gleichzeitig kann man auf den Netzen auch die Tatsache der Nutzung
von Ressourcen gut verstecken. Bei manchen Projekten von moralisch
zweifelhaftem Ziel, wie z.B. Ruestungsforschung ist es dank der Netze
moeglich, verschiedene Teile der rechenintensiven Aufgaben an
verschiedenen Orten durchzufuehren, so dass die keinen erkennbaren
Sinn machenden Komponenten spaeter ohne Aufsehen zu den Ergebnissen
gefuegt werden koennen. Ich kenne keine Beispiele fuer diese Idee in Europa,
vermute aber, dass solche Dinge in den USA schon taeglich geschehen.

Als letzter Punkt ist die moegliche Zensur elektronischer Kommunikation
zu erwaehnen. Die Darstellung eigener Meinungen auf den (wirkliche neuen)
elektronischen Medien kann sehr leicht unterdrueckt werden. Schliesslich
muss ja bloss an der Software gedreht werden. Als Beispiel sei hier z.B.
die Beschlagnahmung von Computern und Software bei sogenannten Crackern
in den Vereinigten Staaten und hier in der BRD erwaehnt. Dadurch wird sehr
schnell das Grundrecht auf freie Meinungsaeusserung eingeschraenkt.
Der CCC konnte auf Monate hinaus nichts mehr an seinem BTX-Programm
veraendern, weil er ohne Rechner keinen Zugriff mehr hatte.
Allgemein ist in Baelde durch die inhererente Verkoppelung von Politik,
Presse und Wirtschaft eine wirklich freie Meinungsaeusserung nicht mehr
gegeben. Denn real zaehlt nur noch die veroeffentlichte Meinung.
Kommunikationsmedien, die jedem den Zugang zu ungefilterter Information
ermoeglichen wuerden, sind nicht im Interesse des Staates.

Es stellt sich die Frage, ob Buergerbewegungen "von unten" ohne die
Nutzung von Netzen ueberhaupt noch Einflussmoeglichkeiten auf das
Gesamtsystem EG haben. Ohne Verwendung von schnellen, demokratischen
Kommunikationsmedien, wie sie Netze auch darstellen koennen (man muss
sie nur so gestalten) kann eine kritische Wissenschaft auf
Amateur/Hobbyistenbasis gegen die "Mega-Maschine" nicht bestehen.

Das zweite wichtige Problemfeld ist der Zugang sowie der rechtliche Status
von Information. Ich vertrete die These, dass die Methode, Informationen
und Publikationen des Staates nur auf herkoemmlichen Medien zu verbreiten,
eine Staerkung herkoemmlicher (Gross-)Strukturen bedeutet. Nur diese koennen es
sich leisten, die notwendigen Schritte zur informationstechnischen
Bearbeitung dieser Information durchzufuehren, um daraus einen Vorteil
zu gewinnen. 
Der Buerger und die sogenannten KMU (kleinen und mittleren Unternehmen)
in der EG sind mit der Flut von Information ihrer Staaten und der EG
ueberfordert. Um eine Gleichstellung zu erreichen, muss Information
in einer fuer den Nutzer in einer zweiten Form, naemlich elektronisch
weitergegeben werden. Dieses Prinzip wird in den USA derzeit zum Teil schon
angewendet (Godort-Principles) und soll noch ausgeweitet werden. Dadurch
koennen kleinere "Einheiten" ihren Flexibilitaetsvorsprung ausnutzen
und groessere Unternehmen verlieren ungerechtfertigte Vorteile.

Auch Software, so laesst sich in den USA erkennen, wird hier in der EG
bald einen sehr umstrittenen Status haben. Rechtsstreitigkeiten um den
Schutz von "look and feel" von Software, also die Art und Weise, wie
Benutzeroberflaechen arbeiten, sind dort sehr weit verbreitet. Das
Directorate 3/D/4 der Kommission der EG ist dabei, weitgehende
Einschraenkungen im Copyright bei Software zu formulieren, was u.a. dazu
fuehren koennte, dass die Fehlersuche (Debugging) per Disassemblieren
von Software und das Nachprogrammieren von Benutzeroberflaechen nicht
mehr moeglich waere. Grosse Firmen klagen sich dann die ihnen genehme
Software zusammen, kleine Firmen werden verschwinden.

Ein weiterer Punkt ist eine sehr allgemeine Form von Information, naemlich
Algorithmen, die bei der Informationsverarbeitung entwickelt werden. Auch
hier entwickelt sich parallel zu "patentierten" Genen in der
Biotechnologie die gleiche rechtliche Lage bei "patentierten" Algorithmen.
Ein Beispiel ist der Lempel-Ziv-Algorithmus zur Datenkompression, der
weltweit vieltausendfach verwendet wird. Unisys besitzt darauf das US
Patent Nr. 4,558,302 und kann vor jedem Gericht die Zahlung von Lizenz-
gebuehren fuer dieses Patent einklagen. Ueber 2000 Patente fuer Software
wurden seit dem Beginn solcher Patentierung im Jahre 1981 vergeben.
Wann wird fuer das Denken eine Lizenzgebuehr erhoben ?

Sicherheit der Informationstechnologie ist fuer den Staat und in seiner
Metaform, fuer die EG notwendig geworden, um bestehende (sehr
hierarchische) Herrschaftsstrukturen noch aufrechtzuerhalten.
Unter den Kritikern der IT in Regierungshaenden haelt sich wohl noch
bei vielen die Hoffnung, dass jedes technische System Luecken habe, die
einen Blick hinein erlauben und dass sich die Nutzer deswegen zurueck-
halten, weil sie bei unerlaubten Verfahren die Aufdeckung fuerchten.
Diese Hoffnung truegt. Soweit allgemein erkennbar, wird zwar kein komplexes
Softwaresystem hinreichend sicher vor Hacks sein. Jedoch wird das Wissen,
wie soetwas zu bewerkstelligen ist, immer staerkere Spezialisierung erfordern
und damit wird jener, der etwas hackt, Entdeckungen nicht mehr der
Oeffentlichkeit vermitteln koennen. 
Als Beispiel sei der sg. KGB-Hack erwaehnt. Die massive Pressearbeit der
Behoerden fuehrte dazu, dass selbst Experten der DV nicht mehr abschaetzen
konnten, welcher Schaden wirklich entstand. Dadurch konnte die gesamte
Hackerszene kriminalisiert werden. Der Staat muss auch weiterhin nach aussen
hin so erscheinen, als habe er die technologische Entwicklung im Griff, auch
wenn mancher "in-group" dies als falsch erkennt.
Eine sehr logische Erklaerung dessen, was in solchen Faellen passiert, ist
der "Irgendjemand wirds schon wissen"-Effekt. In Zeiten, in denen ein
System hinreichend komplex wird, kann keiner mehr das System ueberblicken.
Das fuehrt direkt dazu, dass jeder die Gesamtverantwortung von sich weisst,
darauf spekuliert, dass es ueber ihm noch jemanden gibt, den er zwar nicht
kennt, der aber wohl besser Bescheid weiss und der es schon richtig machen
wird. Grundaussage des Problems: Extreme Spezialisierung funktioniert nicht.

Ein weiterer Ausweg, wie der Staat sicherheitsrelevante Maengel in einer
Kerntechnologie zu umgehen versucht, ist die Monopolisierung. Dadurch
sind alle auftretenden Problem-Faelle "in-group" und lassen sich unter der
Decke halten. Dazu wird dann eine Technologie entworfen, die eine den Staat
einseitig bevorzugende Sicherheit garantiert. Wirtschaftlich hat dies
zwar keine Auswirkungen, weil alle wirtschaftenden Elemente unter denselben
Bedingungen arbeiten, aber eine Demokratie kann man das nicht lange
nennen.
Bestes Beispiel sind die Geheimdienststrukturen in den USA (NSA) und die
sich hier entwickelnde BSI-Geschichte. Ein europaeischer Ansatz ist
bisher hier nicht zu erkennen, ausser dass sich einige Laender auf
gemeinsame Normen fuer die Beurteilung der Sicherheit von IT-Systemen
geeinigt haben.

Was folgere ich nun aus diesen Punkten ? Hier eine kurze Liste, die
beispielhaft moegliche Forderungen/Aktionen des FIFF oder des CCC oder
beider enthalten koennte:

 o  Erstellen einer Liste aller Rechenzentren in der BRD/EG, mit
    Beschreibung der Konfiguration, Kunden, Finanzierung und moeglichen
    Abhaengigkeiten

 o  Erstellen von ethischen Regeln oder Checklisten fuer die Nutzung
    und die Struktur von Rechnernetzen.

 o  Universitaeten als Service-Center fuer Buerger der Region
    bei der Transparenz der Netze/Daten.

 o  Bereitstellung von Regierungsdaten in fuer den Buerger nutzbarer Form
    (z.B. Standards, weil sonst grosse Firmen bevorzugt werden,
    Statistiken, um sie in Spreadsheets nachrechnen zu koennen,
    Gesetzesblaetter etc.)

Hiermit bin ich am Ende meiner Ausfuehrungen. Dies soll als Anstoss zu
einer Diskussion dienen, auf das sich meine Argumente weiter schaerfen :)

                   So long, PI

References:

/txt/comp/prg/league.europe und ./league.prg-fre
/txt/db/godort, ./nelson-rules
/txt/nets/dfn/accounting-box
/txt/nets/dfn/qom/conferences
/txt/nets/div/anzeigepflicht
/txt/nets/g10-text
/txt/FaVeVe/heike.v.benda

Alle Files erreichbar unter Tel. +49 711 876019, 2400 8N1, login guest
----------------------------------------------------------------------------