Websalon

Computher-Ethik - oder die Berufsethik von Informatikern


Wenn man von Computer-Ethik (oder der fehlenden) spricht, so 
assoziiert jeder Zuhoerer voellig unterschiedliche Bereiche mit dem 
Begriff: Daten-Klau und Rechenzeit-Klau, Software-Klau und 
Kopierschutz-Knacken, Hacken in Netzen, Viren, Wuermer,  trojanische
Pferde und anderes Getier, Computersabotage, Ab"hoeren" von Leitungen
und Terminals, Verletzung des Datenschutzes  usw. Das sind alles
Erscheinungen, bei denen geschriebene oder  (noch) ungeschriebene
Gesetze verletzt werden. Es wird  wirtschaftlicher Schaden angerichtet,
es wird das "informationelle  Selbstbestimmungsrecht" von Menschen
verletzt. Aber trotzdem will  ich jetzt nicht darueber schreiben, denn
unsere Gesellschaft hat  laengst Mechanismen und Sanktionen entwickelt,
um den Schaden  einzudaemmen. Ich will auch nichts ueber die
Sinnhaftigkeit mancher  Regelungen und ihre Wirksamkeit sagen. Vielmehr
will ich von der  sehr ernst gefuehrten Diskussion ueber die
Berufsethik von  Informatikern berichten.


Arbeitsorganisation
-------------------

Computersysteme werden prinzipiell entwickelt und gebaut, um 
menschliche Arbeit zu ersetzen (oder Arbeit zu leisten, fuer die  
Menschen viel zu lange brauchen wuerden, nicht praezise und 
zuverlaessig genug sind, oder die zu gefaehrlich ist). Die Association 
for Computing Machinery definiert die grundlegende Frage der 
Informatik ("Computing") kurz und buendig mit "Was kann (effizient) 
automatisiert werden?" Genauer betrachtet, setzt man Computer ein,  um
menschliche Arbeit von Automaten ausfuehren zu lassen, um  menschliche
Arbeit zu organisieren (Arbeitsplanung,  Arbeitskontrolle) und um
menschliche Arbeit und ihre Kosten von  einer Instanz auf eine andere
zu verlagern (z.B. Bankauftraege ueber  Kreditkartenterminals oder BTX
statt ueber das Bankpersonal).  Anders ausgedrueckt soll der Computer
vor allem die  Arbeitsorganisation veraendern - vom speilerischen und 
kuenstlerischen Anwendungen einmal abgesehen. Die gegenwaertige 
DV-Ausbildung und das Informatikstudium vernachlaessigen aber den 
arbeitsorganisatorischen Teil, so dass sowohl Maschinen als auch 
Programme entstehen, die katastrophale Auswirkungen auf die 
Beschaeftigten und fuer die Organisation haben. (Die Frage der 
Verantwortung fuer die Wegrationalisierung von Arbeitsplaetzen  gehoert
natuerlich auch in diesen Zusammenhang und laeuft - rein  oekonomisch
betrachtet - auf die Abwaegung hinaus, ob die  gesamtwirtschaftlichen
Kosten einer Rationalisierung (also auch  mit den sozialen Folgekosten)
nicht hoeher sind als die  betriebswirtschaftlichen Vorteile eines
einzelnen Betriebs.) 

Immerhin gibt es jetzt aber kraeftig wachsende Bestrebungen, das 
Informatikstudium in diese Richtung zu erweitern: die 
Wirtschaftsinformatiker haben ein natuerliches Interesse daran, dass
die  oekonomischen Wirkungen der Umorganisation von Arbeit  durch die
Automatisierung vollstaendig planbar gemacht werden  koennen, und eine
Fachgruppe in der Gesellschaft fuer Informatik  entwirft ein Curriculum
fuer das Gebiet Software-Ergonomie, also  der Wissenschaft von der
menschengerechten Gestaltung von  Software, so dass bei der Erfuellung
der Arbeitsaufgabe nervliche  und intelektuelle Belastungen so gering
wie moeglich gehalten und  gesundheitliche Schaeden vermieden werden.
Darueberhinaus soll ein gut gestaltetes Programm zur Weiterentwicklung
der  Persoenlichkeit beitragen und soziale Beziehungen zumindest nicht 
behindern. 


Anwendungsrisiken
-----------------

Ein drittes grosses Diskussionsfeld ist sehr aktuell: die Frage nach 
der Verantwortung fuer den Einsatz von Systemen. Gemeint ist nicht  nur
die juristische Haftung, sondern auch die moralische und  politsche
Verantwortung. In Bremen wird dazu eine Tagung im Oktober  zum Thema
"Riskante Systeme" laufen. 

SDI und das Versagen grosser technischer Systeme (z.B. Tschernobyl) 
kennzeichnen die zwei Hauptthemen der Diskussion: Planung, Entwurf  und
Einsatz erstens von Waffensystemen, also Systemen, die per se 
zerstoeren sollen - auch wenn sie politisch durch Abschreckung die 
Zerstoerung verhindern sollen - und zweitens von Systemen, bei denen 
katastrophale Wirkungen durch Fehlkonstruktion, -programmierung oder 
durch Fehlbedienung auftreten koennen.  Juristisch gesprochen laeuft
das auf die Frage hinaus, ob es so  etwas wie Produkt- und
Produzentenhaftung fuer Computer und  Software geben kann (Der
Hersteller haftet auch fuer indirekte  Folgeschaeden: kleines Loch im
Pflaster, Fuss gebrochen, Termin verpasst, grosser Auftrag geplatzt,
den Millionenschaden zahlt die Stadt...)

Die Technologiefolgen-Kommission des Bundestages hat das Thema 
untersucht und in Hamburg hat im Juli die Tagung "Opportunities and
Riscs  of Artificial Intelligence Systems" - ORAIS '89 stattgefunden,
bei der die  beiden Auspekte ausfuehrlich duskutiert wurden. In einer 
Arbeitsgruppe entstand die Empfehlung, wissensbasierte Systeme fuer
Einsatz- bereiche zu verbeiten, in denen lebens- oder
gesundheitsbedrohende Wirkungen  durch Fehler eintreten koennen.  Es
soll also nicht erlaubt sein, ein medizinisches Expertensystem dem 
Pflegepersonal in die Hand zu geben, um es - ohne Beisein von  aerzten
- bei der Apparatesteuerung in der Intensivstation zu  beraten. Noch
weniger soll es zulaessig sein, ein "imbedded system" zu  verwenden,
also ein Expertensystem, bei dem das "eingebettete"  Expertenwissen
automatisch - ohne menschlichen Eingriff -  irgendwelche technischen
Funktionen ausloest. Dass selbst ohne diese Automatik  schwerwiegende
Fehlentscheidungen aufgrund von, wohl gemerkt, korrekt   laufenden
Programmen zustande kommen koennen, zeigt der Abschuss des iranischen
Airbus mit einigen hundert Passagieren vor einem Jahr. Damals hat  das
Expertensystem-aehnliche Radarauswertungsprogamm dem Kapitaen  der
amerikanischen Fregatte den Eindruck suggeriert, es handele sich um ein
 angreifendes Flugzeug und er hat daraufhin - unter Zeitdruck und aus
fehlender  Kenntnis ueber die Grenzen des Expertenwissens - auf den
Roten Knopf gedrueckt! Der Kapitaen traegt zwar die direkte 
Verantwortung, aber diejenigen, die ihm dieses Expertensystem 
vorgesetzt haben, tragen nach meiner Meinung die groessere Schuld.


Konsequenzen fuer den Informatiker
----------------------------------

Die Forderung an die Berufsethik jeden Informatikers muss  natuerlich
sein: wenn von Dir der Entwurf, der Bau oder der Einsatz von 
risikotraechtigen Systemen verlangt wird, verweigere Dich!  Wenn es
dann nicht gelingt, den Auftraggeber umzustimmen,  verlangen die zu
erwartenden Sanktionen viel Staerke und manches Opfer,  und sie treffen
auch die Familienangehoerigen. Erst wenn viele Informatiker  etwa dem
Beipiel der nicht wenigen SDI- Verweigerer in den USA folgen, wird der
Druck auf den Einzelnen  ertraeglicher werden. 

Was insgesamt fehlt, ist eine Art Hippokratischer Eid fuer
Informatiker.  Ansaetze dazu gibt es in England und in den USA. Auch 
bei uns wird in der GI (Gesellschaft fuer Informatik) im FIFF  (Forum
Informatiker fuer Frieden und gesellschaftliche Verantwortung) 
darueber diskutiert.
                                        Prof. P. Gorny 
		               (Angewandte Informatik,Uni Oldenburg)

-----------------------------------------------------------------------------