Computher-Ethik - oder die Berufsethik von Informatikern
Wenn man von Computer-Ethik (oder der fehlenden) spricht, so
assoziiert jeder Zuhoerer voellig unterschiedliche Bereiche mit dem
Begriff: Daten-Klau und Rechenzeit-Klau, Software-Klau und
Kopierschutz-Knacken, Hacken in Netzen, Viren, Wuermer, trojanische
Pferde und anderes Getier, Computersabotage, Ab"hoeren" von Leitungen
und Terminals, Verletzung des Datenschutzes usw. Das sind alles
Erscheinungen, bei denen geschriebene oder (noch) ungeschriebene
Gesetze verletzt werden. Es wird wirtschaftlicher Schaden angerichtet,
es wird das "informationelle Selbstbestimmungsrecht" von Menschen
verletzt. Aber trotzdem will ich jetzt nicht darueber schreiben, denn
unsere Gesellschaft hat laengst Mechanismen und Sanktionen entwickelt,
um den Schaden einzudaemmen. Ich will auch nichts ueber die
Sinnhaftigkeit mancher Regelungen und ihre Wirksamkeit sagen. Vielmehr
will ich von der sehr ernst gefuehrten Diskussion ueber die
Berufsethik von Informatikern berichten.
Arbeitsorganisation
-------------------
Computersysteme werden prinzipiell entwickelt und gebaut, um
menschliche Arbeit zu ersetzen (oder Arbeit zu leisten, fuer die
Menschen viel zu lange brauchen wuerden, nicht praezise und
zuverlaessig genug sind, oder die zu gefaehrlich ist). Die Association
for Computing Machinery definiert die grundlegende Frage der
Informatik ("Computing") kurz und buendig mit "Was kann (effizient)
automatisiert werden?" Genauer betrachtet, setzt man Computer ein, um
menschliche Arbeit von Automaten ausfuehren zu lassen, um menschliche
Arbeit zu organisieren (Arbeitsplanung, Arbeitskontrolle) und um
menschliche Arbeit und ihre Kosten von einer Instanz auf eine andere
zu verlagern (z.B. Bankauftraege ueber Kreditkartenterminals oder BTX
statt ueber das Bankpersonal). Anders ausgedrueckt soll der Computer
vor allem die Arbeitsorganisation veraendern - vom speilerischen und
kuenstlerischen Anwendungen einmal abgesehen. Die gegenwaertige
DV-Ausbildung und das Informatikstudium vernachlaessigen aber den
arbeitsorganisatorischen Teil, so dass sowohl Maschinen als auch
Programme entstehen, die katastrophale Auswirkungen auf die
Beschaeftigten und fuer die Organisation haben. (Die Frage der
Verantwortung fuer die Wegrationalisierung von Arbeitsplaetzen gehoert
natuerlich auch in diesen Zusammenhang und laeuft - rein oekonomisch
betrachtet - auf die Abwaegung hinaus, ob die gesamtwirtschaftlichen
Kosten einer Rationalisierung (also auch mit den sozialen Folgekosten)
nicht hoeher sind als die betriebswirtschaftlichen Vorteile eines
einzelnen Betriebs.)
Immerhin gibt es jetzt aber kraeftig wachsende Bestrebungen, das
Informatikstudium in diese Richtung zu erweitern: die
Wirtschaftsinformatiker haben ein natuerliches Interesse daran, dass
die oekonomischen Wirkungen der Umorganisation von Arbeit durch die
Automatisierung vollstaendig planbar gemacht werden koennen, und eine
Fachgruppe in der Gesellschaft fuer Informatik entwirft ein Curriculum
fuer das Gebiet Software-Ergonomie, also der Wissenschaft von der
menschengerechten Gestaltung von Software, so dass bei der Erfuellung
der Arbeitsaufgabe nervliche und intelektuelle Belastungen so gering
wie moeglich gehalten und gesundheitliche Schaeden vermieden werden.
Darueberhinaus soll ein gut gestaltetes Programm zur Weiterentwicklung
der Persoenlichkeit beitragen und soziale Beziehungen zumindest nicht
behindern.
Anwendungsrisiken
-----------------
Ein drittes grosses Diskussionsfeld ist sehr aktuell: die Frage nach
der Verantwortung fuer den Einsatz von Systemen. Gemeint ist nicht nur
die juristische Haftung, sondern auch die moralische und politsche
Verantwortung. In Bremen wird dazu eine Tagung im Oktober zum Thema
"Riskante Systeme" laufen.
SDI und das Versagen grosser technischer Systeme (z.B. Tschernobyl)
kennzeichnen die zwei Hauptthemen der Diskussion: Planung, Entwurf und
Einsatz erstens von Waffensystemen, also Systemen, die per se
zerstoeren sollen - auch wenn sie politisch durch Abschreckung die
Zerstoerung verhindern sollen - und zweitens von Systemen, bei denen
katastrophale Wirkungen durch Fehlkonstruktion, -programmierung oder
durch Fehlbedienung auftreten koennen. Juristisch gesprochen laeuft
das auf die Frage hinaus, ob es so etwas wie Produkt- und
Produzentenhaftung fuer Computer und Software geben kann (Der
Hersteller haftet auch fuer indirekte Folgeschaeden: kleines Loch im
Pflaster, Fuss gebrochen, Termin verpasst, grosser Auftrag geplatzt,
den Millionenschaden zahlt die Stadt...)
Die Technologiefolgen-Kommission des Bundestages hat das Thema
untersucht und in Hamburg hat im Juli die Tagung "Opportunities and
Riscs of Artificial Intelligence Systems" - ORAIS '89 stattgefunden,
bei der die beiden Auspekte ausfuehrlich duskutiert wurden. In einer
Arbeitsgruppe entstand die Empfehlung, wissensbasierte Systeme fuer
Einsatz- bereiche zu verbeiten, in denen lebens- oder
gesundheitsbedrohende Wirkungen durch Fehler eintreten koennen. Es
soll also nicht erlaubt sein, ein medizinisches Expertensystem dem
Pflegepersonal in die Hand zu geben, um es - ohne Beisein von aerzten
- bei der Apparatesteuerung in der Intensivstation zu beraten. Noch
weniger soll es zulaessig sein, ein "imbedded system" zu verwenden,
also ein Expertensystem, bei dem das "eingebettete" Expertenwissen
automatisch - ohne menschlichen Eingriff - irgendwelche technischen
Funktionen ausloest. Dass selbst ohne diese Automatik schwerwiegende
Fehlentscheidungen aufgrund von, wohl gemerkt, korrekt laufenden
Programmen zustande kommen koennen, zeigt der Abschuss des iranischen
Airbus mit einigen hundert Passagieren vor einem Jahr. Damals hat das
Expertensystem-aehnliche Radarauswertungsprogamm dem Kapitaen der
amerikanischen Fregatte den Eindruck suggeriert, es handele sich um ein
angreifendes Flugzeug und er hat daraufhin - unter Zeitdruck und aus
fehlender Kenntnis ueber die Grenzen des Expertenwissens - auf den
Roten Knopf gedrueckt! Der Kapitaen traegt zwar die direkte
Verantwortung, aber diejenigen, die ihm dieses Expertensystem
vorgesetzt haben, tragen nach meiner Meinung die groessere Schuld.
Konsequenzen fuer den Informatiker
----------------------------------
Die Forderung an die Berufsethik jeden Informatikers muss natuerlich
sein: wenn von Dir der Entwurf, der Bau oder der Einsatz von
risikotraechtigen Systemen verlangt wird, verweigere Dich! Wenn es
dann nicht gelingt, den Auftraggeber umzustimmen, verlangen die zu
erwartenden Sanktionen viel Staerke und manches Opfer, und sie treffen
auch die Familienangehoerigen. Erst wenn viele Informatiker etwa dem
Beipiel der nicht wenigen SDI- Verweigerer in den USA folgen, wird der
Druck auf den Einzelnen ertraeglicher werden.
Was insgesamt fehlt, ist eine Art Hippokratischer Eid fuer
Informatiker. Ansaetze dazu gibt es in England und in den USA. Auch
bei uns wird in der GI (Gesellschaft fuer Informatik) im FIFF (Forum
Informatiker fuer Frieden und gesellschaftliche Verantwortung)
darueber diskutiert.
Prof. P. Gorny
(Angewandte Informatik,Uni Oldenburg)
-----------------------------------------------------------------------------