Die Moral dieser G´schicht? – KI hat sie nicht!

Mittwoch, 08. August 2018, 09:16 Uhr

Als Issac Asimov 1942 seine drei Robotergesetze beschrieb, galten humanoide Roboter als ferne Zukunftsmusik. Selbst heute liegt die Umsetzung tatsächlich denkender und vor allem fühlender Maschinen noch in der Ferne, doch werfen die Entwicklungen im Bereich der künstlichen Intelligenz (KI) bereits heute neue Fragen an die ethische und moralische Umsetzung von KI auf.

ethics-2991600_1920

Denn eines ist derzeit sicher: Die künstliche Intelligenz besitzt (noch) keine Moral. Daher muss die Fragestellung an die Entwickler der Algorithmen vorgelagert werden. Und selbst wenn im Alltag die Gefahr, dass ein Roboter ein menschliches Wesen verletzt oder durch Untätigkeit zulässt, dass einem menschlichen Wesen Schaden zugefügt wird gering [1] ist, sind doch noch weitere Fragen an die Ethik und Moral im Zuge der KI zu stellen.

Denn Asimovs Robotergesetze greifen zu kurz – beziehen sie sich doch auf die Maschinen selbst:

  • Ein Roboter darf kein menschliches Wesen wissentlich verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  • Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde Regel ein widersprechen.
  • Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Asimov selbst postulierte in seinem Roman „Aufbruch zu den Sternen“ 1983 ein viertes Gesetz – das Nullte und damit höchste:

  • Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.

Dieses Gebot impliziert, dass es dem Roboter sehr wohl möglich ist, einen Menschen zu verletzen oder zu töten, solange er damit weiteren Schaden von der Menschheit abwendet.

Doch bereits bei der Umsetzung im militärischen Bereich merkt man, dass die Asimov´schen Gesetze nicht genügen, es sollten auch die Erschaffer der Roboter und Maschinen miteinbezogen werden. Dürfen Menschen intelligente Maschinen erschaffen, die das Potential haben, anderen Menschen Schaden zuzufügen? Wer trägt die Verantwortung für den Schaden?

Beidseitige moralische Verantwortung?

Daher hat die französische nationale Datenschutzbehörde CNIL in einem Bericht [2] aus 2017 sechs Bereiche identifiziert, in denen Fragen zu Moral und Ethik beidseitig (für Mensch und Maschine) gestellt und gegebenenfalls auch überwacht werden sollen:

  1. Autonome Maschinen:

Wenn Maschinen autonom Entscheidungen fällen können, sind sie selbstbestimmt. Damit bewegen wir uns im Bereich des freien Willens und im Spannungsfeld der Verantwortung. Wer trägt die Verantwortung? Der Mensch oder die Maschine? Ist es nicht einfacher, die gesamte Verantwortung an autonome Maschinen „auszulagern“? Wie weit können wir den Entscheidungen der Maschinen aber trauen? Was sind die Beweggründe für autonome Maschinen bzw. deren Erschaffer?

  1. Tendenzen, Diskriminierung und Ausschluss:

Diskriminierung und Ausgrenzung ist nicht nur für uns Menschen ein Problem. KI kann das Problem sogar noch verstärken, da sie Tendenzen entweder durch die Entwickler vorgegeben haben können oder – im schlimmsten Fall – selbst im Zuge des Lernens entwickeln. Und der objektiven, rationalen KI wird gerne vertraut. Wie kann das verhindert bzw. kontrolliert werden? Sind die Folgen überhaut vorhersehbar? Was, wenn autonome Entscheidungen auf Grundlage von „Vorurteilen“ der KI gefällt wird und Personen oder Personengruppen ausgrenzt?

  1. Algorithmisches Profilieren von Menschen:

Einerseits kann KI durch die Personalisierung von Software für jeden Einzelnen oder auch ganze Gesellschaften zusätzlichen Nutzen generieren. Die Gefahr besteht allerdings unter anderem im Missbrauch der Personalisierung. Pluralismus – politisch wie kulturell – kann so zu Verfolgung führen, gesellschaftliche Werte können ausgehebelt werden. In diesem Spannungsfeld werden sich nicht nur die Entwickler von KI sondern jeder Anwender – egal ob Privatperson oder Staat – die Frage stelle, ob Bequemlichkeit vor Sicherheit geht.

  1. Verhinderung der Ansammlung riesiger Datenmengen für maschinelles Lernen:

Deep Learning benötigt zu Trainingszwecken riesige Datenmengen um die Treffsicherheit zu erhöhen. Gerade bei Personenbezogenen Daten und dafür geschaffenen Datenschutzgesetzen stellt das allerdings einen Konflikt dar. Wie wird mit diesem Wiederspruch umgegangen? Wie kann der Schutz individueller Daten gewährt werden? Kann AI ohne riesige Datenmengen effizient lernen?

Und es stellen sich noch weitere Fragen: Was hat Priorität: der Schutz individueller und sensibler Daten oder das Lernen von KI? Hat die Maschine diesbezüglich den Nachrang? Ist es moralisch vertretbar, dass Maschinen sensible Daten „autonom“ und „irgendwie“ verarbeiten? Und wenn nicht, kann die Maschine dann noch korrekt lernen?

  1. Herausforderungen bei der Auswahl von Daten in Qualität, Quantität und Relevanz:

Entscheidungen und Aussagen der KI sind nur so gut wie die zu Grunde liegenden Daten. Sind diese nicht korrekt oder nicht relevant, können die Entscheidungen zu falschen Ergebnissen führen. Eine gesunde Skepsis jeder Entscheidung gegenüber ist – wie bei menschlichen Entscheidungen – angebracht. Die Gefahr liegt hier aber auch darin, dass ja die Entscheidungen und Aussagen der KI vermeintlich logisch und mathematisch und somit rational sind. Auch, wenn neue Features zu einer bestehenden Software dazukommen, sich aber die Datengrundlage nicht ändert – die KI könnte das falsche lernen. Es gilt daher stets die Ergebnisse zu hinterfragen und als Wahrscheinlichkeiten zu verstehen, nicht als fixe, unveränderliche Wahrheiten!

  1. Menschliche Identität im KI-Zeitalter:

Eine weitere philosophische Frage. Denn es entwickeln sich auch hybride Mensch-Maschinen Formen, auch gerne Cyborgs genannt. Wo fängt dies an? Sind Menschen mit intelligentem Herzschrittmacher bereits Cyborgs? Trägt die Maschine bei einem Verbrechen eine Teilschuld mit? Kann die Maschine Auslöser oder Initiator für ein Verbrechen sein? Kann die „Verbesserung“ des Menschen durch Maschinen dazu beitragen, dass „Übermenschen“ geschaffen werden? Und wie soll mit humanoiden Robotern umgegangen werden, die Emotionen und emotionale Reaktionen bei Menschen auslösen?

Wie man an den sechs Punkten sieht, stellt nicht nur die technische Umsetzung von künstlicher Intelligenz deren Entwickler (und die Menschen) vor neue Herausforderungen.

Verfeinerung notwendig

Und selbst diese Punkte müssen noch verfeinert werden, etwa wenn die Frage aufkommt, wie mit false-positiven bzw. false-negativen Fehlern umgegangen werden kann oder ab welcher Treffergenauigkeit der Aussage eine KI überhaupt eingesetzt werden soll oder darf. So wird in den USA eine KI eingesetzt, welche die Rückfallswahrscheinlichkeiten von Straftätern berechnen soll. Damit soll die Justizbehörde bei der Festlegung des Strafmaßes, Kautionen und frühzeitigen Haftentlassungen unterstützt werden. Die Trefferquote der KI ist allerdings nicht eben berauschend: 61% bei geringfügigen Taten und nur 20% der vorhergesagten Rückfälle bei Gewaltverbrechen fanden tatsächlich statt [3]. Noch dazu scheint sie Afroamerikaner zu benachteiligen.

CNIL hat aus den dem Report vorausgegangene Debatten zwei Grundprinzipen erarbeitet, die aus ihrer Sicht die neuen Grundrechte im digitalen Zeitalter bei der Anwendung von Algorithmen darstellen.

  • Prinzip der Loyalität: Bei der Anwendung und Umsetzung von Algorithmen bzw. KI sind nicht nur die persönlichen Interessen (der Entwickler) zu berücksichtigen. Das Interesse aller Betroffenen soll Vorrang haben – der Algorithmus soll „loyal“ gegenüber den (Zwangs-)Nutzern sein und die gesellschaftlichen Folgen der Anwendung berücksichtigt werden.
  • Prinzip der Wachsamkeit/konstanten Bewusstheit: Es geht darum, durch praktische Maßnahmen und Praktiken eine „Mahnwache“ der digitalen Gesellschaft zu sein – und zwar jeder, der an KI beteiligt ist, sei es als Designer, Unternehmer oder Nutzer.

Auch das ISTQB versucht allgemein mit dem Punkt „Ethik“ im Lehrplan auf das Thema einzugehen. Damit befasst sich auch der Artikel meines Kollegen Robert Licen über „Soziale Verantwortung im Softwaretest“.

Somit ergeben sich neue Herausforderungen und Aufgaben die auf die IT und den Test zukommen werden. Auch wenn vieles aus heutiger Sicht noch unwahrscheinlich oder gar unmöglich scheint. Denn wie Niels Bohr (1885-1962), dänischer Physiker und Nobelpreisträger, es bereits formulierte: Alles ist möglich, vorausgesetzt, daß es genügend unvernünftig ist.

 

Fußnoten:

[1] 2016 überführ ein Wachroboter einer Shopping-Mall in Palo Alto ein 16 Monate altes Kind. Das Kind wurde dabei leicht verletzt. Leider gab es mit Autopiloten im Auto bereits tödliche Unfälle.

[2] https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf

[3] https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

The post Die Moral dieser G´schicht? – KI hat sie nicht! appeared first on ANECON Blog.


Weitere aktuelle Blogeinträge der Organisation

Nagarro Testing Services GmbH

Logo.png20180410 16978 vnrhqq
Anfang 2018 erwarb das internationale IT-Unternehmen Nagarro das Softwarehaus ANECON. Nagarro gehört zur deutschen Allgeier Gruppe und legt die Schwerpunkte auf agile Software-Entwicklung, Test-Automatisierung, Cloud-Technologien und Transformationsprojekten für Industrie 4.0 Lösungen. Große Unternehmen wie Andritz, ErsteBank, Lufthansa, ÖBB oder Siemens arbeiten mit Nagarro zusammen, um entscheidende Wettbewerbsvorteile zu erzielen. In weltweit 25 Niederlassungen beschäftigt Nagarro über 4.500 ExpertInnen. Die beiden Unternehmen verstärken einander mit einem starken lokalen Footprint einerseits und der internationalen Expertise anderseits.