Die Ethik der künstlichen Intelligenz

Roboter und intelligente Software sind schon seit Jahrzehnten Thema in Filmen. Sie spielen mit der Angst, dass Roboter unkontrollierbar sind und die Herrschaft über die Zivilisation übernehmen könnten. Auch wenn dies meist fern der Realität ist, muss die Integration dieser Technologie dennoch koordiniert werden. Eine Einschätzung von Enrico Schoen, Ökoworld Fondsmanagement.

Lassen Sie uns die Technologie unter gesellschaftlichen Gesichtspunkten betrachten, da diese zur Kern-DNA unserer Fonds gehören. Ethische Fragestellungen ergeben sich auf verschiedene Arten. Themen wie die verschiedenen Einsatzmöglichkeiten und die gesellschaftlichen Konsequenzen stehen dabei im Fokus unserer Nachhaltigkeitsanalyse. Auch die Analyse über die strafrechtliche Verantwortlichkeit und Konsequenzen beim Einsatz von Künstlicher Intelligenz werden im Folgenden genauer beleuchtet und sind ein stetig diskutiertes Thema.

Was darf ein Roboter und wofür kann er belangt werden?

Eine generelle Fragestellung, die sich ergibt, ist, wie man autonome Geräte und Softwares in ihrem Handeln regulieren kann. Der russisch-amerikanische Futurist Isaac Asimov definierte Anfang der 1980er Jahre drei grundlegende Gesetze für Roboter:

1.     Ein Roboter darf keine Menschen verletzen.

2.     Ein Roboter muss einem Menschen gehorchen (außer er verstößt gegen Regel 1).

3.     Ein Roboter muss sich selbst verteidigen (außer er verstößt gegen Regel 1 und 2).

Dies ist natürlich nur eine sehr oberflächliche Regulierung und keinesfalls ausreichend. Dennoch zeigt dieser Vorschlag, dass Künstliche Intelligenz (KI) als Oberbegriff in selbstlernenden Systemen und Geräten schon seit Jahrzenten eine Rolle in den Studien und Ideen von Wissenschaftlern und Futuristen spielt. In heutigen Zeiten, in denen die KI vor der breiten Markteinführung steht, stellt es die Gesetzgebung und Gesellschaft vor signifikante Herausforderungen.

Herausforderungen ergeben sich auch im Strafrecht. Urteile resultieren aus zwei wesentlichen Faktoren. Zum einen die strafrechtliche Tat und zum anderen die strafrechtliche Motivation. Die strafrechtliche Tat definiert beispielsweise den Unterschied zwischen einem Raub oder Betrug und strafrechtliche Motivation definiert die Abstufung zwischen vorsätzlich und fahrlässig. Bei einem Menschen kann man diese Faktoren genauer bestimmen, dies ist jedoch bei Robotern und intelligenten Softwares schwieriger. Die Tat kann man hier zwar auch genau definieren, doch kann man ihnen auch eine Motivation unterstellen? Und wenn nicht, trägt der Entwickler oder Besitzer des Roboters die strafrechtliche Verantwortung? Bisher übernimmt der Eigentümer die Verantwortung für seine intelligente Software, außer er kann dem Hersteller einen groben Herstellungsfehler nachweisen.

Fragestellungen zur strafrechtlichen Behandlung sind nicht das einzige Thema, bei dem sich neue Herausforderungen ergeben. Durch den disruptiven Einsatz von Robotern und intelligenter Software werden Arbeitsplätze in einfachen Tätigkeitsbereichen abgebaut.




Nachricht an die Redaktion

Hier können Sie uns einen Kommentar zu dem Artikel zukommen lassen.
Wir freuen uns auf Ihr Feedback.

Bitte lasse dieses Feld leer.]

Bei unseren Lesern momentan beliebt