Autonome Fahrzeuge im Straßenverkehr, autonome Waffen und Kriegsroboter können Menschen töten. Je komplexer, intelligenter und selbständiger autonome Maschinen werden, desto häufiger kann es zu Entscheidungen über Leben und Tod gehen.
Hieraus ergeben sich grundlegende Fragestellungen: Können Maschinen und Roboter überhaupt moralisch handeln – und sollen sie es? Kann man Ethik und Moral programmieren? Und wer trägt die Verantwortung? Über die Grundfragen der Maschinenethik geht es im Interview mit Frau Prof. Dr. Catrin Misselhorn.
Buchempfehlung:
Grundfragen der Maschinenethik