Mitteilung: Technische Universität Darmstadt

Künstliche Intelligenz (KI) übersetzt Texte, schlägt Behandlungen für Patienten vor, trifft Kaufentscheidungen und optimiert Arbeitsabläufe. Aber wo ist ihr moralischer Kompass?

Eine Studie des Centre for Cognitive Science der TU Darmstadt zeigt, dass KI-Maschinen von uns Menschen lernen können, wie Entscheidungen in moralischen Fragen zu fällen sind. Die Ergebnisse der Studie wurden auf der diesjährigen ACM/AAAI Conference on Artificial Intelligence, Ethics, and Society (AIES) vorgestellt. … weiter


Quelle: 
www.idw-online.de
www.tu-darmstadt.de
Grafik:woodpeace1,pixabay.com,Lizenz:CC0

1 Kommentar

  1. Der Begriff der Künstlichen Intelligenz durchläuft die Medien wie ein Zauberwort. Dabei wird gern vernachlässigt, dass der Schwerpunkt auf “künstlich” liegt. Die Nutzung des Begriffs “Intelligenz” ist irreführend. Denn er suggeriert ein dem menschlichen Denken vergleichbares Denkvermögen. Dem ist aber nicht so.

    Wenn ein “Selbstfahrer” (autonomes Fahrzeug) durch ein Dorf fährt, dann würde es ungebremst an einer auf dem Bürgersteig spielenden Kindergruppe vorbeifahren. Ein Mensch am Steuer würde abbremsen, denn er wird sich unbewusst an seine Kindheit erinnern und macht sich bewusst, dass ein Kind z. B. auf dem Mountain-Bike unvorhersehbar auf die Straße fahren kann. Eben das kann kein “Roboter”, denn er hat keine Biographie und kein Bewusstsein.

    Menschliches Denken mit all seiner Kreativität und Vernetztheit ist nicht in eine KI zu implementieren. Diese Einschränkung gilt für alle Bereiche der Künstlichen Intelligenz. Alle Rechnerprogramme sind programmiert, menschengemacht. Und es ist gefährlich, sie zu dämonisieren. Gruß, Hasso