In einem anderen Thema in einem anderen Forum wurde
die Frage gestellt: Was ist wenn KI dem Menschen überlegen
ist.
Heute gibt es schon Computer die Schach besser spielen
können als Menschen. Warum sollten Computer nicht auch
- bald - besser mit Geld an der Börse spekulieren können.
Ich glaub schon von KI gehört zu haben, die Erfolgreich
mit BitCoins spekulieren kann.
Auch gibt es schon selbst fahrende Autos. Was ist wenn
diese KI weniger Unfälle baut, Was wenn sie zu weniger
Staus führt.
Sollte man dann auf die KI setzen und sie machen lassen
was sie halt besser kann. Sollte man dann blind der KI
vertrauen. Oder wie sähe in diesem Fall ein kritischer
Umgang mit KI aussehen.
Was ist aber auch wenn die KI anstößige Entscheidungen
trifft. Was ist wenn KI Algorithmen Regelmäßigkeiten
findet, die von Menschen geäußert als Rassistisch
oder Unmenschlich betrachtet würden.
Was ist wenn eine Politik machende KI zu dem
Schluss kommt, das behinderte Menschen unnötiger
Ballast sind.
Sollten wir auch dann noch die KI machen lassen.
Sollten wir dann sagen, dass Rationalität Menschlichkeit
vorher geht.
Und was ist mit dem Sündenbock Problem. Wenn mal
etwas schief geht, sagen wir alle Entscheidungen waren
Rational und somit das Unglück nicht zu vermeiden, oder
finden wir dann jemanden dem wir ganz Subjektiv die
Schuld in die Schuhe stecken können.