Guten Tag ihr Philosophen!
Ich bin derzeit dabei, mein Abitur zu absolvieren und im Zuge dessen muss ich mit meiner Gruppe eine Ausarbeitung anfertigen, wo wir ein wenig Hilfe gebrauchen könnten. Es geht um die Thematik, ob ein Mensch, der eine künstliche Intelligenz erschafft (z.B. ein Roboter, der "selber denkt"), noch das Recht besitzt, über eben diese KI zu bestimmen.
Im Zuge dieser Fragestellungen haben meine Gruppe und ich bereits einige weiterführende Gedanken entwickelt. Zum einen wäre von Revelanz, auf was für einem "Intelligenzgrad" sich die KI befindet. Wenn ich also frage, ob ich ein Recht habe, über einen automatisch arbeitenden Roboter in z.B. der Autoindustrie zu bestimmen, welche im Bereich der Teilefertigung eingesetzt wird, ist die Antwort hierbei ganz klar - ja. Vielmehr habe ich sogar eine Verpflichtung, über diesen Roboter, der nur in Schleifen arbeitet und vorprogrammierte Befehle ausführt, zu bestimmen; den alles andere wäre eine Gefährdung für andere Menschen. Wenn ich nun aber die Utopie in dieser Fragestellung betrachte, wird es schon bei weitem schwieriger. Nehmen wir an, die erschaffene KI besitzt eine höhere Intelligenz, als "der durchschnittliche Mensch", zudem besitzt sie ebenfalls Gefühle und Emotionen, hätte dann "der Erschaffer" noch ein Recht darauf, über die KI zu bestimmen? Über eine fühlende, selbstdenkende Intelligenz, die sich nunmehr nur noch in ihrem Ursprung vom "richtigen" Menschen unterscheidet (nämlich 'künstlich' oder 'biologisch'), ansonsten aber in allen anderen Aspekten (bis auf die Fortpflanzung) dem Menschen zumindest gleichgestellt ist?
Die Frage, ob die KI dabei Gefühle und Emotionen empfinden kann, ist, wie wir finden, ein nicht zu vernachlässigender Faktor. Eine KI ohne Emotionen könnte trotz aller Intelligenz wohl kaum in allen vorstellbaren Situationen die richtige Entscheidung treffen (den nicht immer ist rational = das Richtige, --> z.B. Liebe).
Wenn wir nun schlussendlich die Frage des "Rechtehabens" auf das "Rechtehaben" über (menschliche) Kinder (z.B. als Eltern) bezieht, so wird einem ein weiterer Gedanke, wie wir finden, deutlich. Das Recht über jemanden (Kinder) oder etwas (KI) zu bestimmen, hat normalerweise bis zu einem Zeitpunkt Bestand (und sollte auch), bis sie/es als ausreichend selbstständig und verantwortungsvoll anerkannt wird. Bei Kindern ist dies im Verlauf des Erwachsenwerdens der Fall, bei einer intelligenten KI wäre es die Frage, ob, wo und (mit welcher Begründung) wie diese Grenze gezogen werden müsste. Mit anderen Worten, hätte man von Anfang an kein Recht der Bestimmung über die KI, oder würde dieses „Recht“ erst mit der Zeit, wie bei Kindern beim Erwachsenwerden, nicht mehr vertretbar sein?
Was erwarte ich mir von diesem Post? Ich hoffe, dass ich euch diese Thematik anschaulich und interessant vermitteln konnte und würde mich freuen, wenn ihr mir eure Meinungen zu dieser Thematik mitteilen könntet. Jede neue Idee, jeder neue Gedankenanstoß kann und wird hilfreich sein! Gibt es Aspekte, die wir nur unzureichend oder noch garnicht bedacht haben? Kennt ihr vielleicht sogar irgendwelche literarischen Werke zu dieser Thematik? Ich würde mich in jedem Fall auf jede Art von Rezension freuen.
Grüße,
euer UnbedeutenderNick
z.B. Liebe.)