Roboterethik

  • Ich bin heute über einen Artikel auf Spiegel Online gestoßen, in dem davon berichtet wird, dass ein Schütze bei
    dem Zwischenfall in Dallas wohl mittels eines Roboters neutralisiert wurde. (Der Artikel ist ziemlich undeutlich was das wie und den Roboter angeht)
    Dabei wird vor allem auch die ethische Problematik angesprochen.


    Link: http://www.spiegel.de/panorama…ter-toeten-a-1102216.html



    In letzter Zeit gibt es immer mehr Bezüge zum Thema Roboterethik. Auch genannt werden sollte in dem Kontext auch der Drohnenkrieg.
    Ich persönlich habe eine ziemlich dezidierte Meinung zu dem Thema und wollte mal hören was ihr zu diesem Thema zu sagen habt ^^



    Soweit zu meiner Meinung. Was habt ihr dazu zu sagen? ^^

    Zeig mir 'nen Job den die Bo nicht kann - Ich warte!

  • Das Thema hat mMn wenig mit Roboter Ethik als mit generellen moralischen Grundsätzen zu tun. Roboterethik wird ja oft auf autonome Roboter bezogen. Siehe Asimovs Gesetze z.b.


    Das Novum an diesem Einsatz war, dass hier eine gezielte Tötung eines Verdächtigen mit Hilfe eines Roboters / einer Drohne durch die Polizei statt gefunden hat. Wir kennen dieses Vorgehen bereits aus Kriegsgebieten. Jetzt wurde es im zivilen Kontext eingesetzt.


    Also keine Frage von Roboter Ethik, sondern eine Frage von menschlicher Ethik. Wie verstehen wir unsere Polizei? Als Freund und Helfer? Oder als Judge Dredd?

  • Hab den Artikel auch gesehen und war ehrlich gesagt von der Überschrift schockiert!


    Hier wurde Technologie eingesetzt um Beamten bzw. Menschenleben zu schützen! Was wäre denn das für ein Schwachsinn "aus ethischen gründen" einem bewaffneten und gewaltbereitem Kriminellen "Fair" gegenüber zu treten!? Den Einsatz eines Roboters finde ich hier absolut gerechtfertigt.

  • Ich bin immer dafür, die "Drecksarbeit" mit Seelenlosen Maschinen zu erledigen.
    Es gibt hoffentlich Niemanden, der lieber ein Menschenleben gefährdet, als das Wohlbefinden irgend einer Maschine...
    Die im Spiegel Artikel gestellte 'unbequeme Frage' halte ich für... ehrlich gesagt für doof... Ich hörte an anderer Stelle, dass dieser Schütze bereits 5 Polizisten umgebracht hat. Wenn diese Information falsch ist, entschuldige ich mich an dieser Stelle... Wenn es aber stimmt, halte ich es für gerechtfertigt den Mörder mehrer Familienväter ebenfalls umzubringen. Währenddessen möglichst nicht noch weitere Menschenleben zu verlieren. In einem Land in dem sich jeder Trottel Sprengstoff kaufen oder selbst zusammen mischen kann, ist die Entscheidung eine Maschine zu verwenden um einem Psychopathen, der sich in nem Parkhaus verschanzt hat, keine Sehr schwierige.


    Ich persönlich sehe da ebenfalls keine zusätzlichen ethischen Bedenken, nur weil ein Roboter eingesetzt wurde...

  • Leider werden alle Roboter zu Unrecht in den selben Topf geworfen, die ferngesteuerten genauso wie die autonom/teilautonom agierenden Roboter/Drohnen. Vor allem passt es nicht wenn man sich den Ursprung der Bezeichnung 'Roboter' vor Augen führt. Der Name kommt aus dem tschechischen Sprachbereich und bedeutet soviel wie 'Arbeiter'. Ob es nun gut ist menschliche Arbeitskräfte durch Roboter zu ersetzen ist ein Thema für sich, es geht hier ja um die Ethik vom Robotereinsatz.


    Das man sich vor bewaffneten Drohnen fürchtet, die ausser Kontrolle herumfliegen und herumballern, und deshalb eine 'Robotik-Ethik-Diskussion' führt macht sicher Sinn. Allerdings ist man in der Robotik wo es um autonom handelnde Systeme geht noch ziemlich weit von etwas entfernt das einmal eine Bedrohung werden könnte. Man schaue sich folgenden Film an :


    Selbst die Besten der Besten failen ...


    Das Video stammt von einem DARPA-Robotik-Wettbewerb (DARPA = off. US Rüstungsforschungsagentur) wo sich die Creme der Creme trifft und sich an diversen Aufgaben misst. Es gibt auf YT ein paar längere Videos von dem Wettbewerb wo man immer wieder sieht das die Roboter alles andere wie autonom agieren, da muss andauernd von den Technikern und Programmierern eingegriffen werden. Kurz : Autonome bewaffnete Roboter werden uns noch eine ganze Zeit erspart bleiben, zu unsicher, auch für die Leute die sie einsetzen wollen/sollen.


    Und zum Thema 'ferngesteuertes Fahrzeug mit letaler Wirkung' , hier im Einsatz gegen eine Person die ganz offensichtlich bereit war weiter zu morden, empfinde ich persönlich als kein Problem. Solange die Situation so eindeutig ist, spricht doch da nichts dagegen. Wäre was anderes wenn da evtl noch Geiseln oder unbeteiligte Dritte zugegen sind.

  • Ich kann mich hier KCST's Meinung komplett anschließen. Meiner Meinung nach spielt es keine Rolle ob jemand sowas selbst durchführt oder durch einen Roboter. Letztendlich hat der Roboter-Pilot ja doch den roten Knopf gedrückt. Kommt aufs gleiche raus als hätte er den Abzug an der Waffe direkt gedrückt.
    Hier sollte man klar unterscheiden zwischen menschlicher Ethik und Roboter-Ethik. Denn , mal diesen Fall hier genommen, hat der Roboter weder irgendwas entschieden noch den Abzug betätigt. Ohne Eingabe des Piloten dahinter macht das Ding nur eines: gar nichts.
    Sogenannte "Intelligente Drohnen", wie sie ja permanent in der Presse erwähnt werden, sind in der Realität alles andere als intelligent. Klar, die Drohne kann tausende Kilometer ohne Eingabe des Piloten alleine fliegen dank des Autopiloten. Und klar, sie kann Ziele anhand vordefinierter Parameter und Signaturen erkennen.
    Aber macht sie das schon Intelligent??? Meiner Meinung nach nicht denn sie kann nicht denken sondern spult nur ein vorher definiertes Programm ab. Und die Waffen werden immer noch rein menschlich bedient.


    Was die Ethik des Piloten angeht: Man sollte nur mal Dokus anschauen mit Bomberpiloten des 2. Weltkrieges. Die betonen oft genug dass sie Bombenblitze aus der Luft richtig toll fanden damals. Es war einfach ein Spektakel ohne Gleichen. Dass da unter Umständen tausende von Menschen ums Leben kamen wußten sie zwar, wurde aber verdrängt bzw. ignoriert. Schließlich hatte man den Feind bombardiert und nur seinen Job erledigt.
    Das zeigt also dass es keinen Unterschied macht ob man selbst 5000 Meter über dem Ziel im Flieger sitzt oder irgendwo an einer Konsole.
    Für einen Piloten ist das nur eines: ein Job.


    Würde man entsprechenden Kritikern solcher Systeme tatsächlich glauben schenken dann müßte man auch die Artillerie abschaffen. Ein Artillerist gibt nur ein paar Zahlen (Koordinaten) ein, legt eine Granate ein und feuert sie über eine Distanz von 25km. Im Gegensatz zu einem Drohnenpilot sieht er noch nichtmal das Zielgebiet, wer sich da aufhält oder was sein Geschoss an Schaden anrichtet. Das bekommt er höchstens über Funk mitgeteilt. So gesehen dürfte seine Hemmschwelle also nahezu gegen 0 gehen.

    Kein Kuchen ist auch keine Lösung.

    Einmal editiert, zuletzt von Cheesecake ()

  • Das Beispiel mit der Artillerie gefällt mir gut ^^



    Ich schließe mich auch der Unterscheidung zwischen nicht-autonomen, teilautonomen und vollautonomen Robotern an.
    Diese Unterscheidung ist wichtig und die ethischen Probleme sind je nach Anwendungsfall unterschiedlich.



    Zu dem Thema kann ich auch noch ein ethisches Problem aufzählen, auf das ich in meiner Facharbeit gestoßen bin:
    Gegeben ist ein autonom fahrendes Auto welches durch nicht weiter erläuterte Umstände in einen Unfall verwickelt wird und in Richtung eines kleinen Jungen
    geschleudert wird. Das Programm analysiert die Situation und sieht folgende Möglichkeiten:
    A - Eingreifen und den Kurs verändern, in diesem Fall wird aber eine alte Frau überfahren
    B - Nicht eingreifen und stattdessen das Kind überfahren
    Wir gehen außerdem davon aus dass es nur diese zwei Möglichkeiten gibt und in beiden Fällen eine der beiden Personen stirbt (und das Programm dies weiß)
    Wie soll das Programm entscheiden? Auf welcher Grundlange soll hier die Entscheidung gefällt werden?


    Ein Mensch hat es hier einfach, denn Menschen verfügen nicht über die notwendige geistige Kapazität um in Sekundenbruchteilen derartige Entscheidungen fällen zu können.
    Computer hingegen haben diese Möglichkeit und wir sollten diese auch in Betracht ziehen. Fragt sich bloß wie entschieden werden soll.



    Ich finde das Problem interessant weil es wirklich eine harte Nuss ist. Es gibt tatsächlich aus meiner Sicht irgendwie keine faire Lösung des Problems. In dem Artikel, der dieses
    Problem behandelte wurde kurz hypothetisch ein Zufallsgenerator vorgeschlagen. Ich halte es aber für Schwachsinn eine solche Entscheidung dem Zufall zu überlassen, wenn wir die
    Möglichkeit haben eine Entscheidung zu fällen. Ich bin irgendwann zu dem Schluss gekommen dass es so oder so unfair ist, egal wie man entscheidet. Also kann man auf Moral und Ethik und
    Gleichwertigkeit scheißen und das Kind retten.

    Zeig mir 'nen Job den die Bo nicht kann - Ich warte!

  • Ich finde das Problem interessant weil es wirklich eine harte Nuss ist. Es gibt tatsächlich aus meiner Sicht irgendwie keine faire Lösung des Problems. In dem Artikel, der dieses
    Problem behandelte wurde kurz hypothetisch ein Zufallsgenerator vorgeschlagen. Ich halte es aber für Schwachsinn eine solche Entscheidung dem Zufall zu überlassen, wenn wir die
    Möglichkeit haben eine Entscheidung zu fällen. Ich bin irgendwann zu dem Schluss gekommen dass es so oder so unfair ist, egal wie man entscheidet. Also kann man auf Moral und Ethik und
    Gleichwertigkeit scheißen und das Kind retten.

    Mir gefällt das Fallbeispiel mit der Alten und dem Kind, es bringt die Diskussion auf den Punkt der Entscheidung was zu tun ist. Vermutlich wäre ein zuverlässiger Zufallsgenerator der mit dem Rauschen des kosmischen Aethers zufällige Zahlen ausspuckt die beste Entscheidungsgrundlage ohne dabei in irgendwelcher Form ein schlechtes Gewissen haben zu müssen ... wirklich? ...


    ... das Problem von Zufallszahlengeneratoren digitaler Art ist, dass die zufälligen Zahlen am Ende doch einem festen Algorithmus unterliegen und sich die Zufallszahlenfolge theoretisch irgendwann wiederholen könnte ... nach 3.5E29375676395 Durchläufen oder 2.8E837465 Jahren oder wie lange auch immer ... oder auch nicht :D ... die Entscheidung einer Maschine zu überlassen klingt tatsächlich nach einer reizvollen Lösung .... tatsächlich ¿


    Welch ein Irrtum, die Maschinen werden von irgendjemandem gebaut und von irgendjemandem in Betrieb genommen, irgendjemand ist am Ende immer schuld. - Man könnte zB auch ein Tier entscheiden lassen. Wie bei diesen typischen Verhaltenstests wo sich das Tier zwischen einer beliebigen Anzahl Türchen entscheiden muss oder ähnlichen Fernsehwettbewerbs- und Verdummungsshows wie sie am TV gezeigt werden ... aber auch hier ist am Ende mal wieder ein Mensch der irgendwas macht, was am Ende entscheidet.


    Glaubt man an den Summenausgleich aller Energie und aller Materie, muss man davon ausgehen dass alles irgendwie und irgendwann einen Sinn ergibt (Sinn=0(Null) :ugly: ). - Das könnte nun implizieren dass es schlicht und einfach egal ist, was es ja nicht ist, weshalb darüber diskutiert wird, weshalb wir hier schreiben und diskutieren und irgendwann erkennen das wir nicht wirklich DIE Lösung kennen ... ???????? .... ?

  • Mein Senf dazu:


    Was alle Arten von fernsteuerbarem Krieggerät wie Drohnen o.ä. betrifft:
    1) Der Kram senkt die Einsatz-Hemmschwelle massivst: Es ist viel billiger, und man muss nicht befürchten das da jemand in ner Plastetüte nach Hause kommt, was man dann wieder der eigenen Bevölkerung erklären muss
    1b) ergibt sich aus 1: Bei Einsätzen im völkerrechtlichem "Graubereich" muss man auch viel weniger Aufdeckung fürchten, weil dann im Worst-Case einfach nur ein wenig Schrott irgendwo aufm Acker liegt, den man nicht so richtig einem Besitzer zuordnen kann. Es kann Dir nicht mehr passieren, das da jemand aus der Gefangenschaft heraus plötzlich Pressekonferenzen mit Hintergrunderläuterungen gibt.
    -> Beides führt -dank gesenkter Hemmschwelle und weniger Kosten- zu mehr BadaBum, und das ist schlecht!


    Was die ganzen "autonomen" Geschichten angeht:
    Ich finde die gerade in den Medien stattfinden Diskussionen echt interessant: Da wird drüber sinniert, ob die Karre jetzt über die -überraschend auf der Straße auftauchenden- Schulkinder Erna und Micha Boelter oder alternativ Oma Görtemöller auf dem Gehweg heizen darf, oder ob der Gegenverkehr in Form von Bauers Oelgemöller Traktor nicht doch die bessere Alternative ist. Und das noch vielleicht davon Abhängig ist, ob Ernas Eis, was sie gerade lutscht gekauft, oder geklaut ist. Ich meine WTF?!? Ernsthaft?
    Da rauscht ein Tesla auf der Autobahn in nen Laster vor ihm, weil er das Ding für ein Straßenschild an der Seite hält. Das meine Lieben, ist Stand der Technik. Darüber sollte man mal reden. So als großes Thema: Wann ist eine Funktion wirklich "autonom genug", das die in Serienautos auf die Straße darf...