[PF] 14 - Autonome Drohnen, endlich die Befreiung von allen moralischen Lasten?

Tarantoga stellt die Frage, die ich mir selbst auch schon ein paar Mal gestellt habe:

Sollten wir wirklich autonome Maschinen entwickeln, um Menschen zu jagen und zu töten?


Ich bin für mich jedoch bereits über das "Ob" gesprungen, da an der eigentlichen entwicklung nichts aufzuhalten ist. Vielmehr zweifle ich daran, dass dann überhaupt noch Verantwortungen übernommen werden müssen. Und bei einer "Massenfertigung" mit fallenden Preisen ist auch die Tatsache nicht zu leugnen, dass große Firmen etc. solche Drohnen zu Wach- und sicherheitszwecken einsetzen werden. Daher habe ich die Kernfrage im Thema etwas abgeändert.

Hier jedoch Tarantogas Statement:
In letzter Zeit kann man überall von Drohnen hören und sogar die EU denkt laut darüber nach, den zivilen Luftraum für schwere Drohnen frei zu geben. Laut Befürwortern wäre das z. B. für eine effektive Verkehrsüberwachung nötig - aber eben auch für beängstigende Sicherheitsprojekte wie INDECT. Aber gerade auch bei Militärs werden autonome Maschinen immer beliebter und schon längst nicht mehr nur zu Aufklärung eingesetzt - fast täglich machen z. B. amerikanische Predator-Drohnen Jagd auf mutmassliche Terroristen. Technik-Kenner und Autoren wie Daniel Suarez sehen die Welt an der Schwelle eines neuen Wettrüstens - und diesmal geht es nicht um atomare Abschreckung, sondern um Waffensysteme, die schnell, billig und sogar anonym einsetzbar sind. Daher die Frage: Sollten wir wirklich hochentwickelte, autonome Maschinen bauen, die darauf spezialisiert sind Menschen aufzuspüren, zu jagen und zu töten?

Quellen:
http://www.faz.net/aktuell/feuilleto...-11897252.html
http://www.faz.net/aktuell/feuilleto...-11897282.html
https://de.wikipedia.org/wiki/INDECT
https://de.wikipedia.org/wiki/INDECT
 
Ich weiss nicht was es da zu diskutieren gibt.
Wie sonst sollen wir den Gefahren des internationalens Terrorismus Herr werden
und gleichzeitig Personal einsparen?
Etwa durch Aufklärung und soziale Gerechtigkeit?

Gruss
 
Ja früher war alles besser, wo man sein Gegenüber noch Minuten lang mit Fäusten totprügeln musste. Das wurde dann durch eine effizientere Tötungsmaschinerie abgelöst wie Messer/Schwert oder - aus anonymer Entfernung - "Pfeil und Bogen". Heute Fliegen Bomber in 20km Höhe, drücken einen Knopf und schon ist die Siedlung weg. Ich verstehe ehrlich gesagt nicht, warum eine Drohne so viel schlimmer sein soll, weil der Kollateralschaden noch immer nicht = 0 ist? Und von wegen moralischer Verantwortung: Ein Soldat hat im Zweifel doch auch immer nur einen Befehl von Oben ausgeführt. Ohne eine solche Abstreitbarkeit könnte man auch keine Kriege führen...

Krieg ist und bleibt schlimm und daran ändert auch keine Technik etwas weder im positiven, noch im negativen Sinne, am Ende geht es immer ums Töten anderer Menschen.

@Überwachung, davon ist so viel zu halten, wie von jeder anderen Form der Überwachung.
 
Zu aller erst: Die Predator-Drohne ist nicht autonom sonder ferngesteuert (imho etwas ziemlich anderes).

Zum Thema:
Eigentlich muss ich, rein rational, xrayn zustimmen, dennoch find ich autonome, mit noch weniger Gewissen belastete, Waffen noch schlimmer als solche mit Gewissen.

Zum Thema überwachung durch Drohne (wobei es mir da ziemlich egal ist ob durch Drohnen/Flugzeuge/(Überwachung öffentlicher Plätze) und CO.):
Das ist ein Punkt wo ich wirklich k*tzen könnte. Wenn ich jederzeit damit rechnen muss überwacht zu werden schränkt dies meine Freiheit ein.
Selbst in den Momenten in denen ich nicht wirklich überwacht werde.
Panoptismus
 
Daher die Frage: Sollten wir wirklich hochentwickelte, autonome Maschinen bauen, die darauf spezialisiert sind Menschen aufzuspüren, zu jagen und zu töten?

Die Fragen waren noch nie OB man dies oder jenes tun koennte, denn das erfordert wahre Intelligenz und Weisheit.


Wer ein Luftgewehr besitzt, wird noch ne Menge Spass haben koennen :D
 
"Sollten wir wirklich hochentwickelte, autonome Maschinen bauen, die darauf spezialisiert sind Menschen aufzuspüren, zu jagen und zu töten?"


Die Frage ist mir leider schon etwas zu speziell, denn ich würde von mir behaupten jegliche Maschinen, die darauf spezialisiert sind Menschen aufzuspüren, zu jagen und zu töten, abzulehnen. Darum wohl auch autonome Drohnen.

Zu dem Gedanken hochentwickelte, autonomer Maschinen stehe ich dagegen wesentlich unentschiedener. Bevor man nämlich solche Gerätschaften baut, sollte man sich über die immensen Fragestellungen die damit aufkommen beschäftigen. Wie zum Beispiel nach der Frage der Haftung oder Moral einer solchen Maschine. Ein Artikel der Zeit führte die Probleme mal an Hand eines automatische Ausweichassistens im Auto an: Was passiert, wenn eine Entscheidung zwischen dem Tod des Fahrers und dem eines spielenden Kindes gefällt werden muss. Eine Frage die noch nicht einmal Menschen eindeutig entscheiden könnten. Oder wenn sich die Maschine entscheidet einen 90-jährigen Menschnen statt einer Gruppe von Kindern zu retten. Wer ist dann schuldig? Die Maschine, der Produzent oder etwa der Programmierer? Wenn man diesen Gedanken weiterspinnt und von absoluter Autonomität der Maschine ausgeht muss man sich auch über die Stellung einer solchen vor dem Gesetzt klar werden. Darf man eine autonome Maschine töten?


Aus diesen Gründen stehe ich allen autonomem Maschinen und deren Einführung in die Gesellschaft sehr kritsch gegenüber und rate Politikern, trotz eines ggf vorhandenem Hypes, diesem Thema vorsichtig und mit der richtigen Portion Misstrauen zu begegnen, denn wenn man mich fragt ist die Ablösung des Menschen durch Maschinen als nächster Schritt der Evolution nicht auszuschließen. Die Frage ist nur ob man es überhaupt verhindern kann und wenn ja wie?
 
Morgen Abend (18.10.) um 20:15 Uhr wird genau dieses Thema bei 3sat behandelt.

Ich finde den Einsatz autonomer Drohnen auch recht fragwürdig. Die Evolution der Waffensysteme wie xrayn sie beschreibt mag (autonome) Drohnen als logische Konsequenz haben, aber diese Evolution ist eine vom Menschen als denkendem Wesen vorangetriebene. So bin ich der Meinung, dass man auf den Verlauf auch Einfluss nehmen kann und sollte.
Und wenn man an einem Punkt angelangt ist, an dem man darauf zusteuert, nur noch zwischen am Kaffee nippen und mit dem Kollegen über das Spiel am Vortag plaudern einmal kurz den Feuerknopf zu betätigen und damit einen Mord in Auftrag zu geben, sollten wir uns wirklich fragen, ob wir das wollen.
 
xrayn hat gesagt.:
Ich verstehe ehrlich gesagt nicht, warum eine Drohne so viel schlimmer sein soll, weil der Kollateralschaden noch immer nicht = 0 ist? Und von wegen moralischer Verantwortung: Ein Soldat hat im Zweifel doch auch immer nur einen Befehl von Oben ausgeführt. Ohne eine solche Abstreitbarkeit könnte man auch keine Kriege führen...
Ehrlich gesagt sehe ich da enorme Unterschiede und der wichtigste ist: Ein Soldat kann (und sollte) unmoralische Befehle verweigern. Eine autonom agierende Killerdrohne würde einen unmoralischen Befehl aber nicht einmal erkennen, wenn er ihr in den glänzenden Metallarsch beißt.
Und es muss nicht einmal um unmoralische Befehle gehen: Wenn ein Soldat den Befehl bekommt, jeden zu erschießen der eine bestimmte Linie übertritt und kurz darauf ein Kind einen Schritt über diese Linie macht, z. B. um einen Ball aufzuheben, werden die meisten Soldaten vermutlich nicht schießen. Bei einer Drohne mit den selben Missionsparametern hätten wir definitiv den Counter für Kollateralschäden um 1 erhöht.

sleepprogger hat gesagt.:
Zu aller erst: Die Predator-Drohne ist nicht autonom sonder ferngesteuert (imho etwas ziemlich anderes).
Das ist natürlich richtig. Allerdings beschränkt sich die menschliche Steuerung derzeit imho nur noch auf das Drücken des Abzugs und auch das nur aus rechtlichen & moralischen Gründen - afaik können die Drohnen bereits jetzt völlig autonom arbeiten. Frank Rieger hat da vor kurzer Zeit einen ziemlich lesenswerten Artikel in der FAZ zu geschrieben: Krieg mit Drohnen: Das Gesicht unserer Gegner von morgen - Debatten - FAZ
Zwei Dinge sind mir aus dem Artikel besonders im Gedächtnis geblieben: Zum einen das die schiere Menge, der durch Drohnen gewonnenen Daten, schon jetzt die Kapazitäten der menschlichen Auswertung überfordert und es somit nur eine Frage der Zeit ist (wenn es nicht bereits vorgekommen ist), dass Ziele ganz autonom angegriffen werden.
Und zum anderen beschreibt Rieger sehr schön das die Piloten zwar noch die Entscheidung treffen können nicht anzugreifen - das sie aber in die Prozesse vorher, die zur Auswahl der Ziele führten, gar nicht mehr eingebunden sind. Menschen werden für Drohnen zu Zielen, weil ihre Bewegungsmuster untypisch sind.

Vor diesem Hintergrund stimmt es mich daher nachdenklich, wenn die DARPA, also das Militär, einen Roboter entwickelt der schneller laufen kann als Usain Bolt. Oder wenn ein "Forschungsprojekt" wie INDECT daran arbeitet, wie man mit der Vernetzung von diversen Datenbanken, Überwachungskameras und autonomen Drohnen unsere Städte mit einem lückenlosen und sogar mobilen Überwachungsnetz überziehen kann. In diesem Zusammenhang machen mich die Überlegungen, den zivilen Luftraum über Euopa auch für schwere Drohnen zu öffnen, irgendwie auch ziemlich misstrauisch.

Gnade, Mitleid und Empathie sind kein Bestandteil der Programmierung von Drohnen (dürften sich algorithmisch auch nur schwer abbilden lassen), menschliche Soldaten haben diese Eigenschaften jedoch (mal mehr, mal weinger stark ausgeprägt) verinnerlicht. Für menschliche Soldaten macht es vermutlich sehr wohl einen Unterschied ob eine hungernde Menschenmenge ein Lebensmitteldepot oder Aufständische ein Waffenarsenal plündern. Von daher bin ich (obwohl ich eigentlich ein ausgesprochener Freund der Robotik bin), strikt dagegen Menschen aus Entscheidungsprozessen über den Einsatz von Waffen auszuklammern. Wer immer das Recht hat eine tödliche Waffe abzufeuern und ein Leben auszulöschen, sollte zumindest die Fähigkeit zur Empathie haben, oder?
 
Bei der Diskussion muss man auch fragen: Wenn ich mit erweiterter Kriegstechnologie - also auch Drohnen - gewisse Kriege vermeiden kann, ist sie dann gerechtfertigt?
Beispiel: Hussein, Assad, Pole Pot, Merkel, irgendwelche Ayatollas usw..

Wenn ich also durch die Möglichkeit von Hochtechnologie einzelne Personen aufspüren und eleminieren kann und dadurch, wie zB in Syrien, einen Bürgerkrieg verhinder kann, habe ich dann das "Recht" es so zu tun? Isaac Asimov macht dieses Dilemma mit deinen Robotergesetzen deutlich, die eben das menschliche Verständnis von Ethik - Ethik überhaupt - nicht abbilden können.

Im Grunde ist das ein Uraltes Problem, welches sich in jeder Generation erneut manifestiert - wir hatten schon das Beispiel mit alten Fernwaffen, wie den Bogen und ähnliche Fragen wurden sicher bei den berüchtigten Gasangriffen diskutiert.

Das macht sehr deutlich, dass menschliche Ethik seit nahezu 3000 Jahren stagniert, oder sogar Rückläufig ist: Ein heutiger Menschenrechtler ist einem alten Griechen durchaus ebenbürtig und im Geiste keinen Schritt weiter im Gegenteil.


Ehrlich gesagt sehe ich da enorme Unterschiede und der wichtigste ist: Ein Soldat kann (und sollte) unmoralische Befehle verweigern.
Dann gäbe es wohl kaum noch Kriege und wenn, mit sehr wenigen Toten.

Wer immer das Recht hat eine tödliche Waffe abzufeuern und ein Leben auszulöschen, sollte zumindest die Fähigkeit zur Empathie haben, oder?
Wer hat wann das Recht gemessen an welchem Wertekanon? *peng* Was die Mähr der Empathie angeht: Jemand mit ausreichender Empathie wuerde niemanden in den Bauch schiessen, weil ihn die Vorstellen des anderen Leid um den Verstand bringen wuerde.
Halbwegs begabte Empathen halten es in Gesellschaft "normaler" Menschen gar nicht aus - und schon gar nicht findet man ausgeprägte Empathie bei einem Soldaten.


Und wenn man an einem Punkt angelangt ist, an dem man darauf zusteuert, nur noch zwischen am Kaffee nippen und mit dem Kollegen über das Spiel am Vortag plaudern einmal kurz den Feuerknopf zu betätigen und damit einen Mord in Auftrag zu geben, sollten wir uns wirklich fragen, ob wir das wollen.
Wir sind an dem Punkt angelangt und die recht junge Wissenschaftsphilosophie fragt sich: Müssen wir alles tun, was wir können?
Guckt man ganz genau hin, konzentriert sich hier die grenzenlose Dummheit der Menschen mit ihrer Illusion der "reinen Vernunft", ihrer Vernünftigkeit und des Realismus.

Ja: Wir sollten uns ganz dringend fragen ob wir das wollen. Leider sieht diese edle Vorhaben alt aus, beim Anblick eines Media-Marktes.
 
Chromatin hat gesagt.:
Dann gäbe es wohl kaum noch Kriege und wenn, mit sehr wenigen Toten.
Nein - es sei denn man unterstellt das Kriege, bzw. die Anwendung tödlicher Gewalt, grundsätzlich unmoralisch / ungesetzlich sind. Und das Soldaten aufgrund ihres Gewissens die Ausführung von Befehlen verweigern, die sie für unmoralisch oder ungesetzlich halten, ist gar nicht so ungewöhnlich - nur werden solche Fälle selten und meist erst Jahre später publik. Eine Ausnahme und ein recht aktuelles Beispiel, war die Weigerung von Kampfpiloten der israelischen Luftwaffe im Rahmen des Kampfes gegen Terroristen Raketen auf Wohngebiete abzufeuern. In einem offenen Brief begründeten die Piloten ihre Befehlsverweigerung wie folgt:
"Wir lehnen es ab, illegale und unmoralische Angriffsbefehle zu befolgen, wie Israel sie in den besetzten Gebieten ausführt", heißt es in dem Schreiben, das die Gruppe auch einigen israelischen Presseorganen übermittelte. "Wir weigern uns, an Luftangriffen auf zivile Bevölkerungszentren teilzunehmen."
Quelle: DER SPIEGEL*41/2003 - Verräter und Patrioten

Von einer Drohne kann man so etwas wohl nicht erwarten, oder?

Chromatin hat gesagt.:
Wer hat wann das Recht gemessen an welchem Wertekanon? *peng*
Wertekanon? Ich meinte hier eher Recht im Sinne ganz irdischer Rechtsprechung. Ich bin kein Anwalt, denke aber das für Soldaten unter anderem im Kriegsrecht, der Genfer Konvention und im Mandat des Einsatzes geregelt ist, unter welchen Umständen die Anwendung tödlicher Gewalt rechtmässig ist. Aber man muss auch kein Anwalt sein, um zu erkennen das es einen großen Unterschied macht, ob der Feuerbefehl einen bewaffneten Gegner oder einen fliehenden Zivilisten betrifft - einem Menschen ist dieser Unterschied intuitiv klar.

Chromatin hat gesagt.:
Was die Mähr der Empathie angeht[...]
Ähm, Du hältst Empathie für eine Mär, also für ein Märchen?

Chromatin hat gesagt.:
Halbwegs begabte Empathen halten es in Gesellschaft "normaler" Menschen gar nicht aus - und schon gar nicht findet man ausgeprägte Empathie bei einem Soldaten.
Und jetzt ist Empathie plötzlich eine Begabung? Und was sollen Empathen sein? Sorry, aber so wie Du den Begriff verwendest - also wenn Du von begabten "Empathen" redest, die es unter "normalen" Menschen gar nicht aushalten - klingt das eher nach Esoterik oder der übersinnlich begabten Deanna Troi von Star Trek.
Ich meine Empathie eher in diesem Sinne:
Der Begriff Empathie (altgriech. ἐμπάθεια empátheia ‚Leidenschaft‘; vgl. auch συμπᾰθεία sympatheíaSympathie‘; Substantiv aus dem Verbum συμπάσχειν sympás|chein ‚mit leiden‘) bezeichnet die Fähigkeit, Gedanken, Emotionen, Absichten und Persönlichkeitsmerkmale eines anderen Menschen oder eines Tieres zu erkennen und zu verstehen. Zur Empathie gehört auch die eigene Reaktion auf die Gefühle Anderer wie zum Beispiel Mitleid, Trauer, Schmerz oder Hilfsimpuls.[1]
Quelle: Empathie

Empathie ist vor allem die Fähigkeit, sich in ein anderes Wesen hineinzuversetzen. Ohne Empathie wäre es also nicht möglich Mitleid mit einem anderem Wesen zu haben - aber genauso wenig wäre es möglich beim Pokern einen Bluff zu durchschauen. Selbst bei der Jagd kann Empathie nützlich sein, denn indem der Jäger sich in die Beute versetzt, kann er versuchen deren Reaktion vorher zu sehen.

Von daher halte ich Aussagen, dass jemand mit ausgeprägter Empathie unfähig zur Anwendung tödlicher Gewalt ist, für falsch - aber so jemand würde eben vermutlich nicht leichtfertig töten. Und genau das ist der Grund, warum ich solche Entscheidungen lieber Menschen und keinen Maschinen überlassen würde...;)
 
Zuletzt bearbeitet:
Bei der Diskussion muss man auch fragen: Wenn ich mit erweiterter Kriegstechnologie - also auch Drohnen - gewisse Kriege vermeiden kann, ist sie dann gerechtfertigt?
Beispiel: Hussein, Assad, Pole Pot, Merkel, irgendwelche Ayatollas usw..

Ich denke nicht, daß du durch einen gezielten Mord ein Volk befreien kannst.
In der Regel stützen sich solche Diktatoren durchaus auf ein Netzwerk von
Günstlingen, die durchaus auch grössere Bevölkerungsteile umfassen kann.
Die Folge wäre in der Regel die Machtübernahme durch das Militärs oder gleich
ein Bürgerkrieg, nur sehr selten gibt es in diesen Ländern eine Oposition, die
sich einig und mächtig genug wäre das Land stabil weiter zu leiten. Meist
brechen eher religiöse und/oder ethnische Konflikte auf, welche sich meist
auf soziale Ungerechtigkeiten zurückführen lassen.
Soziale Ungerechtigkeit, hierzu zähle ich auch die Verweigerung von Bildung,
sind der Nährboden für nationalen und religiösen Fanatismus.

@Tarantoga

Wie du an deinem eigenen Beispiel sehen kannst sind "denkende" Soldaten
vor, im und nach dem Einsatz aber unerwünscht, selbst eben auch in der eigenen
Bevölkerung finden sie meist eben keine Mehrheit.
Bei den meisten Soldaten setzt das Gewissen, während realen Kampfeinsätzen,
schnell aus, bei allzuvielen dauerhaft, viele zerbrechen daran, wenn es sich wiedermeldet.

Auszug aus Soldaten von Sönke Neitzel und Harald Welzer

„Am ersten Tag ist es mir furchtbar vorgekommen. Da habe ich gesagt: Scheiße, Befehl ist Befehl.
Am zweiten und dritten Tag habe ich gesagt: das ist ja scheißegal, am vierten Tag, da habe ich meine Freude daran gehabt.“
Der "Feind" wird nicht mehr als Mensch wahrgenommen und dies schliesst oft
genug die Zivilbevölkerung mit ein.


Gruss
 
@Taratonga

Ähm, Du hältst Empathie für eine Mär, also für ein Märchen?
Gähn. Nein. Ich halte es nur für eine Mähr, dass sie weit verbreitet ist (die u.a. teilweise belegt ist) und als solche gar nicht mehr erkennbar ist.


Und jetzt ist Empathie plötzlich eine Begabung? Und was sollen Empathen sein? Sorry, aber so wie Du den Begriff verwendest - also wenn Du von begabten "Empathen" redest, die es unter "normalen" Menschen gar nicht aushalten - klingt das eher nach Esoterik oder der übersinnlich begabten Deanna Troi von Star Trek.
Ich denke der Empathie liegen gewöhnliche Prozesse zugrunde (Spiegelneuronen). Und ich denke das Empathie eine sehr alte "Fähigkeit" ist, die zu Zeiten, als Sprache vielleicht weniger entwickelt war, unglaublich wichtig war. Und ich denke dass Empathie eine Fähigkeit ist, die sehr verkümmert ist (Siehe Ilies und seine Ausführungen zur Degeneration menschlichen Verhaltens). Empathie wird in der Wirtschaft schon lange als "Softkskill" aufgefasst - besonders im Bereich des Managments.
Es ist zweifelsohne ein Talent oder eine Begabung, genauso wie besondere Intelligenz oder Musikalitaet.

Empathie ist vor allem die Fähigkeit, sich in ein anderes Wesen hineinzuversetzen. Ohne Empathie wäre es also nicht möglich Mitleid mit einem anderem Wesen zu haben - aber genauso wenig wäre es möglich beim Pokern einen Bluff zu durchschauen. Selbst bei der Jagd kann Empathie nützlich sein, denn indem der Jäger sich in die Beute versetzt, kann er versuchen deren Reaktion vorher zu sehen.
Das ist eine sehr rationale Erfassung und unvollständig.
Jemand der Empathisch ist - bekommt Eindrücke. Er sieht was, er hört was, usw. Spiegelneuronen lassen ihn das nachfühlen (u.a.) - und zwar im wahrsten Sinne des Wortes.

Von daher halte ich Aussagen, dass jemand mit ausgeprägter Empathie unfähig zur Anwendung tödlicher Gewalt ist, für falsch - aber so jemand würde eben vermutlich nicht leichtfertig töten. Und genau das ist der Grund, warum ich solche Entscheidungen lieber Menschen und keinen Maschinen überlassen würde...

Wer "nachfühlt", wie sich ein gequaeltes Tier fuehlen muss - wer nachfuehlt, wie gross der Schmerz eines Verletzten ist oder das Leid nachfühlt, welches sich über die Familie des Opfers ergiesst - wird es wahrscheinlich nicht tun und wird sich wahrscheinlich von alledem fernhalten was damit zu tun hat.

In einer immer mehr rationalisierten Welt, die grosse Emotionen nur noch im Rahmen irgendeiner Show zulassen und Ellenbogen und Kälte propagandiert wird, die Menschen aber tatsächlich immer verbittererter werden - ist Empathie eher eine Bürde.

Hier geht es also um emotionale - nicht um rationale Erkenntnis. Etwas, was letzthin etwas rar geworden ist.

Wertekanon? Ich meinte hier eher Recht im Sinne ganz irdischer Rechtsprechung.

Genau. Rechtssprechnung entsteht aus einem Wertekanon einer Gesellschaft. Und die ist nicht universell, sondern sehr sehr verschieden.
 
Chromatin hat gesagt.:
Das ist eine sehr rationale Erfassung und unvollständig.
Na ja, eigentlich ist es die gebräuchlichste Definition von Empathie wie man sie z. B. im Duden finden kann:
Empathie

Substantiv, feminin - Bereitschaft und Fähigkeit, sich in die Einstellungen anderer Menschen einzufühlen
Wenn Du Dich aber partout am, zugegebenermaßen vielschichtigeren, Wort Empathie störst, können wir uns auch gerne auf das deutsche Wort Einfühlungsvermögen (das laut dem Duden durchaus synonym ist) einigen.
Und ja, ich denke die überwältigende Mehrheit der Menschen verfügt durchaus über Einfühlungsvermögen...;)

Chromatin hat gesagt.:
Genau. Rechtssprechnung entsteht aus einem Wertekanon einer Gesellschaft. Und die ist nicht universell, sondern sehr sehr verschieden.
Das ist in diesem Kontext aber doch völlig irrelevant! Ich habe gesagt das ich mir wünsche, dass jemand der das Recht (im juristischen Sinne) zur Anwendung tödlicher Gewalt hat (also z. B. ein Soldat), ein Mensch und somit ein empfindungsfähiges Wesen ist. Auf welchem "Wertekanon" die entsprechenden Gesetze ursprünglich basieren ist in diesem Zusammenhang doch völlig bedeutungslos.
 
Zuletzt bearbeitet:
Podcast-Empfehlung

Weil das Thema doch sehr interessant, und uns auch in Zukunft noch öfters begegnen wird, möchte ich zwei CCC nahe Podcasts in den Raum werfen, welche sich z.T. überschneiden können.
Dabei werden doch ein paar recht interessante Hintergründe zu Drohnen aufgezeigt. Natürlich sei wie immer darauf hingewiesen, Hirn einschalten beim hören ;)


Chaosradio - mit Marcus Richter (25.10.2012)
(bzw. http://download.fritz.de/podcasts/blue_moon/2012/blue_moon_20121025.mp3 )

und

Alternativlos!
 
Während manche noch die ethischen und juristischen Implikationen des Einsatzes von autonomen Kampfdrohnen diskutieren, vollziehen die Militärs bereits den nächsten Schritt: Israel lässt den mobilen, autonomen Kampfroboter Guardium an der Grenze zum Gaza-Streifen patroullieren.
Bemerkenswert ist diese Meldung gleich aus zwei Gründen: Zum einen haben militärische Drohnen bislang vor allem aus der Luft operiert, zunächst als Aufklärer und später als Angriffsdrohnen, mit Guardium erobern Roboter jetzt auch den militärischen Alltag am Boden - wobei sie noch vornehmlich zur Aufklärung genutzt werden, aber natürlich können die Roboter auch mit Waffensystemen wie Maschinengewehren und Granatwerfern bestückt werden.
Wie seine fliegenden Pendants soll Guardium in der Regel ferngesteuert, also als Drohne, genutzt werden - er kann aber auch als autonomer Roboter agieren. Dazu findet sich diese bemerkenswerte Stelle im oben verlinkten Spiegel-Artikel:
Doch "Guardium" kann nach Angaben der IDF noch viel mehr - nämlich "autonom handeln, selbsttätig fahren und auf Hindernisse und Ereignisse reagieren". Sollte der Roboter bei seinen Patrouillen "verdächtige Aktivitäten" registrieren, könne er "autonom reagieren" und "verschiedene gewaltsame Methoden anwenden, um die Bedrohung zu eliminieren". In diesem Fall würden "spezifisch programmierte Richtlinien" greifen, die sich am Einsatzort und der "Sicherheitsdoktrin" orientierten.
Bemerkenswert: Unklar bleibt an dieser Stelle, ob in einem solchen Szenario ein Mensch die Waffen auslösen würde oder nicht. Schon der Alltagseinsatz eines ferngesteuerten bewaffneten Landroboters wäre ein Novum. Eine Maschine aber, die automatisch Ziele erfassen und selbst über Leben und Tod entscheiden könnte, wäre für Kritiker eine Horrorvision.
Und nicht nur die HaBo-Community macht sich über das Thema Gedanken, so finden sich in dem gleichen Artikel Überlegungen der Organisation Human Rights Watch, die mit den in diesem Thread geäußerten Bedenken ziemlich identisch sind:
Erst diese Woche hat die Menschenrechtsorganisation Human Rights Watch einen Bericht über die Killerroboter der Zukunft veröffentlicht. Ihr Votum: Derartige Maschinen gehören verboten. Sie wären vermutlich niemals in der Lage, schwierige Situationen richtig zu beurteilen und Gewalt verhältnismäßig einzusetzen. "Vollständig autonome Roboter wären unfähig, humanitäre Standards einzuhalten", heißt es in dem Bericht. Zudem seien wichtige Fragen ungeklärt - etwa wer zu bestrafen wäre, wenn ein vollautomatischer Roboter ein Kriegsverbrechen beginge.
Scheinbar wird sich die Gesellschaft langsam der Entwicklung bewusst, dass die Militärs der High-Tech Nationen militärische Aufgaben mehr und mehr an autonome Robotersysteme abgeben. Allerdings erwacht dieses Bewusstsein imho zu spät und zu langsam - denn ich befürchte das die Militärs wieder einmal schneller laufen können, als die Mutter der Porzellankiste...:rolleyes:
Quelle:
Militärtechnologie: Israel setzt Roboter zur Grenzkontrolle ein - SPIEGEL ONLINE
 
Diese Diskussion um Empathie und Urteilsfähigkeit von Maschinen vs. Menschen zeigt ja ein ganz schön eigenartiges Menschenbild auf. Vielleicht mal als Denkansatz: Würde eine autonome Maschine (sofern sie nach Asimovs Robotergesetzen handelt) überhaupt einen Krieg anzetteln? Der bewaffnete Konflikt ist immer noch menschengemacht.

Und genauso wie der Mensch die Fähigkeit zur Empathie hat, hat er auch die Tendenz zur Pathologie. Ein Roboter würde nicht auf die Idee kommen, Zivilisten zum Spaß zu töten, auf gefallende Gegner zu pinkeln, Kriegsgefangene zu erniedrigen und sich dabei zu filmen, Frauen zu vergewaltigen, aus ideologischen oder rassistischen Gründen Genozide zu verüben etc. - es sei denn, ein ach so empathischer Mensch hat ihn entsprechend programmiert.
 
LX hat gesagt.:
Diese Diskussion um Empathie und Urteilsfähigkeit von Maschinen vs. Menschen zeigt ja ein ganz schön eigenartiges Menschenbild auf.
Inwiefern?

LX hat gesagt.:
Vielleicht mal als Denkansatz: Würde eine autonome Maschine (sofern sie nach Asimovs Robotergesetzen handelt) überhaupt einen Krieg anzetteln?
Aber genau darum geht es doch: Die Drohnen, bzw. Roboter, handeln eben nicht nach Asimovs Robotergesetzen - weil sie explizit dafür geschaffen wurden Menschen aufzuspüren, auszuspähen und im Zweifelsfall auszuschalten.

LX hat gesagt.:
Der bewaffnete Konflikt ist immer noch menschengemacht.
Das ist wahr - obwohl der Mensch natürlich nicht die einzige kriegsführende Spezies in der Natur ist: So führen z. B. Schimpansengruppen regelrechte Kriege (und benutzen sogar Knüppel als Waffen) und selbst bei den Insekten sind Kriege z. B. bei Ameisen- oder Termitenvölkern nicht unbekannt.

LX hat gesagt.:
Und genauso wie der Mensch die Fähigkeit zur Empathie hat, hat er auch die Tendenz zur Pathologie. Ein Roboter würde nicht auf die Idee kommen, Zivilisten zum Spaß zu töten, auf gefallende Gegner zu pinkeln, Kriegsgefangene zu erniedrigen und sich dabei zu filmen, Frauen zu vergewaltigen, aus ideologischen oder rassistischen Gründen Genozide zu verüben etc. - es sei denn, ein ach so empathischer Mensch hat ihn entsprechend programmiert.
Da hast Du recht: Ein Roboter würde sich nicht zu Gewaltexzessen hinreissen lassen - weder weil er durch den Krieg traumatisiert ist, noch weil er einfach ein sadistisches Arschloch ist. Aber ein Roboter ist eben auch nicht zu Akten der Gnade oder des Mitleids fähig.
Allerdings sind auch nicht die Roboter das Problem, dass ich bei Robotern in Kampfeinsätzen sehe - Maschinen sind ja weder gut, noch böse - sondern die Menschen die dahinter stehen.
Nehmen wir ein ganz simples Szenario, wie wir alle es leider nur zu gut aus den Nachrichten kennen: Bei einer Routine-Patroullie in einem x-beliebigen Krisengebiet werden "versehentlich" ein paar Zivilisten erschossen.
Wenn es eine gewöhnliche Militärpatroullie war, sind mehrere Tathergänge möglich - so könnte einer (oder mehrere) der Soldaten den Kopf verloren und grundlos das Feuer eröffnet haben. Oder der kommandierende Offizier hat eine Fehlentscheidung getroffen und den Feuerbefehl erteilt. In jedem Fall besteht zumindest die Chance auf Aufklärung - denn man kann die Soldaten, die Offiziere und sogar die Kommandanten verhören.
Wenn die Zivilisten aber durch einen autonom agierenden Roboter gekillt wurden, wird es problematischer: Sind die Software-Ingieneure schuld, weil vielleicht der Feinderkennungsalgorithmus schlampig programmiert war? Gab es eine unvorhergesehene Fehlfunktion? Oder wurde der Roboter gar von einem Menschen ferngesteuert? Einen Roboter kann man nicht verhören, dafür aber sein Gedächtnis per Knopfdruck löschen - ich denke dieser Umstand würde recht bald durch Menschen für ihre eigenen Zwecke ausgenutzt werden.
Ich denke auch ein Offizier überlegt sich zweimal ob er Menschen einen illegalen Befehl erteilt - denn selbst wenn die Soldaten ihn in der Hitze des Gefechts ausführen, können sie ihre Tat später bereuen und publik machen.
Wird ein illegaler Befehl aber durch einen Roboter ausgeführt, kann sich der Verantwortliche später vermutlich mit einer Fehlfunktion oder einer groben Fahrlässigkeit herausreden...X(
 
Zuletzt bearbeitet:
xrayn hat gesagt.:
Tara dein Hauptproblem ist, dass du ein (zu) gutes Bild von Soldaten hast. Ich habe es schon mal in der Spambox erwähnt, dass es nicht der Realität entspricht. Um meine These zu untermauern: Betrachte mal das Verhältnis von denen, die von Verbrechen, wie LX sie sie beschrieben hat wussten und wieviele von denen dies gemeldet haben. Wer bis '45 mitmarschiert ist und wer den Befehlt grausames zu tun verweigert hat.
Vielleicht. Allerdings kann ich Dir versichern, dass ich nicht der Vorstellung anhänge das alle Soldaten jeden Befehl hinterfragen und stets nach ihrem moralischen Kompass handeln. Aber auch im 2. Weltkrieg, den Du ja als Beispiel anführst, gab es Fälle von Befehlverweigerung und heimlichen Hilfeleistungen (wie z. B. Gefangenen Essen zuzustecken) - nicht nur in der Wehrmacht, sondern sogar bei der SS.
Wenn Soldaten aber durch Roboter ersetzt werden, wird der menschliche Faktor eliminiert und wie sooft hat das zwei Seiten: Eine positive, weil oben erwähnte Gewaltexzesse nicht mehr vorkommen und eine negative, weil es eben keine Gnadenakte oder auch nur großzügige Interpretationen von Befehlen geben wird. Aber das ist ja auch nur ein Aspekt der Problematik, die ich beim Einsatz von autonomen Kriegsrobotern sehe. Zum einen sind Maschinen immer manipulierbar - ist noch gar nicht lange her das gemeldet wurde, dass US Drohnen gehackt und die Überwachungsbilder gesnifft wurden. Was passiert wenn der Feind oder, schlimmer noch, die vielbeschworenen Terroristen die Kontrolle über Kampfroboter übernehmen können?
Eine große Gefahr sehe ich eben auch in dem Missbrauchspotential, wenn es erst einmal Zwischenfälle wie Hackerangriffe oder unerwartete Fehlfunktionen gegeben hat, wird es mit Sicherheit skrupellose Militärs oder Schlapphüte geben, die das für ihre Zwecke ausnutzen und die Ermordung von Menschen, für deren Eliminierung sie keine Genehmigung bekommen haben, als einen solchen Zwischenfall tarnen werden. Ganz allgemein wird es einfacher illegale Aktionen zu vertuschen, denn die Chance das eine Operation geheim bleibt, sinkt mit jedem Menschen der daran beteiligt ist / Kenntnis davon hat - und wenn man einen ganzen Trupp Soldaten durch ein paar Roboter ersetzt, erhöht man die Chance auf Geheimhaltung dramatisch.
Ein anderer Aspekt ist das die Hemmschwelle für Kampfeinsätze vermutlich sinken wird, denn wenn das Sterben nur beim Gegner stattfindet und man selbst seinen Wählern nicht erklären muss warum Särge mit toten Söhnen und Töchtern nach Hause kommen, ist man sicherlich schneller bereit für einen Krieg.
Dazu kommen vermutlich noch dutzende Probleme, die wir jetzt noch gar nicht auf dem Schirm haben, sondern die sich erst offenbaren wenn erst einmal autonome, schwer bewaffnete Kriegsroboter durch die Gegend streifen.
Und - last but not least - ist es doch eher unsinnig Killermaschinen zu bauen, die Skynet nach dem Judgment Day auf uns hetzen kann...:D
 
xrayn hat gesagt.:
Befehlsverweigerung: Das Militär lädt nicht gerade dazu ein, zu mindest intern werden Befehlsverweigergungen und Leaks nicht gerade als Heldentaten gefeiert und letzteres hat nichts mit dem Thema zu tun.
Einem menschlichen Soldaten steht eine breite Palette an Möglichkeiten zur Verfügung um es zu vermeiden einen Menschen zu töten, dessen Tötung er für ungerechtfertigt oder sinnlos erachtet - Befehlsverweigerung ist lediglich das letzte und extremste Mittel. Viel einfacher und risikoloser für den Soldaten ist es einfach im richtigen Moment absichtlich in die falsche Richtung zu schauen, sich bei der Verfolgung von Flüchtigen keine große Mühe zu geben oder absichtlich daneben zu schießen. Je nach Situation gibt es vermutlich noch viel mehr Möglichkeiten und ich schätze die meisten Soldaten kennen solche Schlupflöcher - denn die meisten Arbeiter und Angestellten kennen Mittel und Wege sich vor ungeliebten Aufgaben zu drücken. Einem Roboter steht aber keine dieser Optionen zu Verfügung.

xrayn hat gesagt.:
Das menschliche Soldaten (noch leichter) manipulierbarer sind, ist natürlich ausgeschlossen
Zumindest halte ich es für ziemlich ausgeschlossen das man alle Soldaten in einer Region manipulieren kann - während es mit dem richtigen Knowhow und dem richtigen Equipment keineswegs undenkbar ist alle Roboter in einer Region zu übernehmen.

xrayn hat gesagt.:
Das sehe ich nicht so. Es ist einfacher Menschen, die an eine Sache glauben zu einer grausamen Tat zu motivieren / sie dazu zu bringen kein Wort darüber zu verlieren, als eine Maschine zu manipulieren
Eine Maschine muss man auch nicht manipulieren damit sie den Mund hält, denn eine Maschine redet nicht. Eine Maschine betrinkt sich auch nicht, um dann im Suff mit vergangenen Heldentaten zu prahlen - oder einen moralischen zu kriegen und einem verblüfften Barkeeper ein tränenreiches Geständnis über begangene Gräueltaten zu machen. Eine Maschine plaudert auch keine militärischen Geheimnisse im Bett aus. Eine Maschine kommt auch nicht auf die Idee aus Geldmangel Geheimnisse an die Presse zu verkaufen. Eine Maschine wird auch nicht straffällig und versucht, wenn sie dann erwischt wird, mit ihrem Wissen über andere Straftaten eine Strafminderung auszuhandeln... So könnte ich die ganze Nacht weiter machen - willst Du allen ernstes behaupten, es ist leichter geheimzuhalten wenn ein Haufen Soldaten oder Söldner für irgendjemanden die Drecksarbeit erledigen, als wenn das Roboter übernehmen?

xrayn hat gesagt.:
Falsch. So einen Roboter wirst du garantiert nicht für 20$ bei Walmart kaufen können. Eine (Flug)Drohne kostet heute so ~14mio Dollar. Stell dir vor es gibt die kleinen Bodenrobos für 1mio das Stück - ich glaube nicht, dass die genauso verheizt werden wie normale Soldaten.
Verglichen mit den Kosten für Panzer, Kampfhubschrauber oder Kampfjets sind sie dennoch ein Schnäppchen. Und wo menschliche Soldaten eingestzt werden, werden auch diese extrem teuren Spielzeuge zur Unterstützung eingesetzt.
Außerdem sind tote Soldaten z. B. für demokratische Staaten ein echtes Problem, da sie Kriege schnell unpopulär machen. Und eine Regierung, die in einem unpopulären Krieg Soldaten "verheizt", kann ganz schnell zu einer Ex-Regierung werden.

xrayn hat gesagt.:
Wie ich schon im ersten Post erwähnt habe, Krieg ist etwas sehr hässliches und aus meiner Sicht gibt es nur Verlierer und mit Robotern wird Krieg auch nicht nur Kissenschlacht - dennoch denke ich, dass sich durch den Einsatz von Robotern mehr Menschenleben verschonen lassen könnten. Aber natürlich hast du auch Recht, dass sich in einem solchen Fall neue Herausforderungen, wie eben Sicherung der Integrität, Nicht-Abstreitbarkeit, "moralisches Handeln" und weitere bewältigt werden müssen.
Natürlich gibt es, wie bei den meisten Dingen, zwei Seiten und ganz sicher bietet der Einsatz von Robotern im Krieg auch gewisse Vorteile - aber ich denke die Risiken überwiegen. Wie Du ganz richtig sagst ist Krieg etwas hässliches, dazu ist er auch noch chaotisch und unberechenbar - und jetzt fügen wir dem ganzen noch eine weitere Komponente hinzu, um das ganze noch unübersichtlicher zu machen...:rolleyes:
Vielleicht habe ich aber auch nur zuviele Science-Fiction Romane gelesen, in denen Kriegsroboter sich gegen ihre Schöpfer wandten oder von einer kleinen Elite missbraucht wurden, um die Massen zu versklaven...;)

In jedem Fall gibt es zumindest eine Gruppe die sich begeistert die Hände reiben dürfte: Die Rüstungsindustrie. Erst haben sie die Militärs mit Panzern, Flugzeugen, Hubschraubern und Schiffen beliefert, später waren Raketen und Raketenabwehrsysteme der große Hit - und jetzt rüstet sich plötzlich jede Armee, die etwas auf sich hält, mit Drohnen und Robotern aus. Egal was kommt - der militärisch-industrielle Komplex sorgt dafür das die Gelder fließen...X(
 
Die Diskussion driftet ab ins hypothetische. Worum es mir mit meinem Beitrag eigentlich nur ging, war das Bild des edlen Soldaten, der zur Gnade fähig ist, auf den Boden der Tatsachen zurückzuholen. Immerhin waren es Menschen, die uns die eindrücklichen Bilder von Massengräbern, Krematorien, brennenden Dörfern, fliehenden nackten Kindern etc. beschert haben. So weit her isses mit Empathie im Krieg nicht, sonst würde ein Soldat das keine paar Tage durchhalten. Und jemand wie Mutter Theresa oder Mahatma Gandhi hat unter Garantie auch andere Berufswünsche.

Mir ist es letztlich lieber, wenn da ein Haufen Blech aufeinander losgeht als Menschen. Missbrauchspotenzial existiert immer, aber wenn man aber mal von einem normalen Krieg ausgeht, hat keine Partei einen nennenswerten Vorteil, wenn sie die Zivilbevölkerung der anderen durch "Unfälle" dezimiert. Das sorgt international für keine gute PR, erst recht nicht, wenn man sich als der technologisch wie natürlich auch moralisch Überlegene geriert. Wenn das anders wäre, könnte man auch einfach mit "Bombe druff und gut" argumentieren, aber das tut glücklicherweise kaum einer mehr - abseits von Stammtischen.

Insofern sollte jede Partei darin bestrebt sein, die Kriegshandlungen auf "harte Ziele" (gegnerische Infrastruktur) und gezielt auf Kombattanten auszurichten. Sicherlich wird der Krieg nicht sauberer durch Maschinen - wenn man mal von dem streitbaren Standpunkt ausgeht, dass es überhaupt sowas wie einen sauberen Krieg geben kann. Aber es gibt zumindest Potenzial dafür. "Kampfunfähig" mag in den Augen eines Soldaten gleichzusetzen sein mit "tot", eine Maschine hätte da aber noch andere Methoden.

Und ja, als Pazifist fühle ich mich dreckig, wärend ich sowas schreibe. Mein Menschenbild sagt mir aber, dass es immer Krieg und Leid geben wird, aber technischer Fortschritt in den letzten 50 Jahren immerhin dazu geführt hat, dass es weniger Tote bei Kriegen gibt.
 
Zurück
Oben