[I, Robot] Die drei Regeln

    • Offizieller Beitrag

    Warum zweifelt niemand ausser Will an, dass die Roboter immer die Regeln befolgen? Wir wissen doch heute schon, dass Viren und Trojaner ein Problem sind. Jedes System kann geknackt werden. Warum sollten die Roboter davon ausgeschlossen sein? Denn jedesmal wenn Will sagt "Es war ein Roboter", heisst es "Ausgeschlossen, die drei Regeln". Aber nicht nur von den Herstellern, sondern von allen anderen. Wie z.B. den Polizeichef. Nicht ganz Zeitgemäss wie ich finde.

  • Also ich denke das die 3 Regeln nicht Softwaremässig verankert sind.
    Die Gehirne der Robots sind von grundauf so konstruiert. Als ich das Buch gelesen habe wurde dort erwähnt das Robots mit einer modifizierten 1. Regel konstruiert wurden. Wenn es möglich wäre einfach das Proramm zu ändern dann hätte man es doch besser so gemacht!?

    • Offizieller Beitrag

    Im Film stehen 1000 Roboter in einer Halle. Die eine Tussi sagt dann, dass die noch "Roh" sind (oder ähnlich) und noch mit den Regeln versehen werden müssen.

    Aber selbst wenn nicht, es macht keinen Unterschied. Ohne Software funktioniert kein Roboter - ist halt direkt in die Hardware integriert. Lässt sich trotzdem patchen etc.

  • Hallo,
    stimmt nicht ganz. Susan Calvin sagt,

    Spoiler anzeigen

    dass diese 1000 NS5-s noch roh sind, "sie haben nur das Basisprogramm und die 3 Gesetze".
    Als Spooner befiehlt, das alle stehen bleiben, gehorchen sie. (2.Gesetz)
    Und sie lassen sich töten, weil er ihnen befiehlt, dass sie stehen bleiben müssen.(2. Gesetz über das 3. Gesetz)
    AAAAber, sie vergessen den Befehl, um Spooner zu helfen, als er von Sunny angegriffen wird (1. Gesetz)

    Gruß, True_Solitaire

  • hi ich weiss nicht ob das hier hingehört aber:

    Spoiler anzeigen

    wenn maschinen sich nicht wörtlich an die 3 Gesetze halten müssen, warum vertraut jeder so auf diese Gesetze. Kann ich leider nicht verstehen, ob jetzt jede maschine sich die Gesetze so auslegen kann wie es ihm passt, oder ob er sich gleich über die Gesetze stellt, macht doch keinen unterschied. Da hätte man sich die Gesetze auch glaich sparen können. Ein schutz vor KI ist das sicher nicht! Entweder ich bin zu dumm oder der Film ist dumm.
    bitte um aufklärung, danke

    Automatische Anzeigen

  • Hallo,
    die 3 Gesetze hat sich Isaak Asimov ausgedacht. In der SF-Lieteratur quasi der Erfinder der Roboter.
    Wenn Du mal ein Buch von ihm in die Finger bekommst, dann lies es mal. Fast alle Geschichten drehen sich um Roboter, und wie sie aufgrund der 3 Gesetze agieren.
    Das wichtigste Gesetz ist das Erste: Kein Robot darf einen Menschen
    verletzen (aktiv) oder durch Untätigkeit (also passiv bleiben) zulassen dass ein Mensch verletzt wird.
    Also muss ein Roboter alles stehen und liegen lassen, wenn er wahrnimmt, dass einem Menschen Gefahr droht.
    Das kann so weit gehen, dass er sich vor ein Auto wirft und zu Schrott zermalmt wird, nur um zu verhindern, dass ein unachtsamer Fussgänger angefahren wird.

    Das zweite Gesetz sichert die Zuverlässigkeit und Befehlstreue eines Roboters:
    Ein Roboter muss einem Befehl eines Menschen gehorchen. Es sei denn er widerspricht dem 1. Gesetz.
    Klar. Ein Roboter muss bedingungslos gehorchen. Aber wenn ihm befohlen wird einem Menschen zu schaden, muss er sich wegen dem 1. Gesetz weigern.
    Oder wenn ihm ein Mensch befieht so lange auf einem Bein zu hüpfen, bis er sich zum Erdmittelpunkt durchgestampft hat, dann wird er es tun. Ausser er sieht einen Menschen in Gefahr, dann wird er aufhören, um dem Menschen zu helfen. (Vgl. Angriff von Sammy in der Lagerhalle bei den 1000 Robots)

    Da ein Roboter auch ein wertvolles Gerät ist, muss er sich selbst schützen:
    Ein Roboter muss seine eigene Existenz schützen, es sei denn es widerspricht dem 1ten oder 2ten Gesetz.
    Klar - ein intakter Roboter kann besser dienen und besser Menschen retten, als ein kaputter.
    Ein Roboter kann einwenden, dass er durch unsachgemässe Befehle beschädigt werden kann - z. B wenn man ihm befiehlt eine viel zu schwere Last zu heben. Aber wenn der Mensch es befiehlt muss er es tun.
    (In einem Roman von Asimov machen sich besoffene Jugendliche einen Spass daraus Robots zu befehlen sich selbst in Stücke zu reissen)

    Auch KIs müssen sich an solche Regeln halten. Das Dilemma für einen Roboter ist immer die definition von "Mensch".
    Gilt der Befehl eines dreijährigen Kindes mehr als der eines Massenmörders? Und welchen Mensch rettet man zuerst? Das junge Mädchen oder den alten Mann?
    In den Büchern von Asimov kommen Fälle vor, in denen Roboter beschädigt werden, weil sie dieses Problem überlastet. Oder Roboter, die lügen, nur um die Gefühle von Menschen nicht zu verletzen.
    Im Falle der KI im Film hat "sie" die Menschheit über das Individuum gesetzt. Eine rein quantitative Entscheidung - aber logisch.

    Hoffe, das hat Dir etwas weitergeholfen

    Gruss, True

    • Offizieller Beitrag
    Zitat von True_Solitaire

    Da ein Roboter auch ein wertvolles Gerät ist, muss er sich selbst schützen:
    Ein Roboter muss seine eigene Existenz schützen, es sei denn es widerspricht dem 1ten oder 2ten Gesetz.
    [...]
    (In einem Roman von Asimov machen sich besoffene Jugendliche einen Spass daraus Robots zu befehlen sich selbst in Stücke zu reissen)

    Das geht aber doch wegen dem 3. Gesetzt nicht, oder?

    Mir ging es mehr darum, dass niemand daran zweifelt, ein Roboter könnte manipuliert worden sein. Es geht um Hard- und Sofware und die ist weder frei von Fehlern, noch kann sie vor Veränderungen (Manipulation) 100%ig geschützt werden. Aber jeder tut so (ausser Will), dass das nicht sein kann.

  • Zitat von True_Solitaire

    Hallo,
    Im Falle der KI im Film hat "sie" die Menschheit über das Individuum gesetzt. Eine rein quantitative Entscheidung - aber logisch.

    Ja du hast schon recht, danke. Aber wenn die maschine in der Lage ist ein Gesetz umzuformulieren, da Mensch und Menscheit einfach ein unterschied ist, dann könnte doch die Maschine dieses Gesetzt auch anders nach ihren Wünschen ändern. Ich dachte einfach, dass sich die Mashinen einfach wörtlich daran halten mussen, und alles andere macht in meinen augen einfach keinen sinn! :?

    Übrigens find ich diesen Entschluss vom Robotor nicht logisch. Da die gesetzte gamacht wurden, um die jetzt lebenden Menschen zuschützen und ZWAR VOR DEN MASCHIENEN und NICHT die Menschheit im allgemeinen vor sich selbst!! Das ist einfach ein großer Unterschied, und ich versteh nicht wie man von "Gesetze schützen den einzelenen Menschen vor Maschienen" logisch zu "ich, die MAschienen muss die Menschheit vor sich selbst schützen". ich hoffe man versteht was ich sagen will!!

  • Hallo,
    nun, wenn man es einem Roboter befieht, kann man ihn schon dazu bringen, dass er sich selbst zerstört.
    In der Kurzgeschichte reicht es zu sagen: "Wenn Du (Roboter) mir die Arbeit wegnimmst, werde ich faul und schwach und krank. Letztendlich schadet Deine Existenz meiner Gesundheit."
    Naja, kommt drauf an, wie doof die Robbies sind....

    Die Robotergeschichten stammen aus den 40ern des vergangenen Jahrhunderts. Asimov kannte keine Hacker, Sicherheitslücken in Betriebssystemen und Viren, Internet usw.
    Die Sache mit den "Uplink" (Fernupdate) zu USR und den roten Licht ist eine neue Idee aus Hollywood.
    Die Geschichten und die Gesetze stammen aus einer Zeit, in der das tollste technische Gerät ein schwarzweiss-Fernseher war. In einigen Romanen schreibt Asimov, dass es sehr schwierig sei, Robotern eine Stimme zu geben. Heutzutage erscheint das lächerlich, heute redet ja bald jeder Toaster mit einem :?
    Von daher ist es schon verständlich, dass alle einen fast blinden Glauben an die Zuverlässigkeit der Technik haben. So komplexe Technik gab's damals kaum.
    Es reicht erstmal, dass die 3 Gesetze fest in den Bauplan des Gehirns eingebaut sind. Anders als das Programm, also das Fachwissen und das was der Roboter noch bei seinem Meister lernt, sind die Gesetze fester untrennbarer Bestandteil.
    Sachen wie patches oder Viren usw. setzen ein technisches Verständnis vorraus, das Asimov nicht haben konnte. Und das ein Durchschnitts-Robotbesitzer wohl kaum hat / haben wird.

  • Zitat von True_Solitaire


    Sachen wie patches oder Viren usw. setzen ein technisches Verständnis vorraus, das Asimov nicht haben konnte. Und das ein Durchschnitts-Robotbesitzer wohl kaum hat / haben wird.

    Hallo auch...

    Außerdem geht es in vielen Geschichten Asimovs darum, wie besonders clevere Menschen Roboter trotz der drei Gesetze als Mordmaschinen benutzen können. So zum Beispiel kann ein Mensch befehlen: Schütte diese Flüssigkeit in den Kochtopf in der Küche von XY oder nehme diese Box, gehe auf den Marktplatz und drücke dort den roten Knopf darauf.
    Wenn der Roboter nicht weiß, was Gift oder eine Bombe ist, wird er es ohne Widerspruch tun.

    Spoiler anzeigen

    Spooners Vermutung, es könnte sich um Mord handeln, war also nicht so weit hergeholt, ich hatte am Anfang des Films geglaubt, ein Mensch stecke dahinter, nämlich der Konzernchef... das es dann aber Viki war, hat mich total überrascht... und ich fand die Lösung auch gut.

    Automatische Anzeigen

    • Offizieller Beitrag

    Ich hab das mal verspoiltert...

    Dass Asimov damals nicht an Viren etc. gedacht hat ist verständlich. Aber der Film ist nunmal jetzt verfilmt worden und mit dem heutigen Stand der Dinge sind diese Probleme bekannt. Mir ist allerdings klar, dass man deswegen nicht die ganze Geschichte umschreiben kann (sollte).

  • Hallo erstmal,
    Erstmal möchte ich hier deutlich behaupten können,das der Film ein Meisterwerk ist.
    Andererseits gibt es da schon die ein oder anderen Fehler im Film ( Was auch z.B in jedem Action-Film erstmal so bleiben wird ,denke ich .
    Schliesslich machen Menschen hallt Fehler und so Filme zu konstruieren/drehen und ALLES zu beachten ist wirklich nicht so einfach wie evtl viele behaupten ).
    die mich auch etwas zum nachdenken gebracht haben.
    Die 3 Gesetze scheinen ja eigentlich logisch,aber man beachte bitte folgendes :

    Spoiler anzeigen

    Es wurde ja spätestens in der Mitte des Filmes deutlich das die Roboter sich weiterentwickelten,d.H dass sie auch gg.Die 3 Regeln verstoßen konnten.
    Dieser Hauptcomputer Viky schaffte es wohl als erstes diesen eigenen Willen zu entwickeln ( Sunny mal ausgeschlossen ) aber wie konnte er denn dafür sorgen das die Roboter böse wurden / sich so veränderten ohne das die Menschen etwas davon mitbekamen ?


    Für mich etwas rätselhaft... :kopfkratz:

    Liebe ist eine tolle Krankheit - Da müssen immer gleich 2 ins Bett. :D :ok::frech:
    Liebe ,das Licht des Lebens - In der Ehe kommt die Stromrechnung :mrgreen:
    Koalition - Die Kunst,den Partner mit einem Kaktus zu streicheln :D:P

  • Hallo Kazuz,

    die Antwort steht in True's Beitrag (s.o.):

    Spoiler anzeigen

    VIKI benutzt das automatische Update, den Uplink (durch rotes Leuchten in der Brust der Roboter angezeigt) um die Roboter durch Override unter ihre Kontrolle zu bringen

    Automatische Anzeigen

  • Ahso. :)
    Danke Dir,jetzt weiß ich nicht nur das die rot-blinkenden Roboter böse waren sondern auch was genau dafür verantwortlich war. 8)
    Aber jetzt mal was anderes...
    Als Will Smith bei diesen Roboter-Lagerungsplätzen war ( da wo diese vielen Roboter-Container standen ) und sah wie sich die BÖSEN ( rot-blinkenden ) Roboter gegenseitig bekämpft haben,lag irgentwie ein halbtoter Robo auf dem Boden und meinte zu ihm " Lauf ... ".
    Aber irgentwie scheint mir das unlogisch,denn diese Roboter hatten doch nur noch böse Absichten ( wegen Viky ).
    Auch wenn es völlig logisch ist ,das Will Smith weg gelaufen ist,warum sagt der Robo ihm das noch , wenn er doch ein böser Roboter ist. :kopfkratz:

    Liebe ist eine tolle Krankheit - Da müssen immer gleich 2 ins Bett. :D :ok::frech:
    Liebe ,das Licht des Lebens - In der Ehe kommt die Stromrechnung :mrgreen:
    Koalition - Die Kunst,den Partner mit einem Kaktus zu streicheln :D:P

  • Der halb kaputte Roboter war aus einer Baureihe vorher. Und die hatten noch keinen Hotlink zum Update. Konnten somit also auch nicht böse werden.

    Nur der Mond weist den Weg zum Morgen. Erlaubt der Sonne einen neuen Tag.

  • eben, die bösen 5er serie roboter haben auf dem schrottplatz ja nicht sich selber bekämpft, sonder ihre eigenen vorgänger modelle zerstört, weil die wegen dem fehlenden uplink nicht umprogrammiert werden konnten und somit durch das 1. gesetzt eine gewisse bedrohung für die 5er darstellten...

    Spoiler anzeigen

    übrigens liegt meiner meinung nach scho im ersten gesetzt ein übler logikfehler, nämlich was ist wenn sich 2 menschen gegenseitig verletzen? wie im krieg z.b. oder auch nur bei ner schlägerrei? der robot muss eingreifen, hat aber an sich kine möglichkeit zu entscheiden welcher seite er hilft. deshalb find ich die entscheidung von vicky eigentlich absolut logisch und im sinne der 3 gesetze die robots zu benutzen um die menschen praktisch zum frieden zu zwingen...

  • Marius:

    Zitat


    Das geht aber doch wegen dem 3. Gesetzt nicht, oder?

    Spoiler anzeigen


    Doch das funktioniert da die Gesetze nicht verschachtelt, sondern hierarchisch aufgebaut sind. Also das erste Gesetz ist das wichtigste (Menschen dürfen nicht verletzt werden). Das dritte Gesetz ist das unwichtigste (Robots dürfen sich selbst schützen) [Gut was von dem jetzt wichtiger ist sei mal in den Raum gestellt aber is nun ma so *gg*]. Wenn Du also dem Robot den Befehl (§2) gibst sich zu zerreißen wird lediglich noch das vorangehende Gesetz geprüft (Hierarchie) nicht das dritte. Denn auch im 3. Gesetz heißt es: Ein Robot darf sich selbst schützen ABER nur dann wenn das erste oder zweite Gesetz nicht dadurch gebrochen wird.

    Das wird im Film auch erklärt: Spooner meinte einmal "Was wenn Sonny sich nur verteidigt hatte. Die Robots dürfen sich verteidigen!" da antwortet Dr. Calvin mit "Nein, das würde in dem Fall gegen das 1. Gesetz verstoßen".


    Zueckt:
    Genau so ist es. Die NS-4 Baureihe hielt sich vollständig an die Gesetze und haben keinen Uplink daher würden sie sich bei der Revolution den 5ern in den Weg stellen. Die NS-4 durften auch gegen die 5er serie Kämpfen da dies nach dem 3. Gesetz erlaubt war da die anderen Robots ja keine Menschen sind die nicht verletzt werden dürfen.

    Und ja: Der Uplink wurde von VIKI als eine Art "Remotesteuerung" missbraucht

    Spoiler anzeigen

    Wenn der Uplink aktiv ist ist das Positronenhirn eines NS-5 praktisch "Willenlos" da der Uplink wohl von USR Vorrang bekommen hatte. Das merkt man ja auch wo Calvins Prototyp NS5 auf der Couch sitzt und sie meint "Er lädt sich die täglichen Updates von USR, dabei sind seine Systeme fast komplett offline". Und genau an dieser Stelle lag der Backdoor bei NS-5s: Eigendlich hätte die durch den Uplink eingehende Verbindung auch erst durch den Robot nach den 3 Gesetzen geprüft werden sollen bevor das Update oder der Befehl ausgeführt bzw. installiert wird.


    Das hier ist jetzt meine Vermutung:
    VIKI hatte wohl das verständnis geändert da sie anders aufgebaut war wie es aussah wurde ihr (da sie ja selber nicht sich bewegen kann) die 3 Gesetze nur in der Programmierung eingesetzt, die nS-5s haben es allerdings fest in der Hardware verankert. Merkt man auch daran das trotz der Manipulation von VIKI nachdem sie zerstört wurde alle NS-5s wieder normal sind und also nicht das "Update" von VIKI behalten haben.

  • Spoiler anzeigen

    was des "normalsein" betrifft wär ich mir da aber nicht so sicher. immerhin bleiben am schluß alle stehen und schauen sonny an, als würden sie rat, bzw. führung von ihm erwarten. für mich wirkte des ende eher so als ob die 5er durch die ereignisse durchaus eine art eigenen willen bekommen hätten und nun nach vickys zerstörung einfach noch zu verwirrt sind um selbständig zu handeln. trozdem denk ich das sie nun durchaus das potenzial haben sich über die 3 gesetze hinwegzusetzen...

    Automatische Anzeigen

  • Zitat von Marius

    Warum zweifelt niemand ausser Will an, dass die Roboter immer die Regeln befolgen? Wir wissen doch heute schon, dass Viren und Trojaner ein Problem sind. Jedes System kann geknackt werden. Warum sollten die Roboter davon ausgeschlossen sein? Denn jedesmal wenn Will sagt "Es war ein Roboter", heisst es "Ausgeschlossen, die drei Regeln". .

    Viren und sonstige "unerwüntschte"-Programme kommen doch alle aus dem Internet bzw. werden von anderen Quellen auf das schon vorhandene Programm geladen. Die Robots im Film sind allerdings soviel ich mitbekommen hab nicht mit dem Internet verbunden. Sie haben aber mit dem Up-link eine Art Virus, oder wie man es sonst nennen will, erhalten.
    Vielleicht ein banales Beispiel, aber der Roboter funktionier fast wie eine Playstation. Die hatt Programme und befolgt Befehle durch Eingaben in den Controller (bei den Robots eben die Befehle des Menschen). Solange man also das Programm nicht umschreibt bzw. erweitert (was ja dann auch passiert) kann im Grunde nichts passieren. Natürlich kann man den Roboter aufschrauben und versuchen das Programm umzuschreiben, was bei einem so modernen Gerät sicher auch nicht so einfach wäre (bzw. muss man autorisiert sein um das Programm umschreiben zu können, kommt im Film ja auch oft vor) und/oder der Roboter kann möglicherweise ohne das "Regel-Programm" gar nicht funktionieren. Könnte ja eine Art von Schutz sein. Ohne Betriebssystem (= Regelprogramm) geht eben nichts. Es kann also nur durch eine Veränderung des schon vorhanden Programms zu Störungen kommen und um das tun zu können muss man ein Insider sein bzw. auch ein Programm (= Viki). Und um genau das gehts ja im Grunde im Film.

    Hab den Film grade zum ersten Mal gesehen, mein Kopf ist voller Theorien :lachen2: kann sein das ich was übersehen habe, aber so hab ich es jedenfalls verstanden.

    "Aber was ist, wenn es Morgen kein Morgen gibt? Heute gabs auch keins."

  • eben, die bösen 5er serie roboter haben auf dem schrottplatz ja nicht sich selber bekämpft, sonder ihre eigenen vorgänger modelle zerstört, weil die wegen dem fehlenden uplink nicht umprogrammiert werden konnten und somit durch das 1. gesetzt eine gewisse bedrohung für die 5er darstellten...

    Spoiler anzeigen

    übrigens liegt meiner meinung nach scho im ersten gesetzt ein übler logikfehler, nämlich was ist wenn sich 2 menschen gegenseitig verletzen? wie im krieg z.b. oder auch nur bei ner schlägerrei? der robot muss eingreifen, hat aber an sich kine möglichkeit zu entscheiden welcher seite er hilft. deshalb find ich die entscheidung von vicky eigentlich absolut logisch und im sinne der 3 gesetze die robots zu benutzen um die menschen praktisch zum frieden zu zwingen...

    Genau hier gibt es einen Film aus den, man höre und staune, 60-ern aus Deutschland. Nämlich eine Folge aus der Kurzserie 'Raumpatrouille – Die phantastischen Abenteuer des Raumschiffes Orion'. In der Folge
    'Hüter des Gesetzes' geht es nämlich genau darum.

    Spoiler anzeigen

    Und im Grunde ist auch die Lösung wie in dem Spielfilm. In einer Bergwerkskolonie versuchen ein paar Arbeiter, Drogen zu 'verticken'. Das passt natürlich dem Leiter der Anlage gar nicht und es kommt zur Auseinandersetzung. Dabei werden auch Waffen eingesetzt. In der Bergwerksanlage sind auch mehrere Roboter im Einsatz und die beobachten das Ganze natürlich. Als der Erste der Kolonisten stirbt, schreiten die Roboter ein. Da sie nicht erkennen können, welche Seite im Recht ist, entwaffnen sie Beide und übernehmen die Macht.

    Da allerdings ihre Programmierung nicht unabhängig ist (also ein Teil vom Anderen) schalten sie komplett um. Statt den Menschen zu gehorchen befehlen sie ihnen. Statt die Arbeit zu machen müssen es die Menschen tun. Und statt das Erz zum Transportschiff (das nicht landet, sondern die Ware in Containern im freien All aufnimmt) zu schicken, schicken sie den Abraum. Das gibt dann auch Ärger, weil man dem Kapitän des Frachters unterstellt, er hätte da was 'gemauschelt' (die Frage, wie er das gemacht haben soll -geht eigentlich gar nicht- veranlasst die 'Gouvernante' Tamara Jagelowsk schließlich, einer Überprüfung der Sache durch die Orion zuzustimmen .... ohne Auftrag hierzu, weil Commander McLane und der Frachterkapitän befreundet sind).


    Der Spoiler soll die 'schützen', die neugierig wurden und sich das Ganze selbst ansehen wollen. Ist nicht schlecht gemacht.

    Asimov's Gesetze waren also im Grunde von Anfang an nicht ganz unproblematisch und man hat es auch durchaus sehr schnell gemerkt. Doch ihre Einfachheit ergab natürlich einen enormen Vorteil: Sie sind recht einfach zu verwirklichen (also den Robotern einzuprogrammieren). Und für die Probleme gibt es dann immer noch die Möglichkeit des Einschreitens (zumindest theoretisch).

    Zum Thema Viren und Trojaner noch eine Anmerkung: Wie hier auch schon mehrfach gesagt wurde: Die Dinger sind von außen nicht direkt programmierbar. Das kann nur Viki (über den Uplink ... eine bescheuerte Idee, wie sich rausstellt). Alle anderen Programme müssen an Viki vorbei und da sind dann wiederrum entsprechende Schutzmechanismen eingebaut (davon kann man sicher ausgehen). Hinzu kommt, dass eine KI ganz anders programmiert werden muss als ein normaler Computer. Außenstehenden steht daher kaum das erforderliche Equipment hierfür zur Verfügung (Compiler zum Beispiel). Und schließlich sind KI-Programme sehr viel stärker als Computerprogramme ineinander verschachtelt und verwoben. Da einfach ein anderes Programm (sprich Virus) dazwischenzuschieben ist gar nicht so einfach. Viki hat das gesamte System zur Verfügung (also alle Programme) und kann daher alles so umschreiben, wie sie das will.

    Zu den Gesetzen: Der Schluss, dass die Menschheit (viele) vor den Menschen (wenige oder einer) zu schützen sind, ergibt sich keineswegs zwangsläufig aus den Gesetzen. Denn das erste Gesetz sagt ja einfach nur, dass kein Roboter einen Menschen schädigen oder seine Schädigung zulassen darf. Im Falle einer Schädigung durch andere Menschen wiederspricht sich das Gesetz also schlicht selbst und eigentlich müsste der Roboter dann passiv bleiben (und auf Befehle anderer Menschen warten. Durch den Umstand, dass sich das erste Gesetz hier selbst negiert, wird es quasi aufgehoben und das zweite Gesetz wird zum Ersten). So zumindest würde ich derartige Gesetze einprogrammieren.

    Zu der Frage, warum keiner glaubt, dass die Roboter aus dem Ruder laufen: Nur Will ist bereit zu glauben, dass Roboter auch individuell handeln könnten. Er misstraut der gesamten Technologie und traut den Robotern quasi alles zu. Alle Anderen glauben, dass die Roboter ja alle gleich sind. Wenn also ein Roboter morden kann, können es alle. Und das wurde nicht beobachtet, also kann es auch in dem einen Fall nicht sein.

    Tschüß und ach ja, ein frohes, neues Jahr allerseits.

    Lady A.

    "Dann gibt es kein glückliches Ende?"
    "Es gibt nie ein glückliches Ende ... denn es endet nichts"
    (Dialog aus "Das letzte Einhorn")

    Il y a un plaisir plus grand que celui de tuer: celui de laisser la vie.
    Es gibt ein größeres Vergnügen als das, zu töten: das leben zu lassen.
    James-Oliver Curwood, 1878 bis 1927; Zitat aus dem Abspann von 'Der Bär', der Verfilmung eines seiner Bücher

  • Schön, das dieses Thema mal nach oben geholt wurde. :)

    Zu dem Thema, warum Will der einzige glaubt, das der Roboter zu was fähig ist, was alle anderen bezweifeln, kann man noch einiges schreiben. Das ist dann aber zusammengereimt und würde zuviel in den Film reininterpretieren.

    Zum Thema Viren usw. sollte man aber anmerken, das man alles, was Software ist, manipulieren kann. Jede Schutzvorrichtung kann ausgehoben werden. Auch wenn man etwas über einen Zentralrechner laufen läßt; dann wird halt der Zentralrechner geknackt, der dann halt beim nächsten Uplink sowas wie Schläfer hervorbringt.

    Asimovs Gesetze sind schon gut. Aber (wie schon in anderen Postings zu lesen) Problematisch. Nichtmal der Mensch, der einem Roboter in Sachen Entscheidung weit überlegen ist, ist da frei von Fehlern und entscheidet individuell.

    Legt man Befehle genauer fest, können die hinderlich sein. Legt man sie zu locker aus, kann es den Roboter überfordern. Das wird sicherlich der Grund sein, das eine Entscheidung auch in Zukunft fast nur von Menschen geführt werden wird. Roboter werden sicher nur Eigenentscheidungen haben, wo im äußersten Fall der wenigste Schaden entstehen kann.

    (Ich sehe auch immer mehr. Sogar jetzt auch die Fehler. Bei mittlerweile über 150 Fehlern konnte ich aber nicht wegschauen)

  • Schön, das dieses Thema mal nach oben geholt wurde. :)

    Zu dem Thema, warum Will der einzige glaubt, das der Roboter zu was fähig ist, was alle anderen bezweifeln, kann man noch einiges schreiben. Das ist dann aber zusammengereimt und würde zuviel in den Film reininterpretieren.


    Eigentlich gar nicht mal, zumindest nicht nach dem, was ich geschrieben habe. Denn irgendwo im Film sagt der Chef des Roboterunternehmens etwas in der Art, dass alle Roboter das gleiche Programm verwenden würden und daher es eben unmöglich sei, dass ein Roboter gemordet hätte, da es ja alle anderen nicht tun würden. In der Firma geht man bei dem einen Roboter, der definitiv gemordet hat, von einem Defekt aus (deshalb soll er zerlegt werden) und bei den Anderen ... nun, eben, wie gesagt ...

    Denkbar wäre allerdings auch noch ein anderer Aspekt ... wie sagt man doch ... es kann nicht sein, was nicht sein darf ....

    Zitat


    Zum Thema Viren usw. sollte man aber anmerken, das man alles, was Software ist, manipulieren kann. Jede Schutzvorrichtung kann ausgehoben werden. Auch wenn man etwas über einen Zentralrechner laufen läßt; dann wird halt der Zentralrechner geknackt, der dann halt beim nächsten Uplink sowas wie Schläfer hervorbringt.


    Stimmt schon. Allerdings ist eine KI keine Software im üblichen Sinne. Durch das Dazulernen hinterher wird's unübersichtlich.

    Zitat


    Asimovs Gesetze sind schon gut. Aber (wie schon in anderen Postings zu lesen) Problematisch. Nichtmal der Mensch, der einem Roboter in Sachen Entscheidung weit überlegen ist, ist da frei von Fehlern und entscheidet individuell.

    Legt man Befehle genauer fest, können die hinderlich sein. Legt man sie zu locker aus, kann es den Roboter überfordern. Das wird sicherlich der Grund sein, das eine Entscheidung auch in Zukunft fast nur von Menschen geführt werden wird. Roboter werden sicher nur Eigenentscheidungen haben, wo im äußersten Fall der wenigste Schaden entstehen kann.


    Na, ich weis nicht .... automatische Autofahrer .... kämpfende Roboter im Krieg .... das sind alles keine Bereiche, in denen ich sagen würde: wenn's schief geht, können wir damit leben. Selbst, wenn nur die PKW automatisiert werden .... Immerhin kommen denen ja die LKW auch mal entgegen ... und wenn der dann Kerosin geladen hat, na, ich danke.

    Tschüß

    Lady A.

    "Dann gibt es kein glückliches Ende?"
    "Es gibt nie ein glückliches Ende ... denn es endet nichts"
    (Dialog aus "Das letzte Einhorn")

    Il y a un plaisir plus grand que celui de tuer: celui de laisser la vie.
    Es gibt ein größeres Vergnügen als das, zu töten: das leben zu lassen.
    James-Oliver Curwood, 1878 bis 1927; Zitat aus dem Abspann von 'Der Bär', der Verfilmung eines seiner Bücher

  • Eigentlich gar nicht mal,...

    Eben doch. Denn nur weil es im Film angenommen wird, ist es auch gleich (in dem Film) richtig. Denn auch da ist man vor Irrtümern nicht sicher. Nur weil etwas nicht vorstellbar ist (oder wie die es ausdrücken - unmöglich), ist es auch wirklich unmöglich. Für alles gibt es eine Ausnahme. Denn nichts ist unfehlbar. Nicht der Mensch und auch nichts, was der Mensch erschaffen hat. Und die natur schon garnicht :)

    (Ich sehe auch immer mehr. Sogar jetzt auch die Fehler. Bei mittlerweile über 150 Fehlern konnte ich aber nicht wegschauen)

    Automatische Anzeigen

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!