Beiträge von True_Solitaire

    Hallo,
    nun, wenn man es einem Roboter befieht, kann man ihn schon dazu bringen, dass er sich selbst zerstört.
    In der Kurzgeschichte reicht es zu sagen: "Wenn Du (Roboter) mir die Arbeit wegnimmst, werde ich faul und schwach und krank. Letztendlich schadet Deine Existenz meiner Gesundheit."
    Naja, kommt drauf an, wie doof die Robbies sind....

    Die Robotergeschichten stammen aus den 40ern des vergangenen Jahrhunderts. Asimov kannte keine Hacker, Sicherheitslücken in Betriebssystemen und Viren, Internet usw.
    Die Sache mit den "Uplink" (Fernupdate) zu USR und den roten Licht ist eine neue Idee aus Hollywood.
    Die Geschichten und die Gesetze stammen aus einer Zeit, in der das tollste technische Gerät ein schwarzweiss-Fernseher war. In einigen Romanen schreibt Asimov, dass es sehr schwierig sei, Robotern eine Stimme zu geben. Heutzutage erscheint das lächerlich, heute redet ja bald jeder Toaster mit einem :?
    Von daher ist es schon verständlich, dass alle einen fast blinden Glauben an die Zuverlässigkeit der Technik haben. So komplexe Technik gab's damals kaum.
    Es reicht erstmal, dass die 3 Gesetze fest in den Bauplan des Gehirns eingebaut sind. Anders als das Programm, also das Fachwissen und das was der Roboter noch bei seinem Meister lernt, sind die Gesetze fester untrennbarer Bestandteil.
    Sachen wie patches oder Viren usw. setzen ein technisches Verständnis vorraus, das Asimov nicht haben konnte. Und das ein Durchschnitts-Robotbesitzer wohl kaum hat / haben wird.

    Hallo,
    die 3 Gesetze hat sich Isaak Asimov ausgedacht. In der SF-Lieteratur quasi der Erfinder der Roboter.
    Wenn Du mal ein Buch von ihm in die Finger bekommst, dann lies es mal. Fast alle Geschichten drehen sich um Roboter, und wie sie aufgrund der 3 Gesetze agieren.
    Das wichtigste Gesetz ist das Erste: Kein Robot darf einen Menschen
    verletzen (aktiv) oder durch Untätigkeit (also passiv bleiben) zulassen dass ein Mensch verletzt wird.
    Also muss ein Roboter alles stehen und liegen lassen, wenn er wahrnimmt, dass einem Menschen Gefahr droht.
    Das kann so weit gehen, dass er sich vor ein Auto wirft und zu Schrott zermalmt wird, nur um zu verhindern, dass ein unachtsamer Fussgänger angefahren wird.

    Das zweite Gesetz sichert die Zuverlässigkeit und Befehlstreue eines Roboters:
    Ein Roboter muss einem Befehl eines Menschen gehorchen. Es sei denn er widerspricht dem 1. Gesetz.
    Klar. Ein Roboter muss bedingungslos gehorchen. Aber wenn ihm befohlen wird einem Menschen zu schaden, muss er sich wegen dem 1. Gesetz weigern.
    Oder wenn ihm ein Mensch befieht so lange auf einem Bein zu hüpfen, bis er sich zum Erdmittelpunkt durchgestampft hat, dann wird er es tun. Ausser er sieht einen Menschen in Gefahr, dann wird er aufhören, um dem Menschen zu helfen. (Vgl. Angriff von Sammy in der Lagerhalle bei den 1000 Robots)

    Da ein Roboter auch ein wertvolles Gerät ist, muss er sich selbst schützen:
    Ein Roboter muss seine eigene Existenz schützen, es sei denn es widerspricht dem 1ten oder 2ten Gesetz.
    Klar - ein intakter Roboter kann besser dienen und besser Menschen retten, als ein kaputter.
    Ein Roboter kann einwenden, dass er durch unsachgemässe Befehle beschädigt werden kann - z. B wenn man ihm befiehlt eine viel zu schwere Last zu heben. Aber wenn der Mensch es befiehlt muss er es tun.
    (In einem Roman von Asimov machen sich besoffene Jugendliche einen Spass daraus Robots zu befehlen sich selbst in Stücke zu reissen)

    Auch KIs müssen sich an solche Regeln halten. Das Dilemma für einen Roboter ist immer die definition von "Mensch".
    Gilt der Befehl eines dreijährigen Kindes mehr als der eines Massenmörders? Und welchen Mensch rettet man zuerst? Das junge Mädchen oder den alten Mann?
    In den Büchern von Asimov kommen Fälle vor, in denen Roboter beschädigt werden, weil sie dieses Problem überlastet. Oder Roboter, die lügen, nur um die Gefühle von Menschen nicht zu verletzen.
    Im Falle der KI im Film hat "sie" die Menschheit über das Individuum gesetzt. Eine rein quantitative Entscheidung - aber logisch.

    Hoffe, das hat Dir etwas weitergeholfen

    Gruss, True

    Hallo,
    stimmt nicht ganz. Susan Calvin sagt,

    Spoiler anzeigen

    dass diese 1000 NS5-s noch roh sind, "sie haben nur das Basisprogramm und die 3 Gesetze".
    Als Spooner befiehlt, das alle stehen bleiben, gehorchen sie. (2.Gesetz)
    Und sie lassen sich töten, weil er ihnen befiehlt, dass sie stehen bleiben müssen.(2. Gesetz über das 3. Gesetz)
    AAAAber, sie vergessen den Befehl, um Spooner zu helfen, als er von Sunny angegriffen wird (1. Gesetz)

    Gruß, True_Solitaire

    Hallo,
    Zu Beginn des Films bringt Dracula den Dr. Frankenstein um. Er beisst ihm vor dem Kamin in den Hals (müsste Dr. F dann nicht auch zum Vampir werden?) als Frankenstein hinfällt, hat Dracula einen blutverschmierten Mund. Er wischt ihn mit seiner rechten Hand ab. Als er sie wieder senkt, ist der Mund tadellos sauber - - - und seine Hand auch!! Sie ist während seinem nächsten Satz deutlich zu sehen. :P

    Später im Film trifft Van Helsing auf dem Dorfplatz auf Prinzessin Anna.
    Im Kampf mit den Bräuten Draculas stürzt Anna in einen Baum und schlägt sich den Kopf. Solange sie auf dem Marktplatz sind, hat sie auf ihrer rechten Stirn einen grossen blauen Fleck.
    Als sie später (aber im Anschluss an die Ereignisse auf dem Dorfplatz) zusammen mit Helsing in ihr Schloss geht, um sich mit neuen Waffen auszustatten, ist die Strin wieder makellos. :wink:

    Gruß, True_Solitaire