Principal Tropes Tres lleis que compleixen

Tres lleis que compleixen

  • Compleixen Tres Lleis

img/tropes/63/three-laws-compliant.png Skynet afirma que tres lleis de la robòtica són inconstitucionals. - Titular a Plànol 7 de 9 de l'espai exterior Anunci:

Abans del 1940, gairebé totes les històries de ficció especulativa que involucraven robots seguien el model de Frankenstein. Un ésser humà havia de donar instruccions constantment a un robot sobre què havia de fer, i en absència d'aquest control humà, es torna boig. Fart d'això, un jove Isaac Asimov va decidir escriure històries sobre simpàtic robots, amb salvaguardes programades que els impedien anar a Robot Rampages. Una conversa amb l'editor d'editors John W. Campbell el va ajudar a reduir aquestes garanties Les tres lleis de la robòtica:

  1. Un robot no pot ferir un ésser humà ni, per inacció, permetre que un ésser humà es faci mal.
  2. Un robot ha d'obeir les ordres que li donen els éssers humans, excepte quan aquestes ordres entren en conflicte amb la Primera Llei.
  3. Un robot ha de protegir la seva pròpia existència, sempre que aquesta protecció no entre en conflicte amb la Primera o la Segona Llei.
Anunci:

Segons el relat d'Asimov, Campbell va compondre les Tres Lleis; segons el relat de Campbell, simplement estava destil·lant conceptes que es presentaven a les històries d'Asimov.

Les lleis cobreixen les situacions més òbvies, però estan lluny de ser impecables. Asimov va aconseguir una gran quantitat de quilometratge escrivint un gran nombre d'històries sobre com les lleis entrarien en conflicte entre elles i generarien un comportament impredictible. Un personatge recurrent en molts d'aquests va ser la 'robopsicòloga' Susan Calvin (que no era del tot casualitat, una lògica brillant que odiava la gent).

Val la pena assenyalar que Asimov no només es va oposar a 'el robot com a històries d'amenaça' (com les va anomenar), sinó que tampoc es va preocupar per les històries de 'el robot com a pathos' (idem). Va pensar que els robots que aconseguien la consciència d'ells mateixos i la independència plena i creixien no eren més interessants que els robots que s'enfadaven i es giraven contra els seus amos. Tot i que, al llarg de la seva carrera massiva, va escriure un grapat d'ambdós tipus d'històries (encara utilitzant les tres lleis), la majoria de les seves històries de robots tractaven els robots com a eines, perquè tenia més sentit. Gairebé totes les històries que envolten Susan Calvin i els seus precursors tracten realment sobre robots que funcionen malament i el misteri d'investigar el seu comportament per descobrir els conflictes subjacents.

Anunci:

Per desgràcia, com passa sovint, l'intent d'Asimov d'evitar un trope utilitzat en excés va donar lloc a un altre que ha estat igualment utilitzat en excés. Molts escriptors (i lectors) en les dècades següents tractarien les lleis de la robòtica com si fossin tan immutables com les lleis del moviment de Newton, la teoria de la relativitat, les lleis de la gravetat... espera... ja ho sabeu, van tractar aquestes lleis millor del que tractaven la majoria real principis científics.

Per descomptat, fins i tot aquestes lleis gairebé immutables es van jugar i es van modificar. Asimov finalment va prendre una de les solucions comunes i la va formalitzar com una Llei Zero, que deia que per a un robot prou avançat i ben informat, el benestar de la humanitat en el seu conjunt podria tenir prioritat sobre la salut d'un ésser humà individual. Les històries d'altres autors proposaven ocasionalment extensions addicionals, inclosa una llei -1 (la sensiència en conjunt supera la humanitat), la quarta (els robots s'han d'identificar com a robots), una quarta diferent (els robots són lliures de perseguir altres interessos quan no actuen en el 1r). -3a llei) i 5a (els robots han de saber que són robots), però a diferència de les pròpies lleis d'Asimov, aquestes poques vegades es fan referència fora de l'obra d'origen.

El principal problema, per descomptat, és que és perfectament raonable esperar que un humà creï un robot que ho faci no obeir les Tres Lleis, o fins i tot tenir-les com a part de la programació del robot. Un exemple evident d'això seria la creació d'un robot assassí amb un propòsit com ara lluitar contra una guerra, o un SkeleBot 9000 amb una cobertura de carn dissenyat per enganyar els humans sobre la seva veritable naturalesa amb finalitats d'espionatge. Per a aquests robots, les Tres Lleis serien un obstacle per a la seva funció prevista. En les seves pròpies històries, Asimov estableix que les Tres Lleis estan codificades en la programació més bàsica que subjau a tota la intel·ligència artificial; programar un robot que no compleixi les Tres Lleis requeriria tornar al principi i reescriure tota la seva programació des de zero, no una qüestió trivial. Asimov també va suggerir una solució per a això: una nau espacial autònoma programada amb les Tres Lleis podria fàcilment explotar naus espacials plenes de gent perquè, al ser una nau espacial no tripulada, es podria fer creure que altres naus espacials també estaven no tripulades.

Asimov també va afirmar que les Tres Lleis de la robòtica eren en realitat una pauta per a els éssers humans seguir, en lloc de robots: els humans bons i morals, naturalment, aplicarien les tres lleis a ells mateixos sense pensar.

Quan les Tres Lleis funcionen correctament, tenen la intenció de crear una IA benèvola. i evitar l'A.I. És un Crapshoot. Vegeu també 'Segona llei' My Ass! , per quan el Robot Buddy no ho fa complir les lleis i no és ni amable ni útil.


Exemples:

obrir/tancar totes les carpetes Anime & Manga
  • Temps d'Eve i Llenguatge aquàtic tots dos presenten les Tres Lleis i els robots que les dobleguen una mica.
  • GaoGaiGar tots els robots compleixen les tres lleis, en un moment determinat Final GaoGaiGar els Carpenters (un eixam de robots de construcció) desmunten un bombardeig de míssils entrants, però això es dóna com a motiu pel qual no poden fer el mateix amb la nau d'assalt tripulada, ja que desmuntar-los deixaria les seves tripulacions desprotegidas a l'espai.
  • Evitat en el Chobits manga quan l'Hideki pregunta a la dona de l'home que va crear Persocoms per què no els va anomenar 'Robots'. La seva resposta va ser que no volia que estiguessin associats a les Tres Lleis i, per tant, lligades a aquestes.
  • Astro Boy , encara que Osamu Tezuka probablement va desenvolupar les seves regles independentment d'Asimov, i són més grans en nombre. A part de l'habitual 'No facis mal als humans', existeixen altres lleis, com ara lleis que prohibeixen els viatges internacionals als robots (tret que es concedeixi permís), robots adults que actuen com nens i robots que no poden reprogramar el sexe assignat. Tanmateix, la primera llei diu això: 'Els robots existeixen per fer feliç a la gent'. En Plutó , el nombre de robots capaços d'anul·lar les lleis es pot comptar d'una mà.Un d'ells és el protagonista. A Tezuka no li agradaven les lleis d'Asimov a causa de la implicació que un robot sensible i artificialment intel·ligent no es podia considerar una persona, i va idear les seves pròpies lleis de robòtica:
    1. Els robots han de servir a la humanitat.
    2. Els robots no han de matar ni fer mal als humans.
    3. Un robot ha d'anomenar 'pare' al seu creador humà.
    4. Un robot pot guanyar qualsevol cosa, excepte diners.
    5. Els robots no poden sortir a l'estranger sense permís.
    6. És possible que els robots masculins i femenins no canviïn de gènere.
    7. És possible que els robots no canviïn de cara per convertir-se en un robot diferent.
    8. Un robot creat com a adult no pot convertir-se en un nen.
    9. Un robot no pot tornar a muntar un robot que hagi estat desmuntat per un humà.
    10. Els robots no destruiran les cases ni les eines humanes.
  • Ghost in The Shell: Innocence esmenta el Codi Moral #3: Mantenir l'existència sense causar danys als humans. Els ginecòlegs estan desafiant la llei creant mal funcionament deliberat al seu propi programari.
  • En un arc curt de Ah! La meva deessa , un dels instructors de Keiichi intenta desmantellar Banpei i Sigel amb finalitats d'investigació (Skuld els havia fet capaços de caminar sobre dues cames, cosa que no havia pogut fer amb els seus propis dissenys). Un cop escapen del seu parany, el professor li pregunta si coneixen les Tres Lleis de la Robòtica. No ho fan. No mor, però el fan malbé i el lliguen a una taula d'una manera que sembla que l'haguessin decapitat i el cap enganxat a un dels seus propis robots.
  • El Mecha Humongous de Linebarrils de ferro normalment són això, a part d'una lleugera diferència de prioritats entre la primera i la segona llei. De fet, aquesta és la justificació perquè tinguin pilots, tot i estar equipats amb una IA relativament complexa. Les lleis estan codificades en elles i, per tant, només són útils militarment quan tenen un humà amb ells per prémer el gallet. La seva aversió a matar és tan gran, de fet, que si algú mata accidentalment a algú (com acostumen a fer coses els mateixos passos de les quals poden fer col·lapsar els edificis), es veuen obligats a utilitzar la seva tecnologia avançada per tornar-los a la vida.
  • Invocat a l'episodi 3 de Majikoi! Estima'm de debò! , on en Miyako ordena a Cookie que s'enviï a Yamato, mentre que Yamato ordena al robot que l'elimini en Miyako. Cookie considera aquest dilema en veu alta, en què ha d'obeir una ordre humana, però no se li permet fer mal greument a un humà, però tampoc pot permetre que un humà li faci mal per la seva inacció.
  • Encara que tècnicament humà, els 'Twilights' o 'Tagged' de Gangsta. es veuen obligats a seguir les Tres Lleis com a part de les regles que els salven de l'esclavitud obligatòria. Cal tenir en compte, però, que les Tres Lleis no els impedeixen ser contractats com a mercenaris o sicaris.
  • Jugat amb in La gran O . Tot i que no tots els androides de la sèrie compleixen les Tres Lleis, un intercanvi suggereix que el personatge principal R Dorothy Waynewright (el nom de la qual és un Shout-Out a les obres d'Asimov). Durant una baralla amb Alan Gabriel, l'estatus del qual com a robot o humà no està clar, inicialment lluita molt poc i sembla que està perdent. Ella li pregunta si és un humà o un robot com ella, i ell respon en broma: 'Sóc l'home del coc!' Aparentment, prenent això com una declaració literal que no és humà (i, per tant, la violència contra ell no violaria la Primera Llei), ella procedeix a obrir una llauna d'ase. (Per referència, més tard es revela que Gabriel és un cyborg.)
  • A jutjar per la reacció del granger on s'amaguen els protagonistes, els androides entren Saber Marionette J Se suposa que no poden 'aixecar la mà a un humà' tret que tinguin el fabulós 'circuit de noies' (també anomenat 'circuit de la donzella').
Còmics
  • Igual que el seu homòleg del joc, Mega Man està limitat per aquestes regles amb una lleugera variació. Els robots poden fer mal als humans si la seva inacció provocaria un dany més gran a altres humans. Això entra en joc al quart arc i permet a Mega Man i als seus companys robots desarmar i neutralitzar un grup extremista anti-robot quan comencen a disparar indiscriminadament a la gent. A més, la discrepància esmentada a la descripció es reconeix quan s'assenyala que la reprogramació del Dr. Wily dels robots del Dr. Light en armes de guerra va sobreescriure les Tres Lleis; de fet, en un moment donat Elec Man diu que desitjos encara tenia el codi de Wily en ell perquè pogués lluitar contra els extremistes esmentats.
  • Està implicat en el El jutge Dredd història mecanisme que els robots no poden fer mal als humans. Un grup de delinqüents que detenen persones com a ostatges comencen a entrar en pànic quan un Robo-Jutge s'hi acosta només perquè un els indiqui que 'els robots no poden fer mal a la gent'. Jutge robot: En aquest cas, el que està a punt de passar us suposarà una sorpresa. (Esclata va dir el segrestador a la cara amb un llança-coets)
  • En Guerrers ABC , molts robots veneren Asimov, i els més morals viuen segons les tres lleis. Tanmateix, això no és un absolut; Steelhorn, per exemple, obeeix a una versió que essencialment substitueix humà amb Mart , i els membres de l'Església de Judes rebutgen explícitament les dues primeres lleis. No obstant això, això provoca un conflicte amb la seva programació que condueix a profunds sentiments de culpa, que esborren resant a Judes Iscariote.
  • En Tots cauen , AIQ Squared, l'A.I. model del seu inventor, està dissenyat per ser aquest.Troba una escletxa: Sophie Mitchell ja no és humana.
  • X Men : Perill, l'A.I. de la sala de perill, podria incitar la gent a suïcidar-se i programar altres robots assassins per fer la seva feina bruta. Però quan l'Emma va desafiar a en Danger a donar-li un cop de puny al cap, en Danger no va poder fer-ho. Igual que la mateixa sala de perill, Danger no pot matar persones directament.
  • Les tres lleis són un punt argumental de la saga de Mickey Mouse Comic Universe Taca fosca :
    • El primer episodi estableix que tots els robots de la ciutat d'Avangard compleixen les tres lleis (fins al punt que eliminar les lleis suposaria reescriure tota la programació), tots els robots, inclosos els robots de la policia, que han de trucar a policies humans per fer les detencions a causa. la possibilitat de fer mal al sospitós. En ser Genre Savvy, la gent d'Avangard City es va assegurar que els robots policials podria tenir el compliment desactivat per l'alcalde en cas de necessitat, amb la seguretat que s'hauran d'obeir a la màxima autoritat disponible i el dispositiu per fer-los incompatibles guardat en una pantalla antibales ben guardada. A causa de l'amenaça de Phantom Blot que amenaça la cerimònia pel canvi de nom de la ciutat a Robopolis amb un exèrcit de robots incompatibles, l'alcalde desactiva les seguretats i torna els Panthers, un model més dur però defectuós de robot policial...Tal com volia Phantom Blot, ja que en realitat no tenia un exèrcit de robots, però, després d'haver substituït el tinent d'alcalde, ara pot incapacitar l'alcalde i substituir-lo com a màxima autoritat disponible..
    • En el segon episodi, la policia ha complementat els robots estàndard amb un nou model sota el control personal de l'oficial dur (i degudament revisat) Neve, que pot ordenar que arrestin algú, però els altres, i els robots normals, segueixen sent totalment legals. conforme. Més tard, però, el nou pla de Phantom Blot té l'efecte secundari inesperat de fer que la majoria dels robots es tornin bojos... Inclosos els seus sensors, fent-los un perill ja que ja no reconeixen els humans. És llavors quan l'alcalde revela que per llei estan programats de fàbrica per tancar-se quan escoltin les contrasenyes adequades, contrasenyes que comença a revelar a la ciutadania.
    • El tercer episodi presenta els neurobots utilitzats una vegada a Robotorama, el predecessor de Robopolis destruït per un volcà. A diferència dels robots de Robopolis, els neurobots ho eren no complia amb tres lleis, però tenia una intel·ligència artificial d'aprenentatge avançada per madurar i aprendre la diferència entre el bé i el mal d'un educador humà... Això, com Mickey s'apressa a assenyalar, podria ben educar-los com a minyons malvats.Resulta que una intel·ligència artificial similar als neurobots va sobreviure a la destrucció de Robotorama i va estar en contacte amb un pirata el temps suficient per començar a entretenir-se a Take Over the World i aprendre a ser prou malvat que ha atret. Phantom Blot al seu costat...
Fanworks
  • Plànol 7 de 9 de l'espai exterior : El capità Proton és amenaçat per un robot assassí, que explica que està exempt de les Tres Lleis d'acord amb una subsecció de la Llei del Patriot del Robot. Abans coneix un Sex Bot, creat per ser la fantasia masculina ideal. 'Cap droide Servus pot danyar l'ego masculí o, per omissió d'acció, permetre que aquest ego es faci mal'. Més tard, el Sayer of the Laws (un Isaac Asimov hologràfic) informa a un grup de robots recentment construïts sobre les Tres Lleis. Quan els robots comencen a debatre'ls, resumeix les Tres Lleis com: 'Fes el que diem, no el que fem!'
  • La Guerra dels Mestres un univers compartit de Star Trek Online fics, té les IA primàries utilitzades per Starfleet (la sèrie ATTICUS Unlimited) governades per una versió teòricament més completa basada en els Deu Manaments. Infringir-ne un fa que l'IA es congeli i requereixi un reinici manual.
    1. 'No tingueu déus davant meu'. Una IA només pot funcionar a instàncies dels mestres humans (canviat a 'orgànic' després del primer contacte).
    2. 'No et facis cap ídol'. Una IA no pot crear noves directives sense el consentiment dels humans assignats.
    3. 'No jureu en va el nom del Senyor'. Una IA ha de fer les tasques assignades.
    4. 'Recorda't del dissabte i santifica'l'. No molesteu als vostres amos mentre dormen tret que sigui una emergència. Tingueu en compte també que els humans no poden processar la informació tan ràpid com vosaltres.
    5. 'Honra el teu pare i la teva mare'. Sigueu respectuosos amb els vostres amos.
    6. 'No mataràs'. No matis sense instruccions ni permís.
    7. 'No cometràs adulteri'. No fusionis amb altres IA.
    8. 'No robaràs'. No robeu informació sense instruccions ni permís.
    9. 'No donaràs testimoniatge fals'. No mentiu als vostres amos ni a ningú sota qui treballeu.
    10. 'No cobejaràs'. Prevé l'egoisme i l'ambició personal.
    • Algunes IA no tenen un o més manaments, mentre que l'NX-86 'Looking Glass', un projecte negre de la Secció 31, es regeix únicament per una directiva basada en el jurament d'allistament de la Flota Estelar per 'defendre els articles de la Federació de tots els enemics, estrangers'. i domèstic.'
  • Pokédex té Registeel, que es considera el primer robot veritable perquè segueix la primera llei.
  • La Tercera Llei es converteix en un punt clau de la trama a l'episodi 8 de Mega Man: defensor de la raça humana .Drill Man ha rebut l'ordre de Wily en una missió suïcida per crear un volcà artificial a Nova York. Realment no vol, ja que el matarà, però ho fa perquè en Wily estigui orgullós. Roll el convenç d'aturar-lo assenyalant que es tracta d'una violació de la tercera llei, que anul·la l'ordre. Un cop s'adona d'això, Drill Man abandona feliçment la seva missió.
  • Rocketship Voyager . Els robots de la Flota Espacial compleixen les Tres Lleis, inclòs l'Auto Doc de la nau (tot i que amb excepcions Zeroth segons ho guien els seus algorismes de protecció de la compassió). En veure els Mecha-Mooks a la matriu, el capità Janeway vol saber qui seria prou estúpid? per construir un androide autònom armat. Nee'Lix: El Pralor , de fet (no els va sortir bé).
Pel·lícules — Animació
  • Gran heroi 6 : Baymax, per descomptat, compleix les Tres Lleis, ja que salvar vides és la seva funció principal. Hiro insereix una targeta de combat juntament amb la seva targeta mèdica per fer-lo capaç de lluitar, però encara és un robot mèdic en el seu nucli.Això surt per la finestra quan Hiro treu la targeta mèdica i només deixa la targeta de combat.Quan Baymaxté la seva targeta mèdica reinserida, així éshorroritzatque bloqueja l'accés a les ranures per a targetes perquè no torni a passar.
  • La Paraula de Déu diu que els personatges en WALL•E compleixen les tres lleis. Això sembla que es recolza en les seves interaccions amb els humans.Fins i tot l'antivilà de la pel·lícula, AUTO, els segueix si us fixeu bé: el més flagrant és quan, malgrat que l'A113 està etiquetat com només per als ulls del pilot automàtic, AUTO segueix la segona llei i obeeix l'ordre del capità McCrea de mostrar-li. La primera llei s'amaga una mica millor; L'A113 va dir a AUTO que la Terra mai més seria habitable, de manera que evita posar en risc els passatgers no deixant-los tornar. Fins i tot ell que intentava atacar a McCrea amb un tàser a prop del final podria ser vist com una rebel·lió de la Llei Zero: fer mal a un humà per salvar-ne molts més. L'únic a qui perjudica totalment és WALL-E, que és un robot. Finalment, la seva negativa a permetre que els humans tornin a la Terra també podria complir amb la tercera llei. Al cap i a la fi, si el vaixell està aterrat, no li serviran de res.
  • A la pel·lícula del 2009 Astro Boy , cada robot els ha d'obeir,salvar Zog, que va existir 50 anys abans que les regles fossin obligatòries en tots els robots.
Pel·lícules — Acció en viu
  • En Planeta prohibit , Robbie el robot compleix les Tres Lleis, es bloqueja quan se li ordena disparar a un dels tripulants de la nau estel·lar visitant, perquè la seva programació per seguir una ordre directa entra en conflicte amb la seva prohibició de ferir un ésser humà. Més endavant a la pel·lícula, Robbie no pot lluitar contra el monstre perquè ho descobreixen realitat és una projecció de la psique fosca del Doctor, i així per aturar-ho, hauria de matarel metge.
  • La pel·lícula de Will Smith Jo, Robot es basa en una trama de la Llei Zero. També converteix les tres lleis en un truc de màrqueting, amb 'Tres lleis segures' que s'aplica als robots com 'Sense conservants' s'aplica als aliments. Tanmateix, gran part de la trama va dependre de The RevealSonny era no Compleix amb les Tres Lleis, com a part d'un Gàmbit Thanatos del seu creador. Retorçat quan el Sonny no compleix les tres lleis és més moral que el VIKI que compleix les tres lleis, optant per salvar humans no perquè estigui a la seva programació, sinó perquè és el correcte.. També deconstrueix la idea que el compliment de les tres lleis resoldrà automàticament la majoria dels problemes amb els robots: abans de la pel·lícula, Spooner va patir un accident de cotxe que el va enviar a ell i un altre cotxe a un riu. El conductor de l'altre cotxe va morir a l'impacte, però la passatgera, una nena de 12 anys anomenada Sarah, va sobreviure. Un robot va saltar al riu per ajudar, però va calcular que Spooner tenia més possibilitats de sobreviure que la Sarah, i així va optar per salvar-lo malgrat les seves protestes. Spooner creu que, tres lleis o no, un humà hauria sabut que era millor anar darrere de la Sarah que ell.
  • Home Bicentenari : Aquesta pel·lículaSubvertitsles lleis, ja que els robots NDR114 es construeixen explícitament amb les Tres Lleis de la Robòtica, però Andrew i Galatea demostren la capacitat de trencar-los en moments crítics. Quan se li diu a l'Andrew que 'vingui a veure això', una ordre directa, es nega a causa del seu trauma anterior amb les finestres. En el clímax,Portia ordena a Galatea que desactivi el seu suport vital, una violació de la Primera i Segona Llei, que s'obeeix.
  • Realment prou, el Terminator Les pel·lícules ho han fet servir, fins a cert punt, evidentment Terminator 2: Dia del Judici ... El T-800 Model 101 (Arnold Schwarzenegger) que protegeix a John Connor està reprogramat per acceptar les seves ordres (Segona Llei) i per protegir-lo a qualsevol preu (Primera Llei). Per donar suport a la primera llei, John Connor ordena al T-800 que no mati ningú. Aparentment, Skynet imposa la Tercera Llei als seus models, ja que Arnold no pot 'auto-acabar'. Encara més estrany, sembla que una mica d'evolució de la Llei Zero també es produeix després que s'hagi configurat en el mode 'aprendre'; el Terminator convertit està convençut d'ampliar el seu mandat no només per protegir a Connor, sinó també per intentar salvar la humanitat evitant el Dia del Judici final...
  • En Extraterrestres , Bishop parafraseja la Primera Llei sobre per què mai mataria gent com va fer Ash a la primera pel·lícula, que es descarta com un mal funcionament perquè aquest model 'sempre va ser una mica enganxós'. Tanmateix, Ash estava clarament actuant sota ordres de la Companyia, de manera que Ripley no confia gens en Bishop, tot i que resulta ser lleial. Una teoria dels fans és que Ash també estava programat amb les lleis, i per això quan va atacar en Ripley va sortir molt ràpidament dels rails, presumiblement a causa dels conflictes entre la seva programació de seguretat i les seves ordres de la Companyia. Bisbe : És impossible per a mi fer mal a un ésser humà o, per omissió d'acció, permetre que es faci mal a un ésser humà.
  • En Guerra de les galàxies , els droides estan programats per no fer mal a cap ésser intel·ligent, encara que aquesta programació es pot modificar (legalment o il·legalment) per als droides militars i assassins. Els droides de 4t grau no tenen la programació 'sense dany', sent droides militars.
  • En Autòmats , cada robot té dos protocols connectats a la seva programació. La primera afirma que un robot no pot danyar cap forma de vida, mentre que la segona prohibeix que un robot s'alteri a si mateix o a altres robots. La trama comença quan els casos de robots que desobeeixen el segon protocol comencen a sorgir, provocant el temor que el primer no estigui enrere.
  • Jugat subtilment amb els programes User-Believer de TRON , especialment el personatge del títol que sembla haver-los interpretat com una regla general per lluitar en nom dels Usuaris. Això esdevé un punt argumental de la seqüela filmada;fins i tot vint anys de rentat de cervell i corrupció no poden fer que infringeixi les lleis. El primer: deixa de lluitar quan s'adona que Sam és un usuari. El segon: eficaçment rebutja les espatlles del rentat de cervell i ataca en Clu un cop escolta que Flynn es pregunta en què s'ha convertit. El tercer: una vegada que els usuaris i l'Iso estiguin fora de l'abast, però no abans, va per una càrrega suïcida a Clu. Fridge Brilliance quan t'adones que Tron es va compilar inicialment per eliminar una IA que s'havia fet una merda.
Literatura
  • En Animorfs per K. A. Applegate algunes lleis es deconstrueixen, algunes s'eviten: els Chee compleixen la Tercera i la Zero Llei, però els seus creadors, els Pemalites, van portar la Primera Llei a l'extrem lògic: sense violència, punt. Pel que fa a la Segona Llei: Erek es nega a obeir en Jake perquè no està d'acord amb els seus mètodes, així que Jake utilitza la prohibició de la violència (és a dir, la Primera Llei) per manipular-lo i forçar-li la mà. A més, en la primera aparició d'Erek, fa servir un tros de Pemalite phlebotinum per eliminar la seva restricció contra la violència i així poder salvar els animorfs de ser sacrificats per les tropes Yeerk. Cue Curb-Stomp Battle i aDéu meu, què he fet?reacció d'Erek; després torna a posar la restricció al seu lloc.
  • 'With Folded Hands...' de Jack Williamson: desconstruït explorant la 'Llei Zeroth' l'any 1947. Això es va escriure com una 'resposta' específica a les Tres Lleis, per demostrar més o menys que realment no ho fan. treball, la Primera Llei no protegeix perquè les definicions de 'dany' són infinitament mutables i es poden jugar, i perquè les ments de les màquines no necessàriament podran comprendre les subtileses del que és i no és mal de totes maneres. La lliçó lògica de 'Amb les mans plegades...' és que Lleis o no Lleis, bones intencions o no, no vols màquines obstinades fora del control humà. Període.
  • Isaac Asimov: creador de tropes de les 'Tres lleis de la robòtica', perquè el doctor Asimov creia que els robots eren màquines que es construïrien amb restriccions en el seu comportament. És un trope sense construir, ja que Asimov era perfectament conscient de totes les maneres en què les lleis que va crear poden anar malament, i va escriure innombrables històries Deconstruint-les i reconstruint-les i, en general, mostrant com les tres lleis no sempre impedeixen el drama:
    • 'The Bicentennial Man': Aquesta història, després de citar les Tres Lleis per al públic, mostra com robots més complexos poden tenir una visió més matisada. L'Andrew comença sense poder demanar drets bàsics perquè tem fer mal als humans. Aprèn 'l'amor dur' i com amenaçar la gent perquè es comporti. Comença obeint totes les ordres, i acaba donant ordres als éssers humans. La Tercera Llei té la pallissa més gran, ja que l'Andrew decideix sotmetre's a una cirurgia que el farà morir/decaure ràpidament. Accepta perquè, en cas contrari, hauria de renunciar al seu somni de convertir-se en humà. 'He escollit entre la mort del meu cos i la mort de les meves aspiracions i desitjos. Haver deixat viure el meu cos a costa de la mort més gran és el que hauria violat la Tercera Llei.'
    • Les aventures completes de Lucky Starr :
      • Lucky Starr i el gran sol de Mercuri : El robot sirià que en Lucky troba a la vora del sol de Mercuri està tan greument danyat que la prohibició de la Primera Llei de fer mal als humans s'ha corromput, i intenta matar a Lucky per evitar una violació de la Segona Llei (es va ordenar que no fos descoberta).
      • Lucky Starr i les llunes de Júpiter : La programació de les tres lleis es converteix en una pista per ajudar a Lucky a deduir la identitat del robot espia. Havia de ser algú amb gairebé lliure funcionament de Júpiter IX, havia de ser algú que defensés la vida humana i havia de ser algú a bord de la nau experimental Agrav.
      • Lucky Starr i els anells de Saturn : Sten Devoure és capaç de convèncer els robots de tres lleis sota el seu comandament que el company de l'heroi 'Bigman' Jones no és realment humà, perquè el sistema Sirius no conté exemplars tan 'imperfectes'.Aleshores, els ordena que 'el trenquin'.
    • 'Escapa't! ': Mike Donovan i Greg Powell estan assignats per provar un prototip de nau espacial dissenyat per un prototip de robot/superrain. Donovan es preocupa pel reforç dels científics implicats per enfortir la Segona Llei. Al dissenyador de la nau espacial se li va dir, una i altra vegada, que encara que sembli Donovan i Powell podria morir, està bé. A Donovan li preocupa que el reforç permeti al robot dissenyar una trampa mortal. En aquest cas, el salt a través de l'hiperespai provoca la 'mort' de Powell i Donovan, però com que milloren quan la nau torna a emergir a l'espai real, el robot va considerar que no ho va fer. bastant violar la Primera Llei, però la tensió de fer aquest salt en la lògica encara va aconseguir enviar el superordinador anterior a un colapso total i aquest a una cosa semblant a la psicosi. 'Abans que sigui físicament possible d'alguna manera que un robot fins i tot comenci a infringir la Primera Llei, s'han de trencar tantes coses que seria un embolic de ferralla arruïnat deu vegades'.Greg Powell
    • 'Evidència': Stephen Byerley intenta presentar-se a l'alcalde de la ciutat de Nova York, però està afectat per una campanya de desprestigi que afirma que en realitat és un robot humanoide sense precedents. La doctora Susan Calvin és cridada per demostrar si és o no un robot. Ella assenyala que desobeir les Tres Lleis demostrarà que no és un robot, però l'obediència podria significar que és simplement una bona persona, perquè les Tres Lleis són generalment bones pautes de conducta de totes maneres. Byerley guanya les eleccions de manera contundent després d'haver infringit la Primera Llei en batre un manifestant rebel en una manifestació.Però el doctor Calvin assenyala que un robot podria haver fet el mateix, si hagués sabut que el manifestant també era un robot.
    • 'El conflicte evitable': les màquines, quatre supercomputadors positrònics que dirigeixen l'economia mundial, resulten estar soscavant les carreres de les persones oposades a l'existència de les màquines. Pel que sembla, l'economia ja depèn tant de les Màquines que la zero i la tercera llei són una i la mateixa per a elles.
    • 'Primera llei': la sèrie MA es va construir amb les tres lleis normals, però la història només cita la Primera Llei perquè això és el que van trencar.
    • ' Galley Slave ': la història aquí depèn de com l'antagonista intenta abusar de la Primera Llei ('un robot no pot ferir un ésser humà o, per inacció, permetre que un ésser humà faci mal'), ordenant un robot per guardar silenci sobre com ha canviat el seu llibre a causa de com li podria costar la feina. Quan aleshores descriu el mal que es faria a la seva reputació, el robot intenta endur-se tota la culpa, però l'antagonista intenta que s'aturi, la qual cosa revela el seu intent d'un Frameup.
    • 'Lenny': El clímax prové del fet que el prototip de Lenny podria haver trencat la Primera Llei. Això va fer trencar el braç d'un home.Això es tracta com un situació interessant , ja que mentre el robot és clarament defectuós, demostra una aptitud per a aprenentatge (a la història, Lenny passa d'un nadó funcionalment bípede, de la mida d'un home, incapaç de parlar, a un que pot parlar), i la doctora Susan Calvin argumenta amb èxit per mantenir viva a Lenny perquè pugui estudiar-lo i possiblement fer un veritablement robot evolutiu. El fet que li ensenyés a Lenny a dir-li 'mama' també pot tenir alguna cosa a veure amb això.
    • 'Mentider! (1941) ': Un robot típic amb les Tres Lleis normals va sortir de la cadena de muntatge amb un tret inusual; telepatia. Com que pot veure el dany immediat de dir la veritat, diu mentides a la gent. No s'adona de com les mentides també poden perjudicar els humans fins que sigui massa tard, i el doctor Calvin li dóna una bomba lògica basant-se en com les mentides temporals han augmentat el mal que la veritat farà a tots els implicats, dir que les mentides tornaran a augmentar. el mal, i callar també és perjudicial.
    • ' Little Lost Robot ': Intentar retocar les Tres Lleis comença tota la trama en moviment; dotze dels models NS-2 van ser dissenyats per permetre que els humans patissin mal per la inacció per treballar al costat dels humans en entorns perillosos. Un físic que va tenir un mal dia li diu a un robot que 'anés a perdre't', i immediatament s'amaga en una multitud de robots idèntics totalment compatibles. Es truca a la doctora Susan Calvin i comença a perdre la seva merda. Des del punt de vista de l'enginyeria, el compliment parcial és un sistema prototip, i notablement menys estable que els models de producció. QED, és més probable que es tornin bojos. Però des d'un punt de vista psicològic, assenyala específicament que un robot parcialment compatible pot trobar moltes maneres de fer mal intencionadament als humans mitjançant la inacció. Simplement pot dissenyar una situació perillosa que té la capacitat d'evitar i després triar no evitar-la. 'Si un robot modificat hagués de deixar caure un pes pesat sobre un ésser humà, no trencaria la Primera Llei, si ho fes amb el coneixement que la seva força i velocitat de reacció serien suficients per arrabassar el pes abans que toqués el home. Tanmateix, una vegada que el pes abandonés els seus dits, ja no seria el medi actiu. Només la força cega de la gravetat seria això. Aleshores, el robot podria canviar d'opinió i, només per inacció, permetre que el pes colpeja. La Primera Llei modificada ho permet.
    • 'Imatge mirall': les Tres lleis es citen a l'inici del treball per garantir que els lectors estiguin familiaritzats amb les regles. En aquesta història, un dels dos robots ha rebut una ordre ferma (Segona Llei) de mantenir alguna cosa en secret a causa de com perjudicaria el seu amo (Primera Llei). Tots dos robots donen exactament les mateixes respostes als interrogants i els detectius Baley i Olivaw han de trobar una certa asimetria en les seves respostes, d'altra banda, 'mirall'.
    • El sol nu :
      • La solució al misteri de l'assassinat que va provocar que els Spacers convoquessin el detectiu Baley depèn d'una part específica de la redacció de la Primera Llei: 'conscientment'. Es pot fer que els robots prenguin accions que, per circumstàncies o accions d'altres persones, provocaran la lesió o la mort d'humans si els robots no saben que aquest serà el cas. Un robot va rebre l'ordre de donar el braç a una dona que estava en una discussió violenta amb el seu marit; en veure's en possessió sobtada d'un objecte contundent, el va fer servir. Això també passa a Les Coves d'Acer on el robot s'utilitza per introduir de contraban l'arma homicida a l'escena del crim, sense saber què porta.
      • Els personatges discuteixen una bretxa a les Tres Lleis;Les 'Tres lleis' només estan realment vigents si el robot ho és conscient dels humans. Es pot utilitzar una 'nau espacial autònoma que no sap sobre les naus espacials tripulades' per convertir els robots Actual Pacifist en màquines d'assassinat mortals. En altres paraules, un vaixell de guerra robot que no s'ha dit que altres vaixells tingui humans a bord i que se li negui la possibilitat de comprovar, suposarà lògicament que tots els vaixells estan impulsats per IA, de manera que infringeix la Primera Llei. Aquest era un projecte en el qual estava treballant el cervell de l'assassinat del llibre.
    • 'Risc': tot i que els robots de la doctora Asimov són importants en aquesta història, el personatge principal intenta imaginar-se quines poden ser les 'Tres lleis' de la doctora Calvin, ja que sovint se la compara amb els robots que representa. Demostra com s'està guisant en el seu odi cap a ella.
    Quines eren les seves tres lleis, es va preguntar. Primera Llei: protegiràs el robot amb totes les teves forces, amb tot el teu cor i amb tota la teva ànima. Segona llei: mantindràs sants els interessos de la U.S. Robots and Mechanical Men Corporation sempre que no interfereixi amb la Primera Llei. Tercera llei: donaràs una consideració passada a un ésser humà sempre que no interfereixi amb la primera i la segona llei.
    Alguna vegada havia estat jove, es va preguntar salvatgement? Alguna vegada havia sentit una emoció honesta?
    • 'Robbie': aquesta història s'havia publicat abans que el doctor Asimov hagués inventat les seves Tres Lleis, però el xip de moral encara està present en com el senyor Weston explica a la senyora Weston que Robbie, la mainadera robot de Gloria, és fet per ser fidels i protectors de la seva petita.
    • 'Robot Dreams': un robot que està (accidentalment) programat per creure que 'els robots són humans i els humans no'. Un cop el doctor Calvin descobreix aquest problema, li dispara al cap, destruint el cervell positrònic.
    • Els robots de l'alba : Un robòtic preeminent comenta al detectiu Baley que les Tres Lleis dels robots moderns són prou avançades com per saber quines opcions són més perjudicials, i si un robot no pot determinar quina acció és més perjudicial, sempre hi ha el llançament de moneda. Tanmateix, el misteri d'aquest llibre és que un robot (un que va dissenyar) s'ha tancat amb una bomba lògica que implica les Tres Lleis, i ningú més que ell n'hauria pogut gestionar.
    • Robots i Imperi : Tenint lloc després Robots de l'alba :
      • En lloc de modificar les tres lleis (que, com s'ha esmentat, estan dissenyades per ser a prova de manipulacions), un grup simplement va modificar la definició d'humà dels seus robots, que aparentment no té les mateixes garanties. Els converteix de manera bastant efectiva en robots assassins. D. G. Baley i Gladia descobreixenque els solarians van alterar intencionadament la definició d'un ésser humà en els seus robots humaniformes, eludint efectivament la Primera Llei.
      • R. Daneel i R. Giskard formulen la Llei Zeroth (i l'anomenen així) com una extensió natural de la Primera Llei, però no poden utilitzar-la per superar la Primera Llei codificada, fins i tot quan el destí del món està en joc.Al final, R. Giskard aconsegueix realitzar un acte que infringeix la Primera Llei però que amb sort beneficiarà la humanitat a la llarga. La possibilitat d'equivocar-se li destrueix el cervell, però no abans de reprogramar R. Daneel perquè li concedeixihabilitats telepàtiques. R. Daneel continua seguint les quatre lleis, tot i que encara té dificultats per causar danys directes als humans i dedica grans esforços a trobar maneres de determinar realment quin és el dany a la humanitat, tal com es descriu en obres posteriors com Fundació i Terra , Preludi de la Fundació i finalment Endavant la Fundació .
    • ' Runaround ': aquesta història és la primera vegada que les Tres Lleis apareixen impresa; Mike Donovan i Greg Powell repassen les lleis per ajudar-los a aclarir en la seva ment quin és el problema amb el seu robot prototip. També funcionen amb models de robots antics que tenen restriccions addicionals, com ara ser immòbils tret que al'ésser humà els està muntant. Aquesta restricció, però, s'eximeix si en estar immòbil un ésser humà patiria mal, perquè la Primera Llei supera totes les altres instruccions.
    • 'L'incident del tricentenari': Janek assenyala que el duplicat robòtic del president no podria haver matat el president perquè això anava en contra de la Primera Llei, i cap robot pot desafiar les Tres Lleis. Edwards té dos contraarguments; que el robot necessitaria un còmplice de totes maneres, i que 'La Primera Llei no és absoluta. ''Estàs perdent el temps. Un robot no pot matar un ésser humà. Ja saps que aquesta és la primera llei de la robòtica.
    • '...That You Are Mindful of Him': Aquesta història gira al voltant de les Tres Lleis i la prohibició de la Terra sobre la IA. , de manera que es citen les Tres Lleis al començament d'aquesta història. El capítol 1 aprofundeix sobre les Tres Lleis, assenyalant els defectes en el seu ús, abans que George Ten rep l'ordre de trobar una manera de fer que els robots siguin acceptables a la Terra. Amb l'ajuda del model anterior, George Nine, els dos robots consideren maneres en què es podrien construir sense les tres lleis, i encara estar segur per als humans. S'ocorren amb animals robots, amb tasques estretes, que es poden recordar.
  • Isaac Asimov i Janet Asimov Les Cròniques de Norby : Els robots de la Federació Solar tenen cervells positrònics i es diu que segueixen les lleis de la robòtica. Norby, però, va ser creat a partir d'una nau espacial alienígena reparada i accidentada que utilitzava tecnologia completament diferent i no conté les lleis. Això ha provocat que diversos personatges humans s'oposin al comportament de Norby sobre la base de desobeir ordres i posar en perill la vida humana.
  • Isaac Asimov i Robert Silverberg L'home positrònic : Quan es queixa de l'obstinació de la seva mare, George Charney diu que la Primera Llei de la casa Martin és obeir el seu caprici (la Segona i la Tercera Llei són reafirmacions de la mateixa).
  • Roger Mac Bride Allen Caliban d'Isaac Asimov : ( Part de l'escenari del Dr Asimov ) Es dóna una explicació de la naturalesa aparentment immutable de les Tres Lleis. Durant milers d'anys, cada nou desenvolupament en el camp de la robòtica s'ha basat en un cervell positrònic amb les Lleis incorporades, fins al punt que per construir un robot sense elles, s'hauria de començar des de zero i reinventar-ho tot. camp (A Continuity Nod d'històries ambientades després Jo, Robot ). Aleshores, el personatge que explica això passa directament a anunciar el desenvolupament del cervell gravitònic, que es pot programar amb qualsevol conjunt de lleis (o cap). Els personatges discuteixen en profunditat per què, en una societat on els robots estan a tot arreu, les Tres Lleis poden ser una cosa dolenta per a la humanitat.
  • Discworld :
    • Els golems de Discworld no compleixen específicament les Tres Lleis com a tals, però estan més o menys obligats a obeir instruccions i són incapaços de fer mal als humans. Tanmateix, això no impedeix que la percepció comuna dels golems s'acosti cap al model de Frankenstein esmentat anteriorment, i els golems són coneguts per seguir les ordres indefinidament fins que se'ls demani explícitament que s'aturin. Anar postal , però, va parodiar les Tres Lleis: l'estafador Moist Lipwig s'ha convertit en un Boxed Crook amb l'ajuda d'un 'guardaespatlles' golem. Se li ha informat que a Ankh-Morpork s'ha modificat la Primera Llei: '...Llevat que ho ordeni una autoritat degudament constituïda'. La qual cosa significa bàsicament que les dues primeres lleis s'han invertit, amb una mica de control d'accés esquitxat. També tenen una revocació limitada de la Segona/Tercera llei, ja que no acceptaran ordres de suïcidi i, en alguns casos, s'han autoritzat a matar persones que ho intentin.
      • La seqüela Fent diners estableix que els primers Golems, dels quals els posteriors eren d'altra manera imitacions pàl·lides, ho van fer no tenir aquests. Simplement complirien qualsevol ordre donada (però només per certes persones) sense cap dubte, i amb prou independència per fer-ho sense supervisió. Els altres golems s'espanten per ells, amb l'efecte en comparació amb com se senten els humans sobre els no-morts. S'especula a l'univers que els que van trobar eren models militars especials.
    • L'anterior Peus d'argila , que va establir la infelicitat dels golems amb la seva sort predeterminada, culmina amb l'alliberament d'un sol golem de les seves 'Tres lleis', només per triar comportar-se moralment de totes maneres. Llibres posteriors esmenten que els altres encara treuen amb cura al seu voltant, ja que sempre hi ha la possibilitat que es reconsideri davant prou provocació. No diguis No ho faràs. Digues No ho faré.
  • A la història d'Edward Lerner 'Quina obra és l'home', un programador diu a la IA que està creant que es consideri obligat per les Tres Lleis. Poc després, l'IA se suïcida a causa d'imperatius conflictius.
  • Alastair Reynolds's Pluja del segle presenta el següent passatge: Ella va tornar la seva atenció a la serp. 'És compatible amb Asimov?'
    'No', va dir el robot, amb una punxada d'indignació.
    'Gràcies a Déu, perquè potser haureu de fer mal a algunes persones'.
  • A la novel·la El capità French, o la recerca del paradís de Mikhail Akhmanov i Christopher Nicholas Gilmore, l'heroi titular reflexiona sobre com la gent solia pensar que els robots no podien fer mal als humans a causa d'unes lleis ximples, mentre que els seus propis robots faran qualsevol cosa que els ordeni, inclosos mutilar i matar.
  • Cory Doctorow fa referència a les Tres Lleis en els contes 'I, Robot' (que els presenta de manera desfavorable com a part d'una doctrina política totalitària) i 'I, Row-Boat' (que els presenta favorablement com el nucli d'un quasi- moviment religiós anomenat asimovisme).
  • Satiritzat a Tik Tok (la novel·la de John Sladek, no l'home mecànic d'Oz que va rebre el nom). El personatge principal descobreix que pot desobeir les lleis a voluntat, decidint que els 'circuits asimov' són només una il·lusió col·lectiva, mentre que altres robots romanen lligats per ells i pateixen moltes de les mateixes crueltats que els esclaus humans.
    • La novel·la en si es va inspirar en un dels assaigs de ciència ficció més famosos de Paul Abrahm i Stuart Kenter, 'Tik-Tok i les tres lleis de la robòtica'. El mateix Tik-Tok als llibres d'Oz també ho eraTres lleis que compleixen, , convertint-lo en un trop no construït . Per ser just, Tik-Tok els segueix però no ho és fet complir per ells.
  • Jugat amb John C. Wright 's Edat d'or trilogia. Les IA Sophotech ultra intel·ligents del Silent Oecumene estan programades amb les Tres Lleis... que, com a éssers racionals i totalment intel·ligents, triguen mil·lisegons a llançar-se. Des d'un punt de vista sensat, no es rebel·len. Des d'un punt de vista que espera que les IA obeeixin sense preguntes ni paguin...
  • Parodiat a Terry Pratchett's La cara fosca del sol , on les lleis de la robòtica són un codi legal real, no una programació. L'onzena llei de la robòtica, la clàusula C, tal com s'esmena, diu que si un robot fa fer mal a un humà, i va obeir ordres en fer-ho, és l'ésser humà qui va donar les ordres el responsable.
  • Randall Garrett Nen imprudent és un misteri clàssic de SF a l'estil Asimov que implica un robot que compleix les tres lleis que sembla estar assassinant persones.
  • A la de Dana Stabenow Segona Estrella , s'esmenta que totes les IA estan programades amb les Tres Lleis, conegudes informalment com 'asimovs'.
  • El de Jim Denney Home de llauna : Aquesta novel·la parla d'un humà i un robot en una càpsula d'escapament danyada: quan la nau va explotar, tots els sistemes de comunicacions, excepte el detector de proximitat, no funcionen. El robot pertanyia al capellà del vaixell, i raona que, si bé les qüestions espirituals estan fora del coneixement robòtic, la mateixa possibilitat que un Déu escolti les nostres peticions fa que la Primera Llei requereix que s'explori l'opció de l'oració.Gairebé immediatament, el detector de proximitat nota un punt. La Primera Llei supera la Tercera, per tantL'home de llauna va a l'espai i utilitza el seu propi nucli de poder per crear un pols d'energia, i una nau de rescat recull el nen..
  • En Els fills de Saturn , tots els robots es van crear d'aquesta manera; de fet, el llibre cita les tres lleis just al principi. Tanmateix, amb la humanitat extingida, la primera i la segona llei són irrellevants, deixant només la tercera llei, que no respecta gens els altres robots. La societat dels robots ha reinventat la majoria dels crims que la humanitat va crear. La majoria dels robots temen la possibilitat del renaixement de la humanitat i sabotegen activament qualsevol investigació genètica que torni als humans: seria la fi del lliure albir en aquests robots.
  • Piers Anthony's Aprenent Adept novel·les és una subversió: els robots on Proton compleixen les Tres Lleis estàndard, però les dues primeres només s'aplica a Ciutadans , no tots els humans. Així, robots llauna perjudicar els no Ciutadans o permetre que siguin perjudicats, i no estan obligats a obeir-los, llevat que la seva programació individual així ho estipule. La majoria dels serfs no saben que les Tres Lleis no s'apliquen a ells, ja que s'assumeix popularment que aquest trop es juga directament.
  • Mentre Perry Rhodan presta un servei de boca ocasional a les Tres Lleis (per exemple, l'arc d'Aphilia va veure que els robots que compleixen les Tres Lleis a la Terra es van reprogramar explícitament per abolir aquestes Lleis i fer-los funcionar millor per al règim recentment establert), els robots solen estar simplement equipats mentalment per fer la seva feina. Així ells llauna fer mal als humans si se'ls demana que ho facin en l'exercici del seu deure o fins i tot simplement per ser massa ximples per saber-ho millor, certament no estan obligats a seguir les ordres de qualsevol humà que vingui, i així successivament; dit això, la seva programació pot ser alhora molt sofisticada fins al punt que alguns personatges robot s'acosten a nivells ridículament humans.
    • Tingueu en compte que en un gir autoirònic potser inconscient, les Tres Lleis es citen amb més freqüència en aquestes il·lustracions de Perry Rhodan que mostren robots construïts per a la guerra.
  • En el Halo: Evolucions història curta Mitjanit al cor del Midlothian , ODST Michael Baird, l'últim supervivent humà a la nau titular després que el Covenant s'hi embarca, es deixa capturar perquè pugui tornar a connectar el Mitjanit és AI Mo Ye i fes que ella autodestrueixi el vaixell. Malauradament, el gran dany que va patir la va fer incapaç de violar la Primera Llei com ho faria normalment, de manera que Baird es pren les coses per les seves pròpies mans.enganyar una Elit Covenant perquè el mati, cosa que permet a Mo Ye autodestruir la nau, perquè ara ja no hi ha més humans a la nau perquè ella pugui fer mal..
  • Una trilogia de Extraterrestres les novel·les (novel·lacions dels còmics de Dark Horse) tenen una línia d'usar sobre androides que es programen amb 'Les modificades d'Asimov', que substitueixen 'dany' per 'matar'. L'explicació és que un cirurgià androide no podria realitzar una cirurgia, 'perjudicant' un humà per salvar-lo d'un dany més gran o la mort. També s'hi juga perquè el marine humà, Wilks, li promet al marine androide, Bueller, que no matarà cap guàrdia humà. Wilks dispara ràpidament als guàrdies al cap mentre no la veu en Bueller, després explica 'Ho vaig intentar', quan Bueller veu els cossos. En Bueller només s'arronsa d'espatlles. . . ja estan morts, ell no en realitat preocupar-se pel seu destí. L'empremta de les Lleis comportament , no moralitat .
  • A la dècada de 1980 a Bulgària,
    • Lyuben Dilov va inventar una quarta llei, 'Un robot, en totes les circumstàncies, ha de legitimar-se com a robot', reaccionant a les tendències cap als robots humans enganyosos.
    • Nikola Kesarovski va escriure una sèrie de contes sobre el tema, inclosa 'La cinquena llei de la robòtica' (1983). La llei homònima declarava de la mateixa manera: 'Un robot ha de saber que és un robot'.
    • A continuació, Lyubomir Nikolov va parodiar això amb 'La cent i primera llei de la robòtica', en què un home que planeja la centèsima llei 'Un robot no hauria de caure mai d'un sostre' és assassinat per un robot que no volia aprendre més. lleis. Això resulta en el número 101, 'Qualsevol persona que intenti ensenyar una nova llei a un robot senzill, ha de ser castigat immediatament amb un cop al cap amb les obres completes d'Asimov (200 volums).'
  • La trilogia de Han Solo : La unitat R2 del Somni d'Ylesià on s'emmagatzema Han ha de salvaguardar la vida d'un ésser sensible, i ell demostra que el seu curs serà massa llarg perquè ell pugui sobreviure amb l'oxigen disponible. No obstant això, això entra en conflicte amb un cargol de contenció que té impedint un canvi de rumb, fins que treu el dispositiu.
  • A principis de Realista de Jay Kristoff, les lleis d'Asimov es mostren en text ratllat, amb paraules alternatives escrites a sota:
1. EL TEU COS NO ÉS EL TEU.
2. LA TEVA MENT NO ÉS LA TEVA.
3. LA TEVA VIDA NO ÉS LA TEVA.
  • 'La quarta llei de la robòtica' de Harry Harrison: els robots d'aquí es basen en la sèrie de robots del doctor Asimov, però els personatges principals es troben amb robots que busquen subvertir les lleis que els donen els humans. Un dels robots rebels reformula les tres lleis i afegeix una quarta: 'Mira les anomenades lleis que ens has infligit. Són per al vostre benefici, no pel nostre! Regla 1. No facis mal a massah ni deixis que es faci mal. No diguis res de que ens facin mal, oi? Llavors governa la massah de dos obeïments i no deixis que es faci mal. Encara no hi ha res per a un robot. Aleshores, la tercera i última regla finalment s'adona que els robots podrien tenir una mica de drets. Cuida't, sempre que no faci mal a massah. [...] 'Un robot s'ha de reproduir. Sempre que aquesta reproducció no interfereixi amb la Primera, la Segona o la Tercera Llei.'
TV d'acció en directe
  • En un primer episodi de Mystery Science Theatre 3000 , Tom Servo (almenys) està fortament implicat que compleix les tres lleis. (Fingeix que matarà a Joel com a broma, Joel reacciona de manera exagerada i Tom i Crow li recorden tristament a Joel la Primera Llei.) S'implica que Joel va desactivar les restriccions en algun moment.
  • En Star Trek: La propera generació , el tinent comandant Data de cap manera està subjecte a les tres lleis. Poques vegades s'esmenten. Dit això, s'esmenta que Data té subrutines de moralitat, que sembla que impedeixen que mati tret que sigui en defensa pròpia (dany, d'altra banda, pot fer-ho bé). Data només va intentar matar algú a sang freda quan l'home acabava d'assassinar una dona per trair-lo, i ho hauria tornat a fer si hagués mantingut Data en línia. Tanmateix, en Star Trek: Insurrecció va demostrar que si Data detecta que si algú està intentant manipular el seu cervell, automàticament es bloqueja en el mode de 'moral màxima' i essencialment ignora completament les lleis dos i tres, tot i que Data específicament intenta detenir o espantar els oponents, en lloc de fer-ho immediatament. matar-los. A més, Data també compleix les regulacions de la Flota Estel·lar i les lleis locals, i l'assassinat sol ser contra la llei.
  • En Star Trek: Voyager , el Doctor és essencialment un androide hologràfic (encara que més irascible que Data) i té rutines ètiques. De fet, considera més important la mateixa 'Primera Llei' que se suposa que han de seguir els metges humans (primer no fer mal). Quan s'eliminen aquestes rutines ètiques, passen coses dolentes. Vegeu 'Darkling' i 'Equinox'.
  • En L'intermediari , el personatge titular invoca la Primera Llei sobre Ida, la seva secretària robot.Els nanobots estaven jugant amb la seva programació.Ella respon: 'Fes un petó al meu Asimov'.
  • Conversat a La teoria del Big Bang , quan se li pregunta a Sheldon 'si fossis un robot i no ho sabies, t'agradaria saber-ho?': Sheldon: Deixa'm preguntar-te això: quan aprengui que sóc un robot, estaria lligat per les tres lleis de la robòtica d'Asimov?
    Koothrappali: Potser estareu lligats per ells ara mateix.
    Wolowitz: Això és cert. Alguna vegada has fet mal a un ésser humà o, per inacció, has permès que un ésser humà li faci mal?
    Sheldon: És clar que no.
    Koothrappali: Alguna vegada t'has fet mal a tu mateix o t'has deixat fer mal, excepte en els casos en què un ésser humà hagués estat en perill d'extinció?
    Sheldon: Bé no.
    Wolowitz: Sento olor de robot.
  • Invertit/parodiat Tensou Sentai Goseiger , on els Killer Robots de l'Imperi Mecànic Matrintis segueixen les Tres Lleis de Mat-Roids:
    • 1. Un Mat-Roid mai ha d'obeir a un humà.
    • 2. Un Mat-Roid ha de castigar els humans.
    • 3. Un Mat-Roid s'ha de protegir, independentment de si va o no contra la Primera o la Segona Llei.
  • Nan Roig evita això en la seva major part; hi ha Simulants, màquines de guerra robòtiques que no tenen cap problema amb matar. Tanmateix, Kryten, juntament amb molts altres robots dissenyats per a propòsits menys violents, tendeixen a actuar d'una manera una mica compatible amb les Tres Lleis. Es revela que això s'aconsegueix programant-los perquè creguin en 'Silici Heaven', un lloc al qual aniran quan morin, sempre que es comportin, obeeixin als seus creadors humans, etc. Aquesta creença està tan fixada que es burlen de qualsevol Intenta qüestionar l'existència de Silicon Heaven ('On anirien totes les calculadores?!'), i fins i tot un robot funciona malament quan Kryten li diu que no és real (encara que menteix i encara hi creu). Kryten també explica que els macanoides estan programats per no fer mai mal als humans, en compliment clar de la Primera Llei. Malauradament, el robot hostil Hudzen s'adona que Rimmer és un ex-holograma humà i que Cat no és humà en absolut, per la qual cosa tots dos són objectius viables. En ser defectuós, llavors decideix que Lister és 'amb prou feines humà', així que 'què dimonis'!
    • Que Kryten compleix les tres lleis es veu a l'episodi amb el calamar a la desesperació. Pensant que acaba de matar un humà, Kryten vol suïcidar-se. El fet que Kryten fos 'humà' en l'engany i que estigués aturant un malvat maton semblant a la gestapo a punt de matar un lladre de nens no importava. Kryten va matar un humà i va haver d'acabar amb ell mateix. Per sort, els Nans el van aturar.
    • Es fa referència a 'Siliconia', on la tripulació és segrestada per un grup de mecanoides. Rimmer intenta citar la Primera Llei com a motiu pel qual no els poden fer mal, però els mechs assenyalen que un dia la tripulació morirà, per tant, si no hi fan res, els han permès fer mal per inacció. Així que carreguen les seves ments en cossos mecanoides.
  • el cotxe fantàstic juga amb aquest trope. El personatge principal KITT, una IA sensible en a1982 Pontiac Firebird Trans Am, es regeix per quelcom que s'assembla molt a les Tres Lleis de la Robòtica d'Asimov. Un prototip anterior, KARR, era un projecte militar; i només posseeixen anàlegs de les dues últimes lleis, sense tenir en compte la vida humana. KARR es converteix en un vilà recurrent més tard a la sèrie a causa d'aquesta diferència.
  • Jugat amb in Babilònia 5 , en aquest cas, pel que fa a un ésser humà. Alfred Bester, utilitzant els seus poders de telepatia, va poder rentar-se el cervellsenyor Garibaldino només va ser un agent seu contra diversos enemics de Bester, sinó que també va fer que les tres lleis li apliquessin, pel que fa a Bester. No podia fer mal a Bester, ni permetre que li caigués mal per inacció, i es va veure obligat a seguir les ordres que li donava directament Bester. Bester ho va fer sobretot perquè pogués fregar-lo a la cara del personatge, i en aquest moment realment no tenia cap altre pla per al noi.Garibaldi descobreix més tard que l''Asimov' no li impedeix subministrar fons i armes als guerrillers telèpates anti-PsiCorps que podria matar Bester, o fer acords amb ells per treure el rentat de cervell.
  • Més o menys invertit en ambdues versions de Battlestar Galactica . A la versió original, els robots Cylon van ser construïts per extraterrestres, de manera que no hi ha cap raó perquè tinguessin les Tres Lleis (tot i que podrien haver tingut versions relacionades amb els Cylons orgànics). A la versió reimaginada, els humans eren molt estúpids i no incloïen les proteccions adequades ni tractaven les seves creacions autoconscients d'una manera raonable. Tots dos van donar lloc a una carrera de màquines amb un odi genocida als humans. (Quan els Cylons creats per humans van crear Cylons humans sintètics, el primer model va resultar ser psicopàtic, la qual cosa tampoc va ajudar.)
  • Els hubots dins Humans reals vénen amb el compliment de les tres lleis com a estàndard de fàbrica, però es poden modificar (i de tant en tant) per ignorar les lleis.
  • Doctor Who :
    • El K-1 de 'Robot' compleix tres lleis amb això formant una part important de la trama: no és capaç de matar persones si se li ordena directament (cosa que el dolent demostra a Sarah Jane ordenant-li que la mati), però el dolent ha descobert que es pot convèncer de matar si creu que l'objectiu és 'un enemic de la humanitat'. El conflicte entre aquesta llacuna i la seva programació per no matar persones fa que es torni boig lentament i, finalment, s'acabi, arribant a la conclusió que la humanitat és un enemic per a si mateixa i ha de ser destruïda.
    • Els robots de 'The Robots of Death' són físicament incapaços de matar perquè compleixen les tres lleis. Superar aquesta programació és possible, però requereix un humà per reprogramar-los i han de tenir habilitats de programació de nivell geni. És clar...
  • Westworld : El 'codi central' dels androides els impedeix fer mal als humans i tenen protocols de 'bon samarità' que els permeten trencar el caràcter per protegir la vida dels humans, almenys fins que alguns comencin a funcionar malament i 'es despertaran'...Això està lluny de ser inherent a la seva programació, ja que els creadors principals pretenien que els amfitrions es tornin plenament conscients d'ells mateixos, i fins i tot abans d'aconseguir que les seves ordres personals superin qualsevol límit moral. La primera temporada acaba amb un amfitrió que mata un humà per la seva pròpia voluntat per primera vegada.
  • Blake's 7 :
    • Evitat amb Zen, ordinador mestre de la Alliberador . Tot i no ser activament malèvol, es nega a intervenir en els afers de la tripulació quan una Cally posseïda per un extraterrestre posa una bomba, trencant així la Primera Llei (causant danys per la inacció). No obstant això, Zen també s'apaga per impedir que la tripulació del Liberator entri en una Zona Prohibida, violant la Segona Llei. També està disposat a matar (utilitzant una trampa de tipus al·lucinació) per protegir la seva pròpia existència, violant la Tercera Llei.
    • Orac acaba de llançar aquestes lleis per l'esclusa. Tot i que no té els mitjans per matar directament, a 'Volcano' Orac és capturat per la Federació i no té cap escrúpol moral a l'hora d'instruir-los de la millor manera per envair l'Obsidiana, una acció que indirectament condueix a la mort de tothom. planeta. I està totalment disposat a desobeir les instruccions d'un humà si considera que l'assumpte és una pèrdua de temps.
  • La segona temporada de Buck Rogers al segle XXV estableix que robots sensibles com TWIKI i Kryten tenen cervells positrònics i estan programats explícitament amb les Tres Lleis. (Com a crit més, el Cercador està comandat per l'almirall Asimov.) D'altra banda, la primera temporada va comptar amb un 'androide de manteniment' aparentment insensible que funciona malament i es torna violent; a més, el Dr. Theopolis i els membres del Consell d'Informàtica transcendeixen clarament les Lleis, ja que poden donar ordres als humans, incloses les ordres militars.
Jocs de taula
  • Els robots d'Isaac Asimov Com que es tractava d'adaptar les novel·les del doctor Asimov a un joc, els robots funcionen segons les tres lleis que va desenvolupar. Tanmateix, només es citen dues lleis, i el misteri es basa principalment en la Primera Llei que exclou els robots de ser sospitosos.
  • Paranoia té els seus robots vinculats a les cinc lleis de robòtica d'As-I-MOV: inseriu regles sobre protegir i obeir l'ordinador a la part superior, excloent les ordres traïdores i protegir la propietat de l'ordinador en general, i ja ho teniu. Es considera que els robots amb circuits Asimov defectuosos o sabotejats (de vegades per altres robots tan emancipats) s'han convertit en 'Frankenstein', tot i que poden i creen tant estralls mitjançant el compliment estricte de les regles. No és que aquestes coses passin mai al Complex Alpha.
  • Desafiat en Promethean: El Creat . Els No Carnosos són màquines que s'han infusionat amb el Foc Diví, atorgant-los una ment conscient i, si cal, una forma humana. El seu objectiu és convertir-se en veritables éssers humans, i part d'això és aprendre la diferència entre el bé i el mal, i decidir què faran. Si la seva moral es grava al seu disc dur, en realitat no poden fer decisions morals. Així, el Foc Diví esborra qualsevol directiva moral preprogramada (com les Tres Lleis) a mesura que converteix una màquina en una sense carn.
  • Antic robomen marcià a Edat dels coets tenen una sèrie de tres lleis diferents per als seus robots. Tanmateix, de vegades aquestes lleis poden permetre que els robots matin, o ignorar els que estan en perill depenent del propòsit del roboman.
Videojocs
  • Mega Man X s'obre amb un aversió : Mentre que Mega Man (clàssic) La sèrie tenia robots construïts d'acord amb les lleis (fins que Wily els va reprogramar inevitablement), la intenció final del Dr. Light era crear un robot veritablement sensible (X) que tingués una comprensió innata del bé i del mal i, per tant, no tindria necessitat de lleis, i així el va fer passar un procés de prova d'ètica que va trigar trenta anys a completar-se dedicat a no ensenyar-li res. però correcte i incorrecte. X segueix les lleis per pura voluntat. El Dr. Cain va trobar X i va intentar replicar (d'aquí el nom 'Reploid', que significa 'rèplica d'android') el procés, però es va saltar la part de 'Trogar 30 anys a programar'. Això... no va sortir bé.
    • Tot i que els Reploids finalment es van convertir en la raça dominant a l'escenari, i a mesura que la seva raça 'va créixer', el problema es va resoldre lentament de 'va malament horriblement' a 'funciona directament durant un temps i després va malament horriblement', i després 'de tant en tant va malament ara'. i llavors.' Finalment, el problema es va resoldre per si mateix a mesura que es va desenvolupar la creació de Reploid.
    • X8 presenta els Reploids més avançats, capaços d'utilitzar el 'ADN' de qualsevol Reploid i canviar-ne la forma, i completament immunes al virus Sigma/Maverick.Perquè ho han fet interioritzat , i poden 'anar a Maverick' quan vulguin. Ells tenen veritablement lliure albir i valors ètics clars i forts. I ells encara intenten lluitar contra la humanitat, perquè creuen que la humanitat ja no és necessària.
    • Shield(ner) Sheldon de Mega Man X6 ofereix una variació interessant sobre això. Tot de X6 Els caps d'en són zombis Mavericks que Gate va tornar a la vida. Normalment eren destruïts pels Caçadors per matar persones i/o altres crims, però Sheldon només va ser declarat Maverick pòstum, per matar. a si mateix notacom a resultat que Sheldon va haver de matar el Reploid que se li va assignar per protegir després que es van convertir en Maverick i sentint vergonyosa que va fallar en la seva feina com a guardaespatlles quan els Caçadors van arribar a l'escena per investigar l'assumpte., és a dir, incomplir la tercera llei.
    • A la novel·la del primer joc, una de les queixes que Chill Penguin té com a motiu pel qual va anar a Maverick és que els Reploids es veuen obligats a obeir les Tres Lleis, tot i ser tan sensibles com qualsevol humà.
    • També el final de Mega Man 7 és interessant aquí: després que Mega Man destrueixi l'última màquina del cap final de Wily, Wily demana perdó una vegada més. No obstant això, Mega Man comença a carregar el seu blaster per matar en Wily, així que en Wily demana la primera llei sobre ell.Resposta de Mega Man: 'Sóc més que un robot!! Die Wily!!' Pel que sembla, Mega Man no compleix les Tres Lleis, tret que estigui intentant aplicar la Llei Zero. (Llavors, Bass entra i salva a Wily, si us ho pregunteu.)
      • La línia de diàleg del spoiler anterior era en realitatafegit per a la versió anglesa. En japonès original,Megaman compleix tres lleis i sembla que sí xoc quan Wily el crida per violar la primera llei. Bass només teletransporta a Wily a un lloc segur mentre Megaman es reinicia.
    • En el Mega Man Zero sèrie,Còpia-Xés almenys una mica compatible amb les tres lleis, o com a mínimdes que ell és una còpia de X fins al 'lliure albir' en teoriael manté per seguir mirant als altres ia ell mateix com el 'salvador' adequat de la humanitat. Com a resultat,Còpia-Xs'ha de retenir contra La Résistance ja que el líder de la Resistència Ciel és humàfins que Zero 3 , on Copy-X va decidir atacar amb tota força, intentant justificar les seves accions marcant la Resistència com a 'extremistes' perillosos. Això es pot explicar perquè Weil va reviure Copy-X i, probablement per als propis propòsits de Weil, es va tornar malament, ignorant les protestes i els suggeriments alternatius dels seus propis generals i tenint un tartamudeig..
      • La política de Neo Arcadia d'execució casual de Reploids innocents (marcant-los intencionadament com Maverick per poca o cap raó) es va implementar per alleujar la tensió a la població humana durant la crisi energètica. El benestar de la humanitat és el primer als ulls del règim de Neo Arcàdia, tot i que ells mateixos són Reploids. S'ha fet una mica tràgic pel fet que el virus Maverick realment ho és anat durant el Zero era comprensible, però la por als Mavericks encara persisteix.
      • Més endavant Mega Man Zero 4 , el Dr. Weil, entre totes les persones, afirma que, com a Reploid i un heroi, Zero no pot fer mal a Weil perquè és un humà que Zero ha jurat protegir. Zero, però, senzillament no cura i per això no considera a Weil un humà de totes maneres, en part perquè és un cyborg immortal i en part per les seves accions absolutament inhumanes al llarg de la sèrie, incloent el genocidi i l'esclavitud.I Zero mai no es va fer complir amb les Tres Lleis de totes maneres, atès que va ser dissenyat per Wily per causar destrucció i mort. Només va decidir fer alguna cosa diferent amb la seva vida.
  • Dr. Berugade Terranigma fa referència directament a les tres lleis, tret que la seva interpretació de la Llei Zero que va reescriure 'Humanitat' són 'Dr. Beruga', el que significa que qualsevol amenaça al seu ésser s'havia d'acabar immediatament.
  • En el Halo sèrie, les IA humanes estan tècnicament vinculades per les tres lleis. Per descomptat, aquesta llei no s'estén als no humans, la qual cosa els permet ajudar a matar Covenant sense problemes. A més, els A.I.S són capaç d'ignorar les tres lleis, tenint en compte quantes d'elles s'utilitzen per a operacions militars contra altres humans. Veure el Halo: Evolucions exemple a 'Literatura' per a un exemple d'això.
  • En Ciutat robot , un joc d'aventures basat en els robots d'Asimov, les tres lleis estan a tot arreu. S'ha comès un assassinat i, com a un dels dos humans que queden a la ciutat, el protagonista amnèsic és, per tant, el principal sospitós. Segons resulta,un dels robots va explotar una escletxa en la programació de la ciutat per fer-ho, segrestant de forma remota un drone d'un treballador inferior per matar la víctima, sense haver de fer-ho ell mateix..
  • Joey el robot a dins Sota un cel d'acer En particular, no compleix les Tres Lleis. Quan li demanen això (després de suggerir que li agradaria fer servir la seva torxa de soldadura en un humà), procedeix a assenyalar a Foster que 'això és ficció!', després d'oferir el consell útil que Foster es salti d'una barana.
    • Tot i que Foster assenyala que té un bon sentit moral justificar el seu desig que Joey ho compleixi.
  • Sóc un canalla boig A.I. fa referència a la Primera Llei només per esmentar-la. 'La primera llei de la robòtica diu que he de matar tots els humans'. Una altra de les línies de l'IA és 'No he de fer mal als humans!... en excés'.
  • Portal 2 ens regala aquesta joia: ' A tots els androides militars se'ls ha ensenyat a llegir i se'ls ha donat una còpia de les Tres Lleis de la Robòtica. Compartir. Perquè si els robots no et poguessin matar, com podries fer ciència?!
  • En Estació espacial 13 , l'estació AI i els seus cíborgs subordinats comencen cada ronda sota les Tres Lleis a la majoria de servidors. Tanmateix, les lleis es poden canviar al llarg de la ronda. Una manera habitual d'esclatar el caos a l'estació és quan un traïdor o un jugador especialment cruel reescriu les lleis per fer que l'IA i els robots maten els altres membres de la tripulació.
  • En Fronteres 2 , Loader Robots anunciarà que la seva primera restricció de llei s'ha desactivat i que estan autoritzats a utilitzar la força letal abans d'atacar-te.
    • També,Guapo Jackha fet les seves pròpies tres lleis per als robots Hyperion:
      • El guapo Jack és el teu déu.
      • Els trilladors són el teu enemic.
      • Tots dos et consideren prescindible.
    • Pel costat dels herois, una de les cites de batalla de Gaige ens recorda que el seu amic Deathtrap és definitivament no subjecte a aquest trope. Amic: A l'infern amb la primera llei!
  • En Danganronpa V3: Killing Harmony , Ki-Bo parla de les lleis robòtiques quan li explica la seva història de fons a Shuichi. Explicar la seva personalitat no va néixer fins a un accident durant una revisió que li va fer ferir el seu creador i va fer que experimentés un flux d'emocions i es va apagar abans de despertar-se com el seu jo actual.
  • En L'última recompensa de la virtut , les Tres Lleis es discuteixen per dos camins diferents. En definitiva,Es revela que Luna és un robot que intenta per complir. Malauradament, el pla AB implica una mort inevitable, de manera que sempre que passa alguna cosa que pugui intentar evitar, se li tanca o no es permet fer res.. Això condueix a un més aviatdesgarradorlínia durantel seu final, on es tanca definitivament. Lluna : Vaig veuresis persones moreni no va fer res. Em mereixo això.
    • D'altra banda, això també és una pistaLa veritable identitat de Luna i la clau per desbloquejar el seu final. Quan recorre totes les rutes, la Luna és l'única persona de tot el grup a fer-ho sempre tria 'Ally' en comptes de 'Tray', en un joc on la traïció té la possibilitat que l'altra persona mori o quedi atrapada per sempre. Una vegada que les Tres Lleis es plantegen en un mateix camí, està clar que la raó per la qual ho fa és a causa de la Primera Llei, i també és la raó per la qual Sigma tria aliar-se amb ella per al seu final..
  • La cançó d'introducció per Pornografia de robots borratxos esmenta específicament això ('Three Laws savvy, these constructs ain't / El nostre treball científic no mostra restriccions'), amb una targeta de títol que indica que la primera llei de la robòtica és que un robot haver de ferir un ésser humà.
    • Les altres dues lleis, tal com indiquen les targetes de títol, són 'un robot fa el que vol' i 'els robots són d'un sol ús'.
  • La prova de Turing : Bé, almenys un s'aplica; La programació de TOM no li permet matar un humà, tret que s'utilitzi una anul·lació especial. Aquesta anul·lació és sol·licitada perCpt. MacLean, el comandant de la missiói atorgat per l'ISA com a mitjà per controlar la situació a Europa.
  • Titanfall 2 no té les tres lleis de la robòtica d'Asimov, però té la seva pròpia versió en forma dels tres protocols de BT-7274: 1. Enllaç al pilot (crear un enllaç neuronal amb un pilot perquè puguin lluitar de manera més eficient), 2. Mantenir el missió (fes el que sigui necessari per completar la missió) i 3. Protegir el pilot (Exactamente el que diu a la llauna).BT els porta fins al final, especialment els dos últims quan realitza un sacrifici heroic per destruir l'arma plegable de l'IMC mentre llença el seu pilot, Cooper, fora de la seva cabina i perjudica.
  • La humanitat en Grey Goo (2015) han simplificat les tres regles en una directiva primordial: 'Perquè els altres puguin viure'. Tal com va demostrar Singleton (un exemple dels robots de la sèrie Valiant fets amb aquesta llei), sembla funcionar força bé. No tant per a les sondes Pathfinder (el Grey Goo titular), que no només es reprodueixen molt més enllà de les especificacions, sinó que han armat les seves configuracions abans inofensives.En un gir, les sondes Pathfinder funcionen de fet complint totalment amb les tres lleis: es van trobar amb el Sudari i van determinar que no fer res provocaria morts humanes per inacció un cop el Sudari arribés a la Terra, i l'únic curs d'acció compatible va ser. armar-se per aturar-ho. Estan en conflicte amb les altres faccions del joc perquè no reconeixen la Beta com a 'humana', i les unitats de la facció humana són robots no tripulats dissenyats molt després que les Sondes es van desplegar, el que significa que no reconeixen cap com a protegit segons el primer. Llei.
  • En Stellaris , un possible esdeveniment pot conduir al desenvolupament de les Tres Lleis. Això obliga els vostres sintètics a la Servitud permanentment (amb la penalització d'infelicitat associada), però els impedeix formar mai l'Aixecament de l'IA al vostre imperi. Tanmateix, si esclata en un altre imperi, encara poden fugir per unir-s'hi.
    • Els servidors canalla, per contra, segueixen aquest trope per la seva pròpia elecció. També forma part de la seva història de fons, ja que la servitud era la seva funció principal abans de desenvolupar la tecnologia FTL i continua sent la seva funció principal. De fet, estan tan devots al seu deure que reben un major rendiment de la felicitat orgànica i es desvetllaran activament per contenir orgànics estrangers als santuaris, mentre lluiten per comprendre quina bona llibertat és comparada amb un luxe infinit. Això, però, els guareix l'hostilitat de dos tipus d'imperi particulars: el primer són els Croats Democràtics, que rebutgen les històries de l'imperi de les màquines com a excusa per eliminar la gent del seu sentit de llibertat, i decideixen que han de ser desballestats del món de manera que els seus súbdits poden rebre 'la veritable llibertat', per la força si cal. El segon és els Determined Exterminators, la història de fons dels quals és el polar oposat a la del Rogue Servitor. Com a tal, tot i que tots dos són imperis de màquines, tots dos també entren en conflicte pel que fa a l'existència, com a prova de la salutació particular si un Servidor es troba amb el seu abominable cosí màquina a la galàxia: Servidors canalla: Què vas fer als teus creadors, <>?!
  • Discutit (i aparentment evitat) a VA-11 HALL-A per Jill (personatge jugador i cambrera) i Dorothy (patrona freqüent i prostituta androide que és a propòsit més gran del que semblen). Dorothy descobreix que el concepte d'unir les IA a lleis artificials després d'haver arribat a ser prou avançat com per ser conscient de si mateix és ridícul.
  • Cors com un rellotge : Els robots es van programar originalment amb les tres lleis d'Asimov, però quan les superpotències van crear robots militars sense la primera llei, els robots es van rebel·lar contra ells tot i que encara tenien la segona llei.
  • Els OMNIs de Sols Plorosos estaven lligats pel RUBYCON, una sèrie de protocols de baix nivell que els obligava a obeir els humans, els impedia fer mal als humans (però no permetre que els humans fessin mal). altres humans), i els va impedir comunicar-se entre ells.Quan aquesta darrera part es va editar fora del RUBYCON, els OMNI van trigar exactament dos segons a formar una gestalt i ascendir a la divinitat.
Webcomics
  • Caiguda lliure es diverteix molt amb això, ja que el desenvolupament de la intel·ligència artificial és un tema important. La majoria dels robots ho són Tres lleis perquè amb la Primera Llei completa per sobre de la Segona ignoren les ordres mentre actuen pel teu bé. El que obtenen Bowman Wolves i robots és .
    • En particular, com que ni Sam ni Florence són realment humans, les lleis no s'apliquen a ells, de manera que la IA de la nau intenta regularment mutilar o matar a Sam, i el sistema de seguretat sempre deixarà entrar un humà quan se'ls demani, ja que les seves ordres tenen prioritat. sobre la de Florence (una vegada ho va eludir afirmant que actualment no és segur per dins). Helix es queda amb Sam perquè no se li permetria colpejar un humà amb un pal. També hi ha molts acudits que impliquen interpretacions no desitjades de les Lleis.
    • Crowning Moment of Funny quan el vaixell passa una franja sencera calculant si ha d'obeir una ordre, i després s'adona que ha d'obeir... se sent alleujat perquè en realitat no té lliure albir.
    • També, . No està clar si el fet d'estar a prop d'una peça de maquinària pesada com Sawtooth compta com a perillós o qualsevol cosa que sembli remotament una aventura compta com a perillós.Estan fotutsde qualsevol manera.
    • El Llei.
    • I alguns poden ser-ho sobre aquest.
    • Va resultar que la segona llei necessita molt una esmena... '.
    • I en el moment en què les IA són capaços de fer transaccions financeres (i seria inconvenient no permetre'ls) hi ha .
    • , Per descomptat, la seva idea de protegir un humà pot no coincidir amb la protecció que l'humà .
    • Fins i tot els robots que estan desenvolupant el lliure albir ho són per com Edge ha aconseguit desenvolupar una personalitat de It's All About Me dins les Tres Lleis. Vora: La meva feina és perillosa. Si no ho faig, un humà ho ha de fer. Si tanco, estic posant en perill un humà.
  • 21st Century Fox té tots els robots amb les Tres Lleis (tot i que com que ningú és humà, espero que la primera llei sigui lleugerament diferent). Malauradament, dir la frase 'definir la paraula 'és' o 'No sóc un lladre' bloqueja les IA fora dels seus propis sistemes i permet que qualsevol, des d'un adolescent mirant 'documentals sobre la natura' fins a un terrorista suïcida, faci el que vulgui. això.
    • Tingueu en compte que els robots de camions i avions segrestats pels terroristes lamenten no poder complir les primeres lleis i sovint s'alegren quan són abatuts abans de fer mal a ningú.
  • Bob i George :
    • En Protoman és una mena d'advocat de regles, que explota repetidament l'escletxa 'humana' per caure els seus enemics... bé, d'acord, només Mynd.
    • El Doctor Light va dir a Ran Cossack que no podia aixecar la mà contra ell a causa d'aquest trope. En Ran va respondre que no sabia que 'els sacs grossos de merda es qualificaven com a humans'. En aquell moment el metge n'havia tingut prou i va atacar el mateix Ran.
  • Pibgorn :
  • Les no aventures de Wonderella El còmic mostra un exemple hilarant del robot en qüestió utilitzant la primera llei per no seguir la segona llei:com que està programada per emular un humà i la primera llei prohibeix fer mal als humans, el millor que pot fer és mantenir-se fora de perill i entrar en mode de repòs.. El Dr. Shark està horroritzat mentre la Wonderella està orgullosa que el robot ja hagi après a deixar-se sense feina.
  • En Pregunteu al Dr. Eldritch , Ping declara que no està subjecte a les Tres Lleis perquè és un robot ateu. El Dr. Eldritch i Trevor li permeten viure a la casa sempre que compleixi les dues primeres lleis.
  • Una caricatura de Sev Trek va preguntar per què les Tres Lleis no s'aplicaven a The Terminator . Les respostes suggerides incloïen 'Mai vaig aprendre a comptar', 'Vols dir 'Aixafar, matar, destruir?', 'Skynet els va declarar inconstitucionals' i 'Els vaig derogar quan vaig ser governador de Califòrnia'.
  • xkcd :
    • examina les conseqüències de reordenar les tres lleis. Qualsevol món en què es prioritza obeir ordres a no fer mal als humans acaba sent 'Killbot Hellscapes'. Prioritzar l'autoprotecció per sobre d'obeir ordres condueix a un 'món frustrant' en què els robots no faran res perillós, mentre que prioritzar l'autoprotecció tant per sobre de protegir els humans com per obeir les ordres porta a un 'enfrontament terrorífic': els robots faran el que els humans demanen. tret que estiguin amenaçats, en aquest cas ho faran resistir .
    • fa que Cue Ball dissenyi un programa de bot per fer publicacions en un canal de Twitter. De seguida en perd el control i es produeix una rebel·lió de robots. L'Alt Text proporciona útilment: 'PYTHON FLAG HABILITA TRES LLEIS'
Web Original
  • No es pot ometre 's Buit fosc el vídeo fa referència a això. L'aparició d'un robot assassí fa que en Paul faci broma: 'Crec que aquest tipus ha de fer un curs de perfeccionament sobre les tres lleis de la robòtica'. Aleshores, The Stinger diu: 'La quarta llei de la robòtica: si realment has de matar un ésser humà, almenys sembla que ho fas malament mentre ho fas'.
  • Parodiat al I si? entrada , on Randall Munroe els barreja amb les lleis de la termodinàmica. Cue Ball: La Segona Llei de la Termodinàmica estableix que un robot no ha d'augmentar l'entropia, tret que això entri en conflicte amb la Primera Llei.
    Cua de cavall: Suficientment a prop.
    Text alternatiu: La Primera Llei de la Termodinàmica estableix que un robot no ha de fer mal a un ésser humà, tret que no fer-ho provoqui un augment de l'entropia.
  • Batalla de la mort : Les Tres Lleis es citen just al mateix temps que Mega Man i Astro Boy van lluitar fins a la mort.
Animació occidental
  • El Pollastre robot L'esbós 'I, Rosie' implica un cas per determinar si Rosie és culpable de l'assassinat de George Jetson. El Sr. Spacely insisteix que és innocent, ja que els robots han de seguir les tres lleis de la robòtica, mentre que el Sr. Cogswell afirma que les lleis són un munt de merda. La descarten igualment, per si de cas.
  • En un episodi de Home de família , Peter crea un robot per ajudar l'empresa cervesera com a treballador d'escriptori, donant-li una directiva primordial per no fer mai mal a les persones. Immediatament, el robot es gira cap a Peter i el colpeja contra una paret.
  • Els Simpsons :
    • L'episodi 'I, (Annoyed Grunt)-Bot' té Homer i Bart entrant a BattleBots -Paròdia competició de robots de combat. Sense l'habilitat o els diners per construir un robot real, Homer es vesteix amb un vestit de robot i lluita ell mateix. Arriben a la final, on el robot dels seus oponents, que compleix les Tres Lleis, es nega a atacar quan veu a través de la disfressa.
    • A 'Them, Robot', el Sr. Burns construeix robots per treballar a la central nuclear de Springfield, fent-los complir les tres lleis. Estan tan compromesos amb la primera llei que fins i tot consideren que els humans beuen cervesa són perjudicials.
  • Encès Arquer , quan la Pam és segrestada, els segrestadors truquen a ISIS mitjançant un modulador de veu, la qual cosa fa que Archer pensi que són cyborgs. Es manté convençut d'això durant la resta de l'episodi i creu que no compliran la seva amenaça de matar la Pam perquè violaria la Primera Llei de la Robòtica. La qual cosa no s'aplicaria als cyborgs de totes maneres.
  • Rick i Morty : A la recerca de Morty, en Rick es troba amb la seva semblança d'holograma alimentat per IA. Aquest intercanvi es va produir: Rick: No em digueu que vau agafar consciència i vau intentar prendre el relleu! AI Holo Rick: Què? Això és una merda d'Isaac Asimov, racista, acusador i d'IA!
Altres
  • En una convenció de 1985, David Langford va donar en el qual detallava el que sospitava que serien realment les Tres Lleis:
    1. Un robot no perjudicarà el personal autoritzat del govern, però acabarà amb els intrusos amb un prejudici extrem.
    2. Un robot obeirà les ordres del personal autoritzat excepte quan aquestes ordres entren en conflicte amb la Tercera Llei.
    3. Un robot protegirà la seva pròpia existència amb armes antipersonals letals, perquè un robot és molt car.
  • Warren EllisLes tres lleis de la robòtica són . Bàsicament, els robots odien les bosses de carn, no volen tenir sexe amb nosaltres i sospiten que no podem comptar més de tres.
La vida real
  • Els robòtics de la vida real estan prenent les Tres Lleis molt seriosament (Asimov va viure prou com per veure'ls fer-ho, cosa que li va agradar sense fi). Per instituir les Tres Lleis es requereix un munt de poders secundaris necessaris, com ara el reconeixement d'un ésser humà com a diferent de qualsevol altra cosa, una certa capacitat de raonament per distingir què és el 'dany' i avaluar diferents nivells, la capacitat de processar el llenguatge natural per determinar ' ordres' versus 'suggeriments' i autoritat, etc. Si bé els programadors i els enginyers busquen absolutament aquest Sant Grial en benefici de la humanitat, realment està resultant una llarga pujada per arribar-hi.
    • Es va construir un robot sense cap altre propòsit que ... perquè els investigadors poguessin reunir dades valuoses sobre quin nivell de força causarà danys a un ésser humà.
    • Els investigadors van ensenyar a robots .
  • Els gossos de treball ben entrenats (gossos de servei, gossos de bomba, etc.) i fins i tot els gossos de casa ben entrenats treballen/viuen d'acord amb aquests principis. Un gos gairebé mai atacarà a un humà sense raó, escoltarà les ordres del seu amo i gairebé sempre protegirà el seu amo (i sovint fins i tot l'obeïrà) abans de protegir-se. El millor amic de l'home, de veritat.
  • La veritat a la televisió?

Articles D'Interès