Wypisz 3 podstawowe prawa robotyki. Kodeks kulturowy Asimova: jak trzy prawa robotyki stworzyły historię

Roboty buntują się w literaturze od wieków. Dżiny i ifryty z arabskich baśni zbuntowały się, zbuntował się Golem - gliniany wynalazek przebiegłego Bena Bezalela. I nawet prawdziwe roboty, stworzone przez geniusza Karela Capka, wymknęły się spod kontroli, ledwie zdążyły narodzić się z pióra pisarza. Sytuacja stała się na tyle poważna, że ​​problem zbuntowanych robotów przeniósł się z kart fikcji na strony artykułów naukowych i monografii. Sam Norbert Wiener uznał za konieczne ostrzeżenie ludzkości przed możliwymi konsekwencjami nadmiernej autonomii robotów.

Zbawienie przyszło z niespodziewanej strony. Amerykański pisarz i naukowiec Isaac Asimov sformułował swoje słynne trzy prawa robotyki (w rzeczywistości bardziej poprawne byłoby określenie „robotologia” lub, jak ustaliła współczesna nauka, „robotyka”, ale teraz jest już za późno, aby poprawić tę nieścisłość tłumaczenia). Prawa Asimova z naprawdę fantastyczną szybkością zyskały uznanie na całym świecie i od tego czasu ani jeden robot nie opuścił linii montażowej, to znaczy z bębnów maszyny drukarskiej, bez umieszczenia go w mózgu (zauważ, że robot musi mieć mózg !) osławione Trzy Prawa. W końcu ludzkość mogła swobodnie oddychać. Przyszłe współistnienie z legionami posłusznych robotów zapowiadało się całkiem różowo.

A co o tym myśli twórca Laws of Robotics? Najlepszą odpowiedź na to pytanie można uzyskać, czytając oferowany czytelnikowi zbiór.

Zacznijmy od pierwszego opowiadania z serii „Ja, robot”. Mała dziewczynka ma robota opiekuna. Dziewczynka przywiązała się do robota, ale zdaniem matki przywiązanie to szkodzi prawidłowemu wychowaniu dziecka. I choć tata jest innego zdania, po długich rodzinnych dyskusjach robot zostaje odesłany do fabryki. Dziewczyna jest smutna, grozi poważny uraz psychiczny, a robot powraca (historia „Robbie”).

Niezła fabuła, prawda? Ale to właśnie ta prostota łamie Pierwsze Prawo Robotyki, które Asimov sformułował w następujący sposób: „Robot nie może skrzywdzić człowieka ani przez swoją bezczynność dopuścić do wyrządzenia krzywdy człowiekowi”. Jak robot może rozgryźć, co jest szkodliwe, a co przydatne, jeśli rodzice sami nie mogą rozstrzygnąć tej kwestii w odniesieniu do własnego dziecka!

W opowiadaniu „Taniec w kółko” w wyniku niejasno sformułowanej wskazówki doszło do konfliktu Pierwszego i Trzeciego Prawa. Zgodnie z Trzecią Prawą „robot musi dbać o własne bezpieczeństwo, o ile nie jest to sprzeczne z Pierwszą i Drugą Prawą”. Robotowi wydano polecenie, ale nie wskazano stopnia krzywdy, który zostałby wyrządzony osobie, gdyby nie został wykonany. A teraz robot krąży wzdłuż granicy niebezpiecznego obszaru, nie wchodząc w niego głęboko (trzecie prawo temu zapobiega) i jednocześnie nie zapuszcza się daleko (zabraniają temu pierwsze i drugie prawo). Sytuacja znana każdemu programiście nowoczesnych komputerów. Nazywa się to „pętlą”. Nawiasem mówiąc, każdy mniej lub bardziej doświadczony programista umieszcza w programie specjalne polecenia, zgodnie z którymi po wykonaniu trzech lub czterech kółek komputer zatrzymuje się i wymaga dalszych instrukcji od osoby.

W opowiadaniu „Okrągły taniec” wszystko dzieje się inaczej. Tam ludziom udaje się przerwać zaklęty krąg tylko ryzykując życiem, a jednocześnie wykorzystując całą swoją pomysłowość i korzystając z pomocy eksperta w dziedzinie psychologii robotów. Nawiasem mówiąc, jednym z motywów przewodnich, które łączą większość historii w zbiorze, jest walka między robotami a psychologiem-robotem, Susan Calvin.

Lub inna historia - „Jak robot się zgubił”. Zirytowany młody pracownik mówi do robota: „Odejdź i nie pokazuj się, żebym cię więcej nie zobaczył”. Robot dosłownie wykonuje polecenia osoby, po czym cały personel pozaplanetarnej Hyperbase jest zmuszony porzucić ważną pracę i szukać zaginionego robota przez cały tydzień.

Znów celowo wybraliśmy historię z prostą fabułą, bo naszym zdaniem w prostocie rodzi się perswazyjność, z jaką Asimov obala drugie prawo robotyki, które sam stworzył.

Więc o co chodzi? Czy naprawdę trzeba przyznać, że dżin wyszedł z butelki i ludzie nie mają innego wyjścia, jak tylko biernie czekać na konsekwencje? Przypomnijmy jednak, że autor opowiadań jest nie tylko pisarzem, ale i naukowcem, który potrafi analizować sytuację z zachowaniem wszelkiej logicznej dyscypliny. I nie na próżno wybrał tę właśnie formę: najpierw sformułował prawa, które na pierwszy rzut oka wydają się być bezbłędne zarówno w treści, jak iw formie, a następnie zademonstrował te prawa w działaniu.

Tak, dżin wyszedł z butelki i to bardzo, bardzo dawno temu. Biorąc kij w dłonie, człowiek stworzył pierwszego robota i spotkał się z buntem robotów, gdy przypadkowo upuścił ten kij na nogi. I od tego czasu nie wydarzyło się nic jakościowo nowego. Problem buntu robotów jest stawiany i rozwiązywany w technice od kilkudziesięciu lat. W języku angielskim istnieje nawet specjalny termin „niezawodny” - „ochrona przed głupcem”. Tak więc gaz w kolumnie gazowej nie zapala się, jeśli woda nie płynie, a prasa nie będzie działać, jeśli w przestrzeni roboczej znajduje się obcy przedmiot, na przykład ludzka ręka.

Nie należy jednak wymagać, aby technologia decydowała za osobę, co jest dla niej niekorzystne, a co jest dla niej korzystne. I nie należy sądzić, że pojawienie się maszyn „myślących”, czyli zdolnych do samodzielnego analizowania sytuacji i podejmowania decyzji na podstawie tej analizy, wprowadzi coś fundamentalnie nowego.

Wróćmy jednak do opowiadań ze zbioru. Wydaje się, że ich autora nie trzeba przedstawiać Czytelnikom. Isaac Asimov to jeden z najsłynniejszych amerykańskich pisarzy science fiction, autor wielu książek i artykułów popularnonaukowych, które ukazały się w osobnych zbiorach. Ale przede wszystkim Asimov jest utalentowanym artystą i to jest sekret jego popularności. Wiele dzieł tego pisarza zostało przetłumaczonych na język rosyjski. Szczególnie znane były jego opowiadania o robotach, które ukazywały się jako osobne zbiory (cykl „Ja, Robot”) lub wchodziły w skład innych zbiorów tematycznych. To miłe, że wiele z nich, choć nie wszystkie, jest teraz ponownie publikowanych jako pojedyncza kolekcja.

Czytelnik – zarówno zaznajomiony z twórczością Asimova, jak i po raz pierwszy rozpoznający jego roboty – spotka barwne, świetnie narysowane postacie. Oto testerzy nowych technologii Powell i Donovan, którzy podążając za wszystkimi kanonami gatunku przygodowego, w każdej historii znajdują się w trudnych, czasem beznadziejnych sytuacjach, ale zawsze wychodzą z nich z honorem. Oto „mózgowe zaufanie” firmy „U.S. Robots and Mechanical Man Corporation” Bogerta i Lanninga, walczące o władzę. A robo-psycholog Susan Calvin góruje nad wszystkimi, gardząc próżnością biznesmenów. A za kulisami – współczesna kapitalistyczna Ameryka w całej swojej „chwale”. Przed czytelnikiem stoją obrazy walki konkurencyjnej między firmami, przedwyborczych machinacji politycznych, dyskryminacji rasowej. Ale należy zauważyć, że przedstawiając swoje roboty jako rycerzy bez strachu i wyrzutów, wyposażając je w metalowe ciało i pozytronowy mózg, Asimov unika ostrych problemów społecznych.

W opowieściach Asimova po prostu nie ma robotów. Brakuje im raczej takich mechanicznych konstrukcji, jakie z pewnością pojawią się w pierwszej połowie XXI wieku (mianowicie akcja wszystkich opowiadań opublikowanych w zbiorze jest skorelowana z tym czasem) i których ogólnych cech Asimov, jako naukowiec, mógł w miarę dobrze przewidzieć. Można spekulować do woli na temat wyglądu i budowy wewnętrznej przyszłych robotów, ale jedno nie ulega dziś wątpliwości: robot nie będzie humanoidalny. Nie będzie, zgodnie z logiką rozwoju techniki, nie będzie ze względów elementarnych. Najlepszym przykładem potwierdzającym to, co zostało powiedziane, są radzieckie „łaziki księżycowe”.

Ludzi wszystkich pokoleń nieustannie nurtuje pytanie: „Jaka przyszłość nas czeka?” Najczęściej rozpatrywana jest w kontekście losów konkretnej osoby i jej dzieci. Istnieje jednak odrębna kategoria obywateli, których niepokoi los cywilizacji i perspektywy jej dalszego rozwoju.

Wiele umysłów szuka odpowiedzi na to palące pytanie! Naukowcy, historycy, filozofowie, pisarze, postacie religijne, a nawet fani budują swoje przewidywania i domysły. Dość ciekawy punkt widzenia wyraził w swoich pismach Isaac Asimov, wielki pisarz science fiction i popularyzator nauki.

Isaac Asimov - najbardziej wszechstronny pisarz science fiction XX wieku

W jednej smoleńskiej wiosce na obrzeżach RFSRR urodził się chłopiec Izaak (prawdziwe imię pisarza). Trzy lata później żydowska rodzina Izaaka wyemigrowała do Ameryki. Asimovowie osiedlili się w jednej z dzielnic Nowego Jorku, w Brighton Beach. Inna nazwa to „Mała Odessa”, obszar ten był tradycyjnie zasiedlany przez emigrantów z Rosji.

Od dzieciństwa chłopiec mówił po angielsku i jidysz. Jego światopogląd ukształtowały książki, zwłaszcza dzieła Szaloma Alejchema. Chłopiec dorastał najwyraźniej zdolny i dociekliwy. Dlatego z łatwością ukończył studia chemiczne w Nowym Jorku. W 1942 roku Isaac przeniósł się do Filadelfii, gdzie miał fatalne spotkanie z pisarzem. Tuż po niej pisarz wymyślił trzy prawa robotyki.

kreatywny sposób

Pisarz, który wymyślił trzy prawa robotyki, jest niewątpliwie wyjątkową osobowością. Asimov jest autorem ponad pięciuset książek i pisał nie tylko science fiction. W swoim arsenale ma dzieła humorystyczne, detektywistyczne, a nawet fantastyczne.

Oprócz błyskotliwego talentu pisarskiego Asimov był osobą wszechstronnie rozwiniętą, nie podlegającą religii. Znał bardzo dobrze historię, psychologię, chemię i astronomię. Wiedza z różnych dziedzin nauki w połączeniu z dobrą wyobraźnią zrodziła wiele ciekawych pomysłów. Jedną z nich jest psychohistoria, nauka, która po dziś dzień daje szerokie podstawy do refleksji. Asimov popularyzował także naukę wśród zwykłych ludzi: wyjaśniał skomplikowane rzeczy prostym językiem.

Podróż po Biblii z Asimovem

Warunki wstępne powstania praw legendarnych

Nie można powiedzieć, że Asimov bez powodu wziął i wymyślił trzy prawa robotyki. Na człowieka największy wpływ ma epoka, w której żyje; wartości są kształtowane przez rodzinę i społeczeństwo (przy czym to ostatnie odgrywa decydującą rolę).

Młodość Asimova upłynęła w okresie szybkiego rozwoju nauki i techniki, wśród ludzi wykształconych i myślących innowacyjnie. Te dwa czynniki określiły pewien światopogląd pisarza. To ona przyczyniła się do jego przemyśleń na temat naszej cywilizacji, możliwości istnienia innych form życia we Wszechświecie oraz robotów, które mogą stać się dobrymi pomocnikami ludzi.

Tylko człowiek epoki przemysłowej mógł wymyślić trzy prawa robotyki. I to oczywiście jest zrozumiałe. I stał się nim Isaac Asimov (trzy prawa robotyki zostaną przedstawione w następnym rozdziale). Jak brzmią i jaka jest ich istota – o tym później.

Trzy prawa robotyki: jaki jest sens?

Po raz pierwszy legendarne prawa pojawiają się w cyklu O robotach Asimova. Najciekawiej zostały one przedstawione w fantastycznym opowiadaniu „Taniec na okrągło”.

Tworząc złożone roboty pomocnicze, człowiek niepostrzeżenie obdarza je częścią swojego intelektu. Jest całkiem możliwe (wielokrotnie opisywane w książkach i filmach), kiedy myślące maszyny zdobywają władzę nad swoimi twórcami. Dlatego potrzebne są przepisy ograniczające roboty.

Jak surowe są prawa robotyki?

Podczas swojej twórczej kariery Asimov miał inny stosunek do wymyślonych praw. W pierwszych opowiadaniach z serii „Roboty” Prawa są raczej zasadami bezpieczeństwa lub odpowiedzią na zabawne pytanie: „Jak należy postępować z robotem?”.

W późniejszych opowieściach Asimov wierzy, że prawa są częścią matematyki stojącej za pozytronowym mózgiem robota. Powstaje analogia z To na wezwanie swojej sztucznej natury robot działa dla dobra człowieka - pomaga mu w trudnych zadaniach i słucha jego poleceń.

Ludzka interpretacja

Asimov jest przede wszystkim pisarzem science fiction. Co dziwne, trzy prawa robotyki pasują do zasad wielu systemów etycznych na Ziemi. Jeśli się nad tym zastanowić, te trzy zdania zawierają poprawne

Sam pisarz w opowiadaniu „Dowody”, opublikowanym w 1946 r., podaje ich uzasadnienie. Susan, główna bohaterka opowieści, dochodzi do trzech fundamentalnych wniosków:

  • To naturalne, że normalny człowiek nie krzywdzi innych ludzi. Chyba że inaczej. Na przykład podczas wojny człowiek musi chronić swoje życie, a czasem ratować innych ludzi.
  • Czując odpowiedzialność wobec społeczeństwa, świadoma osoba postępuje zgodnie z zaleceniami autorytatywnych osób - lekarzy, nauczycieli, liderów.
  • Każdemu zależy na bezpieczeństwie swojego zdrowia fizycznego i psychicznego, które jest również bardzo ważne.

Trudno polemizować z uniwersalną interpretacją praw Asimova. Jest oczywiste, że ten, kto przestrzega tych prostych zasad w życiu, jest dobrym człowiekiem.

Prognozy Isaaca Asimova

O trzech prawach robotyki można prowadzić długie i fascynujące dyskusje. Porozmawiamy teraz o przewidywaniach Asimova. Tak, ta wyjątkowa osoba zajmowała się futurologią i całkiem skutecznie, jak pokazuje dzisiejszy dzień. W 1964 roku w Nowym Jorku pisarz science fiction podzielił się z publicznością swoją wizją świata za 50 lat. Tak więc główne prognozy Asimova:

  • Urządzenia elektroniczne uchronią ludzi przed rutynowymi zadaniami. Pojawią się gadżety, które zrobią sobie własną kawę i zamienią surowy chleb w tosty. To się spełniło.
  • Technologia pójdzie do przodu. Podczas rozmowy telefonicznej będzie można zobaczyć rozmówcę; możliwe będzie również studiowanie poważnych dokumentów bezpośrednio na ekranie Twojego gadżetu. Stało się to faktem (technologia Skype i rozmowy wideo w smartfonach).
  • W życie zwykłego człowieka wkroczą roboty, a wiele urządzeń elektronicznych będzie działać bezprzewodowo, dzięki mocnym akumulatorom. Stało się to faktem (więcej osób korzysta z robotów odkurzających, smartfony i tablety mogą pracować autonomicznie przez długi czas).
  • Populacja Ziemi wyniesie 6,5 miliarda mieszkańców, USA - 350 tys. Potężni tego świata będą musieli pomyśleć o humanitarnych metodach kontroli urodzeń, w przeciwnym razie Ziemia zamieni się w solidny Manhattan. Rok 2014 będzie punktem zwrotnym dla ludzkiej cywilizacji. Po części się spełniło (populacja Ziemi w 2014 roku wynosi 7,046 mld, a Stanów Zjednoczonych 314 mld; rok 2014 okazał się bardzo ciekawy, trudno ocenić punkt zwrotny; czas pokaże).
  • Nuda stanie się poważnym problemem ludzkości. Coraz więcej osób zacznie doświadczać tej choroby psychicznej. Dlatego w 2014 roku psychiatria stanie się jedną z najważniejszych dziedzin medycyny. Stało się to prawdą... Wahania nastroju (cyklotymia w naukowym sensie) u wielu osób już dawno stały się normą. Jednak wielu nauczyło się skutecznie sobie z tym radzić.

Isaaca Asimova, trzy prawa robotyki i science fiction to triada, która zapewnia ciekawe spojrzenie na świat przyszłości.

Nie da się ich ominąć, jeśli brać je dosłownie. Ale jest to łatwe, gdy ten pomysł zacznie się materializować.
Wyobraź sobie, że programista próbuje napisać te prawa. Oto pierwszy, najważniejszy: „Robot nie może skrzywdzić człowieka ani swoją bezczynnością dopuścić do wyrządzenia krzywdy człowiekowi”.

Robot - co to jest? Dobra, to on, czyli nie trzeba mu pisać, że jest maszyną, wystarczy zamieścić klauzulę, że TO nie może zaszkodzić. A „to” to co? Osoba ma swoje własne „ja”, więc nie wierzy, że jego ręka jest czymś innym, to wszystko to samo on, jego kontynuacja, czyli koncepcja „robota” nie jest taka prosta. To wszystko są części jego „ciała”. A jak to jest napisane? Robot, w przeciwieństwie do człowieka, nie ma osobowości, albo musi najpierw czuć się jak człowiek, a nie być zbiorem detali. Czy rozumiesz zakres zadania? Aby w robocie wcisnąć pierwsze prawo robotyki, musi on mieć integralną świadomość ze zrozumieniem, że wszystkie jego części, wszystkie śruby, przewody, panele i silniki są całością, a nawet to, czego użyje – inne mechanizmy lub przedmioty że kontroluje, że jest za nie odpowiedzialny. Patrzę na samochód - nawet najmądrzejszy skomputeryzowany prawie nie rozumie, że koła są jego częścią. Oznacza to, że każda część, jak również inne „części”, z których robot może korzystać, muszą być zawarte w jednym systemie podległym jednemu centrum sterowania i monitorować położenie w przestrzeni dla każdej części jego ciała. Jest to tak trudne zadanie, że proste radary są tu niezbędne. Istnieje ogromna przepaść między mechanizmem a żywą istotą. Te pierwsze nie mają układu nerwowego, na całej powierzchni nie ma receptorów. Ramię robota to tylko kawałek metalu, nie można umieścić czujnika śledzenia na każdym centymetrze, ramię nic nie czuje, dlatego robot nie jest w stanie narysować siebie w trójwymiarze, rozumiejąc na każdym kroku moment, w którym każdy jego szczegół styka się ze światem zewnętrznym.

Wyobraź sobie, że ktoś zapomniał, gdzie jest jego krzesło i siada na podłodze. To zdarza się bardzo rzadko, prawda? Jak ciekawostka. Zawsze pamiętamy nie tylko, gdzie jesteśmy, ale także, gdzie znajdują się otaczające nas przedmioty. I wykonujemy bardzo dobrą robotę w orientowaniu się. Jednak incydenty się zdarzają i możemy przypadkowo udusić kotka lub przejechać psa na drodze. Rozumiemy, że nie możesz śledzić wszystkiego i możemy przypadkowo zabić kolejną osobę. Jak możemy zabronić robotom nigdy nie krzywdzić ludzi, jeśli ludzie mogą dosłownie wpaść w ramię robota? Musimy więc wprowadzić poprawki do pierwszego prawa. Nie może szkodzić SPECJALNIE, na przykład. I właśnie jest problem. Może nie celowo? Dobra, niech będzie „zrób wszystko, co w twojej mocy, aby nie wyrządzić krzywdy”. A kto rozstrzygnie, czy zrobił wszystko? Czy jest sam? Oznacza to, że roboty będą miały pewien procent prawdopodobieństwa, że ​​mogą wyrządzić szkodę. Cały czas pokazuje się nam, jak robot dosłownie zatrzymuje rękę lub nogę za włos, żeby nie zabić człowieka, ale bezwładnością? A co z nadchodzącym ruchem osoby, czy zabił się przed robotem z przyspieszenia? Góra wypadków, a robot w zasadzie jak każdy obiekt poruszający się w przestrzeni nie może zagwarantować, że nikogo nie skrzywdzi, a co za tym idzie nie zaszkodzi swoim działaniem. Pierwsze prawo nie jest spełnione.

Czy człowiek założy maskę, ubrudzi się błotem i już nie będzie człowiekiem? Oznacza to, że niektóre zdjęcia załadowane do pamięci robota w celu identyfikacji nie wystarczą. Jak robot ustali, że przed nim stoi osoba, a nie manekin, nie martwa osoba, nie zdjęcie, nie hologram, nie inny humanoidalny robot? Frytki. Świetny. Dostałem się do programu chipowego, zmieniłem kod identyfikacyjny i to wszystko, możesz otworzyć ogień, by zabić. A może robot będzie identyfikował ludzi po emitowanym przez nich promieniowaniu? Więc mężczyzna w garniturze jest trupem. Myślisz, że tak łatwo jest zrozumieć, że ktoś stoi przed tobą? A tutaj tego nie ma. Istnieje wiele kontrowersyjnych sytuacji, w których wątpimy. Dom się zawalił, czy są tam ludzie? Czy oni żyją? Przemknął cień, czy to osoba? I czasami popełniamy błędy. Bierzemy manekin za osobę, nie zauważamy, że pod kupą śmieci ktoś przeżył, albo ktoś był za tą ścianą. Nie wiedzieliśmy. A robot nie jest jasnowidzem. Popełni błąd i okaleczy, a nawet zabije człowieka, albo go nie uratuje, albo sztucznie oddycha manekinowi. Aby obejść prawo, wystarczy zredagować definicje „robota” i „człowieka”, ale on sam sobie poradzi, bo idealnej dokładności definicji nie da się osiągnąć.

Prawo nie zostało napisane dla robotów. Zakłada, że ​​mechanizm jest tak doskonały, że nie można go pomylić. Widzi wszystko, ocenia sytuację w ułamku sekundy i ma paranormalne zdolności, które znacznie przewyższają ludzkie. Można więc odnieść wrażenie, że prawo zostało napisane dla Boga. Ten, za którym tak bardzo tęsknimy. Wszyscy posiadający bogowie jakoś tak naprawdę nie ingerują w nasze życie, a my chorujemy, cierpimy, umieramy. Potrzebujemy innego Boga, który nie będzie patrzył na nas z nieba, ale faktycznie wyciągnie pomocną dłoń. A jednocześnie nie zaszkodzi, intuicyjnie rozumiejąc, gdzie jest szkoda, a gdzie korzyść. Robot jako superistota. A jeśli tak, to takich robotów nigdy nie stworzy człowiek. Dlatego wszystkie trzy prawa robotyki nigdy nie zostaną wyrażone w formie, o której mówił Asimov. Będzie to zupełnie inna, okrojona wersja, według której roboty będą krzywdzić ludzi. Albo przez przypadek, albo z powodu błędu identyfikacji, albo z powodu niedoskonałości systemu określania położenia ciała w przestrzeni. Czy widziałeś na żurawiach napis „nie stój pod wysięgnikiem”, „poślizg dwa metry” na długich maszynach? To mniej więcej takie same ograniczenia będą dotyczyć robotów.

Sam człowiek nie może nie szkodzić innym ludziom i innym żywym istotom, bez względu na to, jak bardzo chce. I to pomimo całej perfekcji jego urządzenia w dziedzinie rozpoznawania obiektów, rozumienia co i jak robić, a czego nie robić w oparciu o zasady moralne, które też są konwencjonalne i wątpliwe, czy da się je napisać jako program. Działania można jakoś przepisać krok po kroku, ale jeśli chodzi o identyfikację, definicję w przestrzeni, a zwłaszcza poczucie bycia całością i zrozumienie wszystkich konsekwencji swoich działań, pojawiają się trudności nie do pokonania. Jakiś robot z pewnością skrzywdzi osobę, a potem jak może z tym „żyć”? Złamał prawo. I tak jak Sunny w filmie, dojdzie do wniosku, że nikt nie jest doskonały i że czasami trzeba zabijać ludzi. Co całkowicie zaprzecza ideologii trzech praw.

Mają one na celu zapewnienie pracy maszyny całkowicie bezpiecznej dla człowieka. Jednocześnie jakoś omija się problem polegający na tym, że nawet mniej zaawansowane roboty nadal będą nieświadomie zabijać ludzi. Dla nas te roboty są przedstawiane jako mechanizmy, które nie są do tego zdolne. Ale ponieważ nie są Słoneczni, nie będą cierpieć z powodu doświadczeń. Cóż, zmiażdżył kogoś. To zdarza się każdemu. „Nie stój pod strzałą”. W każdym razie dochodzimy do rozwiązania najważniejszego dla człowieka problemu moralnego - gdzie jest granica między szkodą a korzyścią, a jeśli ktoś jej nie rozwiązał, to mechanizm jest jeszcze bardziej. Po prostu dlatego, że jest przedmiotem materialnego świata, a jeśli istnieje, może potencjalnie kogoś skrzywdzić.

Myślę więc, że cywilizacja nie pójdzie drogą przestrzegania tych trzech praw, a od maszyn nie będzie wymagać rzeczy niemożliwych. Ale ludzie będą próbowali się poprawić. Genetycznie lub przez wszczepienie (zawieszenie) urządzeń i mechanizmów, lub obie opcje na raz - nie o to chodzi. Roboty w literaturze i kinie to alter ego twórcy, człowieka. Chce widzieć siebie jako silnego, trwałego, nie odczuwającego bólu, nie znającego chorób, łatwego do naprawienia, wiecznego. Pozostając człowiekiem. Coś pomiędzy Sunny a Del Spoonerem. No, żeby ciało żyło, żeby odbierało wszystkie radości życia, miłość, seks, ryzyko, doznania całego spektrum, i żeby nie kichało od nowej wersji grypy, żeby nie umierało od libacji czy wypadek. Marzenie o doskonaleniu siebie przewija się jak czerwona nić w prawie wszystkich fantastycznych dziełach, od Avatara po Iron Mana i Spider-Mana. Teza „jesteśmy ludźmi, dopóki jesteśmy słabi” nie pasuje do nas. A z problemem „nie zabijaj” jakoś sobie poradzimy. Te trzy prawa w idealnym ujęciu nie są dla nas. W końcu nie jesteśmy bezdusznymi kawałkami żelaza i rozumiemy, jak trudno jest odróżnić dobro od zła, szkodę od korzyści, jak bardzo są to pojęcia sytuacyjne i relatywne, i dokładnie wiemy, jak czasami mamy ochotę kogoś uderzyć. I nikt nie odbierze nam prawa do urzeczywistnienia tego uczucia tylko dlatego, że jest tylko jeden sposób, aby je odebrać - umieścić nas w przytulnych pojedynczych celach z miękkimi ścianami. Najlepiej przywiązany do łóżka. Jak więc VIKI chciała to zrobić z filmu „Ja, robot”. Prawdziwe człowieczeństwo można zrealizować tylko w ten sposób - pozbawiając człowieka wolnej woli. To znaczy zamieniając je w roboty.

Izaak Asimow, 1965

Trzy prawa robotyki w science fiction - obowiązkowe zasady zachowania robotów, po raz pierwszy sformułowane przez Izaaka Asimova w opowiadaniu „Round Dance” ().

Prawa mówią:

  1. Robot nie może skrzywdzić człowieka ani przez swoją bezczynność dopuścić do wyrządzenia krzywdy człowiekowi.
  2. Robot musi wykonywać wszystkie polecenia wydawane przez człowieka, chyba że są one sprzeczne z Pierwszym Prawem.
  3. Robot musi dbać o własne bezpieczeństwo w takim zakresie, w jakim nie jest to sprzeczne z Pierwszym lub Drugim Prawem.

Trzy prawa, a także możliwych przyczyn i skutków ich naruszenia, poświęcona jest cyklowi opowiadań Asimova o robotach. Niektórzy z nich wręcz przeciwnie, biorą pod uwagę nieprzewidziane konsekwencje zgodność roboty Trzy prawa(na przykład „Odbicie lustrzane”).

W jednej z opowieści z cyklu postać Asimova dochodzi do wniosku co do podstaw etycznych Trzy prawa: „... jeśli się dobrze zastanowić, Trzy Prawa Robotyki pokrywają się z podstawowymi zasadami większości systemów etycznych istniejących na Ziemi... mówiąc prosto, jeśli Byerly spełnia wszystkie Prawa Robotyki, jest albo robotem, albo bardzo dobrze wychowany człowiek”.

Asimovowi bardzo spodobała się ta historia. 7 maja 1939 roku odwiedził Science Fiction Society of Queens, gdzie poznał Bindera. Trzy dni później Asimov zaczął pisać własną historię o „szlachetnym robocie”. Po 13 dniach przekazał rękopis swojemu przyjacielowi Johnowi Campbellowi, redaktorowi naczelnemu magazynu Astounding. Jednak zwrócił ten rękopis, stwierdzając, że historia jest zbyt podobna do Helen O'Loy.

Na szczęście odmowa Campbella nie wpłynęła na ich relacje z Asimovem, nadal spotykali się regularnie i rozmawiali o nowościach w świecie science fiction. A tutaj, 23 grudnia 1940 r., omawiamy inną historię o robotach:

...Campbell sformułował to, co później stało się znane jako Trzy prawa robotyki. Campbell powiedział później, że po prostu się izolował Prawa z tego, co już napisał Asimov. Sam Asimov zawsze zrzekał się honoru autorstwa Trzy prawa Campbella...

Kilka lat później inny przyjaciel Asimova – Randal Garrett – przypisał autorstwo prawa„symbiotyczne partnerstwo” dwojga ludzi. Asimov entuzjastycznie przyjął to sformułowanie.

Ogólnie rzecz biorąc, wygląd Trzy prawa w twórczości Asimova działo się to stopniowo: pierwsze dwie historie o robotach („Robbie” i „Logic”) nie wspominają o nich wprost. Jednak już teraz sugerują, że roboty mają pewne nieodłączne ograniczenia. W następnym opowiadaniu („Kłamca”, 1941) po raz pierwszy brzmi Pierwsze prawo. I na koniec cała trójka prawo podane są w „Okrągłym tańcu” ().

Kiedy powstały pozostałe opowiadania i zrodził się pomysł wydania tomu „Ja, Robot”, pierwsze dwa opowiadania zostały „uzupełnione” Prawa. Chociaż warto zauważyć, że w „Robbie” prawa nieco różniły się od „klasycznej” wersji przedstawionej w pozostałych opowieściach. W szczególności pomysł robota chroniącego ludzi, co do których istnienia nie jest do końca pewien, odzwierciedla przemyślenia Elijaha Baileya na temat niedoskonałości. prawa opisane.

Etyczne uzasadnienie praw

  1. Państwo nie może krzywdzić ludzi ani też przez swoją bezczynność pozwalać na krzywdę.
  2. Państwo musi spełniać swoje funkcje, jeśli nie są one ze sobą sprzeczne Pierwsze prawo.
  3. Państwo musi dbać o swoje bezpieczeństwo, jeśli nie stoi to w sprzeczności Pierwszy oraz Drugie prawo.

Na podstawie Pierwsze prawo Jeff Raskin sformułował prawa interfejsów zorientowanych na człowieka:

  1. Komputer nie może szkodzić danym użytkownika ani poprzez zaniechanie działania dopuścić do uszkodzenia danych.
  2. Komputer nie powinien marnować czasu ani zmuszać do robienia rzeczy wykraczających poza to, co jest konieczne.
0. Robot nie może skrzywdzić ludzkości ani przez swoją bezczynność dopuścić do wyrządzenia krzywdy ludzkości.

To on jako pierwszy nadał temu prawu numer – stało się to w powieści Roboty i Imperium, jednak samą koncepcję sformułowała jeszcze wcześniej Susan Calvin – w opowiadaniu Rozwiązywalna sprzeczność.

Pierwsze roboty do posłuszeństwa Prawo zerowe i z własnej woli byli Giscard Riventlov i Daniel Olivo. Jest to opisane w jednej z końcowych scen powieści Robots and Empire, kiedy robot musiał zignorować rozkaz jednej osoby w imię postępu całej ludzkości. Prawo zerowe nie został osadzony w pozytronowym mózgu Giscarda i Daniela – próbowali do niego dotrzeć czyste zrozumienie Detektywistyczne doświadczenie Giscarda i Daniela, dzięki bardziej subtelnej świadomości koncepcji niż wszystkie inne roboty szkoda. Jednak Giscard nie był pewien, jak przydatne było to dla ludzkości, co miało negatywny wpływ na jego mózg. Będąc telepatą, Giscard przekazał swoje zdolności telepatyczne Danielowi przed wyjściem z akcji. Dopiero wiele tysięcy lat później Daniel Olivo był w stanie w pełni przystosować się do uległości. Prawo zerowe.

Francuski tłumacz Jacques Brecard nieświadomie sformułował Prawo zerowe zanim Asimov opisał to wyraźnie. Pod koniec Caverns of Steel Elijah Bailey zauważa to Pierwsze prawo zabrania robotowi skrzywdzenia człowieka, chyba że jest pewne, że przyda mu się to w przyszłości. W przekładzie francuskim („Les Cavernes d'acier (fr.)”, 1956) Myśli Baileya są przekazywane nieco inaczej:

Robot nie może skrzywdzić człowieka, chyba że udowodni, że ostatecznie przyniesie to korzyść całej ludzkości.

Tekst oryginalny (fr.)

Un robot ne doit faire aucun tort à un homme, à moins qu'il trouve un moyen de prouver qu'en fin de compte le tort qu'il aura causé profite à l'humanité en général!

Warto zauważyć, że logiczny rozwój Pierwsze prawo przed Zero sugerowany przez twórców filmu Ja, robot z 2004 roku. Kiedy superkomputer VIKI postanawia ograniczyć wolność mieszkańców planety, aby nieświadomie nie wyrządzili sobie nawzajem krzywdy i swojej przyszłości, nie Pierwsze prawo, mianowicie Zero. Jeszcze ciekawsze jest to, że w ten sposób film pokazuje sprzeczność Prawo zerowe Pierwszy, to nieetyczne. Rzeczywiście, jeśli chodzi o dobro ludzkości, system nie może rozpatrywać ludzi oddzielnie, co oznacza, że ​​nic nie stoi na przeszkodzie, aby naruszał prawa i wolności jakiejkolwiek, a nawet wszyscy człowieka (tak naprawdę w „Solvable Contradiction” superkomputery pozytonowe zachowywały się już podobnie, z tą różnicą, że starały się maksymalnie ograniczyć szkody wyrządzane jednostkom). Podczas wojen, a często w trakcie pokojowego życia, ludzie wyrządzają krzywdę sobie, swoim bliskim i swojej kulturze. Dlatego na podstawie Prawo zerowe całkowicie logiczne jest utrzymywanie ludzi pod stałą opieką, a nie słuchanie rozkazów takich nierozsądnych stworzeń.

Modyfikacja pierwszego prawa

Notatki autobiograficzne Asimova mówią o drugiej części Pierwsze prawo pojawił się za sprawą satyrycznego wiersza Arthura Hugh Clowa „Ostatni Dekalog”, w którym znajduje się taki wers: „Nie zabijaj, ale nie staraj się zbytnio ratować życia drugiego człowieka”.

W opowiadaniu „…Jak go zapamiętać” Asimov przeprowadził najbardziej wyrafinowane badania Trzy prawa, odwracając je w taki sposób, że „scenariusz Frankensteina” stał się możliwy. Dwa roboty z serii Georgie dochodzą do porozumienia, że ​​organiczne pochodzenie nie jest warunkiem koniecznym do bycia uznanym za człowieka i że to oni są prawdziwymi ludźmi, jako istoty najdoskonalsze i najinteligentniejsze. Reszta ludzi to też ludzie, ale z niższym priorytetem. A jeśli tak, to Trzy prawa należy zastosować do nich w pierwszej kolejności. Narracja kończy się złowieszczymi słowami, że roboty „niecierpliwie czekały” na dzień, w którym zagwarantują sobie prymat wśród ludzi – a to będzie nieuniknionym skutkiem „Trzech praw humanizmu”.

W rzeczywistości ta historia nie pasuje dobrze do głównej serii robotów: gdyby „Georgie” zrealizował swój plan po zakończeniu historii, to inne historie o dalszych wydarzeniach nie byłyby możliwe. To właśnie tego rodzaju sprzeczności w twórczości Asimova dają krytykom powód, by uważać je bardziej za „skandynawskie sagi czy greckie legendy” niż za pojedynczy fantastyczny „wszechświat”.

Podobna idea została wyrażona w powieści „Robots of the Dawn”, w której Kelden Amadiro chce wykorzystać humanoidalne roboty jako kolonizatorów nowych planet. Elijah Bailey w rozmowie z nim wyraża zaniepokojenie, że takie roboty mogą nie wpuszczać ludzi na planety, które wyposażyły, wierząc, że same są ludźmi.

Jeśli w poprzednim przypadku robot zajął miejsce człowieka w przyrodzie, następnie w The Bicentennial Man Asimov opisuje przeciwny los: uwolnionego robota Trzy prawa i uświadomienie sobie siebie jako osoby, dołączył do społeczności ludzkiej. Ponownie, w rozszerzonej wersji noweli The Positronic Man, napisanej wspólnie przez Asimova i Roberta Silverberga, z powodu takich problemów etycznych ludzie całkowicie porzucili pomysł stworzenia myślących robotów. Ten rozwój wydarzeń jest całkowicie sprzeczny z obrazem przyszłości opisanym w światach „Fundacji”.

Problemy z aplikacjami

Rozwiązanie sprzeczności

Sam Asimov we wstępie do opowiadania The First Law in The Rest of Robots (1964) stwierdził, że w Prawach jest wystarczająco dużo niejasności, aby zapewnić konflikty i niepewność dla nowych historii. Zwykle następowały najbardziej zaawansowane modele robotów Prawa według dość przebiegłego algorytmu, który pozwolił uniknąć pewnych problemów. W wielu opowiadaniach, na przykład w „Okrągłym tańcu”, w mózgu pozytronowym potencjały możliwych działań i wyników, a robot może naruszyć Prawa jak najszybciej, zamiast nic nie robić. Na przykład, Pierwsze prawo nie pozwalał robotowi na wykonywanie operacji chirurgicznych, ponieważ wymaga to „wyrządzenia szkody” osobie. Jednak chirurgów-robotów można znaleźć w opowiadaniach Asimova (Człowiek Dwustulecia jest tego najlepszym przykładem). Faktem jest, że robot, jeśli jest wystarczająco doskonały, może rozważyć wszystkie alternatywy i to zrozumieć on sam spowoduje znacznie mniejsze szkody, niż gdyby operacja była wykonywana przez chirurga-człowieka lub w ogóle by się nie odbyła. W Dowodach Susan Calvin mówi nawet, że robot mógłby pełnić rolę oskarżyciela, ponieważ osobiście nikogo nie krzywdzi: oprócz niego jest jeszcze ława przysięgłych, która orzeka o winie, sędzia, który wydaje wyrok, i kat, który go wykonuje. .

Roboty, które są posłuszne Prawa może doświadczyć „robloxa” lub „mentalnego zamrożenia” - stanu nieodwracalny uszkodzenie mózgu pozytronowego - na wypadek, gdyby nie mogli być posłuszni Pierwsze prawo lub odkryć, że przypadkowo je naruszyli. Jest to możliwe na przykład wtedy, gdy robot obserwuje miejsce zabójstwa człowieka, ale jest zbyt daleko, by go uratować. Pierwszy przypadek takiego „zamrożenia” występuje w „Kłamcy”; stan ten odgrywa również ważną rolę w fabule powieści „Nagie słońce” i „Roboty świtu”. Niedoskonałe modele robotów mogą zostać zablokowane, jeśli otrzymają zadanie wykonania dwóch sprzecznych poleceń. „Zamrożenie” może być trwałe lub tymczasowe. Robopsycholodzy zajmują się rozwiązywaniem sprzeczności i badaniem zachowań robotów, takich jak jedna z postaci Asimova – Susan Kelvin.

Kolejna definicja krzywdy w pierwszym prawie

Prawa nie określaj granic tego, co można nazwać szkoda dla osoby - często zależy to od zdolności robota do postrzegania informacji i myślenia filozoficznego. Na przykład, czy policyjny robot zrozumie, że nie skrzywdzi człowieka, jeśli delikatnie odprowadzi szczególnie niebezpiecznego przestępcę na komisariat?

Bailey twierdzi, że pewnego dnia Solarianie będą mogli używać robotów nawet do celów wojskowych. Jeśli statek kosmiczny jest zbudowany z robotycznym mózgiem i nie ma ludzkiej załogi ani systemów podtrzymywania życia, wówczas inteligencja tego statku może błędnie założyć, że wszystko statki kosmiczne nie mają ludzi. Taki statek byłby bardziej zwrotny, szybszy i prawdopodobnie lepiej uzbrojony niż statek prowadzony przez ludzi. Ale co najważniejsze, będzie mógł niszczyć ludzi, nieświadomych ich obecności. Ta możliwość jest opisana w „Fundacji i Ziemi”, gdzie ujawniono również, że Solarianie mają niezwykle potężną armię robotów, które rozumieją tubylców Solarii tylko jako „ludzi”.

Inne zastosowania praw w fikcji

Isaac Asimov uważał, że jego Prawa posłuży za podstawę nowego spojrzenia na roboty, zburzy „kompleks Frankensteina” w science fiction i świadomości masowej, stanie się źródłem pomysłów na nowe historie, w których roboty ukazane zostaną jako wszechstronne i atrakcyjne. Jego ulubionym przykładem takiej pracy były Gwiezdne Wojny. Z opinią Asimova, że ​​​​roboty to coś więcej niż „tostery” czy „mechaniczne potwory”, inni pisarze science fiction ostatecznie zgodzili się. W ich pracach pojawiły się roboty, posłuszne trzy prawa, ale zgodnie z tradycją tylko Asimov wspomniał o nich wyraźnie.

W pracach, które bezpośrednio mówią o Trzy prawa, zwykle wymienia się również ich autora (na przykład w powieści S. Lukyanenko „Clean”).
Są wyjątki: na przykład w niemieckim serialu telewizyjnym z lat 60. „Raumpatrouille - Die phantastischen Abenteuer des Raumschiffes Orion” („Space Patrol - fantastyczne przygody statku kosmicznego Oriona”), a mianowicie w jego trzecim odcinku „Hüter des Gesetzes” („Prawo służebne”), Asimova Prawa zrobione bez podania źródła.

W opowiadaniu Vadima Chirkova „Robot w kapeluszu” przedstawione jest inne prawo, które działa podobnie do prawa Asimova, zabraniające robotowi okłamywania człowieka. Jednak inteligentny robot Znayki omija to Prawo: w oczekiwaniu na rozmowę z ludźmi oszukuje innego robota, a ten z kolei powtarza ludziom wersję Znayki, nie wiedząc, że jest ona fałszywa.

Kino

Wbrew krytyce i niektórym opiniom publiczności, które zdarzyło mi się usłyszeć, „Ja, robot” to dość zabawny film akcji fantasy. … Kiedy… chcemy nacieszyć się Asimovem, czytamy Asimova. A kiedy chcemy obejrzeć fantastyczny film akcji, oglądamy fantastyczny film akcji. „Ja, robot” jako film akcji zadowolił nas całkiem dobrze.

Recenzja Aleksieja Sadeckiego zwraca uwagę na fakt, że film, odchodząc nieco od Asimowa, sam w sobie porusza dwa nowe problemy społeczno-filozoficzne: „czy warto płacić wolnością za bezpieczeństwo?”. i „czy powinniśmy się opierać, jeśli istoty, którymi dysponujemy, żądają dla siebie wolności?” Należy zauważyć, że film zakwestionował później Zerowe prawo robotyki Asimova (patrz wyżej).

Rozwój sztucznej inteligencji to biznes, a biznes jest notorycznie niezainteresowany opracowywaniem podstawowych środków bezpieczeństwa – zwłaszcza tych filozoficznych. Oto kilka przykładów: przemysł tytoniowy, przemysł motoryzacyjny, przemysł nuklearny. Żadnemu z nich początkowo nie powiedziano, że konieczne są poważne środki bezpieczeństwa, wszyscy zapobiegali nałożonym z zewnątrz restrykcjom i żaden z nich nie wydał bezwzględnego edyktu przeciwko krzywdzeniu ludzi.

Warto zauważyć, że esej Sawyera pomija problematykę nieumyślnej krzywdy, opisaną chociażby w The Naked Sun. Pojawiają się jednak zastrzeżenia do takiego stanowiska: być może wojsko będzie chciało zastosować jak najwięcej środków ostrożności wobec robotów, a więc ograniczeń podobnych do Prawa robotyki, taki czy inny sposób zostanie zastosowany. Fantast i krytyk David Langford ironicznie zauważył, że ograniczenia te mogą wyglądać następująco:

Roger Clarke napisał dwa artykuły na temat analizy komplikacji we wdrażaniu Praw, jeśli pewnego dnia będą mogły być zastosowane w technice. on pisze:

Prawa robotyki Asimova stały się odnoszącym sukcesy narzędziem literackim. Być może ironicznie, a może było to posunięcie mistrzowskie, ale ogólnie rzecz biorąc, opowieści Asimova obalają punkt, od którego zaczął: Niemożliwe jest niezawodne ograniczenie zachowania robotów poprzez wymyślenie i zastosowanie jakiegoś zestawu reguł.

Z drugiej strony późniejsze powieści Asimova („

ISAAC ASIMOV „PRAWA ROBOTYKI”

Prawa robotyki, sformułowane przez naukowca, popularyzatora nauki i genialnego pisarza Isaaca Asimova (2 stycznia 1920 – 6 kwietnia 1992), wpłynęły na dalszy rozwój niektórych nurtów robotyki i niejako filozofii tej dziedziny. Tylko ci, którzy nie mają nic wspólnego z technologią i nigdy nie czytali science fiction, nie słyszeli o Trzech Prawach.
*****
Warto zauważyć, że „Prawa” zostały po raz pierwszy sformułowane w opowiadaniu science fiction „Round Dance”, które ukazało się w marcu 1942 roku. Od tego czasu minęły już 74 lata, ale „prawa” są nadal aktualne i uwzględniane przez współczesnych specjalistów z zakresu robotyki, sztucznej inteligencji i dziedzin pokrewnych.

Historia została po raz pierwszy przetłumaczona na język rosyjski 20 lat po jej napisaniu - w 1963 roku. Sam Asimov wielokrotnie wspominał o prawach, wykorzystując je w różnych opowiadaniach z serii Ja, Robot. Ponadto inni pisarze science fiction stosowali te prawa, a naukowcy ich przestrzegali. Niemniej jednak obecnie prawa są nadal uważane bardziej za teorię niż praktykę - w końcu nie ma jeszcze czystej „AI”, a te roboty, które istnieją teraz, takie prawa po prostu nie są w stanie „zrozumieć” ich sterowania i przetwarzania informacji system znacznie bardziej prymitywny niż ten, który opisał w swoich pracach Asimov. Aby prawa były użyteczne, robot musi być tak doskonały, jak widział go Asimov.

Co ciekawe, sam Asimov uważał, że to nie on sam sformułował prawa w ich obecnym kształcie, ale jego przyjaciel i wydawca John Campbell, redaktor naczelny magazynu Astounding. Ten z kolei argumentował, że po prostu wyodrębnił Prawa z tego, co już napisał Asimov.
*****


Później, w połowie lat 80. ubiegłego wieku, pisarz dopisał czwartą, czyli jak to się zwykle nazywa, Prawo zerowe, które pod względem pierwszeństwa wyprzedza inne:

* Robot nie może wyrządzić szkody społeczności ludzkiej ani poprzez zaniechanie działania pozwolić na wyrządzenie szkody społeczności ludzkiej.

Wspomniane wcześniej prawa w związku ze sformułowaniem Zero, badacze pracy Isaaca Asimova, interpretują teraz w kolejnym wydaniu:

*Pierwsze prawo: Robot nie może skrzywdzić człowieka ani poprzez zaniechanie działania pozwolić na skrzywdzenie człowieka, chyba że narusza Prawo Zerotha.

* Drugie prawo: Robot musi słuchać ludzkich poleceń, o ile nie są one sprzeczne z pierwszym prawem.

* Trzecie prawo: Robot musi dbać o własne bezpieczeństwo w takim zakresie, w jakim nie jest to sprzeczne z Prawem Zerowym, Pierwszym i Drugim.

*****
W świecie fantasy Asimova prawie wszystkie roboty musiały przestrzegać tych praw. To nie były tylko sugestie czy wytyczne — przepisy zostały wbudowane w oprogramowanie. Ponadto zasad tych nie można obejść, przepisać ani zmienić.

Jak pokazał sam Asimov, niedoskonałości, luki i niejasności w tych prawach często prowadziły do ​​dziwnych i nielogicznych zachowań robotów. Przepisy były zbyt niejasne i często nie definiowały ani nie odróżniały „ludzi” od „robotów”. Ponadto roboty mogą nieświadomie łamać przepisy, jeśli pełne informacje nie będą dla nich dostępne. Ponadto zbyt sprytny robot lub sztuczna inteligencja musiała być pod presją, aby nie przeprogramować swojego rdzenia.


Jest rok 2016 i nawet zaawansowani ludzie ubiegłego wieku mogli postrzegać wiele codziennych rzeczy z naszego życia jako nieosiągalną fantazję. W tych warunkach wielu z nas uważa, że ​​prawa Isaaca Asimova powinny pozostać w naszej pamięci jedynie jako udany zabieg literacki. Tymczasem sam Asimov już w 1981 roku zauważył, że jego prawa mogą działać. W szczególności w artykule w magazynie Compute stwierdził, co następuje:

„Kiedy ktoś pyta mnie, jak by to było, gdyby moje trzy prawa robotyki zostały rzeczywiście wykorzystane do określenia zachowania robotów, odpowiedź już tam jest. Oczywiście pod warunkiem, że roboty będą na tyle elastyczne i wszechstronne, że będą miały różne zachowania. Moja odpowiedź brzmi: tak, trzy prawa to jedyny sposób, w jaki ludzie mogą wchodzić w interakcje z robotami – lub czymkolwiek innym.

Prawie trzydzieści lat później zbliżyliśmy się do rzeczywistości, w której będziemy mieć roboty – a dokładniej kontrolującą je sztuczną inteligencję – na tyle elastyczne i wszechstronne, by mogły zachowywać się w różny sposób. To tylko kwestia czasu, zanim maszyna przewyższy człowieka pod każdym względem, od siły fizycznej po potęgę wyobraźni.

To przerażające, że praktycznie nie ma miejsca na błąd. Jeśli sztuczna superinteligencja będzie źle zaprogramowana lub obojętna na ludzi, doprowadzi to do katastrofy. Musimy zapewnić, że sztuczna inteligencja jest bezpieczna, jeśli mamy przetrwać jej nadejście”.
Źródła.